PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

w0mbat
2016-03-24, 12:10:38
Ich habe das Gefühl das Nvidia wieder eine bequeme Situation vor sich haben wird.

Wieso wieder? Sowohl die 380er als auch die 390er schlagen ihre nV Konkurrenten. Nur die 980Ti ist aktuell zu empfehlen.

Locuza
2016-03-24, 12:12:28
Sie schlagen die Konkurrenz so sehr, dass Nvidia am Rande vom Quasimonopol steht.

Nakai
2016-03-24, 12:14:47
Also ist die 36 CU GPU doch Ellesmere / Polaris 10:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10958193#post10958193


Weitere Benchmarks: http://ranker.sisoftware.net/show_device.php?q=c9a598ae99dd9ba1e2d6f097aa87b690e2dfefc9a09dac8ae2dfeaccb489b8 9efb9ea393b5c6fbc3&l=en




-------
Fragt sich nur was das für eine Next Gen GPU ist AMD 67FF:C8:
https://compubench.com/compare.jsp?benchmark=compu15d&did1=28432110&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+67FF%3AC8&D2=AMD+Radeon+R7+260X

Der Leistung nach wieder irgendetwas um die 384SPs... Vielleicht eine lizenzierbare Polaris iGPU für SoCs?



Sonst 2.5 Mal auf keinen Fall LOL :D Ist zwar nur Bauchgefuehl aber ich erwarte irgendwo um die 30% hoehere Einheits-Anzahlen, eine um einiges hoeheren Leistungsunterschied zur heutigen Generation aber stets unter +100% im realen Durchschnitt und natuerlich sehenswert niedrigeren Verbrauch.

Du Schlingel. ;)


Die zusätzliche Performance wird durch das deutlich bessere Frontend kommen. Die CUs werden wohl nur auf Performance/Watt getrimmt sein und bessere Stromsparfeatures inkludieren. Das Backend als MCs/L2-Cache wird auf GDDR5X upgedatet, weswegen eine höhere Nummerierung.

Polaris10: ~2560 SPs
Polaris11: 1024~1280 SPs

2560 klingen schon besser als 2304. 36 CUs sind herrlich ungerade, aber natürlich möglich (4 x 9 [3x3 oder 2x4+1x1]). 40 CUs wären besser (4 x 10 [2x4+1x2 oder 2x3+1x4]).

dargo
2016-03-24, 12:15:10
@Locuza

Die Wirkungen zeigen sich doch erst. Von heute auf morgen kannst du Marktverhältnisse nicht ändern. ;) Das mit dem quasi Monopol ist auch übertrieben wenn man sich die Steamstatistik anschaut. Im Gamingbereich ist es völlig wurscht ob im irgendeinem Office-PC ne kleine low end GT drin steckt.

Kartenlehrling
2016-03-24, 12:27:14
Das liegt daran weil Nvidia die Entwicklung nach ihren Wünschen diktieren können.
Ich habe erst diese Woche nochmal die Geschichte mit dem Catalyst AI und HDR-FP16 Rendering nachgelesen.
Und wenn man das heute nochmal Überdenkt wird daraus ein Schuh, und man sieht wie geschickt Nvidia Entwicklung bremst oder forcieren können.

iuno
2016-03-24, 12:27:59
@Locuza: wir reden hier aber wie gesagt ueber die Technik. Was sind das also wieder fuer Vergleiche? Tahiti war technisch nicht unterlegen. Hawaii war (und ist heute noch) der beste HPC Chip sobald mit doppelter Genauigkeit gearbeitet wird und im Gaming GK110 auch ebenbuertig (heute typischerweise staerker). Dass AMD Marktanteile verloren hat, hatte andere Gruende

Hat man von ROVs ueberhaupt schon was gesehen?
CV laesst sich in Software loesen. Laut der Nvidia Praesentation zu HFTS war das iirc. nicht mal so unglaublich schlimm, solange man es mit den primitives nicht uebertreibt und evtl. hat AMD da durch AC noch "Luft". Schlimm wird es erst, wenn es exzessiv genutzt wird, etwa von GameWorks Kram und dann sind wir schon wieder dabei, nicht mehr ueber die Technik zu sprechen.

Locuza
2016-03-24, 12:30:53
Die Wirkungen zeigen sich doch erst. Von heute auf morgen kannst du Marktverhältnisse nicht ändern. ;) Das mit dem quasi Monopol ist auch übertrieben wenn man sich die Steamstatistik anschaut. Im Gamingbereich ist es völlig wurscht ob im irgendeinem Office-PC ne kleine low end GT drin steckt.
Natürlich meine ich die aktuellen Neuverkäufe und den damit verbundenen Geldstrom.
AMD hat praktisch keine Finanzreserven und ein robuster Geldstrom ist essentiell um weiter zu wachsen und R&D zu finanzieren.

Ein Großteil vom Marketshare sollte AMD dank der erhöhten Effizienz zurückgewinnen.
Solange sich AMD bei den OEM-Deals nicht zu dämlich anstellt, sollte AMD wenigstens hier wieder auf robusten Beinen stehen.

Beim HPC-Markt kann AMD interessante Dinge verkaufen, vor allem die HPC-APU sieht nett aus, aber auch hier, AMD ist praktisch gezwungen mehr zu gewinnen.

Wenn man zu lange den Verlierer spielt, erhöht sich die Wahrscheinlichkeit auf ewig der Verlierer zu bleiben.

Capsaicin war by the way wieder eine peinliche Vorstellung.
Das hat mich nicht davon überzeugt, dass AMD im Gaming-Markt souverän und dick auftragen wird in der Zukunft.

Unicous
2016-03-24, 12:37:51
Über das S|A Forum gibt es im Treiber Hinweise, dass Polaris 11 ein 128-Bit Interface hat und Polaris 10 256-Bit.

http://semiaccurate.com/forums/showpost.php?p=258453&postcount=513

+ case BW_CALCS_VERSION_ELLESMERE:
+ vbios.number_of_dram_channels = 8;
+ vbios.dram_channel_width_in_bits = 32;
+ vbios.number_of_dram_banks = 8;

+ case BW_CALCS_VERSION_BAFFIN:
+ vbios.number_of_dram_channels = 4;
+ vbios.dram_channel_width_in_bits = 32;
+ vbios.number_of_dram_banks = 8;


und möglicherweise mit 6Hz taktet.

+ vbios.high_yclk = bw_int_to_fixed(6000);

https://cgit.freedesktop.org/~agd5f/linux/diff/drivers/gpu/drm/amd/dal/dc/calcs/bandwidth_calcs.c?h=drm-next-4.7-wip-polaris&id=e9a175877d37a6ccaa3f5776c86bc655a3321e9b

Locuza
2016-03-24, 12:41:24
@Locuza: wir reden hier aber wie gesagt ueber die Technik. Was sind das also wieder fuer Vergleiche? Tahiti war technisch nicht unterlegen. Hawaii war (und ist heute noch) der beste HPC Chip sobald mit doppelter Genauigkeit gearbeitet wird und im Gaming GK110 auch ebenbuertig (heute typischerweise staerker). Dass AMD Marktanteile verloren hat, hatte andere Gruende

Hat man von ROVs ueberhaupt schon was gesehen?
CV laesst sich in Software loesen. Laut der Nvidia Praesentation zu HFTS war das iirc. nicht mal so unglaublich schlimm, solange man es mit den primitives nicht uebertreibt und evtl. hat AMD da durch AC noch "Luft". Schlimm wird es erst, wenn es exzessiv genutzt wird, etwa von GameWorks Kram und dann sind wir schon wieder dabei, nicht mehr ueber die Technik zu sprechen.
Ich habe rhetorisch nachgefragt, auf Basis der Technik welche man ungefähr vermuten könnte.
Tahiti war dem GK110 unterlegen, Nvidia hat große Deals damit abgegrast.
Hawaii kam später und ist in dem Aspekt ein tolles Angebot, aber in der Konstellation müsste es AMD wieder schaffen für die nächste Runde.
Schafft das Vega 11?
Weil Vega 10 vs. GP100 sieht eher wie Tahiti vs. GK110 aus.

Zu ROVs und CR gibt es weiterhin kein Update. Ich tippe aber tendenziell dagegen bei Polaris.
Mit Intel und Nvidia gibt es dann zwei Unternehmen die in dem Aspekt gegenüber AMD Produkten Druck machen würden, falls es AMD nicht unterstützt.
Das sendet natürlich keine positiven Signale an die Randgruppe, die vor allem wir darstellen.
Und wenn das Nvidia exploitet, dann ist das dennoch Pech auf Seiten der Technik.

iuno
2016-03-24, 13:04:00
Ich habe rhetorisch nachgefragt, auf Basis der Technik welche man ungefähr vermuten könnte.
Tahiti war dem GK110 unterlegen, Nvidia hat große Deals damit abgegrast.
Hawaii kam später und ist in dem Aspekt ein tolles Angebot, aber in der Konstellation müsste es AMD wieder schaffen für die nächste Runde.
Schafft das Vega 11?
Weil Vega 10 vs. GP100 sieht eher wie Tahiti vs. GK110 aus.
Tahiti war GK110 unterlegen, weil das ja wohl ein komplett anderes Segment ist. Ist das jetzt pures Getrolle oder wirklich ernst gemeint? Tahiti war fuer Consumer die Konkurrenz zu GK104 und im Profi-Markt konkurrenzlos. Hawaii war dann in beiden Bereichen die Konkurrenz zu GK110.

550 mm² vs 365 mm²; 7,1 vs 4,3 Mrd Transistoren; Launch Preis: 1000 $ vs 500 $ (consumer) bzw. 3200 $ vs 2500 $ (pro) - was soll das fuer ein Vergleich sein?

Ich glaube auch nicht, dass Polaris CR und ROV hat, aber wie sich das auswirkt muss man wie gesagt abwarten.

Ja, Vega/Greenland mit 4k SP wird kein Gegner fuer einen GP100 mit 6k (?) SP, insofern stimmt immerhin das. Vermutlich ist das dann aber erst der kleine Vega oder es gibt halt (vorerst?) kein Gegenstueck zum GP100.
Das passt dann auch immerhin mal wieder zum Thema, also Schluss mit dem Rest, der ist 100% OT.

mczak
2016-03-24, 14:33:02
Wo hat larabel überhaupt die PCI IDs her? Die ergeben wenig Sinn. 5 IDs für p11? Und die beiden angeblichen für p10 sind eigentlich zu weit auseinander. Und zwei fallen komplett aus der Reihe (0x07xy

Die stammen aus dem Open-Source Treiber und damit direkt von AMD. Wenn die sich nicht vertan haben (kann vorkommen, ist allerdings unwahrscheinlich) müssten die also stimmen. In die Nummern irgendwas hineinzuinterpretieren halte ich allerdings für sehr gewagt.

iuno
2016-03-24, 14:45:39
Ja, habe es inzwischen gefunden (konnte zu dem Zeitpunkt wie gesagt nicht nachsehen). Larabel hat wie erwartet Unsinn aufgeschrieben/kopiert, bei den beiden fehlt einfach eine 6 (0x67..).
Da hat es auch sonst viele IDs, die man (wir) sonst noch nie zu Gesicht bekommen hat, etwa 12 IDs allein fuer Hawaii (bekannt sind 2 fuer PRO/XT sowohl 200 als auch 300er Serie). Dementsprechend kann man (ich) natuerlich nichts hineininterpretieren.

mczak
2016-03-24, 15:21:16
Ja, habe es inzwischen gefunden (konnte zu dem Zeitpunkt wie gesagt nicht nachsehen). Larabel hat wie erwartet Unsinn aufgeschrieben/kopiert, bei den beiden fehlt einfach eine 6 (0x67..).
Ach so ich hab's natürlich nicht überprüft :smile:

Da hat es auch sonst viele IDs, die man (wir) sonst noch nie zu Gesicht bekommen hat, etwa 12 IDs allein fuer Hawaii (bekannt sind 2 fuer PRO/XT sowohl 200 als auch 300er Serie). Dementsprechend kann man (ich) natuerlich nichts hineininterpretieren.
Gerade bei Hawaii sind wohl noch einige dabei für Workstation- und Serverversionen (und bei Polaris wohl auch).

Unicous
2016-03-24, 15:25:46
Larabel ist fast noch schlimmer als WTF-Tech. Der haut am Tag unzählige Artikel raus, Qualität meist fehl am Platz. Eine Einordnung der Ergebnisse gibt es meist auch nicht, dafür aber viel FUD, der dann in den Kommentaren erst berichtigt wird. Ein Update oder gar Korrektur von Larabel gibt es meist nicht, oder wenn dann nur in einem neuen Artikel.:rolleyes:

iuno
2016-03-24, 15:48:40
Die Idee hatte ich auch (kurz) aber direkt wieder verworfen:
Polaris 10 (2 ID) koennte in Server/Workstations kommen, 11 (6 IDs) wohl eher nicht. Man koennte es sich dann stattdessen durch mobile Ableger erklaeren, aber wie gesagt versuche ich es gar nicht erst ;) Mullins, Kabini, Kaveri gibt es z.B. auch ganz oft mehr IDs als APUs. Das koennten ja auch Revisionen seit den ersten Samples an sein...

ist im Grunde auch egal, ich dachte nur, dass man vielleicht auf eine XTX oder LE schliessen kann, kann man nicht -> egal


Ja, phoronix ist eigentlich unglaublich. Die Seite ist einfach furchtbar, man findet nichts und das Forum ist auch Schrott. Testmethodik ist sehr fragwuerdig, oft wird einfach Unsinn getestet und die News kann man komplett vergessen.
Er ist halt leider der einzige, der ueberhaupt mehr oder weniger regelmaessig Linux Benchmarks macht und hat daher eine hohe Reichweite. Er sieht sich wohl auch auf einem Level mit den anderen Tech-Seiten, beschwert sich dass er keine Test-Samples bekommt und nicht zu Veranstaltungen eingeladen wird. Er fordert auch zuletzt staendig Spenden :rolleyes:

Props fuer die PTS, aber Phoronix selbst taugt einfach nicht.

mczak
2016-03-24, 16:36:20
Die Idee hatte ich auch (kurz) aber direkt wieder verworfen:
Polaris 10 (2 ID) koennte in Server/Workstations kommen, 11 (6 IDs) wohl eher nicht.

Also Server nicht aber ich sehe nicht was gegen WS Versionen spricht. FirePro geht zur Zeit runter bis sogar Mars Chip.

Man koennte es sich dann stattdessen durch mobile Ableger erklaeren, aber wie gesagt versuche ich es gar nicht erst ;) Mullins, Kabini, Kaveri gibt es z.B. auch ganz oft mehr IDs als APUs. Das koennten ja auch Revisionen seit den ersten Samples an sein...

ist im Grunde auch egal, ich dachte nur, dass man vielleicht auf eine XTX oder LE schliessen kann, kann man nicht -> egal

Ja mir ist auch nicht wirklich klar wann ein Produkt dann eigentlich eine andere pci-id bekommt. Aber hätte man je 2 "normale" Versionen (Vollausbau und leicht abgespeckt), jeweils für Desktop und Mobil, dazu noch je eine FirePro wäre man schon bei 6 IDs. Wobei das prinzipiell alles auch mit bloss einer pci-id gehen würde...

AMD hat übrigens selbst eine Liste der von Catalyst unterstützten PCI-IDs veröffentlicht, man braucht die also nicht aus dem Treiber zu extrahieren :P:
http://developer.amd.com/resources/hardware-drivers/ati-catalyst-pc-vendor-id-1002-li/
Ob die wirklich vollständig ist bin ich aber nicht so sicher.

AnarchX
2016-03-24, 17:28:59
-------
Fragt sich nur was das für eine Next Gen GPU ist AMD 67FF:C8:
https://compubench.com/compare.jsp?benchmark=compu15d&did1=28432110&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+67FF%3AC8&D2=AMD+Radeon+R7+260X

Der Leistung nach wieder irgendetwas um die 384SPs... Vielleicht eine lizenzierbare Polaris iGPU für SoCs?

Auch ein Baffin/P11:
{0x1002, 0x67FF, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_BAFFIN},
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/amdgpu/amdgpu_drv.c?h=drm-next-4.7-wip-polaris&id=584b875e489af71d8ceb173c64d8f7af3a082b0e

Die "Weihnachtsgans" hat laut Details 16 CUs mit bis zu 1GHz:https://compubench.com/device.jsp?benchmark=compu15d&os=Windows&api=cl&D=AMD+67FF%3AC8&testgroup=info

Vielleicht ein Power-Trottling-Experiment.

fondness
2016-03-24, 17:46:25
Okay, also

Polaris11 / Baffin:
- 1024 SPs
- 128 bit SI GDDR5
- <150mm² 14nm FinFET GF

Polaris10 / Ellesmere:
- 2304 SPs
- 256 bit SI GDDR5
- <250mm² 14nm FinFET GF

Vega10 / Greenland:
- 4096 SPs
- (2048 bit?) HBM2
- ~350mm² 16nm FinFET TSMC

Vega11:
- ~6144 SPs?
- (4096 bit?) HBM2
- >=500mm² 16nm FinFET TSMC

Aber wer weiß, ob die Leaks überhaupt einen full-Chip entsprechen und nicht nur teildekativiert sind. Mit 2304 SPs würde Polaris 10 kaum einen Fiji erreichen.

Gipsel
2016-03-24, 18:00:58
Mal kurz durchgewischt. Ich bitte dringend darum, beim Thema zu bleiben.

Danke.

Hübie
2016-03-24, 18:09:31
Wer weiß, fondness. Wobei man jetzt erst mal ein Szenario dafür definieren muss. Ist denn eigentlich schon klar das Vega ebenfalls zwei Chips beherbergt? Hab die News ehrlich gesagt nicht so verfolgt. :redface:

fondness
2016-03-24, 18:10:21
Ist denn eigentlich schon klar das Vega ebenfalls zwei Chips beherbergt?

Ja, das kam offiziell von AMD.

Nakai
2016-03-24, 18:11:25
Wenn man Maxwell-Effizienz bringt, wäre das sehr nett. P10 sollte schon 40 CUs mit sich bringen und keine 36.

Pick
2016-03-24, 18:26:20
Wieso? Macht doch Sinn. Wurde ja erwähnt, Polaris scheint auf dem selben Grafik-IP Level wie VI (gcn 1.2, oder eben 8) zu sein. Wirkliche GCN-Aenderungen kommen erst mit Vega/Greenland. Da werden wahrscheinlich dann einige enttäuscht sein was die Unterstützung von neuen Features angeht - ich erwarte da jedenfalls nichts mehr für Polaris.

Okay
http://abload.de/img/765q9rae.jpg

AffenJack
2016-03-24, 18:42:55
Aber wer weiß, ob die Leaks überhaupt einen full-Chip entsprechen und nicht nur teildekativiert sind. Mit 2304 SPs würde Polaris 10 kaum einen Fiji erreichen.

Wer sagt, dass P10 überhaupt Fiji erreichen kann? Ich denke da eher an 390X Leistung und das Problem sehe ich weniger nur in den Shadern, sondern in der Speicherbandbreite die für mehr eh nicht ausreicht, solange man nicht GDDR5X benutzt.
Es wäre für mich eher merkwürdig wenn der 3te Chip einer Reihe (Ich zähle Vega und Polaris aufgrund des kurzen Abstands mal zusammen und sortiere beide Vega höher ein) den schnellsten des vorherigen Prozesses erreichen soll. Das gabs noch nie.

dargo
2016-03-24, 18:50:24
Es wäre für mich eher merkwürdig wenn der 3te Chip einer Reihe (Ich zähle Vega und Polaris aufgrund des kurzen Abstands mal zusammen und sortiere beide Vega höher ein) den schnellsten des vorherigen Prozesses erreichen soll. Das gabs noch nie.
Das stimmt zwar, aber so eine lange Durststrecke zwischen 28nm und 14/16nm gabs auch noch nie.

iuno
2016-03-24, 19:33:45
Es wäre für mich eher merkwürdig wenn der 3te Chip einer Reihe (Ich zähle Vega und Polaris aufgrund des kurzen Abstands mal zusammen und sortiere beide Vega höher ein) den schnellsten des vorherigen Prozesses erreichen soll. Das gabs noch nie.
So kann man das denke ich nicht festmachen, vor allem weil es keine 'ganzen Lineups' gibt. Pitcairn ist auch schneller als Cayman, nach Hawaii und Tahiti so gesehen die Nr. 3, nimmt man Fiji dazu sogar nur die 4. Gut, Cayman war nicht besonders gut, das ist Fiji aber auch nicht.
Ich bin mir mittlerweile nicht mehr so sicher, ob P10 nicht Fiji erreichen kann. Von der Effizienz der Rechenwerke mal abgesehen muss schon auch sehen, dass AMD ggue. Nvidia aktuell ein guter zweistelliger Prozentsatz an Takt fehlt. Hawaii muss fuer P10 machbar sein und in den meisten Spielen fehlen dann ja aktuell nur noch so ~20% auf Fiji

Nakai
2016-03-24, 20:08:58
Ich würde nach Tonga auch nicht erwarten, dass wir sofort eine XT-Version sehen. Wenn P11 eher im Mobile-Segment kommt, wird man versuchen die guten Dies hierfür zu verwenden. Desktop bekommt Ramsch.

Die Speichercontroller bei P10/11 werden wohl mehr Cache und Support für GDDR5X haben. Solange GDDR5X nicht da ist, macht es auch keinen großen Sinn, den Chip voll auszufahren.

fondness
2016-03-24, 20:22:06
Naja bei Tonga hatte das andere Gründe, immerhin kam selbst Fiji sofort aus Vollausbau.

dargo
2016-03-24, 20:25:53
Von der Effizienz der Rechenwerke mal abgesehen muss schon auch sehen, dass AMD ggue. Nvidia aktuell ein guter zweistelliger Prozentsatz an Takt fehlt.
Sorry, aber wen interessiert der Takt? Am Ende zählt was hinten rauskommt, völlig egal ob GPU A 20% schneller taktet als GPU B.

mczak
2016-03-24, 20:38:58
Okay
http://abload.de/img/765q9rae.jpg
;D. Naja ganz so schlimm ist es nicht. Die Multimedia Cores z.B. haben rein gar nichts mit dem Grafik-IP-Level zu tun - ich habe ja die UVD und VCE-Versionen erwähnt, die sind definitiv neuer. Auch die anderen Aenderungen liegen fast alle durchaus drin, wobei ich da bei "new" nicht gleich annehmen würde dass da alles neu ist. Mit Ausnahme der 4th gen gcn CUs, bis jetzt ist mir jedenfalls unklar wieso das eine neue Generation begründen soll (ganz im Gegenteil, laut dem llvm-Source ist fiji sogar neuer, nämlich 8.0.3 statt 8.0.1 wobei ich nicht weiss ob die Patchlevel-Nummer wirklich viel zu bedeuten hat - Tonga/Topaz waren noch 8.0.0). Es sei denn der Treibercode ist noch nicht wirklich das Wahre, das wäre natürlich theoretisch denkbar allerdings auch nicht wirklich sinnvoll (wozu den Treiber jetzt schon publizieren wenn er eh nicht laufen kann).

Ailuros
2016-03-24, 20:46:52
Sorry, aber wen interessiert der Takt? Am Ende zählt was hinten rauskommt, völlig egal ob GPU A 20% schneller taktet als GPU B.

Wieso soll es egal sein? Maxwell kann dank um einiges hoeheren Frequenzen u.a. gegen Radeons punkten. NV hat eben die Transistoren fuer 28HP so angepasst dass es auch klappt; bei AMD kann man eben nicht so leicht den Takt hochtreiben ohne den Stromverbrauch weiter zu erhoehen, eben weil sie die nichts fuer 28HP optimiert hatten.

Gipsel wunderte sich ja hier im forum schon seit Tahiti was mit AMD's voltages los ist und es wurde leicht besser bei Hawaii, aber viel hat sich nicht geaendert.

Jetzt interessiert uns ja eigentlich was AMD unter 14LPP anstellen koennte. Ich bezweifle dass sie mit so niedrigen Frequenzen ankommen werden wie in den PC wo sie Polaris chips vorgestellt haben, denn das Ziel war lediglich mit der groesstmoeglichen perf/W Steigerung zu punkten und NV auch nicht gleich zu verschenken wo ihr eigentlicher design-target liegt. Ich bezweifle aber ebenso dass beide IHVs sehenswert Frequenzen erhoehen werden im Vergleich zur vorigen Generation, weil mir die bisherigen Indizien einfach nicht danach klingen.

Naja bei Tonga hatte das andere Gründe, immerhin kam selbst Fiji sofort aus Vollausbau.

Fiji kam auch nicht mit tape out Silizium aufs Laufband; sonst ist dessen Nachfolger eigentlich das was Fiji von Anfang an haette sein sollen.

iuno
2016-03-24, 21:26:37
Sorry, aber wen interessiert der Takt? Am Ende zählt was hinten rauskommt, völlig egal ob GPU A 20% schneller taktet als GPU B.
Sorry aber wen interessiert das nicht?
Ist ja nun nicht so, dass der Takt komplett irrelevant dafuer ist, was hinten rauskommt :rolleyes:
Du weisst doch selber, dass das ganz offensichtlich bei AMD ein dickes Problem ist, wo es viel Verbesserungspotenzial gibt, das hoffentlich mit Polaris ausgeschoepft wird. Oder findest du es gut, dass man GPUs mal eben problemlos um 100 mV undervolten kann, mehr Takt aber nur mit noch uebertriebeneren Spannungen geht?

Zumal die AMD Chips aktuell offenbar auch noch besser mit dem Takt skalieren als Nvidias, weil es halt weniger an der Breite als am Durchsatz fehlt.
Wir spekulieren hier doch nur rum. Sorry, aber mMn. traegt so eine Bemerkung immer noch mehr zum Thema bei als seitenlange Diskussionen wessen Karte aktuell an welcher Stelle in welchem Spiel besser ist und wie viele Karten Mindfactory so verkauft...

horn 12
2016-03-24, 21:56:38
Und da sollte das JAHR 2016 spannend und Voller guter und schneller Grafikkarten werden :-)

ALLE welche nicht lange gezögert haben sind nun die Schlauen schlussendlich und die heurigen 2016-er Karten werden Ihnen nicht mal (ganz) das Wasser reichen können.

Korvaun
2016-03-24, 22:02:47
Solange nicht offizielle Specs der neuen Chips da sind und AMD keinen krassen Mist baut (z.b. max. Takt <900MHz) rechne ich ganz grob mit:

250mm2 (14nm) sind mindestens so schnell wie 500 mm2 (28nm)

Polaris 10 sollte also grob im Bereich der Fury/Nano liegen. Ist natürlich pure Spekulation, aber wenn es in die Richtung geht bin ich zumindest nicht enttäuscht. Wenn das ganze dann bei unter 100W Verbrauch mit ordentlichem Preis geht wäre es richtig gut.

reaperrr
2016-03-24, 22:11:28
Solange nicht offizielle Specs der neuen Chips da sind und AMD keinen krassen Mist baut (z.b. max. Takt <900MHz) rechne ich ganz grob mit:

250mm2 (14nm) sind mindestens so schnell wie 500 mm2 (28nm)

Polaris 10 sollte also grob im Bereich der Fury/Nano liegen. Ist natürlich pure Spekulation, aber wenn es in die Richtung geht bin ich zumindest nicht enttäuscht. Wenn das ganze dann bei unter 100W Verbrauch mit ordentlichem Preis geht wäre es richtig gut.

Das ist zu optimistisch, denke ich.
Ich rechne eher mit 390(X)-Performance in ~120-150W für P10 und Pitcairn-Performance in <75W für P11.

Korvaun
2016-03-24, 22:21:04
AMD release schedule (hard launches, zeitnah gut verfügbar):

3Q2016 Polaris 11/10
4Q2016 Desktop-ZEN
1Q2017 Vega 10
2H2017 Vega 11

Wenn AMD das hinbekommt wäre das wirklich ne tolle Leistung...

Sunrise
2016-03-25, 00:11:15
Das ist zu optimistisch, denke ich.
Ich rechne eher mit 390(X)-Performance in ~120-150W für P10 und Pitcairn-Performance in <75W für P11.
Das wäre aber lediglich eine Verbrauchs- und Die-Größen-Senkung und somit aus meiner Sicht zuwenig, damit auch gekauft wird. Dann müsste man wieder voll über den Preis gehen und das wäre schlecht für AMD.

Eher sowas wie Hawaii bei der Menge an ALUs, jedoch schneller und deutlich energieeffizienter und mit aktuellem Featureset bei kleinerer Die-Größe wäre eine gute Basis. Durch bessere DCC usw. ggü. Hawaii würden da sicherlich (da kein HPC-Chip) auch die 256bit beim Interface locker ausreichen.

Wenn diverse Flaschenhälse beseitigt wurden, dann steht das sowieso schon fest.

Der_Korken
2016-03-25, 00:57:38
Solange nicht offizielle Specs der neuen Chips da sind und AMD keinen krassen Mist baut (z.b. max. Takt <900MHz) rechne ich ganz grob mit:

250mm2 (14nm) sind mindestens so schnell wie 500 mm2 (28nm)

Polaris 10 sollte also grob im Bereich der Fury/Nano liegen.

Man kann auch anders rechnen: 500mm² sind 15% mehr als die 438mm² der 390X. Mit 390X+15% kommt man in vielen Spielen sehr nah an die Fury X heran, da die CU-Auslastung bei letzterer einfach deutlich schlechter ist. Ich würde mich generell bei solchen Performance-Einschätzungen (vor allem Performance pro CU) eher an Hawaii orientieren, da das der deutlich ausgewogenere Chip ist.

Nakai
2016-03-25, 02:11:54
AMD wird diesmal mehr in den Off-Core investieren. Das hat man sehr genau dargelegt. Die Änderungen im Frontend können sich gut in Mehrperformance auswirken. Wenn das IP-Level der CUs identisch mit VI ist, wird man an der Effizienz geschraubt haben. Womöglich wird man diesmal deutlich besser angepasste CUs vorfinden und den Takt etwas anheben dürfen oder die Effizienz dramatisch steigern.

Ein kleines Gedankenspiel, falls P10~Capeverde-Size und P11~Pitcairn-Size.

Eine CU bei Capeverde u. Pitcairn ist etwa 4,5mm² groß.

Capeverde(123mm²): 4,5mm²*10 ~45mm³ ~36% der Gesamtgröße
Pitcairn(210mm²): 4,5mm²*20 ~ 90mm² ~42% der Gesamtgröße

Falls P10 ~230mm² groß ist und wieder ähnliche Flächenverhältnise angestrebt werden und 36 CUs zutreffend sind, dann wäre eine CU ~2,7mm² unter Finfet groß. Dann würde das eine CU-Zahl von 16 für P11 ergeben.

P10 mit 36 CUs und P11 mit 16 CUs passen ziemlich gut.

Vega11 (Greenland; 4096 SPs) sollte damit ziemlich genau auf Tahiti-Size fallen.


€: Mit Architektur-Verbesserungen und mehr Speicher sollte man P11 so auf Pitcairn-Niveau einschätzen dürfen. P10 geht in Richtung Hawaii. 10~20% Mehrperformance durch (Frontend-)Architekturverbesserungen sind möglich. Wenn der Takt mitspielt, dann sollte schon was drin sein. Fiji bleit unangetastet. Sry, Leute, Fiji muss noch etwas herhalten.
Eher wird man versucht haben GM204 zu erreichen.

Vega11 sollte dann aber ein 8fach Frontend besitzen. Und da würde ich schon einen guten Batzen Mehrperformance spekulieren. Fiji ist ineffizient...sehr sogar. Da könnte AMD viel holen. 25% vor Fiji sollte dann gut möglich sein und ein ziemlicher GP104-Konkurrent werden.

horn 12
2016-03-25, 07:11:41
@Nakai

Vega 11 aber frühestens Ende 2016, Eher Jänner - Februar 2017 gut lieferbar und somit sind die Fury Besitzer noch ein Jahr lang auf der langen Leine zu halten, mich einbeschlossen!
Sollte GP104 echt so weit über Fury X Performance kommen und vielleicht gar schon in diesem Sommer. Denke nicht dass dies möglich sein wird, eher nur auf GTX 980TI Performance mit 8GB Speicher!

Mortalvision
2016-03-25, 07:42:27
Eine 1080 mit 8GB Speicher auf 980 ti-niveau für 550€ wäre sehr verlockend (*Traum)

Korvaun
2016-03-25, 07:50:01
Es sieht zumindest aktuell so aus das alle die ne Fury haben noch 1 Jahr die Entwicklung bei AMD beobachten können bevor eine Aufrüstoption verfügbar wird (Vega). Da spielt noch zusätzlich der Schub durch DX12 Software mit rein, wenn die ersten Spiele-Benches nicht positive Ausreißer waren.

Einzig wenn NV nen Klopper raushaut (1080GTX im Sommer mit 980Ti + 20%, gut übertaktbar, 8GB, keine Schwächen bei DX12, Preis max. auf 980Ti-Niveau) könnte sich daran noch was ändern ;)

dargo
2016-03-25, 08:35:19
Oder findest du es gut, dass man GPUs mal eben problemlos um 100 mV undervolten kann, mehr Takt aber nur mit noch uebertriebeneren Spannungen geht?

Das ist doch auch übertrieben. Ich kann meine GPU nicht in jeden Spiel um 100mV undervolten. Bisher klappt aber -75mV. Das muss aber auch nicht so bleiben. Noch habe ich kein DX12 Spiel in Aktion gesehen welches meine GPU auch ordentlich fordert. Übrigens braucht jede GPU/CPU ordentlich mehr Vcore für mehr Takt welche schon relativ weit außerhalb vom Sweetspot taktet. Ist ja nun wirklich nichts Neues.

Sorry, aber mMn. traegt so eine Bemerkung immer noch mehr zum Thema bei als seitenlange Diskussionen wessen Karte aktuell an welcher Stelle in welchem Spiel besser ist und wie viele Karten Mindfactory so verkauft...
Jo, lass uns mal lieber über das limitierende Frontend quasseln. :rolleyes:

Diesen Quatsch kann ich nicht mehr hören. Wenn das Frontend dermaßen limitiert dürfte es keine Spiele geben wo mal eben ein Grenada an GM200 rankommt. Optimierte Software für GCN hat eine viel höhere Gewichtung als das Frontend.

PS: mit optimierter Software meine ich, dass der Entwickler sich an die AMD-Vorgaben hält um GCN nicht zu "überfahren". Fondness hatte mal so ne PDF Datei verlinkt wo drin steht was man bei GCN machen kann und was man vermeiden sollte.

Hübie
2016-03-25, 09:00:35
[...]wenn die ersten Spiele-Benches nicht positive Ausreißer waren.

Dem ist aber so. Durch die Architektur in den Konsolen und der engen Kooperation z.B. von den Entwicklern der Spiele AotS oder Hitman mit AMD, ist es also wirklich so dass man hier best case scenario sieht. NVIDIA kann den Code von AotS einsehen, aber haben die schlicht nicht gemacht und wer weiß ob die das überhaupt machen werden. Ob es bei Hitman auch passiert weiß ich nicht, aber man sieht schon wo die Reise hin geht: es muss viel mehr punktuell angesetzt werden.
Es ist insgesamt aber noch zu früh für Fazit oder Beurteilungen. Allenfalls Einschätzungen kann man abgeben (und so möchte ich meinen Beitrag auch verstanden haben).

M4xw0lf
2016-03-25, 09:23:06
Eine 1080 mit 8GB Speicher auf 980 ti-niveau für 550€ wäre sehr verlockend (*Traum)
Nä. Da dürfen schon noch mal 100 runter.

dargo
2016-03-25, 09:23:36
Im übrigen... afaik ist Hawaii/Grenada vom Design her doppelter Pitcairn bzw. das was in den Current-Konsolen steckt. Eventuell liegt es also daran warum Erstere so gut in den neueren Spielen skalieren. Fiji ist wiederum ein "Sonderfall", der offenbar besondere Pflege braucht.

iuno
2016-03-25, 09:35:50
Pitcairn ist noch Tahiti-Generation, hat also 'uncore' noch alte Komponenten (z.B. den alten CP den es seit Bonaire nicht mehr gibt), ausserdem hat er natuerlich mehr CUs als die Konsolen und auch weniger als 50% von Hawaii. Verstehe daher nicht wie man auf Hawaii = 2*Pitcairn kommt. Wenn ueberhaupt ist Pitcairn*2 = Tahiti (ohne jetzt im Detail nachgesehen zu haben)

Und zu deinem vorigen Post: verstehe die wiedermal ueberempfindliche Antwort nicht. Warum bringt AMD ueberhaupt neue Chips raus, wenn alles so toll ist wie es ist? Ich halte GCN ja auch fuer stark aber nur weil man viele kleine Verbesserungen machen kann heisst das doch nicht dass alles perfekt ist.
Im Uebrigen habe ich kein Wort ueber das Frontend verloren, wobei ich nichtmal weiss was du jetzt in dem Kontext mit Frontend ueberhaupt meinst.
Was der Unsinn mit GM200 soll kannst du mir auch mal erklaeren. Selbst wenn das Frontend immer limitieren wuerde (diese These habe ich nicht aufgestellt), was sagt dir dass Hawaii in dieser Situation nicht immer noch im Frontend-Limit haengt, waehrend GM200 halt durch dsa Backend limitiert wird? Ist wieder mal ein toller 'Vergleich' ohne jeden Anhaltspunkt. Man kann Software auch einfach nicht auf jeden Chip gleich gut optimieren. Wenn das so eintritt wie du dir offenbar wuenschst, haben wir bald zwei Arten von Spielen: die, die auf AMD unspielbar sind und die, die auf Nvidia unspielbar sind :rolleyes:
Und nein, das mit den Spannungen ist nicht normal. Die haben einfach zu hohe Schwankungen in der Chipguete, das hat AMD uebrigens selbst so bestaetigt. Bei Nvidia scheint das nicht so schlimm zu sein, zudem streicht deren Turbo-Mechanismus das ganze nochmal ordentlich glatt. Wenn man da kein Verbesserungspotenzial sieht, ist das pure Absicht. Ist ja toll wenn wir unsere Chips undervolten koennen und annaehernd auf Maxwell-Niveau bringen, es geht hier aber darum, was AMD liefert und das ist halt in der Hinsicht aktuell nicht optimal.

dargo
2016-03-25, 09:46:19
Hä? Hawaii/Grenada Pro ist ziemlich genau doppelter Pitcairn XT (ALUs, ROPs, TAUs, TMUs, L2). Das Frontend wurde übrigens auch verdoppelt.

http://abload.de/img/zwischenablage023eyej.jpg

http://abload.de/img/zwischenablage03rrbmb.jpg

iuno
2016-03-25, 09:49:42
Also bitte, wer vergleicht denn PRO mit XT in diesem Kontext? Offenbar geht es dir rein um die Anzahl der Einheiten, die architektonischen Unterschiede - die durchaus eine Rolle spielen wenn man schon von 'Pflege' spricht - bist du ja gekonnt uebergangen.
Wie schon gesagt, in den Konsolen (zum. PS4, denke X1 auch) steckt eher ein aufgeblasener Bonaire als ein zusammengestauchter Pitcairn

Die Wiki Tabelle stimmt uebrigens mal wieder nicht. Z.B. hat Bonaire wie Hawaii UVD Version 4.2 und nicht 3.0

dargo
2016-03-25, 09:54:17
Warum bringt AMD ueberhaupt neue Chips raus, wenn alles so toll ist wie es ist?

Was ist das denn für eine merkwürdige Frage? Weil mehr Leistung verlangt wird? Zb. für 4k?


Im Uebrigen habe ich kein Wort ueber das Frontend verloren, wobei ich nichtmal weiss was du jetzt in dem Kontext mit Frontend ueberhaupt meinst.

Damit warst du auch nicht gemeint sondern Nakai.

Also bitte, wer vergleicht denn PRO mit XT in diesem Kontext?
Als ob die +10% bei Hawaii/Grenada XT daran was gravierend ändern würden. :rolleyes: Dann besser die Logik von iuno.

Wenn ueberhaupt ist Pitcairn*2 = Tahiti
:facepalm:

iuno
2016-03-25, 09:57:28
Warum hat du dann mich zitiert?
Gut lassen wir das ;)

dargo
2016-03-25, 09:58:27
Die Wiki Tabelle stimmt uebrigens mal wieder nicht. Z.B. hat Bonaire wie Hawaii UVD Version 4.2 und nicht 3.0
Was hat der Video Prozessor mit der Leistungsskalierung in Games zu tun? :crazy:

iuno
2016-03-25, 10:00:59
Das sollte auch nur aufzeigen, dass die Tabelle wiedermal falsch ist.

Als ob die +10% bei Hawaii/Grenada XT daran was gravierend ändern würden. :rolleyes: Dann besser die Logik von iuno.
:facepalm:
Ja, immer noch besser als einfach nur die Anzahl der ALUs zu vergleichen.
Ist dann auch Hawaii XT = GM200 salvage?
Pitcairn/Tahiti sind wenigstens 1:1 auf dem selben IP Level, was man von Pitcairn/Hawaii in keinster Weise behaupten kann

dargo
2016-03-25, 10:01:44
Oh man, vergiss es einfach. Das wird mir zu blöd.

HOT
2016-03-25, 10:17:27
R9 480X
Polaris 10 (Ellesmere) - 232mm² (ProjectF) - 14LPP - 2560 Shader - 256Bit 7GBPs-GDDR5 4 bis 8 GB
vs.
GTX1080
GM204 mit höherer TDP und 8GB GDDR5

so wird das Duell mMn aussehen. Bei den bisherigen Daten sehe ich nirgendwo Pascal.
Anfang 2017 gibts dann ein neues Namensschema bei NV und dann heißt es

R9 490X
Vega 11 (Greenland) - 350mm² - 14LPP - 4096 Shader - HBM2
vs.
GP104 - 350mm² - 16FF+ - 3072 Shader - 256Bit GDDR5X

und Mitte-Ende 2017 dann
FuryII
Vega 10 - 600mm² - 14LPP - 8192 Shader - HBM2
vs.
GP102 - 550mm² - 16FF+ - 6144Shader - 384Bit GDDR5X

AnarchX
2016-03-25, 10:38:05
2560 klingen schon besser als 2304. 36 CUs sind herrlich ungerade, aber natürlich möglich (4 x 9 [3x3 oder 2x4+1x1]). 40 CUs wären besser (4 x 10 [2x4+1x2 oder 2x3+1x4]).
Ich könnte mir eher 6x 6 CUs vorstellen. Damit kommt man vom Front-End vielleicht in GM204-Regionen und wenn die 2304SPs entsprechend beschäftigt werden, ist die Rechenleistung auch vergleichbar.
P11 setzt da vielleicht noch einen drauf mit 4x 4 CUs um eine vernünftige Basis-Geometrie-Leistung zu bieten. GM206 liegt ja bei Geometrie-Tests durchaus auf Tonga Niveau.

Wie schon bei Tonga sind da wohl viele Transistoren nicht primär in die Shader-ALUs gefloßen.

R9 480X
Polaris 10 (Ellesmere) - 232mm² (ProjectF) - 14LPP - 2560 Shader - 256Bit 7GBPs-GDDR5 4 bis 8 GB
vs.
GTX1080
GM204 mit höherer TDP und 8GB GDDR5

so wird das Duell mMn aussehen. Bei den bisherigen Daten sehe ich nirgendwo Pascal.
Anfang 2017 gibts dann ein neues Namensschema bei NV und dann heißt es

GP104 liegt nach aktuellem Stand vielleicht 2 Monate hinter P10, insofern sollte man ihn noch im Spätsommer erwarten können. Und offenbar wird es wohl NV versuchen hier mit einem Paperlaunch das Interesse an Polaris zu senken.

Sunrise
2016-03-25, 10:41:40
vs.
GTX1080
GM204 mit höherer TDPund 8GB GDDR5

Bei den bisherigen Daten sehe ich nirgendwo Pascal.
Oh man... 😂

Nur weil AMD evtl. schneller ist, was sie auch in der Vergangenheit waren (neuer Prozess zuerst) und NV sehr still ist, denkst du jetzt, dass NV ein Problem hat, einen GP104 ebenfalls mit neuem Prozess und 256bit-Interface vorzustellen? Der TSMC-Prozess selbst läuft bei Apple spitze, da müsste was bei NV gehörig schief laufen, wenn GP104 nicht zeitnahe kommt.

AMD wird Polaris vorstellen ab Zeitpunkt X, NV kann dies ebenso. NV kennt diese Termine.

AMD muss erstmal am aktuellen GM204 komplett vorbei, vorher muss NV exakt garnichts tun und muss nur schauen, dass ihr Design läuft und die Yields passen. NV wird ordentlich zurückschießen, denn nur so kennen wir NV.

HOT
2016-03-25, 10:53:35
[...]
GP104 liegt nach aktuellem Stand vielleicht 2 Monate hinter P10, insofern sollte man ihn noch im Spätsommer erwarten können. Und offenbar wird es wohl NV versuchen hier mit einem Paperlaunch das Interesse an Polaris zu senken.
Wo das denn, in deinen Träumen? Die bekanntgewordenen Benchmarks können genausogut von Maxwell stammen, die Kartenlieferungen auch, es gibt keine Hinweise, die GP104 erhärten. GP100 ja, GP104 immer noch nicht.
Hinzu kommt die GDDR5X-Problematik. Das ist zeitlich so viel anders gesetzt als das hier gedacht wird, das ist schon echt krass. Finale Produkte mit der Speichertechnologie sind sowieso nicht vor Ende 2016 zu erwarten, da jetzt schon mit zu spekulieren ist in meinen Augen purer Schwachsinn. Entweder es kommt jetzt was mit GDDR5 oder es kommt frühestens Weihnachten was mit GDDR5X. Ich denke eher zweiteres, da NV darauf setzen wird mMn und AMD nicht.
http://www.computerbase.de/2016-03/gddr5x-muster-chips-mit-8-gigabit-werden-ausgeliefert/
Das bedeutet, 256Bit 8GB GDDR5X ist jetzt grade mal ins Samplestadium eingetreten. Einfach nur lächerlich damit zu rechnen im Sommer.

Hübie
2016-03-25, 11:02:45
Eine HOT-Prognose :D

@dargo: wo er recht hat... Scalar-ALUs und vector-ALUs sind auch was anderes wie DP-SP Ratios durch loop oder dedicated units. Es ist also schon grob fahrlässig zu sagen dass Hawaii ein Pitcairn * 2 ist. Es gab ja auch Änderungen an den ROPs und TAU/TMU...
Und Wiki ist hier und da wirklich lückenhaft.
Iuno hat nur diese Unart, wie ich auch manchmal, einfach grob und ungehobelt daher zu kommen. ;)

dargo
2016-03-25, 11:17:25
@Hübie
Das ist mir schon klar. Sieht man schon alleine an den ACEs. Hawaii ist aber deutlich näher an Pitcairn *2 als ein Tahiti.

Botcruscher
2016-03-25, 11:25:31
P10 mit 36 CUs und P11 mit 16 CUs passen ziemlich gut.

Nach deiner Rechnung sind weitere 4 CUs 10,8mm². Das sind dann keine 5% Unterschied. Bei der Fehlertoleranz ist das alles weit im Schätzbereich...

Hübie
2016-03-25, 12:15:49
@Hübie
Das ist mir schon klar. Sieht man schon alleine an den ACEs. Hawaii ist aber deutlich näher an Pitcairn *2 als ein Tahiti.

Nach deiner Argumentation wäre Fiji dann näher an 2 * Tahiti als 1,5 mal Hawaii (Salvage). Ne du. Da vergleichst du einfach nur algebraisch, aber verlierst den Kontext. Muss ich dir einfach widersprechen. Also hast du mathematisch Recht, aber ansonsten...

dargo
2016-03-25, 12:20:35
Mir würde nicht im Traum einfallen Fiji mit Tahiti zu vergleichen.

iuno
2016-03-25, 12:31:46
Iuno hat nur diese Unart, wie ich auch manchmal, einfach grob und ungehobelt daher zu kommen. ;)
Das ist nicht meine Absicht, ich "entschaerfe" Kommentare mitunter auch mal im Nachhinein :redface:

@Hübie
Das ist mir schon klar. Sieht man schon alleine an den ACEs. Hawaii ist aber deutlich näher an Pitcairn *2 als ein Tahiti.
Wie schon gesagt, "ACEs" sind keine Hardware-Bloecke, sondern nur Marketing-Bezeichnungen fuer die Pipes, die eine MEC bereitstellt. Pitcairn hat noch nicht mal eine MEC (4 Pipes zu je 8 Queues) sondern den alten Command Processor, der damals noch Grafik (1 Queue) und Compute (2 Queues) gemacht hat.
Den CP habe ich ja vorhin auch explizit angesprochen, da schien das aber noch unwichtig zu sein...
Und da du ja urspruenglich die Analogie zu den Konsolen gezogen hast: Die PS4 hat genau wie Hawaii 2 MECs (64 Queues), kann also mit weitaus mehr Compute-Queues umgehen als Pitcairn. Bei der X1 weiss ich es nicht genau, bin mir aber relativ sicher, dass sie auch 1-2 MECs hat.

Nakai
2016-03-25, 14:03:04
Nach deiner Rechnung sind weitere 4 CUs 10,8mm². Das sind dann keine 5% Unterschied. Bei der Fehlertoleranz ist das alles weit im Schätzbereich...

Nicht in meiner Welt. :freak:

Es hängt ja auch davon ab, wieviel AMD für den Off-Core oder den Cores investiert.

Und klar, es könnten auch 40 CUs für P10 sein. Eine CU wird aber irgendwo zwischen 2,5 bis 3,0 mm² liegen. Womöglich packt man eine CU nicht mehr so stark, wie unter 28nm und verbessert eher die Taktbarkeit o.Ä (Laie).

Ich könnte mir eher 6x 6 CUs vorstellen. Damit kommt man vom Front-End vielleicht in GM204-Regionen und wenn die 2304SPs entsprechend beschäftigt werden, ist die Rechenleistung auch vergleichbar.
P11 setzt da vielleicht noch einen drauf mit 4x 4 CUs um eine vernünftige Basis-Geometrie-Leistung zu bieten. GM206 liegt ja bei Geometrie-Tests durchaus auf Tonga Niveau.

Wie schon bei Tonga sind da wohl viele Transistoren nicht primär in die Shader-ALUs gefloßen.


AMD müsste auch einfach mal die ShaderEngines bzw die Frontend-Komponenten aufwerten. Ein Block bei AMD ist schwächer als bei NV. Das hat womöglich mehrere Gründe. Bei Polaris werden anscheinend vor allem die Primitive Engines aufgebohrt. Ein aufgebohrter GCP ist dann eine logische Schlussfolgerung.

Die Skalierbarkeit der SEs ist ja bei AMD stark eingeschränkt. 1->2->4 und diesbezüglich noch unterschiedliche Leistungsstufen. Nur so nebenbei, die Diskussion, ob Hawaii ein doppelter Tahiti/Pitcairn etc. ist, ist ziemlich schwachsinnig. Tonga und Fiji besitzen ein starkes Quad SE-Frontend.
Es gibt hier mehrere Ausbaustufen.

Capeverde/Oland/Pitcairn/Tahiti haben das gleiche Frontend, also einen GCP mit 2 ComputePipes (auch ACEs genannt). Die Anzahl der Frontend-Blöcke (SEs) kann hierbei skalieren, von 1 auf 2. 4 geht nicht.

Hawaii und Bonaire haben den GCP und die ACEs aufgeteilt und das Frontend etwas erweitert. Skalierbarkeit geht nun bis zu 4 SEs. Das benötigt einen überarbeiteten Interconnect zwischen GCP/ACEs und den SEs mit den Dispatcher-Units.

Fiji und Tonga haben die ACEs zu HardwareSchedulern zusammengefasst (jedenfalls einen Teil) und das Frontend stark aufgewertet. Es gibt hierbei auch nur eine Konfiguration mit 4 SEs. 2 SEs oder 1 SE habe ich noch nicht gesehen. Es hat sich hierbei mehr geändert als erwartet. Meine OpenCL-Erfahrungen zeigten eine schon starke Änderung zwischen Tonga/Fiji und den Vorgängern auf.

Ich würde diebezüglich Hawai/Pitcairn/Bonaire/Capeverde/Tahiti und Oland eher auf eine Stufe stellen, mit natürlich Modifikationen.
Tonga und Fiji sind wieder etwas anders.

iuno
2016-03-25, 14:24:13
Capeverde/Oland/Pitcairn/Tahiti haben das gleiche Frontend, also einen GCP mit 2 ComputePipes (auch ACEs genannt).
Wie gesagt - eine "SI-ACE" != "CI/VI-ACE"
Erstere ist eine single-queue pipe, letztere hantiert mit 8 Queues

Fiji und Tonga haben die ACEs zu HardwareSchedulern zusammengefasst (jedenfalls einen Teil)
Nein. "Zusammengefasst" waren "ACE"s schon vorher (lies meine Beitraege). AFAIR beruht diese Annahme auch nur von dem Block Diagramm, das mal teilweise HWS statt ACE eingezeichnet hatte.
Tatsaechlich ist das nur ein Betriebsmodus, wobei eine "ACE" anstatt selber zu schedulen weitere Queues auf die anderen Pipes verteilen kann.

Laut dem Block/Schaubild zu Polaris soll ja gerade der CP/ME (und auch der geometry processor) ueberarbeitet werden, die ACEs/MECs offenbar nicht.

Nakai
2016-03-25, 14:34:24
Wie gesagt - eine "SI-ACE" != "CI/VI-ACE"
Erstere ist eine single-queue pipe, letztere hantiert mit 8 Queues

Nein. "Zusammengefasst" waren "ACE"s schon vorher (lies meine Beitraege). AFAIR beruht diese Annahme auch nur von dem Block Diagramm, das mal teilweise HWS statt ACE eingezeichnet hatte.
Tatsaechlich ist das nur ein Betriebsmodus, wobei eine "ACE" anstatt selber zu schedulen weitere Queues auf die anderen Pipes verteilen kann.

Wie von dir schon erwähnt sind die ACEs nur ein Buzzword. Mir ist wohl bewusst, dass die ACEs schon zusammengefasst sind. Ich habe deine Beiträge gelesen, keine Sorge. IMO ist das AMD Namensschema einfach irreführend.

Bei HWS habe ich wenig Ahnung, es wirkt aber so, dass immer zwei ACEs eine HSW bilden können, damit man mehr schedulen kann. Womöglich verbaute AMD bei Fiji und Tonga schon diese Blöcke, verwendet sie nur nicht. Das kommt wohl erst mit Polaris.

Die Mächtigkeit der Compute-Pipes bei AMD sind schon sehr nett, und werden erstmal nicht mehr upgedatet werden. Vll kommt was mit Vega, aber hier gehe ich eher von anderen CUs aus.

Vega ~ Polaris+newCUs+HBM2

€:
Laut dem Block/Schaubild zu Polaris soll ja gerade der CP/ME (und auch der geometry processor) ueberarbeitet werden, die ACEs/MECs offenbar nicht.

Wir werden dahingehend erstmal wenig erleben, ja.

y33H@
2016-03-25, 15:12:46
Videocardz behauptet, es sei GDDR5 statt GDDR5X für Polaris 11/10. Dann wären IMHO aber die Datenraten viel zu gering (weil halbiert) für 128 und 256 Bit ... mit 8-GBit-GDDR5X und 10 GBit/s Speed wäre man wunderbar bei 192 GB/s bei 4 GByte VRAM sowie 384 GB/s bei 8 GByte VAM, was einer 380X und einer 390X entspräche.

Korvaun
2016-03-25, 15:24:21
Es wurde ja schon gesagt das Micron gerade erst mit dem Sampling von GDDR5x angefangen hat, die liefern also nicht vor Sommer. Produzieren noch andere GDDR5x? Wenn ja, wie weit sind die? Ansonsten sehe ich Karten mit GDDR5x allerfrühestens im Herbst. Und wenn die 14/16nm komplett auf GDDR5x/HBM2 ausgelegt sind dann gute Nacht 2016...

AffenJack
2016-03-25, 15:25:11
Videocardz behauptet, es sei GDDR5 statt GDDR5X für Polaris 11/10. Dann wären IMHO aber die Datenraten viel zu gering (weil halbiert) für 128 und 256 Bit ... mit 8-GBit-GDDR5X und 10 GBit/s Speed wäre man wunderbar bei 192 GB/s bei 4 GByte VRAM sowie 384 GB/s bei 8 GByte VAM, was einer 380X und einer 390X entspräche.

Nur weil die richtigen Taktraten noch nicht benutzt werden. Ansonsten mit 7 GBit GDDR5 wäre man bei ähnlichen Konfigurationen wie GM204 und GM206 bei wahrscheinlich ähnlichen Geschwindigkeiten und viel geringerer TDP. Halte ich durchaus für möglich zu Anfang. Man will ja die Kompression noch verbessern und wenn Nv damit auskommt, wieso nicht auch AMD.

Nakai
2016-03-25, 15:26:13
Videocardz behauptet, es sei GDDR5 statt GDDR5X für Polaris 11/10. Dann wären IMHO aber die Datenraten viel zu gering (weil halbiert) für 128 und 256 Bit ... mit 8-GBit-GDDR5X und 10 GBit/s Speed wäre man wunderbar bei 192 GB/s bei 4 GByte VRAM sowie 384 GB/s bei 8 GByte VAM, was einer 380X und einer 390X entspräche.

Man sollte bessere DCC und mehr L2-Cache nicht unterschätzen.
Mit 6Ghz GDDR5 ist man bei etwa 192GB/s. Ich denke man zielt auf GM204-Regionen ab.

Meine GDDR5X-Theorie bleibt bestehen. P10 erst als Salvage, weil kein GDDR5X.

Unicous
2016-03-25, 15:35:18
Dass sie das Powergating verbessern wollen und müssen, ist ja schon eine Weile klar. Ich denke hier hat Nvidia auch schon eine Weile klare Vorteile die AMD einfach hat brach liegen lassen. Ähnlich sieht/sah es ja bei den APUs aus. Vllt. schafft es AMD ja bereits bei zusammengefassten CU-Blöcken Adaptive Voltage Scaling zu integrieren, dadurch könnte man mMn auch nochmal ordentlich an Effizienz gewinnen.


drm/amd/powerplay: add GFX per cu powergating support through
SMU/powerplay
drm/amd/powerplay: add GFX per cu powergating for Baffin

https://lists.freedesktop.org/archives/dri-devel/2016-March/103402.html

;)

+/* This function is for Baffin only for now,
+ * Powerplay will only control the static per CU Power Gating.
+ * Dynamic per CU Power Gating will be done in gfx.
+ */
+int ellesmere_phm_enable_per_cu_power_gating(struct pp_hwmgr *hwmgr, bool enable)

http://www.spinics.net/lists/dri-devel/msg103155.html

dargo
2016-03-25, 15:41:13
Videocardz behauptet, es sei GDDR5 statt GDDR5X für Polaris 11/10. Dann wären IMHO aber die Datenraten viel zu gering (weil halbiert) für 128 und 256 Bit ... mit 8-GBit-GDDR5X und 10 GBit/s Speed wäre man wunderbar bei 192 GB/s bei 4 GByte VRAM sowie 384 GB/s bei 8 GByte VAM, was einer 380X und einer 390X entspräche.
Wie sicher sind überhaupt die 256Bit SI? Warum kein 192/256Bit SI für Polaris 11 und 384Bit für Polaris 10?

y33H@
2016-03-25, 15:48:31
Mit 6Ghz GDDR5 ist man bei etwa 192GB/s.6 GHz bei GDDR5 sind eigentlich 3 GHz (Wrt clk) bzw 1,5 GHz (Cmd clk) bzw 6 GBit/s und um damit auf 192 GB/s bei 128 Bit zu kommen, muss es jedoch GDDR5X mit doppeltem Prefetch für 12 GBit/s sein. Gewöhnlicher GDDR5 bringt es bei 1,5/3/6 GHz bzw 6 GBit/s nur bei 256 Bit auf 192 GB/s - nicht aber bei 128 Bit.

Außer ich bin mittlerweile vor lauter Rechenversuchen etwas Zahlen-blind ...

EDIT
96 GB/s (Baffin) und 192 GB/s (Ellesmere) mit besserer DCC und mehr L2 kommt mir iwie bissi zu langsam vor ... aber wer weiß. Zudem kostet Cache durchaus Die-Size und GDDR5X ist effizienter als GDDR5 ...

Nakai
2016-03-25, 15:53:11
https://lists.freedesktop.org/archives/dri-devel/2016-March/103402.html

;)


http://www.spinics.net/lists/dri-devel/msg103155.html

Steht auch alles schön im Treiber-Source.
Im Source wird oft nicht zwischen P10 und P11 unterschieden. Da muss noch viel gearbeitet werden. Beim nächsten Commit wird es interessant.

€: Ein paar Sachen:

P11 hat 5 Displaycontroller, P10 sogar 6. Stoney hat nur 2, im Vergleich zu Carrizo mit 3.

Korvaun
2016-03-25, 16:31:11
Irgendwann muss das Speicherinterface halt mal der Leistung der Chips angepasst werden. 128Bit sind einfach zu wenig, egal ob GDDR5 oder GDDR5x. Auch Kompressionstechniken könner da nur bedingt weiterhelfen.

y33H@
2016-03-25, 16:35:12
Man muss das SI ja nicht auf Kosten der Die-Size breiter machen, wenn es GDDR5X mit doppelter Datenrate gibt.

tm0975
2016-03-25, 16:47:50
Videocardz behauptet, es sei GDDR5 statt GDDR5X für Polaris 11/10. Dann wären IMHO aber die Datenraten viel zu gering (weil halbiert) für 128 und 256 Bit.

vielleicht ist der (fehlende) ram auch der grund, warum amd quasi unten mit dem lineup anfängt und es gerüchte über verschiebungen von vega gibt. es wird derzeit schlicht weder gddr5x noch hbm2 zur verfügung stehen, was für produkte im sommer nötig wäre.

w0mbat
2016-03-25, 16:53:40
Große Hersteller wie Nvidia und AMD stehen im ständigen Kontakt mit ihrern Zulieferern, da wird es keine Überraschungen mit der Verfügbarkeit geben. Wenn die Karten mit GDDR5X geplant waren, werden sie nicht mit GDDR5 kommen oder anders herum.

Ailuros
2016-03-25, 16:54:44
vielleicht ist der (fehlende) ram auch der grund, warum amd quasi unten mit dem lineup anfängt und es gerüchte über verschiebungen von vega gibt. es wird derzeit schlicht weder gddr5x noch hbm2 zur verfügung stehen, was für produkte im sommer nötig wäre.

Oder um noch einen Schnitt einfacher: das Publikum ist mal wieder viel zu optimistisch und AMD hatte nie vor mit den ersten Produkten bei so hohen Markt-Sparten anzutreten. Faengt man mit =/< mainstream SKUs fuer notebooks und PC an, braucht man ab einem Punkt nach unten auch nicht wirklich mehr als GDDR5.

Nakai
2016-03-25, 17:45:30
Oder um noch einen Schnitt einfacher: das Publikum ist mal wieder viel zu optimistisch und AMD hatte nie vor mit den ersten Produkten bei so hohen Markt-Sparten anzutreten. Faengt man mit =/< mainstream SKUs fuer notebooks und PC an, braucht man ab einem Punkt nach unten auch nicht wirklich mehr als GDDR5.

This!

Der Perf/Watt-Sprung wird ziemlich krass sein bei Polaris (im Vgl zu den Vorgängern). Polaris sind die OEM-Produkte. Build-In GPUs. Ihr dürft schön aus der Röhre gucken. ;D
Retail kommt zwar, aber Polaris10 wird ~Hawaii landen. Fiji wird erst durch Vega11/10 ersetzt werden, mit ~25%+ höherer Perf (Speku).

Vega-Big wird interessant und sollte definitiv ~6000 SPs haben.
Vega-Small wird auch der HPC-Zusatzchip. Ich vermute Beide sind DP-Monster.

Botcruscher
2016-03-25, 20:12:39
Mir stellt sich eher die Frage warum GDDR5 auf auf dem hypothetischen Level einer 980 nicht mehr reichen soll.

mboeller
2016-03-25, 20:58:15
relevant?

http://ranker.sisoftware.net/show_run.php?q=c2ffcdfbddbcdde0d2e3d4e7d0e8cebc81b197f297aa9abccff2c2&l=en

Quelle:
http://semiaccurate.com/forums/showpost.php?p=258496&postcount=517

Locuza
2016-03-25, 23:14:12
Ein bisschen zum Thema Polaris = GFX IP v8 (Wie Tonga, Fiji, Carrizo)
OK, so can u explain why is Polaris in seemingly the VI family? It is present in the GFX8 files along with the rest of the VI family members.


Couple of things:

1. if you look in gfx_v8_0.c you'll see a lot of chip-specific logic within the GFX 8.0 IP block handler framework, although it mostly affects things like golden register setup

2. AFAICS for this cycle we focused on optimizing HW performance without changing the software-visible behavior more than necessary. If we hadn't just finished restructuring all of our drivers around block revision handlers I guess we might have called this GFX 9, but starting a new set of IP block handlers would have meant a lot of wasted work and running GFX 9 using GFX 8 block handlers would have been a bit wierd too.

It's probably fair to say that the new driver architecture ends up pushing back a bit on how new HW generations are named... IOW we only bump the GFX version number if the programming model is significantly different rather than making the decision based only on internal implementation.
Yep, something like that. In most cases "user visible" hardware changes also bring "driver visible" hardware changes but not always...

... arguably this is the first time in several years that the distinction has mattered.
http://semiaccurate.com/forums/showthread.php?p=258584#post258584

OBrian
2016-03-26, 00:21:20
Mir stellt sich eher die Frage warum GDDR5 auf auf dem hypothetischen Level einer 980 nicht mehr reichen soll.
um's "reichen" geht es ja gar nicht. Wenn man mehr Bandbreite braucht, könnte man ja rein theoretisch auch 1024 bit GDDR5 dranhängen. Platine wird dann nur "etwas" größer und der Stromverbrauch auch leicht unangenehm. Die Frage ist also, wo der Punkt ist, wo sich nur GDDR5 eher lohnt und ab wo HBM sinnvoller ist, bzgl. Stromverbrauch, Platinenfläche, Diefläche, und letztlich immer Preis.

AffenJack
2016-03-26, 00:28:17
Ein bisschen zum Thema Polaris = GFX IP v8 (Wie Tonga, Fiji, Carrizo)

http://semiaccurate.com/forums/showthread.php?p=258584#post258584

Hmm, also gibt sich der Chip softwaretechnisch wie GCN 1.2 aus, wenn ich das richtig verstehe. Aber kann man dann überhaupt neue Features implementieren bzw. ansprechen? Geht mir dabei gerade um CR und ROVs.

Sunrise
2016-03-26, 00:43:37
um's "reichen" geht es ja gar nicht. Wenn man mehr Bandbreite braucht, könnte man ja rein theoretisch auch 1024 bit GDDR5 dranhängen. Platine wird dann nur "etwas" größer und der Stromverbrauch auch leicht unangenehm. Die Frage ist also, wo der Punkt ist, wo sich nur GDDR5 eher lohnt und ab wo HBM sinnvoller ist, bzgl. Stromverbrauch, Platinenfläche, Diefläche, und letztlich immer Preis.
HBM liefert aktuell viel zuviel Bandbreite für Mainstream/Performance und ist einfach kontraproduktiv, wenn man wie AMD gute neue Produkte für die Masse und ein überzeugendes Preis-/Leistungsverhältnis will, dass GM204 mächtig Konkurrenz macht. Maximal ist GDDR5X-Unterstützung noch dabei, aber sonst wars das. Mehr Spielraum ist nicht.

Alles, was diese Bandbreite überhaupt benötigen könnte heißt Vega und hat min. 64 CUs und ordentlich DP- bzw. Mixed-Precision-Durchsatz für HPC.

Screemer
2016-03-26, 00:49:10
Hmm, also gibt sich der Chip softwaretechnisch wie GCN 1.2 aus, wenn ich das richtig verstehe. Aber kann man dann überhaupt neue Features implementieren bzw. ansprechen? Geht mir dabei gerade um CR und ROVs.
ich würd mal annehmen kein cr und rovs. hatte ich allerdings von anfang an befürchtet. aus dem bauch heraus würde ich auch sagen, dass pascal kein amd-like ac in hardware unterstützt. featuretechnisch quasi alles beim "alten".

Duplex
2016-03-26, 11:48:00
Sobald die neue Fertigung ausgereift ist kann man auch mit einem Big Chip aka 8192 Shader rechnen.
Davor erwarte ich ein 14nm <350mm2 Chip mit 50% mehr Performance als AMDs aktuelles Top Modell.

Locuza
2016-03-26, 12:09:14
Hmm, also gibt sich der Chip softwaretechnisch wie GCN 1.2 aus, wenn ich das richtig verstehe. Aber kann man dann überhaupt neue Features implementieren bzw. ansprechen? Geht mir dabei gerade um CR und ROVs.
Die GFX-IP gibt sich als GCN Gen 3 aus, aber ich weiß nicht wie eng AMD das fasst, wenn es nur die CUs sind, dann sind Front/Backend egal und somit könnte es auch egal sein, ob der Chip CR/ROVs unterstützt oder nicht.
Ich denke aus dem Treiber kann man das sowieso nicht ableiten.
Eine Ebene darüber haben wir OGL/Vulkan-Treiber und beide APIs haben soweit ich weiß weder CR, noch ROVs in irgendeiner Art spezifiziert, es gibt aber Erweiterungen dafür.

ich würd mal annehmen kein cr und rovs. hatte ich allerdings von anfang an befürchtet. aus dem bauch heraus würde ich auch sagen, dass pascal kein amd-like ac in hardware unterstützt. featuretechnisch quasi alles beim "alten".
Selbst wenn es grob alles beim alten bleibt, im Detail muss es nicht so sein.
Bei DX12 haben beide Hersteller Luft nach oben.

AMD:
Conservative Rasterization Tier 1-3, Rasterizer Ordered Views, Tiled Resources Tier 3. (ASTC).

Nvidia:
Conservative Rasterization Tier 2-3, Resource Binding Tier 3, Stencil reference value from Pixel Shader, FP16. (ASTC)

Und noch paar Sachen.

Nakai
2016-03-26, 13:41:06
Ein bisschen zum Thema Polaris = GFX IP v8 (Wie Tonga, Fiji, Carrizo)

http://semiaccurate.com/forums/showthread.php?p=258584#post258584

Das ist ein Punkt, den man natürlich berücksichtigen muss. Im Treiber sind auch die Taktraten von P10/11 versteckt. Aber ich vermute, das sind alles Sachen, welche Subject-to-Change sind.

Achill
2016-03-26, 14:09:23
Verbesserungen die man nicht in der Treiber/API sehen müsste aber z.B. wegen GWs was bringen könnten:
- Tessellation-Leitung
- Filtering von fp16 Texturen (techreport.com (http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/4))
- Größere 2nd Lvl Caches

Unicous
2016-03-26, 15:16:26
Nochmal etwas ausführlicher, den ersten Kommentar von John Bridgman fand ich ja etwas kryptisch.


Originally Posted by del42sa
It doesn´t make sense at all.... They did promise with Polaris much deeper redesign of GCN core than all previous iterations (GCN 1/2/3) AMDGPU drivers shows that GXF belongs to Volcanic Islands family rather than Arctic Islands..... why is that ??? From leaked drivers that biggest IP block update refers to UVD/VCE and DCE only. Rest looks pretty much the same or just a minor update...

bridgman
Strictly speaking I think Anandtech said they were the biggest redesign *since* the first GCN (so talking about 2/3 not 1), no mention of anything like "much deeper". The previous iterations focused on things around the edge of the shader core (flat addressing & SUA/DUA in CI, virtualization and CWSR in VI); AFAIK this time round the changes are focusing on the shader core itself.

The drivers (released, by the way, not leaked) show that the programming model is the same as previous VI parts, not that the implementation is the same.

This gets into one of those philosophical questions - if you use the version number to control which execution path the driver should use and you improve the implementation without changing the software-visible behaviour, should you bump the block version number ? Personally I would have given it at least a new minor number just because I was raised by accountants and find the idea of two different implementations with the same version number vaguely offensive, but even so the driver code would have to say "8.6 ? treat it like 8.1" anyways. Normally when we bump a block version number there is also an associated change in how the block gets programmed by the driver.

So wie ich es spekuliert hatte, der Treiber soll es wie Gen 8 behandeln, daher hat man die Zahl gar nicht erst verändert, was natürlich zu Verwirrung führt, wenn man sich denkt, höher ist immer besser.:wink:

mczak
2016-03-26, 15:42:47
Im Prinzip ist es ja ein Vorteil wenn man da ein Redesign machen kann aber die ISA gleich bleibt - gerade für die Treiberprogrammierung. Theoretisch kann man natürlich alles ändern und die ISA bleibt trotzdem gleich - bei x86 geht das ja auch... Eine solch weitgehende Abstraktion macht aber natürlich bei gpus niemand. Hätte man also beispielsweise doppelten fp16-Durchsatz würde ich schon erwarten dass man das an der ISA-Nummer sieht. CR zu implementieren müsste eigentlich sowieso unabhängig vom Shader-Core gehen. Bei ROV bin ich nicht so sicher.

iuno
2016-03-26, 18:43:32
Ist der Codename "amur" schonmal gefallen? sagt das jemandem was?

Unicous
2016-03-26, 19:02:52
Amur ist iirc nichts GPU-artiges. Ich glaube es war ein Codename einer der ARM-APUs.

Waren die Codenamen für die kleinen ARM/X86(Katzen) Chips auf 20nm
Worked on AMUR/NOLAN PCIE design .(gf 20nm node)

Ich glaube zumindest der Codename Nolan wurde weitergeführt, vllt. ist das auch bei Amur der Fall, wie auch bei Baffin/Ellesmere/*hust Greenland *hust.

iuno
2016-03-26, 19:32:07
ah, danke. Musste vorhin schnell weg, daher die bloede Nachfrage ohne Recherche ;)

Hintergrund: "amur" taucht im Grafiktreiber (pro-stack beta) auf, da sind Firmwares fuer den Chip dabei. Allerdings nicht vollstaendig, sondern sogar noch weniger als bei Topaz/Iceland. So fehlt z.B. die Firmware fuer den memory controller (daher dachte ich auch zuerst an eine APU), allerdings fehlen auch wie bei Topaz UVD/VCE/DCE und die Firmware fuer die MECs ist nur einfach dabei (sonst wird aktuell 2x dieselbe Firmware fuer beide MECs ausgeliefert). Einsortiert ist das bei den neueren Chips (ab Topaz/Tonga/Carrizo)

Seltsam, wenn der Name gerade jetzt, im Zusammenhang mit Polaris wieder auftaucht. Vielleicht sieht man doch bald noch eine ARM (HSA) APU von AMD, die den ARM Opteron ergaenzt? aber ist in dem Fall hier auch OT :redface:

edit: another wild speculation appeared: vielleicht am Ende gar kein AMD-Chip, sondern zur Integration in einen 'fremden' SoC gedacht? :confused: Weiss man eigentlich, in welchem Zusammenhang Raja diese Aussagen (http://www.tomshardware.de/amd-radeon-gpu-grafikkarte-fremdfertigung,news-255144.html) gemacht hat?
Haende hoch: wer kann sich vorstellen, dass Amur z.B. in einen Snapdragon kommt, QC aber ihren Hexagon und Audio/Video beibehaelt? :ugly:

R.I.P.
2016-03-26, 20:50:45
ah, danke. Musste vorhin schnell weg, daher die bloede Nachfrage ohne Recherche ;)

Hintergrund: "amur" taucht im Grafiktreiber (pro-stack beta) auf, da sind Firmwares fuer den Chip dabei. Allerdings nicht vollstaendig, sondern sogar noch weniger als bei Topaz/Iceland. So fehlt z.B. die Firmware fuer den memory controller (daher dachte ich auch zuerst an eine APU), allerdings fehlen auch wie bei Topaz UVD/VCE/DCE und die Firmware fuer die MECs ist nur einfach dabei (sonst wird aktuell 2x dieselbe Firmware fuer beide MECs ausgeliefert). Einsortiert ist das bei den neueren Chips (ab Topaz/Tonga/Carrizo)

Seltsam, wenn der Name gerade jetzt, im Zusammenhang mit Polaris wieder auftaucht. Vielleicht sieht man doch bald noch eine ARM (HSA) APU von AMD, die den ARM Opteron ergaenzt? aber ist in dem Fall hier auch OT :redface:

edit: another wild speculation appeared: vielleicht am Ende gar kein AMD-Chip, sondern zur Integration in einen 'fremden' SoC gedacht? :confused: Weiss man eigentlich, in welchem Zusammenhang Raja diese Aussagen (http://www.tomshardware.de/amd-radeon-gpu-grafikkarte-fremdfertigung,news-255144.html) gemacht hat?
Haende hoch: wer kann sich vorstellen, dass Amur z.B. in einen Snapdragon kommt, QC aber ihren Hexagon und Audio/Video beibehaelt? :ugly:

Laut rumors ist die Nintendo NX ne ARM Apu :)

horn 12
2016-03-26, 21:29:54
3D Center Titelseite sagt nun mal wieder Alles:
Lange Durststrecke bis Fiji abgelöst wird
Wurden und werden im Jahr 2016 wieder an der Langen Leine gehalten bis Anfang 2017 zumindest Fury X um 20 bis 30% abgelöst wird und vielleicht mit einer @1500+ GTX 980TI etwa gleichzieht, sprich etwas übertrumpft.
Zudem mit AC und DX 12 wohl ebenso vielleicht um die 20% jener stark übertakteten GTX 980TI oben drauflegt!

iuno
2016-03-26, 22:03:09
hmm, Custom SoC von AMD fuer Nintendo? Theoretisch ist das natuerlich moeglich, daran glaube ich aber aufgrund dieser Infos nicht... erstmal glaube ich nicht an Linux auf der Konsole und dann wird der Code auch nicht upstream gehen, auch wenn das natuerlich genauso gut ein Fehler sein kann

amur taucht uebrigens auch im OpenCL blob auf, neben anderen, mehr oder weniger interessanten Namen :ugly:

fondness
2016-03-27, 09:15:06
Um mal wieder die Spekulation ein bisschen zu befeuern (:D). Was bis jetzt ein bisschen untergegangen ist:

Greenland aka Vega10 IPv9.0:

https://s23.postimg.org/5hjb3yrnv/AMD-Vega-10-GPU-Leak.jpg


Polaris IPv8.x wie GCN1.2:


kaveri bonaire kabini hawaii topaz tonga carrizo fiji pol 10/11
gmc 7.0 7.0 7.0 7.0 8.0 8.0 8.0 8.5 8.1
ih 2.0 2.0 2.0 2.0 2.4 3.0 3.0 3.0 3.1
smc 7.0 7.0 7.0 7.0 7.1 7.1 8.0 7.1 7.2
dce 8.1 8.2 8.3 8.5 N/A 10.0 11.0 10.1 11.2
gfx 7.1 7.2 7.2 7.3 8.0 8.0 8.0 8.0 8.0
sdma 2.0 2.0 2.0 2.0 2.4 3.0 3.0 3.0 3.1
uvd 4.2 4.2 4.2 4.2 N/A 5.0 6.0 6.0 6.3
vce 2.0 2.0 2.0 2.0 N/A 3.0 3.0 3.0 3.4

Hübie
2016-03-27, 09:26:08
Hm. Interessant. Aber warum "nur" 4096 ALUs? :| Vega10 sollte doch schon die größte Ausbaustufe sein, oder?

fondness
2016-03-27, 09:29:20
Die Nummern bei AMD sagen nichts über die "Ausbaustufe" oder Geschwindigkeit aus, die 10 bekommt der zuerst entwickelte Chip, die 11 der als zweites entwickelte Chip einer Reihe usw.

Hübie
2016-03-27, 09:31:48
Ach so. Dachte es folgt der Namensgebung wie bei Polaris. Also könnte es sich um den "kleinen" top dog handeln.

iuno
2016-03-27, 10:10:52
Um mal wieder die Spekulation ein bisschen zu befeuern (:D). Was bis jetzt ein bisschen untergegangen ist:

Greenland aka Vega10 IPv9.0:

https://s23.postimg.org/5hjb3yrnv/AMD-Vega-10-GPU-Leak.jpg


Polaris IPv8.x wie GCN1.2:
[...]


Das hatten wir doch schon alles?!
Lt. anderer stelle ist polaris übrigens gfx "v8.2" (iirc)

Dass über v10 noch ein chip mit deutlich >4k SP kommt ist denke ich sicher.

AnarchX
2016-03-27, 10:23:43
Wirkliche Anhaltspunkte dafür gibt es aber nicht. Laut den Fudo-Slides kann es wohl auf Dual-GPU mit einer 100GB/s Verbindung zwischen beiden Interposern hinauslaufen.
Für das H2 2017 plant ja Nvidia schon GV100 @ 10nm, vielleicht ist Navi bei AMD ebenso ambitioniert.

fondness
2016-03-27, 10:27:19
Was man weiß ist, dass es zwei Vega-Chips gibt (bestätigt von Koduri höchstpersönlich). Bekannt ist bisher nur einer, nämlich Greenland/Vega10. Laut Roadmap sollten beide Vega-Chips HBM2 haben, von daher ist etwas noch größeres nicht ganz unwahrscheinlich.

Locuza
2016-03-27, 11:43:29
Die GFX-IP gibt sich als GCN Gen 3 aus, aber ich weiß nicht wie eng AMD das fasst, wenn es nur die CUs sind, dann sind Front/Backend egal und somit könnte es auch egal sein, ob der Chip CR/ROVs unterstützt oder nicht.

Okay, scheinbar umfasst die GFX-IP fast alles was damit verbunden ist:
The GFX block is big - command processors, graphics & compute pipelines, shader core/ISA, CBs/DB (ROPs)... I think texture cache/filtering is in there too but not sure ATM.
https://forum.beyond3d.com/posts/1902488/

fondness
2016-03-27, 12:44:06
Könnte ähnlich aussehen wie bei Maxwellv1 und v2. Zuerst kommen die Energiesparfunktionen mit Polaris und dann die Features mit Vega.

iuno
2016-03-27, 13:32:15
Laut Roadmap sollten beide Vega-Chips HBM2 haben, von daher ist etwas noch größeres nicht ganz unwahrscheinlich.
Naja, genaugenommen stimmt das so nicht. Aus der Roadmap geht nur hervor, dass HBM2 mit Vega eingefuehrt wird, das bedeutet nicht zwangslaeufig dass jeder Vega Chip HBM2 hat.
IMHO macht aber nur das Sinn, sonst steht GP100 komplett ohne Konkurrernz da. Im HPC Markt ist Hawaii noch top, wird aber klar abgeloest, was Perf/Watt angeht. AMD koennte dann bei FirePROs auch endlich Tahiti abloesen aber auch weiterhin zwei 'groessere' Chips mit viel DP Leistung anbieten, falls wirklich beide Vega auch viel DP Leistung haben.

Je nachdem wie viele CUs P10 nun wirklich hat, wird der gap denke ich auch nicht zu gross. Dass P10 erstmal beschnitten kommt, ist fuer mich auch plausibel. Mit den Speichertechnologien waere auch genug Potenzial fuer 'Modellpflege' bzw. die Chips schrittweise 'freizuschalten' bis Navi (10 nm?) bereitsteht...

Die Analogie zu Maxwell Gen.1/2 koennte ziemlich gut passen. Nur dass natuerlich auch der Fertigungssprung dazu kommt und Funktionen dann letztendlich hoffentlich noch umfaenglicher unterstuetzt werden (s. Intel) als bei Maxwell 2, da wirkt das ja teils auch wie eine last-minute Geschichte

HOT
2016-03-27, 13:37:06
AMD macht nur einen 350mm²-Chip und das wars denn? Nein.
Und Navi bzw. Volta-Produkte sind sowieso nicht vor Mitte 2018 zu erwarten, sollten sie wirklich 10nm sein.

Vega10 -> 4k Shader, komplett neues Frontend -> 2 HBM2-Stacks
Vega11 -> wahrscheinlich 8k Shader -> 4 HBM2-Stacks

AMD hat sicher gelernt, wie wichtig das Dickschiff ist, den Fehler begehen sie nicht noch mal.

Locuza
2016-03-27, 13:58:25
Wenn AMD gelernt hat, wie wichtig das Dickschiff ist, dann sollte Vega11 zeitlich am besten nicht weit weg sein von GP100.
Ich habe aber eher das Gefühl AMD wird sich wieder Zeit lassen.

fondness
2016-03-27, 14:07:58
Wenn AMD gelernt hat, wie wichtig das Dickschiff ist, dann sollte Vega11 zeitlich am besten nicht weit weg sein von GP100.
Ich habe aber eher das Gefühl AMD wird sich wieder Zeit lassen.

Naja, AMD bedient dafür den Notebookmarkt deutlich früher - und da hat man wohl mindestens einen ebenso hohen Handlungsbedarf. GP100 sehe ich zu beginn nur im Profisegment und als TITAN. Aber ja, da sollte Nvidia einen Vorsprung haben.

Ravenhearth
2016-03-27, 14:09:32
Vega10 -> 4k Shader, komplett neues Frontend -> 2 HBM2-Stacks
Vega11 -> wahrscheinlich 8k Shader -> 4 HBM2-Stacks

Sollte Polaris10 die 36 CUs in <250mm² bringen und Vega10 mit 64 CUs bei <400mm² liegen, wird das mit den 8k Shadern für Vega11 schon sehr, sehr knapp. 6k klingen da realistischer.

iuno
2016-03-27, 14:11:28
Naja es ist auch nicht unproblematisch... Hawaii bietet aktuell schon 32 GiB, das geht bei einem 4 kib SI nur mit 8 Hi Stacks. Vega 10 sollte nur 2048 Bit haben (8/16 GiB).
Denke daher auch, dass erstmal alles als Salvage kommt, P10 PRO mit GDDR5 und V10 PRO mit 8 GiB und entsprechend Fiji PRO <=56 CUs. Spaeter dann P10 XT mit GDDR5X, V10 XT und das Monster V11 mit 16/32 GiB und >80 CUs :eek:

Korvaun
2016-03-27, 14:24:35
Vega 10 mit 350-400mm2 in 1Q2017 ist sicher nicht unrealistisch. Bis dahin sollte der 14/16nm Prozess auch gut genug dafür laufen. Danach dann Vega 11 als "BigBoy" gegen GP100. Wer rechnet ernsthaft mit Consumer-GP100 vor 2017? Das würde dann schon passen für AMD.

Nakai
2016-03-27, 14:36:00
Man sollte VegaSmall eher als Tahiti Klasse sehen. Und VegaBig eben als Hawaii.

HOT
2016-03-27, 15:29:45
Polaris10 wird 40CUs haben. 36 wird die salvage-Variante sein.
Und vor Fiji gabs genau die gleichen Diskussionen, dass 4k Shader nicht möglich seien.

Nakai
2016-03-27, 16:25:55
Polaris10 wird 40CUs haben. 36 wird die salvage-Variante sein.
Und vor Fiji gabs genau die gleichen Diskussionen, dass 4k Shader nicht möglich seien.

Und bei Hawaii umgekehrt. Wenn 36 CUs das Limit ist, was man mit einer Flächenvorgabe erreicht, dann ist es eben so.

Dass ein 36 CU Polaris10 Fiji erreicht ist ziemlich ausgeschlossen. Im Treiber sind auch keine höheren Taktraten für Polaris "markiert" (kann sich noch ändern). Reinher vom Powertune sieht das sehr nach Tonga und Fiji aus. Dann ist da noch das ominöse Clockpowergating pro CU, was definitiv die Effizienz stark steigern sollte. Dass wir Polaris-Leaks mit 800 Mhz Coretakt haben und diese Andeutung im Treiber haben, deutet stark darauf hin, wohin die Reise geht. Ich erwarte keine starken Takterhöhungen für Polaris. Eher hat man die CUs auf diesen Takt angepasst.

€:
http://forums.overclockers.co.uk/showpost.php?p=29320384&postcount=2146



+ vbios.high_yclk = bw_int_to_fixed(6000); <-Ram clock stuff
+ vbios.mid_yclk = bw_int_to_fixed(3200);
+ vbios.low_yclk = bw_int_to_fixed(1000);
+ vbios.low_sclk = bw_int_to_fixed(300); <-GPu clock stuff
+ vbios.mid_sclk = bw_int_to_fixed(974);
+ vbios.high_sclk = bw_int_to_fixed(1154);

iuno
2016-03-27, 16:56:06
Hatten wir schon, wobei das auch nur dummy Werte sind. Habe jetzt nicht naher geschaut, aber die richtigen Raten mit der voltage table usw. stehen natuerlich im vbios. Der Code steuert die Hardware nicht, zumal das ja im DAL steht und nicht im drm. Muss aber schon wieder los :D
Carrizo steht auch dabei. Da steht z.B. 1600 MHz dabei, aber iirc geht mit Carrizo ja auch mindestens DDR3-1866?!

https://cgit.freedesktop.org/cgit/?url=~agd5f/linux/tree/drivers/gpu/drm/amd/dal/dc/calcs/bandwidth_calcs.c&h=drm-next-4.7-wip-dal#n3624

HOT
2016-03-27, 18:31:59
Und bei Hawaii umgekehrt. Wenn 36 CUs das Limit ist, was man mit einer Flächenvorgabe erreicht, dann ist es eben so.

Dass ein 36 CU Polaris10 Fiji erreicht ist ziemlich ausgeschlossen. Im Treiber sind auch keine höheren Taktraten für Polaris "markiert" (kann sich noch ändern). Reinher vom Powertune sieht das sehr nach Tonga und Fiji aus. Dann ist da noch das ominöse Clockpowergating pro CU, was definitiv die Effizienz stark steigern sollte. Dass wir Polaris-Leaks mit 800 Mhz Coretakt haben und diese Andeutung im Treiber haben, deutet stark darauf hin, wohin die Reise geht. Ich erwarte keine starken Takterhöhungen für Polaris. Eher hat man die CUs auf diesen Takt angepasst.

€:
http://forums.overclockers.co.uk/showpost.php?p=29320384&postcount=2146
Wobei sich 10CUs ja als extrem effizient erwiesen haben, sowohl bei Pitcairn als auch bei Hawaii Pro. Ich fänds am plausibelsten, wenn Polaris 11 20CUs hätte und Polaris 10 eben 40.

Spasstiger
2016-03-28, 22:33:28
Hat Polaris eigentlich schon ein GDDR5X-IF oder ist die Spezifikation des Speichertyps noch zu jung? Hardwaresamples von GDDR5X-Chips für die Evaluation werden erst jetzt ausgeliefert. Deutet natürlich aber darauf hin, dass entsprechende Interfaces bei den IHVs schon in Silizium laufen.
Bei Grafikkarten mit Markteinführung im Q2/2016 ist es sicherlich zu früh für GDDR5X, aber ein Refresh zum Jahresende könnte damit aufgewertet werden.

Nakai
2016-03-28, 23:05:23
Hat Polaris eigentlich schon ein GDDR5X-IF oder ist die Spezifikation des Speichertyps noch zu jung? Hardwaresamples von GDDR5X-Chips für die Evaluation werden erst jetzt ausgeliefert. Deutet natürlich aber darauf hin, dass entsprechende Interfaces bei den IHVs schon in Silizium laufen.
Bei Grafikkarten mit Markteinführung im Q2/2016 ist es sicherlich zu früh für GDDR5X, aber ein Refresh zum Jahresende könnte damit aufgewertet werden.

Das ist eine gute Frage. Die Speichercontroller sind auf Version 7.1 (von 7.0) upgegradet worden, was immer das auch bedeuten mag. Besseres DCC, mehr Cache oder auch GDDR5X.

horn 12
2016-03-28, 23:10:00
Somit dürfte Polaris 10 weitaus uninteressanter werden und nur im Update, fast Zeitgleich mit Vega 10 den Verkauf ankurbeln.
Und zudem mit GP104 das Ende der Performance für das so extrem tolle Jahr 2016 erreicht worden sein.
Nochmals uninteressanter als vor dem Fiji Launch!

Ailuros
2016-03-29, 08:16:15
Hat Polaris eigentlich schon ein GDDR5X-IF oder ist die Spezifikation des Speichertyps noch zu jung? Hardwaresamples von GDDR5X-Chips für die Evaluation werden erst jetzt ausgeliefert. Deutet natürlich aber darauf hin, dass entsprechende Interfaces bei den IHVs schon in Silizium laufen.
Bei Grafikkarten mit Markteinführung im Q2/2016 ist es sicherlich zu früh für GDDR5X, aber ein Refresh zum Jahresende könnte damit aufgewertet werden.

Laesst sich ziemlich einfach loesen: man stellt die neue Produkt-Familie vor und es werden fuer den Anfang nur die Varianten veroeffentlicht die kein GDDR5X brauchen. Es macht so oder so mehr Sinn aus yield/Kosten-Gruenden zuerst die kleineren chips aufs Laufband zu bringen.

tm0975
2016-03-29, 08:52:10
es sieht ja auch bei AMD ganz danach aus, dass erst das veröffentlicht, was mit gddr5 kommt. ob nun warten auf gddr5x oder hbm2 sei mal dahingestellt...

Ailuros
2016-03-29, 10:45:38
http://www.3dcenter.org/news/amds-greenland-chip-mit-4096-shader-einheiten-bestaetigt

....ach Du gruene Neune jetzt behauptet auch schon 3DC dass Greenland und Vega eigentlich ein und dasselbe sind. Mr. Yu Zheng sollte sich schaemen das gesamte internet so zu trollen.... ;D :freak:

*ahem* :weg:

Locuza
2016-03-29, 13:30:52
Sind sie nicht? :P

Ailuros
2016-03-29, 13:39:36
Sind sie nicht? :P

IMHO schon. Es gibt aber wohl doch so manchen hier der es besser "weiss" :P

Nakai
2016-03-29, 13:45:34
AMD hat Baffin und Ellesmere zu P11 und P10 umbenannt. Das alleine sollte schon als Argument reichen. Und selbst wenn Greenland und Vega10 etwas verschiedenes sind, dann ist es eher eine Evolution und intern wird es wie immer gehandhabt.

Laesst sich ziemlich einfach loesen: man stellt die neue Produkt-Familie vor und es werden fuer den Anfang nur die Varianten veroeffentlicht die kein GDDR5X brauchen. Es macht so oder so mehr Sinn aus yield/Kosten-Gruenden zuerst die kleineren chips aufs Laufband zu bringen.

Ich habs ja schon mal geschrieben, der Retail-Markt wird sich erstmal nicht freuen. Ich hoffe, dass AMDs Marketing nicht wieder schwachsinnig reagiert.

iuno
2016-03-29, 13:50:44
Interessant finde ich dahingehend, dass ueberhaupt kein "Insel-Codename" fuer Vega 11 aufgetaucht ist. Moeglich, dass dessen Entwicklung erst nach der Einfuehrung der Sterne begonnen wurde? Das koennte ein Indiz sein, dass es noch recht lange dauert, bis der Chip kommt...

HOT
2016-03-29, 16:11:52
Woher will man denn wissen, dass Greenland überhaupt Vega 10 ist? Könnte auch Vega 11 sein. Bei Polaris haben auch alle bis zum Schluss falsch gelegen.
Vielleicht war Greenland auch in 16nm mit der gleichen IP-Version wie Baffin und Ellesmere geplant und wurde schlicht durch 14nm Vega mit 9.0 IP ersetzt - für mich sogar das schlüssigste Scenario. Erfahren werden wir das leider nie.

iuno
2016-03-29, 16:17:22
Falsch gelegen womit? Da ging es um die Groesse, hier haben wir aber auch die zeitliche Komponente: Vega 10 (klein) zuerst, Vega 11 (gross) danach. Greenland wird wohl der erste Vega Chip sein, einfach weil er schon laenger bekannt ist. Ergo Vega 10.
Jetzt verstehe ich langsam auch Unicous' Unmut ueber die Namensgebung, wenn ueber sowas spekuliert werden muss...

Nakai
2016-03-29, 16:23:11
Darüber zu reden ist völlig lächerlich.

Welchen RGB Wert hat der Himmel? 0,0,255 oder 0,25,255?
Vega10 und Greenland sind wohl für dasselbe Performancesegment angesetzt. Ob Greenland Cancel => Vega10 oder Greenland Renaming => Vega10 ist irrelevant.

Ich sage ja auch immer PolarisBig/Small oder VegaBig/Small. Das ist nur eine Verwirrtaktik seitens AMD oder sonstwas um uns in den Foren und NV etwas anzupissen. Same business as usual. Im Endeffekt will wohl AMD mit Polaris/Vega einen ähnlichen Namenshype, wie NV mit Maxwell/Pascal/etc... veranstalten.

Das Einzige was man diesbezüglich spekulieren kann, sind die architekturellen Änderungen von Vega gegenüber Polaris.

stinki
2016-03-29, 16:43:19
Wenn man sich anschaut was wahrscheinlich von AMD kommen wird, hätte man das ganze mit etwas Weitblick fast schon in 2012 vorhersagen können ;-)
Polaris 11 = ca. 2* Cape Verde = ca. 1280 Shader
Polaris 10 = ca. 2* Pitcairn = ca. 2560 Shader
Vega 10 = ca. 2* Tahiti = ca. 4096 Shader
Vega 11 = ca. 2* Hawaii = ca. 5632 Shader

Ja, ich weiß Hawaii kam erst Ende 2013 und vielleicht wird es bei dem einen oder anderen Chip ein paar Shader mehr oder weniger aber im großen und ganzen bleibt sich AMD bei der Ansetzung der Chips relativ treu.

Nakai
2016-03-29, 18:03:47
Nein so wie ich das sehe hat der "GCP" nicht pro Typ eine Pipe, sondern insgesamt nur eine Queue, die eben gfx und compute Tasks abarbeitet.
Liverpool scheint dahingehend eine Besonderheit zu sein (steht ja auch auf der Seite), dass er noch eine extra gfx Pipe (HP3D) nur fuer gfx, ohne compute hat.
Warum soll der GCP mehrere Queues gleichzeitig abarbeiten? Wofuer mehrere gfx queues? Fuer Compute Queues gibt es doch die ACEs :confused:
Vor allem ist man ja extra davon weggegangen: der alte CP (1gfx, 2 compute queues) wurde aufgesplittet in die ME (1 gfx/compute) und 1-2 MECs (je 8 pipes (ACEs) mit je 8 queues).

Ich denke nicht, dass da viel gemacht wird, sehe aber ehrlich gesagt auch keinen grossen Bedarf. AMD hat in dem Bereich einen grossen Vorsprung. Vielleicht werden es insgesamt nochmal ein paar queues mehr oder so, grundsaetzliche Aenderungen erwarte ich aber eigentlich nicht so schnell.

Sollten das aber vielleicht in den richtigen Thread tragen
sorry fuer ot :redface:

So richtiger Thread.

Zitat aus dem Whitepaper, was relativ untechnisch ist:

https://www.amd.com/Documents/GCN_Architecture_whitepaper.pdf

The GCN command processor is responsible for receiving high-level level API commands from the driver and mapping them onto the different processing
pipelines. There are two main pipelines in GCN. The Asynchronous Compute Engines (ACE) are responsible for managing compute shaders, while a graphics
command processor handles graphics shaders and fixed function hardware. Each ACE can handle a parallel stream of commands, and the graphics command
processor can have a separate command stream for each shader type, creating an abundance of work to take advantage of GCN's multi-tasking.

Wie das genau gehandhabt wird, dazu kann man sehr wenig sagen. Unter Vulkan und DX12 gibt es nur eine GraphicsQueue(Engine) pro GPU (afaik). Intern wird wohl für jeden Shadertyp eine Pipeline verwaltet, welche sich, ähnlich wie die ACEs, über GDS und Cache synchronisieren. Kurz, ein PixelShader kommt definitiv nach dem zugehörigem VertexShader. Also sehr ähnlich wie der Taskgraph bei den ACEs.

€: Eine Idee für Polaris wäre dann dementsprechend, dass der GCP mehrere unified Pipes besitzt. Zum Beispiel, wenn ich X unified Pipes besitze und heftiges Pixelshading mit mehreren unabhängigen Shadern betreibe, dass ich eben Y dieser unified Pipes verwende. Grundsätzlich läuft ja nicht nur ein Shader immer auf den CUs sondern alles dementsprechend, wie es die Abhängigkeiten erlauben, gemischt und parallel.

Ailuros
2016-03-29, 19:05:52
Falsch gelegen womit? Da ging es um die Groesse, hier haben wir aber auch die zeitliche Komponente: Vega 10 (klein) zuerst, Vega 11 (gross) danach. Greenland wird wohl der erste Vega Chip sein, einfach weil er schon laenger bekannt ist. Ergo Vega 10.
Jetzt verstehe ich langsam auch Unicous' Unmut ueber die Namensgebung, wenn ueber sowas spekuliert werden muss...

Pah sei froh dass Du den 20SoC Affenzirkus verpasst hast. Greenland, Baffin und Ellesmere sind Insel-bzw. Codenamen die schon seit einer Ewigkeit herumschwirren.

Greenland bzw. Vega oder PippiLangstrumpfmachtschoeneKopfstaende ist der Fiji successor mit HBM2 oder wie ich es nenne "Fiji done right". IHVs stampfen keine komplizierten Projekte ein wenn sie zu tief in der Entwicklung stecken, nicht mal wenn man Intel heisst und einen Larabee entwickelt hat.

Vega vs. GP100 und dann ~2 Jahre spaeter Navi vs. Volta.

Botcruscher
2016-03-29, 19:13:50
Intel hat im Gegensatz zu AMD Geld und versucht sich an neuen Märkten.

Disco_STFU
2016-03-29, 19:19:14
Mal blöd in die Runde gefragt: Wird Polaris eigentlich DX 12.1 Featuresets beherrschen? :confused:

Ailuros
2016-03-29, 19:21:08
Intel hat im Gegensatz zu AMD Geld und versucht sich an neuen Märkten.

Ein Grund mehr fuer AMD kein einziges kompliziertes Projekt einzustampfen. Intel hat anfangs mit Larabee ueber eine Milliarde fuer R&D ausgegeben; Larabee war von Anfang an sowohl fuer HPC als auch desktop bestimmt. Im zweiten haette es sich blamiert ergo liess man nur den HPC Anteil der Sache bestehen.

Botcruscher
2016-03-29, 19:58:56
Intel kann sich das leisten und muss von der Karte nicht leben. AMD ist kurz vor dem abnibbeln. Die Kohle gehört dahin wo die höchsten Gewinne zu erwarten sind. Bei AMD ist das vor allem Marketing und die Schnittstelle zu den Partnern. Das fängt bei ordentlichen Notebookdesigns an und hört bei entsprechenden Grafikkartenkühlern auf. Mit Blick auf Hawaii und die Fury muss man schon von Absicht ausgehen. Unfähigkeit kommt nur einmal vor.
PS: Ich bin direkt gespannt was sie bei P10/11 versauen.

Locuza
2016-03-29, 20:09:57
PS: Ich bin direkt gespannt was sie bei P10/11 versauen.
Kein FL12.1 Support *SCNR*

M4xw0lf
2016-03-29, 20:20:14
Kein FL12.1 Support *SCNR*
Du mit deinem 12.1. Ich erwarte absolut, dass dieses Featurelevel außerhalb von Gameworks quasi nichtexistent sein wird.

Kartenlehrling
2016-03-29, 20:22:23
Wenn Microsoft für ihr Shader Model 6.0 wirklich D3D12.1 hardware verlangen anstelle von FL_12.0+ hat AMD dieses Jahr keine Grafikkarte mit diesen Features.
Macht aber auch das ganze Gerede von DX12 Tauglichkeit zu einem Witz.

w0mbat
2016-03-29, 20:24:34
MS baut ihr DX12 auf der AMD-APU der X1 auf, also wird das kein Problem sein.

M4xw0lf
2016-03-29, 20:27:35
MS baut ihr DX12 auf der AMD-APU der X1 auf, also wird das kein Problem sein.
Ich sehe da auch nicht, dass die Entwicklung großartig an AMDs Featuresets vorbeilaufen kann, das bildet schließlich die Plattform für die quasi alles entwickelt wird.

dildo4u
2016-03-29, 20:35:38
Wenn Microsoft für ihr Shader Model 6.0 wirklich D3D12.1 hardware verlangen anstelle von FL_12.0+ hat AMD dieses Jahr keine Grafikkarte mit diesen Features.
Macht aber auch das ganze Gerede von DX12 Tauglichkeit zu einem Witz.
NV hat immer noch große Marktanteile im PC Bereich,es lohnt sich also 12.1 zu nutzen wenn sich jemand die Arbeit macht.Reine Konsolenports werden 12.1 so oder so nicht nutzen,da selbst mit der neuen PS4k noch Rücksicht auf die alte Version genommen werden muss.

Locuza
2016-03-29, 21:12:55
Du mit deinem 12.1. Ich erwarte absolut, dass dieses Featurelevel außerhalb von Gameworks quasi nichtexistent sein wird.
Entschuldige das ich an einer Vortraumatischen Belastungsstörung leide.
Mit Just Cause 3 und F1 2015 wird es irgendwann zwei Titel geben, die außerhalb von GameWorks die Features verwenden.
Ist bei den zwei Titeln dann Schluss?
Und zählen GameWorks Titel nicht?

HOT
2016-03-29, 21:28:26
Dennoch wird alles auch ohne 12_1 gut laufen, die Vorteile sind minimal. Ich kann mir nicht vorstellen, dass das ein großer Verlust ist. War ein x.1-Featureset nie und wird es auch nie sein.

OBrian
2016-03-30, 00:26:35
Vortraumatische Belastungsstörung:freak:

nun, es wird so wie immer laufen: ein paar Spiele, für die ein Hersteller bezahlt hat, bieten eine besondere Grafik für bestimmte Karten, für die anderen Karten wird die Texturauflösung einen Zacken runtergedreht und SSAO weggelassen, damit auch der Unbedarfte einen Unterschied sieht. Und die meisten DX12-Spiele werden einfach den kleinsten gemeinsamen Nenner nehmen. Wobei sowieso noch der Großteil der Spiele reine DX11-Technik benutzen wird.

Wieso kommt diese Frage seit zig Jahren immer wieder auf? Es ist doch klar, daß sich nur das Feature langfristig durchsetzt, was beide Hersteller anbieten.

Screemer
2016-03-30, 01:17:58
Weil wir dieses Mal das erste Mal die Situation mit 2 Konsolen haben, die die gleichen Features unterstützen wie einer der Hersteller.

Ailuros
2016-03-30, 06:06:27
Kein FL12.1 Support *SCNR*

Es gibt schlimmeres wie wir beim vorigen launch gesehen haben: fertige hw mit halbgahren Treibern.

Loeschzwerg
2016-03-30, 08:13:17
Wenn du als HW die GPU meinst, dann ja :D Generell lag da aber noch mehr im argen als nur die Treiber.

Ich erwarte mit der kleineren Fertigung jetzt keine Wunder bei der Taktfrequenz, aber meint ihr man wird Polaris 10 alltagstauglich über Fury X Leistung prügeln können?

iuno
2016-03-30, 08:39:48
Was gab es denn zum Launch speziell fuer Treiberprobleme?
"Halbgar" sind sie im Grunde immer. Das ist im Uebrigen auch bei Nvidia so, geht aber natuerlich nicht so sehr ins Extrem. Bezeichnend ist etwa wieder, dass Crimson 16.3.2 mit den QRQs auch mal zu einer Hardwarefunktionalitaet von vor drei (!) Jahren aufholt... gut, mit normalem DX11 haette das eh nichts gebracht, Nvidia haette so einen theoretischen Vorsprung aber sicher nicht drei Jahre 'totgeschwiegen', sondern mit Gameworks in einenen reellen Vorsprung umgemuenzt.

Wobei ich ehrlicherweise sagen muss, dass das vielleicht schon auch mit Mantle moeglich war und sie jetzt erst mit DX12 damit in die Offensive gehen. Wirklich dran glauben kann ich aber nicht :usad:

Loeschzwerg
2016-03-30, 09:55:08
Naja, die miesen Frametimes in ein paar Spielen (Fury X Launch) hätten echt nicht sein müssen. Aber das ist ja zum Teil der generellen DX11 Problematik geschuldet.
Dazugesellt haben sich noch Probleme z.B. mit dem DisplayPort und so Sachen wie "AMD Radeon™ Fury Series may experience corruption on desktop when system is idle for an extended period of time."

Wie schon geschrieben waren für mich andere Dinge ebenfalls entscheidend (z.B. Pumpe, PCB Layout, Produktpolitik).

Gut, ist Schnee von Gestern. Abhaken.

Sunrise
2016-03-30, 10:08:41
...Ich erwarte mit der kleineren Fertigung jetzt keine Wunder bei der Taktfrequenz, aber meint ihr man wird Polaris 10 alltagstauglich über Fury X Leistung prügeln können?
Wenn AMD das komplette Design auf hohe Perf/W auslegt und die Default-Clocks dieses Mal deutlich mehr im Sweet-Spot sind (siehe die nano) dann kommt man evtl. mit Dritthersteller-Karten in die Nähe.

Ich erwarte eher stromsparende aber verdammt schnelle Karten wie von NVs GK104 (670/680) und GM204 (970/980).

Man muss der Presse die gesteigerte Effizienz und Performance bei niedrigerer TDP verkaufen, und die Leistung sollte ab Werk über 970/980 liegen. Der Rest ist einfach nur Bonus, bei dem Preispunkt, den AMD mit Polaris anpeilt.

Wichtig ist, dass sie die Dinger schnellstmöglich auch liefern können (Ende Sommer spätestens), die Treiber auch alles direkt voll unterstützen und nichts "brach liegt" und sie stabil sind bei den Dingen, mit denen AMD hoffentlich offensiv werben wird. Denn das ist schon lange keine reine HW-Schlacht mehr.

iuno
2016-03-30, 10:46:47
Haben sich denn die kleineren AMD Chips bislang besser uebertakten lassen als die grossen? €: offenbar machte Pitcairn immerhin immer so 10-20% mit
Dass die beiden Polaris naeher am Sweetspot sind als Hawaii@Uber und Fiji@Wakue, da bin ich mir sicher ;)

Sunrise
2016-03-30, 10:53:38
So 20-30% sollten drin sein, wenn AMD tatsächlich nicht über 1GHz gehen sollte. Allerdings wissen wir eben nicht, wo das Chiplimit ist, wenn AMD da die Packdichte zugunsten der Die-Größe (Verkaufspreis, 14nm LPP wird ja teuer genug) stark optimiert hat. Sind eben alles eher Ratespiele aufgrund der Tatsache, dass es aktuell keine Desktop-PC-GPUs auf 14nm LPP und 16FF+ gibt. Und selbst dann hätte man maximal eine Tendenz.

Michalito
2016-03-30, 10:57:20
Was ist den: QRQs ?

Loeschzwerg
2016-03-30, 11:00:55
Quick Response Queue => http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10985232#post10985232

iuno
2016-03-30, 11:03:30
Darfs noch etwas mehr sein?

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=572005
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10985475#post10985475
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10976632#post10976632
http://www.anandtech.com/show/10195/oculus-rift-launch-day-news
https://community.amd.com/community/gaming/blog/2016/03/28/asynchronous-shaders-evolved

;p

Michalito
2016-03-30, 11:04:51
Danke, bin nun erstmal versorgt...


€: Hatte einiges davon bereits gelesen. Konnte aber mit der Abkürzung auf Anhieb nichts anfangen. Parallele Verarbeitung von Compute und Grafikbefehlen durch Async Einheiten würde ich nun Laienhaft zusammenfassen.

iuno
2016-03-30, 11:09:15
Nee, das gibt schon vorher. Bei QRQ geht es noch darum, darauf Einfluss nehmen zu koennen, welche Aufgabe wichtiger ist und frueher abgearbeitet werden soll

Frosty
2016-03-30, 12:31:03
welchen speichertakt wird polaris 10 haben? angenommen es wird wirklich gddr5 ohne x und davon 8 gb, dann müsste es doch wenigstens der schnellste verfügbare gddr5 werden oder? nur 224 gb/s mit dem uralten 7gbs gddr5 wäre doch etwas mager, die gtx 980 hat das schon ewig.

dargo
2016-03-30, 12:40:37
Nee, das gibt schon vorher. Bei QRQ geht es noch darum, darauf Einfluss nehmen zu koennen, welche Aufgabe wichtiger ist und frueher abgearbeitet werden soll
Wer entscheidet das? Der Treiber oder der Entwickler?

iuno
2016-03-30, 12:48:05
Der Entwickler wird die Tasks priorisieren koennen, ich bin mir relativ sicher, dass das mit den HLSL Extensions/damit wovon der DICE Entwickler (hatten wir ja im GPUOpen) sprach zu tun hat.
Ich habe dir uebrigens auch dort schon geantwortet: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10985610#post10985610

Ailuros
2016-03-30, 12:50:48
Was gab es denn zum Launch speziell fuer Treiberprobleme?
"Halbgar" sind sie im Grunde immer. Das ist im Uebrigen auch bei Nvidia so, geht aber natuerlich nicht so sehr ins Extrem. Bezeichnend ist etwa wieder, dass Crimson 16.3.2 mit den QRQs auch mal zu einer Hardwarefunktionalitaet von vor drei (!) Jahren aufholt... gut, mit normalem DX11 haette das eh nichts gebracht, Nvidia haette so einen theoretischen Vorsprung aber sicher nicht drei Jahre 'totgeschwiegen', sondern mit Gameworks in einenen reellen Vorsprung umgemuenzt.

Wobei ich ehrlicherweise sagen muss, dass das vielleicht schon auch mit Mantle moeglich war und sie jetzt erst mit DX12 damit in die Offensive gehen. Wirklich dran glauben kann ich aber nicht :usad:

So war es nicht gemeint; der vorige Familien-launch wurde um einiges verzoegert weil die Treiber fuer diese noch nicht fertig waren.

dargo
2016-03-30, 12:50:56
Der Entwickler wird die Tasks priorisieren koennen...
Das war meine Befürchtung. Schauen wir mal wieviele dazu bereit sind.

HOT
2016-03-30, 12:53:52
welchen speichertakt wird polaris 10 haben? angenommen es wird wirklich gddr5 ohne x und davon 8 gb, dann müsste es doch wenigstens der schnellste verfügbare gddr5 werden oder? nur 224 gb/s mit dem uralten 7gbs gddr5 wäre doch etwas mager, die gtx 980 hat das schon ewig.
Es reicht aber auch bei der 980, selbst wenn man diese übertaktet. Da AMD ja den Fokus offenbar auf die Caches, Kompression und die Mem-Controller (lt. Folien) gelegt hat bei Polaris, dürfte man ebenfalls damit klarkommen. Ich vermute, dass P10 sich ungefähr auf dem Niveau einer übertakteten GM204 bewegen wird bei DX11 (minus CPU-Overhead natürlich, sofern relevant). Die bewegen sich vom Takt her sicherlich auch zwischen 1100 und 1200MHz, da ja lustigerweise grad der Maximalverbrauch lt. AMD weniger eine Rolle spielt durch FinFETs.

Michalito
2016-03-30, 13:01:02
Nee, das gibt schon vorher. Bei QRQ geht es noch darum, darauf Einfluss nehmen zu koennen, welche Aufgabe wichtiger ist und frueher abgearbeitet werden soll

Merci, kaue noch am Lesestoff..

Complicated
2016-03-31, 21:57:18
Details zum HBM2-Controller:
http://cdn2.hubspot.net/hubfs/560422/hbm_seminar_graphics/high-bandwidth-memory-white-paper-start-your-hbm-25d-design-today-20160329.pdf
http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=34174&d=1459454058

cat
2016-04-04, 00:03:26
Haltet ihr das hier für möglich ?

Habt ihr die Ansage von AMD mit den 2,5-fache Effizienz noch vor Augen...
und die Aussage Polaris and FinFET clock very well ?
Und die Aussage mindestens eine R9 290 oder GTX970 für VR und das AMD den Einstieg billiger machen will ?

Behaltet mal bitte die aktuellen 300-350 Euro dafür im Hinterkopf.

Jetzt stellt euch mal einen Chip vor 14nm etwa 150mm² groß der folgendes schafft:

Chiptakt 1340 MHz
GPix/s 43 (32ROP)
GTex/s 171
GFlops 5478
256 Bit ca. 1750 Mhz GDDR5 224 GB/s
+ bessere Kompression und bessere Caches
ca. 100 Watt evtl. auch Karten ohne 6-pin, diese dann entsprechend langsamer getaktet und/oder gecutted.

Und jetzt denkt über den Preis nach, denk ihr das geht für unter 300 Euro ?


Die aktuell schnellste AMD Karte ohne Power-Connector (ist als Basiswert quasi tiefgestapelt), habe die Specifikationen x2,5 gerechnet.
Und ja ohne 6-pin drosselt sie sogar etwas aber das ist jetzt hier nicht weiter wichtig !!
http://www.hisdigital.com/un/product2-912.shtml
1024Core :64TMU :16ROP 1070MHz 2191GFlops 68,5GTex/s

2191x2,5= 5478 Gflops /// 68,5x2,5= 171GTex/s

Da die Werte etwa einer 1050MHz R9 390 (5376GFlops) entsprächen, hier der Umkehrschluss.
Peak Watt in Gaming 390 250W : 2,5 = ca. 100W TDP

Der_Korken
2016-04-04, 00:57:15
Die Leistung einer 390 wird in 150mm² wohl kaum möglich sein.

Milchmädchenrechnung: 150mm² in 14nm = 300mm² in 28nm =70% von Hawaii (R9 390) -> 40% mehr Takt als Hawaii notwendig für gleiche Leistung (also >1,4Ghz).

Edit: Bevor in meinen Post zu viel reininterpretiert wird: Das sind alles geschätzte bzw. geratene Werte, um die Einschätzung der 150mm² zu verdeutlichen. Wie stark Packdichte und Taktbarkeit von 14nm ausfällt, kann keiner genau sagen, aber der Konsenz hier im Thread ist, dass höhere Taktbarkeit sehr unwahrscheinlich ist, da AMD schon Packdichte und Energieffizienz aus dem Prozess ziehen will.

Complicated
2016-04-04, 07:25:15
Tonga hat 359 mm² in 28nm und ist daher ungefähr direkt Vergleichbar.

HOT
2016-04-04, 13:12:30
20 CUs aka 1280 Shader sind für mein Dafürhalten am wahrscheinlichsten, 40 CUs dann für Polaris 10.
Polaris 11 XT mit 20 CUs und 1250MHz Takt gepaart mit 128Bit 7GB/s GDDR5 dürfte auf Tahiti/Tonga-Salvage ankommen
Polaris 11 Pro mit 16 CUs und 1GHz+ Takt sollte Pitcairn komplett ersetzen
Polaris 10 XT mit 40 CUs und 1200MHz Takt gepaart mit 256Bit 7GB/s GDDR5 dürfte knapp HawaiiXT-Niveau erreichen
Polatis 10 Pro mit 36 CUs und 1GHz+ Takt dürfte Tonga/Tahiti XT+ ersetzen
Man dreht mächtig an der Kostenschraube mit Polaris und versucht so billig wie möglich zu bleiben.

Lineup 2016:

Oland
CapVerde
Bonaire
Polaris11
Polaris10
Fiji

Darüber geht es dann mit Vega klein für das Profisegment mit 64CUs weiter (Fiji + 20% ca.) und ein großer Gaming-Vega mit 96CUs + ist sicherlich auch noch zu erwarten.
Ich rechne auch mit zwei neuen Mini-GPUs in 22FDX als Ersatz für CapVerde und Oland, das wird man aber sicherlich nicht an die große Glocke hängen, aber kostentechnisch dürfte ein solcher Umstieg sehr interessant sein.

meiner Ansicht nach mögliches Lineup 2017:

6CUs 22FDX-Chip?
12CUs 22FDX-Chip?
Polaris11
Polaris10
Vega klein
Vega groß

mczak
2016-04-04, 17:47:39
6CUs 22FDX-Chip?

Kann mir kaum vorstellen dass man da so tief runter geht. Der wäre langsamer als dannzumals "normale" GT2 IGPs (und auch als amd apus). Da wird man einfach alten Mist verkaufen.

iuno
2016-04-04, 18:16:01
Lineup
Wie viele solcher Aufstellungen haust du eigentlich im Schnitt raus bevor eine neue Generation kommt? :tongue:

Glaube auch nicht daran, dass da demnaechst noch irgendwas unter P11 nachgeschoben wird, ausser evtl. eine reine co-GPU wie Topaz. Fuer die absolut billigsten Produkte kann man weiterhin den alten Kram nehmen und dann kommen da schon bald die APUs

victore99
2016-04-04, 23:11:39
22FDX? Hab ich da was verpasst? Ist das ein Prozess wie 20nm SOC oder 14nm FinFET SOI?

OBrian
2016-04-05, 07:31:12
das ist das, auf was Dresden umgerüstet wird, 22nm FD-SOI.
Die 14nm FinFET (von GF in New York) sind aber nicht SOI, sondern bulk, das sei nur der Richtigkeit halber hinzugesagt ;)

davidzo
2016-04-06, 02:06:44
Ja 22FDX kombiniert vereinfacht gesagt die SOI Technologien die man selber nach 32nm SOI entwickelt hat. Also die Metal Interconnects von 28nm FD-SOI mit 14nm Transistoren.

Daraus kommt ein Chip, der fast dieselbe Größe hat wie 28nm bulk (80%) aber um ein vielfaches stromsparender ist. Leider liegt der dann auch beim Preis näher an 14nm als an 28nm :(
Das ist vor allem für kleine Chips interessants, wo bei kleineren Verfahren nicht mehr genug platz für pads bleibt um Speicher und io anzubinden.

Ziemlich sicher wird AMD diese Technik in Zukunft für Chipsätze und ggf. kleine Grafikchips nutzen...

mczak
2016-04-06, 03:04:14
Ja 22FDX kombiniert vereinfacht gesagt die SOI Technologien die man selber nach 32nm SOI entwickelt hat. Also die Metal Interconnects von 28nm FD-SOI mit 14nm Transistoren.

Daraus kommt ein Chip, der fast dieselbe Größe hat wie 28nm bulk (80%) aber um ein vielfaches stromsparender ist. Leider liegt der dann auch beim Preis näher an 14nm als an 28nm :(
Das ist vor allem für kleine Chips interessants, wo bei kleineren Verfahren nicht mehr genug platz für pads bleibt um Speicher und io anzubinden.

Ziemlich sicher wird AMD diese Technik in Zukunft für Chipsätze und ggf. kleine Grafikchips nutzen...
Wo hast du die Info für den Preis her? GF verspricht ja 20% kleiner als 28nm bei Performance (also Stromverbrauch, etc.) quasi wie FinFet.
Ich habe da bloss ein paar Infos in einer Präsentation gefunden, https://www.youtube.com/watch?v=b-G9nLgDXm8 (Minute 11) - die Kosten für einen bestimmten Chip sollen da vergleichbar sein mit einem in 28SLP hergestellten, und FinFet ist da deutlich teurer. Ob man das so für bare Münze nehmen kann weiss ich aber nicht ;-).
Aber wenn die Kosten tatsächlich deutlich tiefer sind als bei 14nm FinFet aber ähnliche Performance erzielt werden kann sollte das eigentlich für sehr vieles interessant sein.
Das grösste Problem scheint mir für 22fdx allerdings das Timing zu sein. Risk Production für 22fdx ist 2H/2016, Volume Production 2H/2017, also etwa gleichzeitig mit 10nm FinFet. Das reicht so noch nicht mal für das Polaris/Vega 2017 Lineup.

victore99
2016-04-06, 06:38:33
Wo hast du die Info für den Preis her? GF verspricht ja 20% kleiner als 28nm bei Performance (also Stromverbrauch, etc.) quasi wie FinFet.
Ich habe da bloss ein paar Infos in einer Präsentation gefunden, https://www.youtube.com/watch?v=b-G9nLgDXm8 (Minute 11) - die Kosten für einen bestimmten Chip sollen da vergleichbar sein mit einem in 28SLP hergestellten, und FinFet ist da deutlich teurer. Ob man das so für bare Münze nehmen kann weiss ich aber nicht ;-).
Aber wenn die Kosten tatsächlich deutlich tiefer sind als bei 14nm FinFet aber ähnliche Performance erzielt werden kann sollte das eigentlich für sehr vieles interessant sein.
Das grösste Problem scheint mir für 22fdx allerdings das Timing zu sein. Risk Production für 22fdx ist 2H/2016, Volume Production 2H/2017, also etwa gleichzeitig mit 10nm FinFet. Das reicht so noch nicht mal für das Polaris/Vega 2017 Lineup.
Aber doch um einen Oland-Nachfolger nachzureichen.

tm0975
2016-04-06, 08:27:46
Aber doch um einen Oland-Nachfolger nachzureichen.

ende 2017 bzw anfang 2018 braucht es mmn im grafikmarkt nichts mehr in 22... das sind noch fast 2 jahre. da sind die igpus schon wieder einiges weiter...

HOT
2016-04-06, 11:14:34
Ja 22FDX kombiniert vereinfacht gesagt die SOI Technologien die man selber nach 32nm SOI entwickelt hat. Also die Metal Interconnects von 28nm FD-SOI mit 14nm Transistoren.

Daraus kommt ein Chip, der fast dieselbe Größe hat wie 28nm bulk (80%) aber um ein vielfaches stromsparender ist. Leider liegt der dann auch beim Preis näher an 14nm als an 28nm :(
Das ist vor allem für kleine Chips interessants, wo bei kleineren Verfahren nicht mehr genug platz für pads bleibt um Speicher und io anzubinden.

Ziemlich sicher wird AMD diese Technik in Zukunft für Chipsätze und ggf. kleine Grafikchips nutzen...
Das ist vollkommener Unsinn. 22FDX ist im Prinzip eine GloFo-Bezeichnung für 28nm FDSOI von STM, GloFo hat da nur ne Lizenz für. Der Prozess ist sehr günstig, weil dort Prozessschritte eingespart werden können in der Produktion im Vergleich zum Bulk-Prozess und 22FDX ist grade so groß gehalten, dass man mit SinglePatterning-Belichtung auskommt. Dank der FDSOI-Transistoren schafft man allerdings eine deutlich bessere Energieeffizienz als mit Bulk-Planar-Prozessen, was den Prozess trotz seiner massiven Verspätung extrem interessant für Chips macht, bei denen die pure Größe keine tragende Rolle spielt aber eben die Energieeffizienz. Das gilt mMn eben auch für kleine Grafikchips, für die FinFETs einfach zu teuer kommt.
Das was du meinst, FinFET-Transistoren auf einem FDSOI-Prozess zu kombinieren wird wohl bei GloFos 10nm der Fall sein, der ja eigentlich für die IBM-PPC-CPUs entwickelt wird.

Nakai
2016-04-06, 20:14:48
Es ist sehr wahrscheinlich, dass AMD so schnell wie möglich Marktanteile zurückerobern will. Ich denke P10 wird bei 249~349€ und P11 bei bis zu 149€ liegen. Damit ordnet sich P11 und P10 eben unterhalb Tonga bzw zwischen Tonga und Fiji ein.

mboeller
2016-04-06, 20:35:24
Das ist vollkommener Unsinn. 22FDX ist im Prinzip eine GloFo-Bezeichnung für 28nm FDSOI von STM, GloFo hat da nur ne Lizenz für.

oder auch nicht...

http://www.gsaglobal.org/wp-content/uploads/2012/05/22FDX_GSA_AMS_Webinar_Schaeffer_rev2-JSA-rev-7.pdf

http://www.advancedsubstratenews.com/2015/07/its-official-globalfoundries-launches-22fdx-22nm-fd-soi-in-4-flavors-relegates-finfets-to-niche/

fondness
2016-04-07, 16:47:11
Angeblich kommt die AMD Radeon R9 490X und R9 490 mit Polaris10 im Juni:
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june

maximus_hertus
2016-04-07, 16:53:49
Es ist sehr wahrscheinlich, dass AMD so schnell wie möglich Marktanteile zurückerobern will. Ich denke P10 wird bei 249~349€ und P11 bei bis zu 149€ liegen. Damit ordnet sich P11 und P10 eben unterhalb Tonga bzw zwischen Tonga und Fiji ein.

AMD hat nur ein Ziel: Endlich wieder Geld verdienen, bzw. keine roten Zahlen. Ich gehe nicht von unter 499 für P10 "XT" aus.

Nakai
2016-04-07, 17:35:25
Das kommt drauf an, wie teuer p10 und 11 wird. Die beiden Chips werden eher billig als teuer. Die Perf/Watt bei Faktor 2.5 würde ich zwar nicht schätzen, aber es wird doch sehr real sein.

Relic
2016-04-07, 19:32:08
AMD hat nur ein Ziel: Endlich wieder Geld verdienen, bzw. keine roten Zahlen. Ich gehe nicht von unter 499 für P10 "XT" aus.

AMD braucht hauptsächlich erstmal Umsatz... danach ist ans Geldverdienen zu denken..

R.I.P.
2016-04-07, 20:31:08
AMD braucht hauptsächlich erstmal Umsatz... danach ist ans Geldverdienen zu denken..

Zum Teil OT, deshalb entschuldige ich mich: Umsatz wird kommen, ab H2/2016. Polaris, Nintendo NX (noch nicht bestaetigt, aber sehr wahrscheinlich), PS 4k (PS4.5 oder wie es sich nennt), Xbox Next (vielleicht, auch hier Geruecht). Es kommen Bristol Ridge (APU, verbesserter Carizzo scheinbar) und Summit Ridge (ZEN).
2016 kann kommen, mMn ;D

iuno
2016-04-07, 23:27:49
Angeblich kommt die AMD Radeon R9 490X und R9 490 mit Polaris10 im Juni:
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june
Was die schreiben...
Fury X is slower than Polaris 10 and it may be used for Radeon R9 480 series instead.

Radeon 490 series will be direct counterparts to GeForce GTX 1080/1070 line, so it may give us some idea on Polaris 10 performance. It’s hard to say if Pascal GP104-based products will be faster than GM200-based cards, but judging from the past they should be. So technically Polaris 10 should also be faster than GTX 980 Ti, but that’s just pure speculation at this point.
Das ergibt doch alles keinen Sinn, imho. 1080/1070 werden GM200 abloesen muessen, nicht GM204. Polaris 10 dagegen loest wohl Hawaii ab und schlaegt daher in die Kerbe von GM204.
Schon klar, Fiji als 480 unter P10 weiterlaufen lassen... ganz sicher nicht
Und der Rest ergibt doch auch keinen Sinn, imho.
Logischer waere fuer mich immer noch (GP107/GM206) <= P11 < GP106 <= P10 < GP104 ~ V10 < GP102 V11
Ich haette P10 auch als 480 gesehen, das haette mMn das Schema auch etwas entzerrt, aber vielleicht kommt V10 ja auch direkt wieder als Fury o.ae. ausserhalb der Nummern

Sunrise
2016-04-07, 23:33:36
Angeblich kommt die AMD Radeon R9 490X und R9 490 mit Polaris10 im Juni:
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june
Alles mehr als $499 würde mich stark überraschen, wenn man damit in den Gaming-Massenmarkt will. Und wenn wir davon ausgehen, und die nano aktuell den gleichen Preis hat, dann lässt das einen ganz klaren Schluss zu. Bei etwa 250 bis maximal 300mm^2 sollte Fiji geschlagen werden können, wir reden hier von FinFET auf 14nm vs. 28nm. Andernfalls verstehe ich AMDs Strategie noch weniger, denn Fiji ist einfach nur unnötig teuer und Polaris wäre zudem wohl auch deutlich besser zu übertakten.

AMD muss zumindest 980Ti-artige Leistung liefern, das sollte mit gut ausgefahrenem Takt möglich sein, auch wenn evtl. etwas die Bandbreite eng werden könnte.

iuno
2016-04-07, 23:46:22
Bei etwa 250 bis maximal 300mm^2 sollte Fiji geschlagen werden können, wir reden hier von FinFET auf 14nm vs. 28nm.

AMD muss zumindest 980Ti-artige Leistung liefern, das sollte mit gut ausgefahrenem Takt möglich sein, auch wenn evtl. etwas die Bandbreite eng werden könnte.
So gross scheint Polaris 10 aber nicht zu sein, sondern < 250mm². Insofern sind die Forderungen daneben. Und mit einem kolporierten 256 Bit SI reisst man auch keine Baeume aus, zumal es noch keinen GDDR5X gibt.
Man sollte keine Wunder erwarten. Die Oberklasse bildet Vega (mit mind. 2 Chips!) und kommt ja auch noch.

OBrian
2016-04-08, 00:06:40
Die großen Fury-Karten fallen evtl. weg, weil die große Abwärme die dann sehr unattraktiv macht im Vergleich zu den neuen Karten. Die Nano kann aber sicherlich noch halbwegs mithalten, also hat die noch am ehesten Chancen, weiterzuleben. Zudem ist sie sehr klein, was eine Polaris-Karte mit GDDR5 nicht schaffen kann, allein daraus ergibt sich eine Marktnische. Muß auch gar nicht umbenannt werden, weil ja keine 300 im Namen ist (gefickt eingeschädelt^^).

Ich würde aber beide Polaris-Chips darunter ansetzen, einen kleinen mit 128bit SI und den mit 256bit auf Höhe von Tonga bis Hawaii (je nach Teildeaktivierung). Und die später erscheinenden noch größeren Chips ersetzen dann auch Fiji restlos und bringen neue Topmodelle.

Der_Korken
2016-04-08, 01:27:42
Wenn Polaris 10 wirklich als R9 490X auf den Markt kommt, dann muss er auch durchgehend sichtbar schneller als die 390X sein, sonst würde AMD sich lächerlich machen. Allerdings fände ich 480 als Nummer plausibler, damit man nicht ein halbes Jahr später schon wieder auf die 500er hochgehen muss, um Platz für Vega zu haben. Vor allem müsste man alles unterhalb von 480 mit non-Polaris abdecken.

z3ck3
2016-04-08, 03:21:09
Meiner Meinung nach müsste die 480X das Level in der Nähe der 290 erreichen. Und die 490X in etwa auf Fury Level sein. So in etwa:

460, 75W, 300%, 2GB, 128bit, 120€
460X, 90W, 340%, 4GB, 128bit, 160€

480, 120W, 440%, 4GB, 256bit, 210€
480X, 140W, 490%, 8GB, 256bit, 270€

490, 180W, 600%, 6GB, 384bit, 360€
490X, 210W, 650%, 12GB, 384bit, 430€
oder 490X, 210W, 680%, 8GB, 512bit, 450€

alles GDDR5.

Da wäre im groben quasi alles für mich eine Kaufüberlegung wert.

Ailuros
2016-04-08, 07:13:12
Es wird nicht alles nur GDDR5 sein, deshalb sind die letzten Busbreiten auch zu hoch u.a.

Sunrise
2016-04-08, 09:11:12
490, 180W, 600%, 6GB, 384bit, 360€
490X, 210W, 650%, 12GB, 384bit, 430€
oder 490X, 210W, 680%, 8GB, 512bit, 450€

alles GDDR5.

Da wäre im groben quasi alles für mich eine Kaufüberlegung wert.
Ich bin mir nicht sicher, aber ein 384bit Interface wird wohl etwas sehr eng bei maximal 250mm² und den ganzen anderen Pins, abseits vom Interface (Stromversorgung der Logikeinheiten). Du musst bedenken, dass alles im Chip dichter wird und deutlich mehr Einheiten versorgt werden müssen. Da wird man sich so schon strecken müssen, und ein 384bit Interface wäre evtl. selbst an den Rändern zuviel des Guten. Wobei man bei AMD sagen muss, dass die Dinger zumindest laut Eric Demers Aussagen damals wohl relativ kompakt waren und stark auf Flächen- bzw. Verbrauchseffizienz ausgelegt waren (zumindest das 512bit Interface bei Hawaii).

512bit schließt sich IMHO dann gänzlich aus, das ist nichtmal eine Überlegung wert.

Sagen wir mal milchmädchenhaft, du bekommst wie bei Hawaii genau die gleiche Anzahl an ALUs rein, jedoch mit neuer Architektur und weiteren Anpassungen (DX12.1, neuer DCC, zusätzlicher Control- und Steuerungslogik fürs Stromsparen, überarbeiteter Display-IP, neuer HW-Decoder IP usw.) und 14nm LPP liefert dir mindestens die doppelte Dichte relativ zu Hawaii auf 28nm (was sicher problemlos möglich ist), dann kommst du hier auf etwa 250mm² (438mm² / 2 = 215mm², dann noch abzüglich 1/2 Interface, jedoch zusätzlichem Aufwand an neuen Einheiten/Anpassungen).

Ich denke, wenn AMD wirklich etwas extrem Effizientes bauen will, dann sollten 256bit genügen, optimalerweise natürlich mit GDDR5X (aufgrund der geringeren Spannung), womit ich aber nichtmehr rechne. Das wäre VIEL zu aggressiv, wenn AMD tatsächlich schon im Juni hard launchen will, da die Karten dann eigentlich jetzt schon in Massenproduktion sein müssten. Wobei GDDR5X ja im Sommer in Massenproduktion gehen soll, es ist einfach schwer zu sagen, wieviel Vorlauf AMD da hatte.

Das Ding wäre dermaßen kosteneffizient und wohl auch sehr schnell relativ zu dem, was AMD in dieser Größe bisher im Portfolio hatte. Da kann man dann wirklich auch stark mit der Effizienz hoch, was wohl auch AMDs Behauptungen mit 2.5x mehr Effizienz entsprechen könnte. Das ist die Summe an Einzelheiten, die AMD hier einsetzt und die für Fiji leider einfach zu spät kamen. Dass man mit GCN aber prinzipiell viel Potenzial hat, sieht man ja schon bei der nano, eben alles voll am Sweet-Spot und nicht auf maximale Leistung out-of-the-box.

iuno
2016-04-08, 09:27:16
Wir wissen aber nicht, ob bis zum Polaris launch 5X verfuegbar ist. Kann das eigentlich einer beantworten?
Was soll eigentlich der Status "Contact Factory" bedeuten? 11 und 12 Gbps wird noch unter "Sampling" gelistet https://www.micron.com/products/dram/gddr/gddr5x-part-catalog#/
Vielleicht gibt es ja dann schon genug 10 Gbps Chips.

Welcher Chip soll denn der mit 384 oder 512 Bit sein? P10 ist zu klein dafuer und Vega bekommt HBM.
Wie gesagt wuerde ich das Lineup eher mit P10 als 480 aufbauen, aber wir werden sehen...

Da wird man sich so schon strecken müssen, und ein 384bit Interface wäre evtl. selbst an den Rändern zuviel des Guten. Wobei man bei AMD sagen muss, dass die Dinger zumindest laut Eric Demers Aussagen damals wohl relativ kompakt waren und stark auf Flächen- bzw. Verbrauchseffizienz ausgelegt waren (zumindest das 512bit Interface bei Hawaii).
Wobei Tahiti natuerlich auch mehr auf hohen Takt ausgelegt war und Hawaii auf Breite, daher ist das ganze geschrumpft bzw. nicht groesser geworden.
Wenn ich es recht bedenke, koennten sie auch bei P10 relativ niedrige Takte fahren (5-6 Gbps statt 7-8), mit der Aussicht auf 5X und bis dort hin nur als PRO releasen.
Trotzdem wuerde ich 384 Bit fuer P10 ausschliessen

Sunrise
2016-04-08, 09:58:42
Wir wissen aber nicht, ob bis zum Polaris launch 5X verfuegbar ist. Kann das eigentlich einer beantworten?
Es gibt wohl aktuell nur die Meldung, dass es hier im Sommer in Massenproduktion geht, also insofern ja, eine Chance besteht natürlich. Keine Ahnung, wie lange AMD da Vorlauf hatte und ob das ausreichend war. GDDR5 ist aber wahrscheinlich deutlich billiger als auch deutlich besser verfügbar.

Jetzt können wir uns jeweils das aussuchen, was uns beiden besser gefällt...

iuno
2016-04-08, 10:31:19
Jetzt können wir uns jeweils das aussuchen, was uns beiden besser gefällt...
Das ist ja nicht Sinn der Sache, ich meine nur so waere es fuer mich logisch ;)
Aber da spielen sicher auch andere Faktoren eine Rolle, wie z.B. dass Nvidias (vorlaeufiges) Topmodell auf "80" endet.

stinki
2016-04-08, 12:37:35
Ich könnte mir vorstellen, dass Polaris 10 mit 256-Bit Bus und 7GBit Chips (224 GByte Bandbreite) bei max. 2560 ALUs gerade so hinkommt.
GP104 mit einer ähnlichen Anzahl an ALUs und 256-Bit Bus soll ja angeblich auch Mitte des Jahres kommen (und Nvidia hatte bisher immer deutlich höheren Chiptakt verglichen mit AMD).
Also entweder kommt GP104 schon mit GDDR5X, dann wäre der Speicher wahrscheinlich auch für AMD verfügbar, oder GP104 kommt mit "normalem" GDDR5 Speicher und dann sollte "normaler" GDDR5 Speicher eigentlich auch für Polaris 10 reichen (ich gehe momentan davon aus, dass GP104 mehr TFlops Rechenleistung hat als Polaris 10, aber AMD hat ja gesagt sie hätten die ALUs komplett umgebaut, vielleicht schaffen sie nun auch deutlich höhere Taktraten, ich glaube es aber nicht).

Nakai
2016-04-08, 12:49:15
Ich würde nicht P10 mit GP104 vergleichen. Ich denke beide Chips haben unterschiedliche Leistungstargets. AMD will mit Polaris völlig die Effizienzschiene fahren.

Tonga wäre der beste Ausgangspunkt für Polaris10. P10 wird ein paar mehr CUs haben, besseres DCC, mehr Cache (~2MB), evtl GDDR5X-Support (bitte^^) und ein deutlich stärkeres Frontend bieten. Tongas DCC ist oftmals noch sehr ineffizient und funktioniert noch nicht überall einwandfrei. Immer wenn Tonga gegenüber Hawaii stark zurückliegt, scheint das DCC die effektive Bandbreite stark zu beschneiden. Ebenso gibt es Fälle wo Tonga eher auf Hawaii Pro Niveau ist. Tongas Frontend ist schonmal deutlich stärker, als das von Hawaii. Polaris wird da nochmal einen Schub machen.

P10 sollte summa summarum etwa auf Hawaii-Niveau kommen, bei etwa ~125W.

Ailuros
2016-04-08, 13:25:44
Ich würde nicht P10 mit GP104 vergleichen. Ich denke beide Chips haben unterschiedliche Leistungstargets. AMD will mit Polaris völlig die Effizienzschiene fahren.


Kann schon sein aber bis zu welchem Punkt; es ist dann auch wieder so dass AMD Polaris sehr frueh vorgezeigt hat und wohl mit Absicht die Dinger nicht mit voller bzw. finaler Frequenz benutzte eben damit die Konkurrenz nicht zu viel vorzeitig weiss. Wieso hab ich das muerbe Gefuehl dass NV mit Absicht die Polaris Ankuendigung abwarten wird bevor sie ihr eigenes Zeug unter P100 vorstellen werden?

Zeig mir deins damit ich meins zeige....:P

z3ck3
2016-04-08, 13:35:50
IMO muss AMD mit der 490X die Leistung einer fury und der 980ti erreichen, sonst hat sie die 9 nicht verdient, das war der Hintergrund meiner Aufstellung. Eine 480X muss ebenso in etwa die Leistung der 390 erreichen, sonst trägt auch diese die 8 nicht zurecht. AMD kann ja nicht schon wieder eine Generation raus bringen deren Leistung quasi auf dem Level der Vorgänger liegt (2x0 = 3x0 = 4x0). Wenn also die Leistung der Chips nicht ausreicht, dann gibt es halt noch keine 490(x).

iuno
2016-04-08, 13:46:19
Kann schon sein aber bis zu welchem Punkt; es ist dann auch wieder so dass AMD Polaris sehr frueh vorgezeigt hat und wohl mit Absicht die Dinger nicht mit voller bzw. finaler Frequenz benutzte eben damit die Konkurrenz nicht zu viel vorzeitig weiss.
Du meinst dass Nvidia nicht weiss, was AMD macht und anhand der Infos, die durch solche Teaser oeffentlich werden mehr erfaehrt:confused:
Ich denke, Nvidia wird ein relativ gutes Bild davon haben, was AMD macht und umgekehrt genauso.
MMn ist es offensichtlich, dass P10 nicht mit GP104 konkurriert. Dazu muesste der kleine Chip extrem (!) hoch takten (wobei hoher Takt bei Nvidia auch wahrscheinlich ist) und dann kommt man mit dem kleinen SI nicht mehr hin.
Dass GP104 in die Richtung von GM204 geht, macht fuer mich einfach keinen Sinn und auf GM200 wird P10 es nicht schaffen.
Dass sie Vega noch nicht geteasert haben macht halt keine Hoffnungen, da wird GP104 vielleicht einige Monate konkurrenzlos dastehen, sollte GP104 unter den ersten Pascal Chips sein und etwa mit Polaris erscheinen.

ChaosTM
2016-04-08, 13:52:48
Das wird für beide Firmen schwierig ihre neuen Karten so zu positionieren, dass man sich das Geschäft mit den Flaggschiffen nicht kaputt macht bevor diese abverkauft sind..

Botcruscher
2016-04-08, 13:55:23
Zeig mir deins damit ich meins zeige....:P
AMD wäre gut beraten hier endlich ordentliche Leistungsprofile zu bringen. Den Übermodus haben sie ja schön gegen die Wand gefahren.
Das wird für beide Firmen schwierig ihre neuen Karten so zu positionieren, dass man sich das Geschäft mit den Flaggschiffen nicht kaputt macht bevor diese abverkauft sind..
Die Fury ist eh tot und NV hat bei weitem genug Spielraum beim Preis.

MorPheuZ
2016-04-08, 14:06:57
IMO muss AMD mit der 490X die Leistung einer fury und der 980ti erreichen, sonst hat sie die 9 nicht verdient, das war der Hintergrund meiner Aufstellung. Eine 480X muss ebenso in etwa die Leistung der 390 erreichen, sonst trägt auch diese die 8 nicht zurecht. AMD kann ja nicht schon wieder eine Generation raus bringen deren Leistung quasi auf dem Level der Vorgänger liegt (2x0 = 3x0 = 4x0). Wenn also die Leistung der Chips nicht ausreicht, dann gibt es halt noch keine 490(x).

Wiso nicht?? Automobilhersteller bringen auch neue Serien auf den Markt die nicht immer nur "schneller" sind.

Ailuros
2016-04-08, 14:12:32
Du meinst dass Nvidia nicht weiss, was AMD macht und anhand der Infos, die durch solche Teaser oeffentlich werden mehr erfaehrt:confused:
Ich denke, Nvidia wird ein relativ gutes Bild davon haben, was AMD macht und umgekehrt genauso.
MMn ist es offensichtlich, dass P10 nicht mit GP104 konkurriert. Dazu muesste der kleine Chip extrem (!) hoch takten (wobei hoher Takt bei Nvidia auch wahrscheinlich ist) und dann kommt man mit dem kleinen SI nicht mehr hin.
Dass GP104 in die Richtung von GM204 geht, macht fuer mich einfach keinen Sinn und auf GM200 wird P10 es nicht schaffen.
Dass sie Vega noch nicht geteasert haben macht halt keine Hoffnungen, da wird GP104 vielleicht einige Monate konkurrenzlos dastehen, sollte GP104 unter den ersten Pascal Chips sein und etwa mit Polaris erscheinen.

Ich meinte lediglich dass AMD's Marketing erfolgreich die erste Polaris Vorstellung so hingedreht hat dass man schwer finale Einzelheiten so leicht fruehzeitig herausraten kann. Wenn NV so gut ueber solche Einzelheiten informiert waere wie Du denkst (und auch andersrum) haetten sie beim 28nm kickstart auch nicht die GK104 SKUs um >1 Monat verzoegert um ihnen etwas mehr Takt und die boost Frequenzen zu verpassen. Bis zum Punkt wo IHVs finale Spezifikationen zu vendors u.a. angeben ist es lediglich ein Ratespiel basierend auf leaks von foundries bei der Herstellung und die helfen auch nicht besonders viel. Es ist eben nicht so dass NV einen Radeon chip vor dem launch klauen kann und ihn unter die Lupe nehmen; noch schlimmer diesmal da Polaris chips bei GloFo hergestellt werden.

Sonst hab Polaris 10 & 11 auf dem Radar fuer die absehbare Zukunft und da ich auch noch keine Ahnung ueber die kleineren Pascals habe, Vorbehalte bis mehr heraussickert. Nicht dass sich unbedingt etwas aendern muss, aber wenn NV wirklich einen GP102 hat, koennten sie durchaus jeglichen chip total anders positionieren als bis jetzt.

z3ck3
2016-04-08, 14:13:18
Wiso nicht?? Automobilhersteller bringen auch neue Serien auf den Markt die nicht immer nur "schneller" sind.

Hier geht es aber nicht um Autos. Äpfel, Birnen und so.

Ailuros
2016-04-08, 14:16:53
AMD wäre gut beraten hier endlich ordentliche Leistungsprofile zu bringen. Den Übermodus haben sie ja schön gegen die Wand gefahren.

Ich wage das Gegenteil zu behaupten. Je weniger leaks fuer beide IHVs vor der Veroeffentlichung desto gerechter wird dann auch der Wettbewerb. Das Problem ist dann eben dass wenn NV mal etwas unterschaetzt hat, sie verdammt gute Wendezeiten haben es wieder hinzubiegen wenn moeglich. Den Luxus hat dann eben AMD dank fehlender resources seltener.

Da sie fuer Ende Juni den launch geplant haben, koennen und sollten sie IMHO die wichtigsten Einzelheiten fuer sich behalten.

Nakai
2016-04-08, 14:23:43
Polaris wird die Perf/W stark ansteigen lassen. Eventuell wird dafür die Packdichte draufgehen, je nachdem wie Finfet diesmal konfiguriert wird.

2xPerf/W für die XT-Modelle und 2,5xPerf/W für CutDown-Modelle. Ich bin wirklich gespannt, wer diesmal die bessere Perf/W hat. AMD scheint da sich ziemlich stark zu fokusieren drauf.


Zeig mir deins damit ich meins zeige....:P

Es war noch nie anders. ;D


Sonst hab Polaris 10 & 11 auf dem Radar fuer die absehbare Zukunft und da ich auch noch keine Ahnung ueber die kleineren Pascals habe, Vorbehalte bis mehr heraussickert. Nicht dass sich unbedingt etwas aendern muss, aber wenn NV wirklich einen GP102 hat, koennten sie durchaus jeglichen chip total anders positionieren als bis jetzt.

Ja, das sollte man erwarten. Die Frage ist eher, wie schnell & groß GP102 wird. 384Bit GDDR5X SI? Ich hoffe nicht. GDDR5X wird bei großen Speicherkonstruktionen sehr ekelhaft werden.

Botcruscher
2016-04-08, 14:43:40
Je weniger leaks fuer beide IHVs vor der Veroeffentlichung desto gerechter wird dann auch der Wettbewerb.

Das hätte AMD bei den vergangenen Genrationen imo auch nichts genützt. Mit der GHz Edition von Tahiti haben sie es nur schlimmer gemacht und Hawaii haben sie auch ganz alleine verrissen.
Das sie dieses mal ordentliche Kühler bringen und die Treiber stimmen ist viel wichtiger. Zudem will ich nicht wieder 30% mehr Leistungsaufnahme für lächerliche 10% Leistung sehen. Der Übermodus war eine gute Idee vollkommen falsch umgesetzt. Die Karten bekommen am besten einen Öko, Eco und Übermodus.
Was leaks angeht: Einsteigen und ab geht der Hypetrain! Marketing ist alles. Da geht sie viel ohne irgendwelche endgültigen Leistungsdaten zu veröffentlichen. Juni ist nicht weit weg.

Sunrise
2016-04-08, 14:54:42
...Was leaks angeht: Einsteigen und ab geht der Hypetrain! Marketing ist alles. Da geht sie viel ohne irgendwelche endgültigen Leistungsdaten zu veröffentlichen. Juni ist nicht weit weg.
Geschickt platzierte Teaser mit Bildern wären in der Tat mal was. Dazu dann noch ein paar clevere, teasernde Marketingsprüche.

Der Nachteil ist allerdings, dass auch AMD sich darüber im Klaren ist, dass das nicht nur der Konkurrenz etwas den Wind aus den Segeln nimmt, sondern bei vollen Lagern ihrer AIBs auch Ihnen selbst.

Bei NV sollte soviel Durchlauf sein, dass die Umstellung weniger ein Thema ist. Bei AMD allerdings liegen diverse Produkte sicher wie Blei in den Regalen.

Sollte AMD bei Polaris endlich mal gute und kompakte Referenzkarten bringen (eine Serie wie die nano kann nur freudige Gesichter bringen) und dann optional bzw. deren Partner dann später auch mit angepassten Kartenlösungen daherkommen, dann wird auch sicher keiner meckern. Irgendwas war bisher aber immer, da kann man nur hoffen, dass bei AMD nicht nur die "2.5x" permanent erwähnt wird, sondern auch endlich mal etwas kommt, dass vielleicht sogar GTX970-Käufer ansprechend finden und die Performance-Käufer (Richtung 980 bzw. 980 Ti) auch. Will man jedoch alles mit einer Karte erschlagen, kann das eben wie bei Hawaii ordentlich in die Hose gehen.

Nakai
2016-04-08, 15:06:07
GP100 hat doch eh schon gezeigt, wohin die Reise geht.

20~25% mehr Einheiten kann man erwarten + etwas mehr Takt und moderate Perf/W-Verbesserungen. Bei AMD gibt es aber noch die architekturellen Verbesserungen, welche noch offen sind.

GCN war bisher eine compute-orientiertere Architektur, als alles von NV. Pascal ist praktisch NVs GCN. Nein, eine Pascal-SM ist einer GCN-CU immer noch unterlegen. Das ist jedoch für Gaming größtenteils irrelevant.

aufkrawall
2016-04-08, 15:07:41
Die Karten bekommen am besten einen Öko, Eco und Übermodus.

Halte ich für Unsinn. Es gibt einen Sweetspot, unter und über dem die Perf/W abnimmt.
Den musste man bei Hawaii weit verfehlen, um bei den damaligen Spielen mit der Titan mithalten zu können. Ist noch nicht ganz klar, welches Konkurrenz-Modell genau man angreifen will. Man hat diesmal jedenfalls mehr Optionen.
Aber gute Custom Kühlungen zum Start sind sicher wichtig. Die haben sicherlich auch zum 970-Erfolg beigetragen.

Nakai
2016-04-08, 15:17:00
Halte ich für Unsinn. Es gibt einen Sweetspot, unter und über dem die Perf/W abnimmt.
Den musste man bei Hawaii weit verfehlen, um bei den damaligen Spielen mit der Titan mithalten zu können. Ist noch nicht ganz klar, welches Konkurrenz-Modell genau man angreifen will. Man hat diesmal jedenfalls mehr Optionen.
Aber gute Custom Kühlungen zum Start sind sicher wichtig. Die haben sicherlich auch zum 970-Erfolg beigetragen.

Und faule (gekaufte) Reviewer, die das jeweilige Produkte nicht genau unter die Lupe nehmen.

Locuza
2016-04-08, 15:25:37
Nein, eine Pascal-SM ist einer GCN-CU immer noch unterlegen.
Wo genau?

iuno
2016-04-08, 16:27:28
20~25% mehr Einheiten kann man erwarten + etwas mehr Takt und moderate Perf/W-Verbesserungen. Bei AMD gibt es aber noch die architekturellen Verbesserungen, welche noch offen sind.
Ich denke, dass AMD alleine von der Fertigung staerker profitieren koennte als Nvidia mit ihrem ausgefeilteren Power Management. Wenn es wirklich stimmt, dass die prozessbedingten Schwankungen mit FF kleiner sind als mit 28 nm kann AMD endlich die Chips in der Masse von Haus aus besser 'einstellen'. Dass eine Karte wegen Heisslaufens und schlechter Kuehler mal locker >10% mehr aufnimmt als sie muss (http://www.tomshardware.de/raijintek-morpheus-vga-cooler-hawaii-review,testberichte-241525-7.html), muss echt nicht sein. Und dass sich viele Chips sehr gut untervolten lassen, ebenfalls nicht. Eine von Hand getunte AMD ist je nach Anwendung naemlich gar nicht mehr weit weg von Maxwell. So waere also schon einiges drin, ohne architektonisch gross was zu veraendern. Natuerlich wird auch da weiterhin gefeilt, aber so viel wuerde ich da mit Polaris noch gar nicht erwarten. Fiji hat in dieser Hinsicht auch zugelegt, wenn das dann mal durchs ganze Lineup ankommt, ist das auch schon was.

Nakai
2016-04-08, 19:00:04
Wo genau?

Von dem was man weiß:

- GCN hat eine eigene programmierbare skalare Einheit mit eigener Registerfile, mit Cache (für 4 CUs), bei NV wird das alles noch mit FF-Einheiten gelöst sein.
- GCN hat einen globalen Scheduler, NV nur Zwei mit eigenen dedizierten Einheiten (1/2 FP32 SIMD32/16, 1 FP64 SIMD16, 1 LDS SIMD16, 1 SF SIMD16). GCN hat 4 16er SIMDs (FP32, FP64, SFs). LoadStores (afaik) über die TexturLoadStore-Einheiten realisiert, werden also auf extra Einheiten gemappt.
- GCN kann somit 5 Ops pro Takt issuen und Pascal maximal 4.
- GCN kann deutlich mehr Threads verwalten. GCN hat 4 Instruction Buffer, mit je 10 Wavefronts. Pascal hat 2 Warpscheduler, welche je 16 Warps halten kann. GCN kann somit (Wavefront=64 Threads) 2560 Threads verwalten, Pascal maximal 1024 (Warp=32 Threads).
- Vorteil für Pascal und NV. 32 Warps sind kleinerer Verschnitt, jedoch müssen doppelt soviele Warps auf die SMs gemappt werden, bis gleiche Thread-Zahl erreicht ist.

Ansonsten sind viele Sachen identisch, wie Registerfile-Größe, SharedMemory~LDS, L2-Cache-Bandbreite pro Cacheblock (64B/clk), etc...
Wie gesagt, NV ging mit Pascal Richtung GCN.

€: Wer Fehler findet kann sie behalten.

Sunrise
2016-04-08, 19:39:06
Eventuell ist das auch der Grund, warum bei GP100 die Effizienz gefühlt etwas gelitten hat, weil das Ding einfach fetter geworden ist (siehe GCN).

Es wäre jetzt sehr spannend zu sehen, was AMD bei FP64 mit GCN anstellen könnte, nur leider werden wir das nicht sehen, Vega wird kleiner, weil das wahrscheinlich nicht wirtschaftlich für AMD zu rechtfertigen ist und Navi hat einen gänzlich anderen Ansatz.

aufkrawall
2016-04-08, 19:44:29
Vega sollen zwei GPUs sein. Wie groß Vega 11 sein wird, kann man doch noch gar nicht abschätzen.

Ailuros
2016-04-08, 19:47:03
Ich hoffen es erwartet hier keiner wieder "nur" <9b Transistoren fuer Vega nur weil es wieder 64 clusters haben soll. Hoehere Effizienz durch architektur-bedingte Aenderungen ist wohl nicht umsonst, ausser der vorige design war total im Eimer. Es wuerde mich ueberraschen wenn Vega mit der Effizienz-Steigerung die AMD selber verspricht auf ihrer roadmap kleiner als sagen wir mal 450mm2 werden wuerde.

Sunrise
2016-04-08, 19:50:02
Vega sollen zwei GPUs sein. Wie groß Vega 11 sein wird, kann man doch noch gar nicht abschätzen.
Wir werden sehen, jedenfalls ist AMD nicht in der Position, aktuell solch ein Monster verkaufen zu können. An die 600mm^2 wäre erst dann für AMD wirtschaftlich, wenn sie wie NV genug Polster und Verträge in der Tasche hätten, das ist aktuell für mich ausgeschlossen.

Ailuros
2016-04-08, 20:04:57
http://videocardz.com/58955/amd-polaris-11-sku-spotted-has-16-compute-units

Ich will jetzt nicht wieder ueber den Author laestern, aber zu seinem Compubench Vergleich hab ich nur folgendes anzuworten:

https://compubench.com/compare.jsp?benchmark=compu15d&did1=28432110&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+67FF%3AC8&D2=AMD+Radeon%28TM%29+R7+M360

Gipsel
2016-04-08, 20:59:11
Ich hoffen es erwartet hier keiner wieder "nur" <9b Transistoren fuer Vega nur weil es wieder 64 clusters haben soll. Hoehere Effizienz durch architektur-bedingte Aenderungen ist wohl nicht umsonst, ausser der vorige design war total im Eimer. Es wuerde mich ueberraschen wenn Vega mit der Effizienz-Steigerung die AMD selber verspricht auf ihrer roadmap kleiner als sagen wir mal 450mm2 werden wuerde.
Och, wenn AMD eher auf Dichte statt Takt optimiert, wäre ein Vega mit 64 CUs wohl auch locker in 400mm² (oder auch drunter) drin, denke ich. Man bleibt halt im Bereich 1,0 bis 1,1GHz statt wie Pascal offenbar eher Richtung 1,5GHz zu zielen. Welche Dichte man dann erreicht, ist recht stark vom Optimierungsaufwand abhängig, den man beim Layout treiben will. Und man muß auch sehen, wie gut man die Anforderungen an den Verbrauch da mit reinfalten kann (bei einigen Dingen hilft hohe Dichte für den Verbrauch, bei anderen ist es eher kontraproduktiv). Nicht nur AMD hat ja erwähnt, daß die Erstellung eines optimierten Layouts bei der 14/16nm-Generation mit erheblichem Aufwand verbunden ist. Das ist deutlich schwieriger geworden, weswegen man nicht unbedingt erwarten kann, daß man so einfach im ersten Anlauf auf alle Parameter gleich gut Rücksicht nehmen kann. Sprich, man muß wohl kompromißbereiter werden.

OBrian
2016-04-09, 01:22:01
Die Frage ist doch, was nützt einem Dichteoptimierung, wenn man dafür so viel Takt aufgibt, daß man deutlich mehr Fläche für Einheiten verbraten muß, um auf die gleiche Performance zu kommen.

Für die Mittelklassekarten wird man sicherlich eher versuchen, Fläche zu sparen, weil der Prozeß so teuer ist. Und auch mit "zu" hohem Takt in Bezug auf Effizienz hätte man einen großen Fortschritt ggü. den 28-nm-Modellen. Wenn man die Effizienz noch weiter steigern will/muß, dann kann man das ja später in Refreshchips tun, im gleichen Prozeß, der aber inzwischen billiger geworden sein wird. Hier liegt der finanzielle Sweetspot also bei höherem Takt als der technische.

Für die Topmodelle spielt der Flächenverbrauch weniger eine Rolle, das geht alles im Verkaufspreis unter. Dort wird man also auf den rein technischen Sweetspot abzielen.

Gipsel
2016-04-09, 01:57:09
Für die Topmodelle spielt der Flächenverbrauch weniger eine Rolle, das geht alles im Verkaufspreis unter. Dort wird man also auf den rein technischen Sweetspot abzielen.Für GPUs wie Fiji oder GP100 spielt das sehr wohl eine wichtige Rolle, da die Chips nahe an der maximal (mit halbwegs preiswerten Methoden) erreichbaren Größe liegen. Und ob man nun auf der Fläche knapp 4000SPs bei ~1,5GHz oder z.B. 6144 bei ~1GHz verbaut (was AMD locker in 600mm² eines zukünftigen Topmodells hinbekommen sollte) spielt letztendlich welche Rolle? AMDs momentane Architektur hat ihren Sweetspot schlicht bei etwas kleineren SPs (aber dann eben mehr davon) und dafür niedrigeren Takten im Vergleich zu nVs Maxwell/Pascal. Aber wie die Abwägung und das Tuning da genau laufen, werden Dir Außenstehende höchstens in Ansätzen verraten können.

Hübie
2016-04-09, 03:16:59
Tonga ist ein gutes Beispiel, dass die Packdichte erst mal wenig über den möglichen Takt aussagt. Also weiß ich gar nicht wieso schon wieder Kaffeesatz-leserei betrieben wird.

Locuza
2016-04-09, 05:22:11
Von dem was man weiß:

- GCN hat eine eigene programmierbare skalare Einheit mit eigener Registerfile, mit Cache (für 4 CUs), bei NV wird das alles noch mit FF-Einheiten gelöst sein.
- GCN hat einen globalen Scheduler, NV nur Zwei mit eigenen dedizierten Einheiten (1/2 FP32 SIMD32/16, 1 FP64 SIMD16, 1 LDS SIMD16, 1 SF SIMD16). GCN hat 4 16er SIMDs (FP32, FP64, SFs). LoadStores (afaik) über die TexturLoadStore-Einheiten realisiert, werden also auf extra Einheiten gemappt.
- GCN kann somit 5 Ops pro Takt issuen und Pascal maximal 4.
- GCN kann deutlich mehr Threads verwalten. GCN hat 4 Instruction Buffer, mit je 10 Wavefronts. Pascal hat 2 Warpscheduler, welche je 16 Warps halten kann. GCN kann somit (Wavefront=64 Threads) 2560 Threads verwalten, Pascal maximal 1024 (Warp=32 Threads).
- Vorteil für Pascal und NV. 32 Warps sind kleinerer Verschnitt, jedoch müssen doppelt soviele Warps auf die SMs gemappt werden, bis gleiche Thread-Zahl erreicht ist.

Ansonsten sind viele Sachen identisch, wie Registerfile-Größe, SharedMemory~LDS, L2-Cache-Bandbreite pro Cacheblock (64B/clk), etc...
Wie gesagt, NV ging mit Pascal Richtung GCN.

Tolle Übersicht, danke. :)

Die Scalar-Unit war offensichtlich, welche Nvidia scheinbar mit Volta erst verbauen wird.
AMD wird diese sicherlich irgendwann verbessern, vielleicht kommt das schon mit GCN Gen 4?
http://people.engr.ncsu.edu/hzhou/ipdps14.pdf

Auch sollten beide irgendwann variable Thread-Groups implementieren, wo ich gespannt darauf bin, wer der erste ist (Auch Volta? Bei AMD Navi oder schon davor?) und natürlich wer die bessere Implementierung hinbekommt.

Mit Polaris sollte AMD auch langsam ihr Graphics-Frontend fixen.
Damit bekommen wir mit Polaris und Pascal vielleicht grob Zwillinge. ;D

Mancko
2016-04-09, 15:12:59
Hat nicht AMD erst noch vor kurzem verlauten lassen, dass sie ein paar Monate Vorsprung vor der Konkurrenz haben? Da bin ich mal gespannt.

iuno
2016-04-09, 15:16:54
hier stand muell

Locuza
2016-04-09, 15:23:16
Unsinn, nur Charlie hat das behauptet
This is very early silicon, by the way. We have much more performance optimization to do in the coming months. But even in this early silicon, we’re seeing numbers versus the best class on the competition running at a heavy workload, like Star Wars—The competing system consumes 140 watts. This is 86 watts. We believe we’re several months ahead of this transition, especially for the notebook and the mainstream market. The competition is talking about chips for cars and stuff, but not the mainstream market.
http://venturebeat.com/2016/01/15/amds-graphics-guru-describes-the-march-to-full-graphics-immersion-with-16k-screens/2/

iuno
2016-04-09, 15:27:32
danke und sorry ;p
Die Aussage bezieht sich aber auch klar auf die Verfuegbarkeit bzgl. Consumer-Produkten. Mit angeblichem Vorsprung bzgl. Fertigung/Design hat das nichts zu tun.

Hübie
2016-04-09, 15:31:36
Unsinn, nur Charlie hat das behauptet

Nicht wirklich. Aber kann gut sein. Wenn Polaris diesen oder nächsten Monat kommt. :D

@Nakai: So richtig ist mir noch nicht klar wozu man eine Scalar-ALU braucht. Kannst du mir dass mal bitte für doofe erklären? :) Wie wird das denn bei NVIDIA gerade gelöst? Wird das auf eine vALU gemapped? Das kostet afaik doch auch wieder mehr area für den Scheduler und (separaten?) Registerspace.

Kartenlehrling
2016-04-09, 15:33:21
The competition is talking about chips for cars and stuff, but not the mainstream market.

Gezeigt hat Nvidia ja wirklich nichts, aber brauchen sie auch nicht, ihr Neuauflage vom 980m ist ja wirklich gut,
ich könnte mir diesen Chip sogar als Gegenstück zur RadeonProDuo als 980mX2 vorstellen für den VR Markt.

Hübie
2016-04-09, 15:45:44
Man hat ja schon seit Februar Dual GM204. Es wäre also schon gekommen, wenn man es für nötig erachtet hätte. Ob AMD sich mit einem Nischenprodukt für eine Nische einen gefallen tut, bleibt abzuwarten. VR wächst ja erst.

Locuza
2016-04-09, 15:48:24
danke und sorry ;p
Die Aussage bezieht sich aber auch klar auf die Verfuegbarkeit bzgl. Consumer-Produkten. Mit angeblichem Vorsprung bzgl. Fertigung/Design hat das nichts zu tun.
Er hat auch nicht behauptet man sei Monate im Vorteil, sondern man glaube.
Nvidia darf natürlich das Gegenteil "beweisen".
Wir werden es ja sowieso bald sehen.


@Nakai: So richtig ist mir noch nicht klar wozu man eine Scalar-ALU braucht. Kannst du mir dass mal bitte für doofe erklären? :) Wie wird das denn bei NVIDIA gerade gelöst? Wird das auf eine vALU gemapped? Das kostet afaik doch auch wieder mehr area für den Scheduler und (separaten?) Registerspace.
Das Paper (mit dabei AMDs Mike Mantor) ist interessant:
http://people.engr.ncsu.edu/hzhou/ipdps14.pdf
one significant deficiency of SIMT processing is that every thread needs to execute the instructions even if they have the same operand values across all the threads.
In other words, scalar operations in nature are forced to be executed in all threads due to the SIMT-style processing. To address this issue, the AMD’s Graphics Core Next (GCN) architecture adds a scalar unit to a SIMT unit.
[...]
A single instruction stream is shared by the scalar unit and the SIMT unit.
Depending on its type, an instruction is issued to either unit to be executed.
The compiler is responsible to generate instructions with a proper type.

Soweit ich das verstanden habe, kann man so Register und Strom sparen, wenn nicht alles auf der SIMT-Unit ausgeführt werden muss.

In dem Paper geht es auch darum, wie man durch getrennte Instruction-Streams das noch verbessern kann und klar kostet es, aber wie bei jeder Sache geht es darum am Ende einen Nettogewinn herauszuschlagen.

Nvidia hat auch Präsentationen über mögliche Verbesserungen gehalten, da ging es auch um getrennte Instructions-Streams und auch die unterschiedlichen Warp-Sizes.

Mancko
2016-04-09, 16:05:50
danke und sorry ;p
Die Aussage bezieht sich aber auch klar auf die Verfuegbarkeit bzgl. Consumer-Produkten. Mit angeblichem Vorsprung bzgl. Fertigung/Design hat das nichts zu tun.

Er sagt "sie glauben, dass sie einige Monate Vorsprung haben beim Übergang zum neuen Fertigungsprozess, insbesondere bei Mainstream und Notebook Produkten." Letzteres stellt er aber nur an. Erstere Aussage lässt er erstmal allgemein stehen. Das Wort "glauben" ist auch nur so ein "Save my Arse in the worst case" Wort.

Ich bin mal gespannt ob das auch dann so eintritt. Manchmal lehrt einen die Geschichte, dass weniger erzählen und dafür abliefern auch hier und da vielleicht die bessere Option ist. Und viele Teilnehmer in diversen Foren kann so etwas auch unter Umständen mal lehren, dass nicht der der am Meißten erzählt unbedingt auch am am Meißten liefern kann bzw. derjenige der nur wenig erzählt eben wenig liefern kann. Häufig sind solche Aussagen dann doch oft auch einfach nur ein Resultat aus der Not. Wenn man kein Geld verdient und eigentlich in so ziemlich allen wirtschaftlich relevanten Parametern hinter der Konkurrenz liegt hat man mit solchen Aussagen erstmal auch weniger zu verlieren. Wer viel und zu gutem Geld verkauft schweigt lieber erstmal und gefährdet nicht unnötig seine bestens laufenden Verkäufe. Der Gedankengang ist bei einigen aber häufig in ihrer Emotionalität nicht möglich.

Hübie
2016-04-09, 16:07:16
Zumal es vage ist sich so weit aus dem Fenster zu lehnen.
@Locusza: Danke :up:

fondness
2016-04-09, 16:11:21
Im Grunde spielt es eh keine Rolle. Beide werden zur Computex was vorstellen, bei AMD ist das ziemlich sicher Polaris 10 und 11, bei Nvidia ist das wohl noch ein bisschen offen. Das Auslieferungsdatum wird sich jedenfalls nicht groß unterscheiden (einige wenige Monate auf oder ab spielen nicht groß eine Rolle).

Für AMD macht es natürlich auch Sinn zu teasen, sie wollen, dass möglichst viele Leute warten mit dem Kauf einer Karte, da sie sich bei der neuen Generation deutlich höhere Marktanteile zutrauen als aktuell. NV hingegen hat kein Interesse daran, dass Leute warten, mehr wie die 80% Marktanteil werden sie realistisch betrachtet nicht so schnell bekommen.

tm0975
2016-04-09, 17:08:48
NV hingegen hat kein Interesse daran, dass Leute warten, mehr wie die 80% Marktanteil werden sie realistisch betrachtet nicht so schnell bekommen.

theoretisch gebe ich dir recht. praktisch werden die 390(x) besitzer sich entspannt zurück lehnen und alles was neues an spielen kommt, problemlos spielen können, vor allem unter dx 12. die ganzen käufer der 970 werden sich noch dieses jahr ersatz holen (müssen), um dasselbe zu tun. und ob da die erkenntnis gereift ist, dass die kaufentscheidung pro nvidia evtl suboptimal war, wage ich zu bezweifeln...

fondness
2016-04-09, 17:14:35
die ganzen käufer der 970 werden sich noch dieses jahr ersatz holen (müssen), um dasselbe zu tun. und ob da die erkenntnis gereift ist, dass die kaufentscheidung pro nvidia evtl suboptimal war, wage ich zu bezweifeln...

Tja, ein wesentlicher Teil von NVs Verkaufserfolg besteht nicht zuletzt darin, dass ihre Kunden wesentlich öfter die Karte wechseln (müssen). Aber den Kunden scheint das offensichtlich nicht zu stören.

aufkrawall
2016-04-09, 17:19:01
Es gab bis vor kurzem schlicht keine Alternative, spiel mal Witcher 3 ohne Shadercache oder Prerenderlimit 1. Gabs vor Crimson bei AMD schlicht nicht.
Mit etwas Glück für AMD sieht Pascal in DX12-Spielen aber gar nicht so viel besser als Maxwell aus. Das wär dann die Chance für AMD, das Gammel-Image komplett abzustreifen.

fondness
2016-04-09, 17:22:04
Ich glaube ehrlich gesagt nicht, dass für eine entschwindende Masse an Käufern solche Dinge wie Prerenderlimit eine Rolle spielen. Aber ja AMD versucht sich so gut es geht auf Gamer zu fokussieren. Nicht zuletzt solchen Leuten wie dir, welche verschiedene Dinge in Foren zu beanstanden haben (:D), wird sehr viel Aufmerksamkeit geschenkt. Denn auch wenn Nvidia gerne etwas anderes suggeriert, die überwältigende Mehrheit des Umsatzes und Gewinnes kommt nach wie vor von den Gamern und eben nicht von den Servern oder professionellen Bereichen oder gar Tegra.

/Edit: Und btw, ich habe Witcher 3 ohne Shadercache und Prerenderlimit 1 durchgespielt, und es ging. :)
Aber ja ich gebe dir Recht, es ist nicht ganz umsonst. ^^

Hübie
2016-04-09, 17:22:47
Was unter anderem am hohen Wiederverkaufswert liegt. Wenn ich mir so manche Gebrauchtpreise anschaue fass ich mir an den Kopf. :freak:
Selbst für die total vergurkte 660 Ti bekam ich August 2015 noch 100€, obwohl ich 90€ gezahlt hatte...

Troyan
2016-04-09, 17:28:25
theoretisch gebe ich dir recht. praktisch werden die 390(x) besitzer sich entspannt zurück lehnen und alles was neues an spielen kommt, problemlos spielen können, vor allem unter dx 12. die ganzen käufer der 970 werden sich noch dieses jahr ersatz holen (müssen), um dasselbe zu tun. und ob da die erkenntnis gereift ist, dass die kaufentscheidung pro nvidia evtl suboptimal war, wage ich zu bezweifeln...

Wieso? AMD User haben doch genauso Probleme. Versuche mal The Witcher 3 aus dem Jahr 2015 mit Hairworks zu spielen. Da bleibt dir als AMD Mensch auch keine andere Wahl eine neue Karte zu kaufen. Oder wie wäre es mit Tomb Raider aus dem Jahr 2016? Läuft ziemlich suboptimal auf deiner 300W Heizplatte. Bist du vielleicht ein Strategiespieler? Anno2207 rennt 3x% besser auf einer GTX970 bei deutlich besserer Grafik als Ashes.

Irgendwie kommt es mir so vor als ob man sich als AMD User einfach nur einredet, man stünde besser dar.

dildo4u
2016-04-09, 17:28:55
theoretisch gebe ich dir recht. praktisch werden die 390(x) besitzer sich entspannt zurück lehnen und alles was neues an spielen kommt, problemlos spielen können, vor allem unter dx 12. die ganzen käufer der 970 werden sich noch dieses jahr ersatz holen (müssen), um dasselbe zu tun. und ob da die erkenntnis gereift ist, dass die kaufentscheidung pro nvidia evtl suboptimal war, wage ich zu bezweifeln...
Man kann genau so sagen es müssen sich alle Leute einer 290 eine neue Karte kaufen,vielen tun so als ob es schon seit 2014 brauchbare 8GB Karten von AMD gab.

The Division

Für das Ultra-Preset sollte Ihre Grafikkarte über 4 GiByte Speicher verfügen. Diese Kapazität genügt dem Spiel für ein sauberes Streaming in 1.920 × 1.080 (Full HD). Ab 2.560 × 1.440 (WQHD) kommt es zu ersten, verschmerzbaren Ausfällen: Da der Grafikspeicher knapp wird, fängt das Streaming der Engine sporadisch an, Texturen nicht nachzuladen, erkennbar an vereinzeltem "Brei" anstelle einer detaillierten Oberfläche.

http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Tomb Raider 2016
Die Sowjet-Basis kombiniert die hohe Speicherbelegung mit überdurchschnittlich hoher Grafikkarten- und Prozessorlast, welche so manches System niederstreckt, das in den ersten Spielstunden noch keine Fps-Probleme hat. So zeigt sich um die Basis herum, dass Grafikkarten mit 4 GiByte Speicher an ihrer Füllgrenze operieren, es kommt immer wieder zu Ruckeln.

http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/