Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
Unicous
2016-03-15, 17:20:25
@N0Thing
Nennst du deine Kinder auch Kind 1, 2, 3 um eine zeitliche Einteilung der Geburt zu ermöglichen oder gibst du ihnen individuelle Namen um sie "auseinanderhalten" zu können?
Der Codename wird durch die Nummerierung zum banalen Marketinggag herabgestuft. Die Nummer ist weder hilfreich noch aussagekräftig.
Der 232mm²-Chip muss nicht unbedingt einer der Polaris sein. Ich denke eher, dass das Vega11 ist. Wenn die mit 232mm² Fiji-Leistung packen, dann Mahlzeit. Glaub ich nicht so recht.
R9 460 -> Polaris11, ca. 120mm², ca. 16CUs, 128Bit GDDR5 ~ Pitcairn
R9 470 -> Vega11, 232mm², 32-40CUs 256Bit GDDR5 > Tonga
R9 480 -> Polaris10, ca. 350mm², 64CUs, 384-512Bit GDDR5 > Fiji
R9 490 -> Vega10, 450-550mm², 96-128CUs, 4096Bit HBM2, 1:2 DP/SP, Profifeatures
FuryII -> Navi
Unicous
AMD aktualisiert ja immer nur einzelne GCN-Module, da führen die auch ne nachhaltbare Versionierung. Gut, bei Polaris mussten alle Bereiche neu entwickelt werden, aber die Generationsversionierung ist eher sowas wie deren Treiberversionierung, bestenfalls ungenau.
scully1234
2016-03-15, 17:24:52
Das hier fand ich interessant:
Zu HBM1 gibt's Roadmaps mit 2-GB-Stacks, vll hat SK Hynix die heimlich doch gebaut ... die sollten einst auch auf die Fury X kommen, sprich 8 GByte.
https://translate.google.de/translate?hl=de&sl=auto&tl=en&u=https%3A%2F%2Fbenchlife.info%2Fsk-hynix-hbm2-will-mass-production-q3-and-for-amd-polaris-03092016%2F
dargo
2016-03-15, 17:31:49
Der 232mm²-Chip muss nicht unbedingt einer der Polaris sein. Ich denke eher, dass das Vega11 ist. Wenn die mit 232mm² Fiji-Leistung packen, dann Mahlzeit. Glaub ich nicht so recht.
R9 460 -> Polaris11, ca. 120mm², ca. 16CUs, 128Bit GDDR5 ~ Pitcairn
R9 470 -> Vega11, 232mm², 32-40CUs 256Bit GDDR5 > Tonga
R9 480 -> Polaris10, ca. 350mm², 64CUs, 384-512Bit GDDR5 > Fiji
R9 490 -> Vega10, 450-550mm², 96-128CUs, 4096Bit HBM2, 1:2 DP/SP, Profifeatures
FuryII -> Navi
Stimmt... das wäre auch eine Möglichkeit. Dann dürfte sich die R9 470 an GM204 orientieren denke ich was Leistung angeht.
Complicated
2016-03-15, 17:38:38
Das Einzige, was man vielleicht aus der Polaris/Vega 10/11 Sache rauslesen kann, ist eventuell, daß die beiden jeweiligen Vertreter beim IP-Level zueinander absolut identisch sind und nur die Einheitenzahl skaliert wird.
Oder eben einfach unterschiedliche Fertigungsverfahren 14nm<->16nm. da fände ich das gerechtfertigt.
Und das IP-Level interessiert im Endeffekt noch weniger. Den Unterschied zwischen GM107 und GM204 kannst du ja auch nicht vermitteln, oder das GM206 ein "höheres" IP-Level hat als GM204 und 200.
Warum also diese überflüssige Nummern(edit: bei Polaris und Vega)?
Das sind die selben überflüssigen Nummern wie bei Maxwell auch: GM107 und GM204 bezeichnen auch lediglich die zeitliche Aufeinanderfolge der verschiedenen Maxwell Generationen/IPs.
AintCoolName
2016-03-15, 17:40:03
Die Nummer ist weder hilfreich noch aussagekräftig.
Ich glaube genau darum geht es bei internen Codenamen von Projekten, die sollen für einen Außenstehenden oder der neugierigen Konkurrenz so lange wie möglich nicht Aussagekräftig sein. Damit ist eine unlogische Nummerierung auch völlig legitim.
Unicous
2016-03-15, 17:41:50
@Complicated
Nein, das bezeichnet die Generation, aber guter Versuch.:up:
GM107/108 Maxwell Gen1, 2xx Gen2
It's not that...complicated.
@AintCoolName
Polaris 10 und 11 sind keine internen Codenamen.
Korvaun
2016-03-15, 17:50:57
Ich glaube genau darum geht es bei internen Codenamen von Projekten, die sollen für einen Außenstehenden oder der neugierigen Konkurrenz so lange wie möglich nicht Aussagekräftig sein. Damit ist eine unlogische Nummerierung auch völlig legitim.
Das ist ja auch ok. Aber wir sind nur noch ein paar Monate vom Launch entfernt, da muss alles wichtige fertig sein. Die Chips sollten ja schon produziert werden wenn AMD einen ordentlichen Launch im Juni/Juli hinlegen will. Einzig finale Taktraten/Lüfterkurven sollten noch Spielraum zulassen. Und natürlich Endkundenpreis.
Aber das AMD es nicht schafft (oder will) auf Presse-Events wenigstens die Ordnung der Grafikchips innerhalb der neuen Generation plausibel und einfach zu erklären ist wirklich lächerlich. Das empfinde ich als absolut amateurhaft.
Wo ist das Problem zu ne einfache Folie zu machen:
kleiner Chip -> Polaris 11
grösserer Chip -> Polaris 10
großer Chip -> Vega 10/11
Was bringt es NV das jetzt zu wissen? Die haben ihren Kram ja auch schon weitgehend fertig...
Unicous
2016-03-15, 17:53:32
Meinst du ungefähr so?
http://www.3dcenter.org/dateien/abbildungen/AMD-Polaris-10-11-Grafikchips-wahrscheinlich-Fake.jpg
http://www.3dcenter.org/news/amds-2016er-grafikchips-sind-polaris-10-und-polaris-11
;)
y33H@
2016-03-15, 17:57:09
https://translate.google.de/translate?hl=de&sl=auto&tl=en&u=https%3A%2F%2Fbenchlife.info%2Fsk-hynix-hbm2-will-mass-production-q3-and-for-amd-polaris-03092016%2FDie Meldung (freilich ohne Quelle) basiert auf meiner eigenen (http://www.golem.de/news/high-bandwidth-memory-sk-hynix-produziert-4-gbyte-stapel-ab-dem-dritten-quartal-1603-119580.html) und dreht sich um HBM2, nicht HBM1.
Korvaun
2016-03-15, 18:00:17
Ja, nur offiziell und in schön ;)
Abgesehen davon, keiner kann mir erzählen das AMD und NV nicht wissen was der jeweils andere in der Pipeline hat bei den Auftragsfertigern.
Die haben seit zig Jahren miteinander zu tun, immer die selben Leute, immer die selben Firmen/Zulieferer auf den immer gleichen Veranstaltungen/Meetings/etc. Die wissen genau was beim anderen läuft...
scully1234
2016-03-15, 18:12:40
Die Meldung (freilich ohne Quelle) basiert auf meiner eigenen (http://www.golem.de/news/high-bandwidth-memory-sk-hynix-produziert-4-gbyte-stapel-ab-dem-dritten-quartal-1603-119580.html) und dreht sich um HBM2, nicht HBM1.
Macht doch mal n Wasserzeichen auf die Slides damit das Copy/Paste zumindestens etwas erschwert wird
defi231
2016-03-15, 18:15:05
ich würde eigentlich schon gerne Polaris mit HMB1 sehen, spricht was dagegen das dies nie passieren wird?
Spasstiger
2016-03-15, 18:24:29
Für Performance-Bandbreiten genügt GDDR5X, für High-End ist HBM1 in verfügbarer Form zu unflexibel und den Perf/Watt-Sprung bei Vega in 2017 durch den Wechsel von GDDRX5 auf HBM2 nimmt AMD gerne mit. Außerdem würde eine Beschränkung rein auf neue Performance- und Mainstream-Chips in 2016 Raum für Performancesteigerungen im gleichen Fertigungsprozess lassen.
Fiji und HBM waren wohl nur ein Experiment, kein Trend für dieses Jahr.
Complicated
2016-03-15, 18:24:32
Ich kann mir vorstellen, dass Polaris 10 als Fury Ersatz HBM1 selbst mit 4 GB reichen könnten. Wenn da noch Vega 10 und Vega 11 darüber kommen. Im Prinzip Polaris 10 als Fiji Shrink auf den Interposer. Oder gar mit 6 HBM1 Stacks, die vielleicht nun Platz finden. Natürlich hochspekulativ gemeint.
Gipsel
2016-03-15, 18:29:18
@Gipsel
Wir reden aneinander vorbei oder liest nicht das was ich schreibe.
Zitat von dir
Was ich sagte
Polaris als ist der Architekturname, wie auch Pascal. Wenn sie schon eine Nummer ranklatschen müssen, dann eben nach Einsatzgebiet. Die 10 wäre Entry Level-Segment, 11 Mainstream, 12 HighEnd.
Oder Polaris E, M, H. Was auch immer. Jedenfalls nicht eine Nummer die lediglich eine völlig nebensächliche zeitliche Einteilung erlaubt.Oder man hängt (wie nV) eine Nummer nach (umgekehrter) Größe dran, oder man numeriert es schlicht durch. Ich sehe da ehrlich gesagt nicht viel Unterschied. Die Dinger werden doch so nicht verkauft. Das ist absolut unerheblich dafür und somit nur für irgendwelche Hardwareforen halbwegs von Interesse. Und da eigentlich auch nur, um die Chips identifizieren zu können damit man gegenseitig versteht, von welchem Chip gerade die Rede ist. Für mehr sind die Namen doch nicht gut.
Was sagt mir denn "GCN Gen3" vs. "GCN Gen4" mehr, als "Kepler" vs. "Maxwell"?
Außer einer zeitlichen Komponente habe ich da jetzt nun nicht wirklich mehr Information.Doch.
Um wieviel wollen wir wetten, daß auch bei Polaris es noch immer CUs mit vier vec16-Einheiten und einer Skalareinheit gibt? Das sagen Dir Fermi/Kepler/Maxwell/Pascal nicht ;). Da kann die komplette Architektur umgekrempelt werden. Bei Polaris wird dies nicht geschehen.
Und auf ner Keynote-Folie sieht "Maxwell" eben bessre aus als "GCN Gen4".:|
Debatable.
edit:
Der Codename wird durch die Nummerierung zum banalen Marketinggag herabgestuft. Die Nummer ist weder hilfreich noch aussagekräftig.Das war schon immer so. Und zwar praktisch per Definition. Ein Codename ist nie aussagekräftig. Auch nicht, wenn er eine (immer irgendwie willkürlich gewählte) Nummer beinhaltet.
dargo
2016-03-15, 18:33:45
ich würde eigentlich schon gerne Polaris mit HMB1 sehen, spricht was dagegen das dies nie passieren wird?
Ja... der Preis. HBM ist im Performancesegment noch zu teuer.
Loeschzwerg
2016-03-15, 18:39:02
Die Mitarbeiten sollten genauso wie die Leute hier im Forum 10 und 11 auseinander halten können. Die Nummerierung ist doch wirklich simpel, der erste Chip bekommt die Nummer 10, der zweite die 11 und bei den Nachfolgenden geht es so weiter. Wer sich nicht merken kann, welcher Chip hinter den Bezeichnungen steht, der muß einem ja schon fast leid tun.
Ja genau... weil die Chips auch immer schön der Reihe nach entwickelt werden :freak:
Du hast eine interne Roadmap für Architektur XY und darin sind alle geplanten Chips aufgeschlüsselt. Jeder Chip trägt also schon eine Bezeichnung und bekommt diese nicht erst mit dem Launch (Stichwort: inkrementieren).
Wenn man jetzt ein Nummernschema einführt, dann wirft man dies nicht bei einer "neuen" Architektur wieder über den Haufen bzw. verdreht die Zahlen. Du glaubst nicht wie wichtig ein einheitliches Naming/Wording in Unternehmen dieser Größenordnung ist.
N0Thing
2016-03-15, 18:39:37
@N0Thing
Nennst du deine Kinder auch Kind 1, 2, 3 um eine zeitliche Einteilung der Geburt zu ermöglichen oder gibst du ihnen individuelle Namen um sie "auseinanderhalten" zu können?
Der Codename wird durch die Nummerierung zum banalen Marketinggag herabgestuft. Die Nummer ist weder hilfreich noch aussagekräftig.
Auch wenn dich das eigentlich nichts angeht, ich würde meine Kinder auch nicht Tonga, Hawaii, Kepler oder GM204 nennen. Ich fände es aber tatsächlich witzig, wenn man seinen Kindern Zweitnamen wie Secundus oder Tertius gibt. :D
Nur hat der Name von Personen nichts mit Grafikchips zu tun, wo auch immer du da Parallelen siehst.
Aber nochmal: Welchen Nachteil hast du denn dadurch, dass du dich da so sehr drüber echauffierst? Was ist an Polaris 10 und Polaris 11 schlimmer oder schlechter als an Tonga und Hawaii?
Ich fände ein Schema wie bei Nvidia auch besser, aber das verfolgt AMD seit Jahren nicht mehr und macht auch keinen Sinn, wenn man nicht wie Nvidia von oben bis unten zeitnah eine neue Architektur einführt, sondern immer nur Stück für Stück über Jahre verteilt.
Unicous
2016-03-15, 18:44:51
@Gipsel
Wann und wo hat Jensen und Co. in der letzten Zeit bei Produktpräsentationen explizit die Codenamen samt Aufschlüsselung nach Segment genannt. Ich kann mich nicht daran erinnern. Die Namen werden maximal im Pressematerial beim Launch oder beiläufig bei Präsentationen genannt, Nvidia selbst spricht nur von der Architekturfamilie oder dem wirklichen Produktnamen.
Es wird nicht GM200 gezeigt, sondern Titan X bzw. 980Ti.
AMD hingegen hat ihren beiden Produkten explizite öffentliche Codenamen gegeben, die auch noch den gleichen Namen wie die Produktfamilie samt willkürlicher Nummer ohne Aussagekraft. Sie bewirken rein gar nichts und sind für mich eher armseliges Täuschungsmanöver Stärkung der Marke.
Worin besteht also der Vorteil für die Öffentlichkeit zwischen Polaris 10 und 11 unterscheiden zu "dürfen"? Warum bleibt man nicht bei zwei Chips der Polaris-Familie?
Und worin besteht für uns Geeks der Vorteil einer willkürlichen Nummerierung?
Hier hat doch am Ende niemand gewonnen. Warum also der Zirkus?
@N0Thing
Kannst du mal dein Echauffieren stecken lassen. Du brauchst mir hier keine emotionalen Ausbrüche zuschustern.
Und Nvidia bringt ihre Architekturen auch kleckerweise heraus, sehe da keinen Unterschied. Kepler hat zwei Jahre gebraucht bis alle Chips im Consumerbereich angekommen sind und bei Maxwell war es auch so. Desweiteren ist es unhöflich auf eine Frage mit einer Gegenfrage zu antworten. Ich fragte dich nach den Vorteilen, du fragst nach den Nachteilen, die ich hier schon mehrfach dargelegt habe. Intransparenz, Verwirrung und dadurch Schwächung anstatt Stärkung der Marke.
Gipsel
2016-03-15, 18:48:57
Du hast eine interne Roadmap für Architektur XY und darin sind alle geplanten Chips aufgeschlüsselt. Jeder Chip trägt also schon eine Bezeichnung und bekommt diese nicht erst mit dem Launch (Stichwort: inkrementieren).
Wenn man jetzt ein Nummernschema einführt, dann wirft man dies nicht bei einer "neuen" Architektur wieder über den Haufen bzw. verdreht die Zahlen. Du glaubst nicht wie wichtig ein einheitliches Naming/Wording in Unternehmen dieser Größenordnung ist.Die internen Codenamen sind doch noch nicht mal innerhalb der Firma einheitlich (bei AMD gibt es Aussagen dazu). Da hat zum Teil jede Abteilung andere Codenamen für den gleichen Chip. Nur wenige Leute an den Schnittstellen müssen wissen, was da zusammengehört. Das erhöht insbesondere in den frühen Stadien die Sicherheit. In anderen Firmen (insbesondere in entsprechend sensitiven Bereichen) werden die Codenamen für Projekte sogar regelmäßig gewechselt, um ein schwierigeres Ziel für Industriespionage zu werden. Da hat dann ein Projekt alle paar Monate einen neuen Namen, so daß es schwieriger wird, das Puzzle zusammenzusetzen.
======================
Wie schon mal gesagt: Die öffentlichen "Codenamen" dienen doch nur dazu, die Chips für Enthusiasten irgendwie auseinanderhalten zu können. Mehr nicht. Insofern ist die ganze Aufregung ob und wie man die beiden Polaris- und Vega-Chips nun numeriert doch absolut sinnlos. Es ist völlig egal, ob man die Dinger Polaris 1 und 2, Polaris 10 und 11 oder andersrum nennt oder man ein ganz anderes Schema wie bspw. R-G#-S# aufmacht ("R" für Radeon, G# Nummer für Generation, S# Nummer für Segment). Das Marketing präferiert vermutlich irgendwelche Kunstnamen statt irgendwelche Nummernschemata, die irgendwer mit Verkaufsnamen verwechseln könnte und der Einfachheit halber kann man dann auch mit der Hälfte der Namen auskommen und die ähnlichen Chips schlicht durchnumerieren. Keine Ahnung, warum das schlecht sein soll. Ich verstehe das Problem einfach nicht. Es gibt schlicht keinen Nachteil (oder auch Vorteil) die Chips Polaris/Vega 10/11 statt RG4S4/RG4S5/RG4S6/RG4S7 oder irgendwas Anderes zu nennen.
Und zudem ist es langsam leicht OT.
<=EoD
N0Thing
2016-03-15, 18:49:08
Ja genau... weil die Chips auch immer schön der Reihe nach entwickelt werden :freak:
Du hast eine interne Roadmap für Architektur XY und darin sind alle geplanten Chips aufgeschlüsselt. Jeder Chip trägt also schon eine Bezeichnung und bekommt diese nicht erst mit dem Launch (Stichwort: inkrementieren).
Wenn man jetzt ein Nummernschema einführt, dann wirft man dies nicht bei einer "neuen" Architektur wieder über den Haufen bzw. verdreht die Zahlen. Du glaubst nicht wie wichtig ein einheitliches Naming/Wording in Unternehmen dieser Größenordnung ist.
Als ob Polaris 10 und 11 die internen Namen wären. Das sind wie auch die anderen Namen zuvor schön klingende Namen für die Broschüren. Jetzt eben auch mit Zahlen hinten dran, vielleicht nach der Reihenfolge des tape outs, wer weiß, aber warum stört es so?
Wenn euch das Namensschema so wichtig ist, warum verwendet ihr dann nicht schon seit Jahren die Device IDs von AMD? Sehe ich verdammt selten hier im Forum, obwohl scheinbar nur diese das einzig Wahre sind.
http://developer.amd.com/resources/hardware-drivers/ati-catalyst-pc-vendor-id-1002-li/
Ravenhearth
2016-03-15, 18:49:51
Tahiti, Hawaii, Fiji etc sind doch auch "willkürliche" Namen, die praktisch nichts aussagen. Bei Polaris10, Vega11 usw kann man die Chip wenigstens einer Architekturfamilie zuordnen und die Reihenfolge der Veröffentlichung innerhalb der Familie. Aber Nachteile gegenüber dem alten Schema hat man doch nicht. Wenn man sich Fiji = R9 Fury/Nano merken kann, dann auch Polaris10 = R9 490 oder sowas.
Loeschzwerg
2016-03-15, 19:03:58
Die internen Codenamen sind doch noch nicht mal innerhalb der Firma einheitlich (bei AMD gibt es Aussagen dazu). Da hat zum Teil jede Abteilung andere Codenamen für den gleichen Chip. Nur wenige Leute an den Schnittstellen müssen wissen, was da zusammengehört. Das erhöht insbesondere in den frühen Stadien die Sicherheit. In anderen Firmen (insbesondere in entsprechend sensitiven Bereichen) werden die Codenamen für Projekte sogar regelmäßig gewechselt, um ein schwierigeres Ziel für Industriespionage zu werden. Da hat dann ein Projekt alle paar Monate einen neuen Namen, so daß es schwieriger wird, das Puzzle zusammenzusetzen.
Ja :confused: Kenne ich von meinem Arbeitgeber anders, aber man soll ja nicht von sich auf andere schließen ^^ Das Gesamtprojekt trägt sicher immer den gleichen Namen, auch wenn die einzelnen Bereiche für die jeweilige Teilkomponente eigene Bezeichnung haben. Aber hast recht, ist OT.
Gibt es eigentlich schon Einschätzungen bezüglich der DP Leistung?
Unicous
2016-03-15, 19:05:01
@Gipsel
Genau deswegen hat man doch RTG gegründet. Die einzelnen Grafikabteilungen haben sich zig Namen ausgedacht für ein und die selbe IP-Konfiguration. Man wollte das alles mit der Gründung streamlinen aber wie man sieht können sie es ja noch nicht einmal nach außen ordentlich kommunizieren.
Was interessiert mich eine Zahl wenn sie nichts aussagt. Was unterscheidet z.B. ein Acer Predator 15 G9-592-7308 von einem Acer Predator 15 G9-592-7253 (Auflösung -> 980M vs 970M :freak:)
Da hole ich mir lieber ein MacBook. ;)
Es mag für viele trivial erscheinen über was ich mich hier "echauffiere", aber glaubt mir, dass ist ein grundlegendes Problem bei AMD. Das checken sie nicht. Mit solchen Kommunikationsproblemen gewinnen sie keine Kunden. Sie müssen ihre Botschaft klar und deutlich rüber bringen anstatt weitere Fragen zu provozieren.
Nochmal: Hier geht es nicht um interne Codenamen sondern um offiziell bei Trade Shows und bei der GDC genutzte Namen.
Gipsel
2016-03-15, 19:09:15
Genau deswegen hat man doch RTG gegründet. Die einzelnen Grafikabteilungen haben sich zig Namen ausgedacht für ein und die selbe IP-Konfiguration. Man wollte das alles mit der Gründung streamlinen aber wie man sieht können sie es ja noch nicht einmal nach außen ordentlich kommunizieren.Ja sicher doch. Man hat die RTG gegründet, damit man die Codenamen vereinheitlichen kann.
Ähm, sicher nicht. :freak:
Die Funktion der öffentlichen "Codenamen" wurde bereits von mehreren Leuten hier wiederholt dargelegt. Diese wird auch von Polaris/Vega 10/11 erfüllt. Eine angehängte Nummer ist immer nach irgendwelchen willkürlichen Kriterien gewählt. Was ist jetzt Dein konkretes Problem damit? Hast Du Angst nicht zu wissen, von welchem Chip die Rede ist, wenn in Diskussionen in Zukunft "Polaris 10" erwähnt wird? Wie ist da z.B. "Hawaii", "Bonaire", "Fiji" oder auch "GP106" wesentlich besser?
Für die Kommunikation mit den Kunden sind doch die Verkaufsnamen der Produkte wichtig, nicht irgendwelche Codenamen. Die werden dann auch klar kommuniziert und haben ein irgendwie geartetes Bezeichnungsschema, nach dem die Leistungsfähigkeit und Generation eingeordnet werden kann.
maximus_hertus
2016-03-15, 19:20:17
Was interessiert mich eine Zahl wenn sie nichts aussagt. Was unterscheidet z.B. ein Acer Predator 15 G9-592-7308 von einem Acer Predator 15 G9-592-7253 (Auflösung -> 980M vs 970M :freak:)
Da hole ich mir lieber ein MacBook. ;)
z.B. Apple MacBook Air 13" 2015 MJVE2D/A CTO BTO
oder doch lieber Apple MacBook Air 13" 2015 MJVG2D/A CTO BTO
Öhmm ja, großer Unterschied ;)
Zu den Codenamen: Mir ist noch kein "normaler" Kunde im LAden begegnet, der von GM, GF, Hawaii, Tahiti und Co gesprochen hat. Selbst "Maxwell-Architektur" fällt extrem selten. Die finalen Produktnamen sind diejenigen, über die Gesprochen wird (GTX 970 etc.).
Ich kapiere (wie einige wohl auch) nicht, was für ein Problem du hast? Polaris 10 ist das quasi GP104-Äquivalent, Polaris 11 = GP206 und Vega 10 = GP100. Wo ist da jetzt der große Unterschied?
AintCoolName
2016-03-15, 19:24:59
Die Freaks die sich die Infos von der GDC und solchen Quellen holen die wissen jetzt bescheid, und der Rest der Welt (auf den es wirklich ankommt) wird nach Preis und Benchmark-Balken Entscheiden. Ob das ding dann Polaris 10, 11 oder sonst wie heißt oder bei der Präsentation eine Attrappe aus Holz war interessiert keinen. Ihr müsst immer bedenken die Leute hier im Forum sind die Informierte Minderheit, für die wird kein Marketing gemacht.
Hübie
2016-03-15, 19:50:08
Unser Unicous hat mal wieder zuviel Zeit :D Macht nix. Bei nVidia würfelt man doch genau so (Kepler nach Leistung: 106<104<110, nach absoluten Zahlen 104<106<110, Maxwell nach Leistung: 107<206<204<200 und nach absoluten Zahlen: 107<200<204<206). Wo ist nun das Problem? Können wir diese müßige Diskussion jetzt mal ad acta legen?
Interessanter fände ich die Positionierungen des lineups. Die Pro Duo steht ja offenbar abseits. Und kann man Fiji schon sterben lassen (ROI)?
Wenn nur zwei Chips 2016 kommen und einer davon mit einer GTX 950 verglichen wird, muss ja irgendwas stehen bleiben.
fondness
2016-03-15, 19:58:20
Interessanter fände ich die Positionierungen des lineups. Die Pro Duo steht ja offenbar abseits. Und kann man Fiji schon sterben lassen (ROI)?
Wenn nur zwei Chips 2016 kommen und einer davon mit einer GTX 950 verglichen wird, muss ja irgendwas stehen bleiben.
Stehen bleibt nur das unter Polaris11, also lowend. Vega kommt ein halbes Jahr später, und ist ohnehin schneller wie alles @28nm. Dann hat man vier GPUs@ FinFET, das reicht für ein relativ umfangreiches Linup.
Loeschzwerg
2016-03-15, 20:06:52
Interessanter fände ich die Positionierungen des lineups. Die Pro Duo steht ja offenbar abseits. Und kann man Fiji schon sterben lassen (ROI)?
Wenn nur zwei Chips 2016 kommen und einer davon mit einer GTX 950 verglichen wird, muss ja irgendwas stehen bleiben.
Ja, die Aussicht auf Vega bleibt bestehen :ulol3:
Mal ernsthaft, würden denn zwei DIEs nicht ausreichen? Lässt sich doch einiges damit abdecken.
Oland kann man im Low-End stehen lassen, sonst alles weg.
Edit: Sign @ fondness.
Ailuros
2016-03-15, 20:11:33
Unser Unicous hat mal wieder zuviel Zeit :D
Ich will jetzt nicht das OT weiter anfeuern, aber er hat irgendwo schon Recht. Macht aber im guten Ganzen keinen Unterschied mehr wenn sie die hw richtig oder falsch am Ende entwickelt haben.
Macht nix. Bei nVidia würfelt man doch genau so (Kepler nach Leistung: 106<104<110, nach absoluten Zahlen 104<106<110, Maxwell nach Leistung: 107<206<204<200 und nach absoluten Zahlen: 107<200<204<206). Wo ist nun das Problem? Können wir diese müßige Diskussion jetzt mal ad acta legen?
Interessanter fände ich die Positionierungen des lineups. Die Pro Duo steht ja offenbar abseits. Und kann man Fiji schon sterben lassen (ROI)?
Wenn nur zwei Chips 2016 kommen und einer davon mit einer GTX 950 verglichen wird, muss ja irgendwas stehen bleiben.
Fiji ist heute auf der Spitze des lineups und wird hoechstwahrscheinlich erst Anfang 17' durch Vega abgeloest; ist aber auch relativ da Fiji eben nicht fuer HPC benutzt wird. Wenn GP100 bei NV keine Fehlgeburt ist werden sie damit schon in maessigen Mengen im Laufe des Jahres HPC damit fuettern koennen.
Das eigentliche desktop Rennen dass uns meistens hier im Forum interessiert ist dann wer zuerst und mit welchen Mengen zuerst notebooks bzw. GPU SKUs veroeffentlichen kann. Die 3 Monate wird das Publikum wohl noch aushalten koennen bis wir weisser werden ;)
dargo
2016-03-15, 20:13:52
Interessanter fände ich die Positionierungen des lineups. Die Pro Duo steht ja offenbar abseits. Und kann man Fiji schon sterben lassen (ROI)?
Wenn nur zwei Chips 2016 kommen und einer davon mit einer GTX 950 verglichen wird, muss ja irgendwas stehen bleiben.
Es ist noch gar nicht klar wann die "fetten" GPUs kommen. Der Folie nach könnte Vega auch November/Dezember 2016 kommen, je nachdem wo man beim Jahr 2017 den Strich ansetzt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10971515&postcount=1571
Mit 2x Polaris und 2x Vega deckst du 8 GPUs mit ihren Salvages ab. Brauchst du noch mehr? :freak:
Ailuros
2016-03-15, 20:23:51
Es ist noch gar nicht klar wann die "fetten" GPUs kommen. Der Folie nach könnte Vega auch November/Dezember 2016 kommen, je nachdem wo man beim Jahr 2017 den Strich ansetzt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10971515&postcount=1571
Mit 2x Polaris und 2x Vega deckst du 8 GPUs mit ihren Salvages ab. Brauchst du noch mehr? :freak:
Die Positionierung von Vega ist Absicht, eben weil wenn alles nach Plan laeuft das Ding gegen Ende 16' antanzen sollte. Tendenz ist aber eher Anfang 17'.
Unicous
2016-03-15, 20:24:13
@Gipsel
Schön wie du dir meine Worte so auslegst damit ich am Ende als Idiot dastehe. (y) Natürlich ging es nicht um die Codenamen. Die sind nur Symptom für ein tiefer liegendes Problem das seit Übernahme von Ati besteht. Wenn jeder einzelne Transistor einen Codenamen trägt zeugt das offensichtlich davon, dass man sich völlig im Kleinklein verloren hat und jeder Abteilung sein eigenes Süppchen kocht.
Aber gut, da hier nur noch Spott und keine Blumentöpfe mehr zu gewinnen sind werde ich im Stillen über den super catchy Namen "Radeon Pro Duo" sinnieren.
dargo
2016-03-15, 20:25:22
Die Positionierung von Vega ist Absicht, eben weil wenn alles nach Plan laeuft das Ding gegen Ende 16' antanzen sollte. Tendenz ist aber eher Anfang 17'.
Schon klar, da steht auch "projected".
Gipsel
2016-03-15, 21:19:05
Natürlich ging es nicht um die Codenamen. Die sind nur Symptom für ein tiefer liegendes Problem das seit Übernahme von Ati besteht. Wenn jeder einzelne Transistor einen Codenamen trägt zeugt das offensichtlich davon, dass man sich völlig im Kleinklein verloren hat und jeder Abteilung sein eigenes Süppchen kocht.Um das mal hoffentlich abzuschließen:
Kein Mensch sieht in den Codenamen mehr als willkürliche Bezeichnungen für die Chips, die halbwegs "catchy" ausfallen sollen. Die Wahl von Codenamen ist ein Symptom für genau gar nichts, für irgendwelche "tiefer liegende Probleme" in einer Firma erst recht nicht (Codenamen als Indikator für das Wohlergehen eines Unternehmens :freak:). Aber man kann natürlich auch Kaffeesatzleserei betreiben oder in diesem Fall Sterne deuten. :wink:
Unicous
2016-03-15, 21:23:21
Um das mal abzuschließen. Es ging mir nicht um das Wohlergehen sondern Organisationsstrukturen. Als Fazit noch ein paar Smileys.:freak::wink::rolleyes::eek::(
Gipsel
2016-03-15, 21:27:08
Um das mal abzuschließen. Es ging mir nicht um das Wohlergehen sondern Organisationsstrukturen.Was sagen öffentliche Codenamen über die Organisationsstrukturen eines Unternehmens aus? Nichts.
OBrian
2016-03-15, 21:36:17
Intern wird jeder schon wissen, woran er arbeitet. Die Codenamen denken die sich doch extra nur für uns Spekulationsforenidioten aus, was ja auch wunderbar funktioniert: Wir haben eigentlich null Infos bekommen, aber nein, man hat uns mit einigen Codenamen berieselt, und schon werden wieder zig Seiten vollgeschrieben und die Firma ist in aller Munde und der Hype wird geschürt.
VooDoo7mx
2016-03-15, 22:41:31
Es ist noch gar nicht klar wann die "fetten" GPUs kommen. Der Folie nach könnte Vega auch November/Dezember 2016 kommen, je nachdem wo man beim Jahr 2017 den Strich ansetzt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10971515&postcount=1571
Mit 2x Polaris und 2x Vega deckst du 8 GPUs mit ihren Salvages ab. Brauchst du noch mehr? :freak:
Jo besonders weil Multi GPU bei 7%% der aktuellen Blockbuster titel gar nicht mehr und beim rest nur mit beschissener Skalierung funktioniert.
Niemand braucht da sinnlose mGPU Boards.
Korvaun
2016-03-15, 22:47:49
Dargo wollte sagen 8 GPU-Versionen gibts bis Anfang 2017: jeweils 2 versionen (full/salvage) von polaris 10, polaris 11, vega 10 und vega 11. das gibt genug spielraum für mainstream bis highest end...
Wenn alles nach Plan läuft sollte bei AMD am 15.3.2017 alles durch sein (inklusive Desktop-ZEN) und wir spekulieren schon wieder über die nächste Generation ;)
Kartenlehrling
2016-03-15, 22:50:05
Wir sind aber in einem Multi-GPU Umbruch, das alte "alternate frame rendering (AFR)" ist ... Tod.
Locuza
2016-03-15, 23:11:47
Interessant das es Ashes noch verwendet und damals Battlefield bei Mantle.
Die anderen DX12 Titel haben überhaupt noch kein Multi-GPU Support oder?
victore99
2016-03-15, 23:31:08
Das alte SLI von 3dfx war einfach beste. Notfalls eben mit "Ein Bildschrim, ein Bild", mit VR oder Triple Monitor-Setups sollte sich doch ein gewisser Markt öffnen.
Btw: wir hatten schon von Vega 10 gehört, als wir von Polaris nix wussten. Wie heftig war denn der Insider drauf? Einfach mal eine Generation überspringen....
Hübie
2016-03-16, 00:59:11
Ja, die Aussicht auf Vega bleibt bestehen :ulol3:
;D Ja, ja. Habs kapiert :biggrin:
Mal ernsthaft, würden denn zwei DIEs nicht ausreichen? Lässt sich doch einiges damit abdecken.
Oland kann man im Low-End stehen lassen, sonst alles weg.
Edit: Sign @ fondness.
Oland ist eine so unglaubliche Gurke mit altem Schrott, dass man die doch locker durch eine APU ersetzen könnte oder? Die "Großen" haben ja schon 512 ALUs. :cool:
aufkrawall
2016-03-16, 01:22:10
Oland kann man dafür aberwitzig übertakten. Die Regler in manchen OC-Tools geben dafür nach links gar nicht genug Spielraum. :freak:
Genau, eine APU IGPU laeuft max. mit 800 MHz. und dann sind in dem Bereich Features sowieso egal. Von mir aus kann oland bleiben bis dann mit Raven Ridge auch eine APU da ran kommt.
Ich hoffe auch nicht, dass AMD da Anstrengungen taetigt. GM107/Bonaire sollte das niedrigste sein, was ein Kunde bewusst kauft.
Kam jetzt auch endlich dazu, das Video anzusehen...
Vorausgesetzt, er hat das auch wirklich so gesagt und das ist nicht nur daemlich aufgeschrieben. Hat er? Oder war es eher sowas wie "wenn es noch einen Polaris gaebe, waere die Zahl groesser als 11"?
Und fuer mich hat er genau das getan
I don't think it will go down, it'll only increase [...] if we build another polaris architecture based chip, it [the number] will be larger than 11
Wie kann man da dann aufschreiben, dass der chip groesser sei? Naja, egal...
Aber fuer mein Verstaendnis erteilt er HBM fuer Polaris auch eine klare Absage. Ich sehe da keinen Deutungsspielraum. Er sagt doch klar, dass man nur die Punkte verbinden muss, HBM teuer sei und bei Fiji ein Experiment war, um das mal hinzukriegen mit den Zulieferern. HBM2 wird es nach seiner klaren Ansage erst geben, wenn er fuer den 'Mainstream' bereit ist.
'Mainstream' und 'wide range of gamers' klingt zumindest danach, dass der kleinere Vega nicht als absolutes High-End Produkt eingefuehrt wird. Dass Polaris 10 dann schon wieder abgeloest wird, macht aber auch keinen Sinn. Das ist natuerlich jetzt auch wieder hochspekulativ.
Analogien zu den Chips unter 28 nm zu finden, faellt mir daher etwas schwer.
________ -> Oland? < 100 mm² absolutes low-end
Polaris 11 -> Bonaire (Cape Verde)? ~ 150 mm² - Entry-Level mit gutem PL, Fokus auf Effizienz
________ -> Pitcairn? > 200 mm² - Mid-Range
Polaris 10 -> Tahiti (Tonga)? ~ 300 mm²? - Performance, zunaechst in der Oberklasse eingefuehrt
Vega 11 -> Hawaii? > 400 mm²? - das neue High-End
Vega 10 -> Fiji? > 550 mm²? - Enthusiast/HPC-Monstrum?
In dieser Liste klafft eine Luecke in der Mitte, die leistungsmaessig vielleicht Tonga fuellen koennte :freak: Im low-end koennte es wie gesagt weiterhin oland verwendet werden...
Aber wo passt dann Navi hin? 10 nm sehen wir da (2018) wohl noch nicht.
Ailuros
2016-03-16, 06:50:43
Wir sind aber in einem Multi-GPU Umbruch, das alte "alternate frame rendering (AFR)" ist ... Tod.
Was gibt es denn als Alternative genau dass ich verpasst habe? Falls Du Dich auch auf DX12 beziehen solltest, sollten wir wohl erstmal abwarten bis zumindest ein Spiel mit besserer Speicherverwaltung fur mGPU erscheint. Der Daemlichkeit zu Liebe: wenn man wie bei AFR wieder erwartet dass es wieder nur durch sw geloest wird, wird die Affaere wohl nicht fundamental besser.
Das alte SLI von 3dfx war einfach beste. Notfalls eben mit "Ein Bildschrim, ein Bild", mit VR oder Triple Monitor-Setups sollte sich doch ein gewisser Markt öffnen.
Btw: wir hatten schon von Vega 10 gehört, als wir von Polaris nix wussten. Wie heftig war denn der Insider drauf? Einfach mal eine Generation überspringen....
Selbst wenn es 3dfx heute noch gaebe waeren sie nicht so daemlich immer noch auf scan line interleaving zu beruhen. Und um es auf eine korrekte Basis zu setzen: die ex-3dfx engineers die in Jahr 2000 zu NV wanderten haben auch kurzfristig die Wiedergeburt von "scalable link interface" eigentlich angefeuert; dass sie selber nichts mehr von SLI benutzten erzaehlt schon eine andere Geschichte. Keine Geometrie zu skalieren bei mGPU waere das wahnwitzigste ueberhaupt heutzutage.... Heute brauchen wir eigentlich keine alberne software hacks fuer mGPU mehr sondern einen echten Guss in hw, am liebsten in der Zukunft mit gestapelten cores.
scully1234
2016-03-16, 07:10:40
sondern einen echten Guss in hw, am liebsten in der Zukunft mit gestapelten cores.
Gibt's da denn schon Loesungsansaetze die funktionieren(Nanotubes??), und die hohe thermale Belastung zuverlaessig abfuehren?
HBM ist da ja Kreisliga, gegen GPU Cores bildlich gesprochen,was die TDP betrifft:smile:
horn 12
2016-03-16, 07:12:21
Die Preisanpassung der Fury sehe ich als Grund Platz zu schaffen für Polaris 10.
Jener Polaris 10 wird sich wohl nach etlichen Wochen zwischen 450 bis 500 Euro ansiedeln, bei Release wohl weitaus über 500+ Euro
Loeschzwerg
2016-03-16, 07:43:13
Oland ist eine so unglaubliche Gurke mit altem Schrott, dass man die doch locker durch eine APU ersetzen könnte oder? Die "Großen" haben ja schon 512 ALUs. :cool:
Schon, aber so eine kümmelige Low-End Karte braucht man einfach im Angebot. z.B. als Aufrüstoption für Multi Monitor Setups o.ä.
Ist wie der GK208 bei NV.
Hübie
2016-03-16, 07:51:26
Also ich denke eher, dass Polaris 10 so ziemlich exakt die Performance der Nano ersetzt und nach unten hin als Salvage Grenada XT obsolet macht. Dabei wird man wohl 150 Watt nicht überschreiten. Darunter werden dann 370X und 380 von Polaris 11 ersetzt. Die Lücken sind aktuell ja eher klein und wenn man die in der kommenden Generation vergrößert ist das ja kein Beinbruch, da custom OC-Modelle ja öfter mal an der Grenze zur nächst höheren Karte kratzen. Just my guesses... :)
Also ich denke eher[...]
Falls du das auf meinen Beitrag bezogen hast, ist das ja kein Widerspruch. Ich meinte nur die Positionierung der Chips innerhalb des neuen Lineups. Dabei ging es nicht darum, welche neue Karte welche alte direkt ersetzen soll.
Die Nano ist fast auf dem Niveau von Hawaii, also sehe ich es im Uebrigen genauso, dass Polaris 10 dort angreift.
y33H@
2016-03-16, 09:40:34
Macht doch mal n Wasserzeichen auf die Slides damit das Copy/Paste zumindestens etwas erschwert wird.Die Slides sind ja von SK Hynix. Ich mache Wasserzeichen höchstens auf meine eigenen Fotos, aber nicht auf Herstellerfolien. Davon ab: Eine Kopie ist im asiatischen Raum die höchste Ehre :biggrin:
Also ich denke eher, dass Polaris 10 so ziemlich exakt die Performance der Nano ersetzt und nach unten hin als Salvage Grenada XT obsolet macht. Dabei wird man wohl 150 Watt nicht überschreiten. Darunter werden dann 370X und 380 von Polaris 11 ersetzt. Die Lücken sind aktuell ja eher klein und wenn man die in der kommenden Generation vergrößert ist das ja kein Beinbruch, da custom OC-Modelle ja öfter mal an der Grenze zur nächst höheren Karte kratzen. Just my guesses... :)
Als Geforce 970 Besitzer und potentieller Käufer hoffe ich doch schwer, das mind. Fury X niveau erreicht wird. Alles darunter wäre für mich eine Enttäuschung und nichts weiter als ein Sidegrade mit Ram Erweiterung und dann ein halbes Jahr später Vega zu kaufen...AMD soll mal hin machen. (Hintergrund will dieses Jahr noch Freesync benutzen)
Complicated
2016-03-16, 10:30:49
Das ist auch interessant:http://www.planet3dnow.de/vbulletin/threads/423353-AMD-s-Arctic-Islands-GPUs-Greenland-Baffin-Ellesmere?p=5077592&viewfull=1#post5077592
Kevin Krewell hat ein passiv gekühltes Polaris 11 System fotografiert, wie in folgendem Tweet zu sehen:https://twitter.com/Krewell/status/709521194966331393
Der kleine Polaris 11 passiv gekühlt 4K 360° VR.
Ailuros
2016-03-16, 10:35:57
Wow ein Bild von einem Bildschirm der an ein System mit Polaris11 angeschlossen ist.....wenn das nicht das absolute tech-porno ist weiss ich auch nicht weiter....:rolleyes:
Sunrise
2016-03-16, 10:36:37
Das ist auch interessant:http://www.planet3dnow.de/vbulletin/threads/423353-AMD-s-Arctic-Islands-GPUs-Greenland-Baffin-Ellesmere?p=5077592&viewfull=1#post5077592
Der kleine Polaris 11 passiv gekühlt 4K 360° VR.
360 4K VR Videos
Und jetzt mal überlegen, was das heißt...
Complicated
2016-03-16, 10:39:07
Ok das "Videos" hatte ich überlesen :)
Schreibs dem VR-Hype zu ;)
maximus_hertus
2016-03-16, 10:42:08
Also ich denke eher, dass Polaris 10 so ziemlich exakt die Performance der Nano ersetzt und nach unten hin als Salvage Grenada XT obsolet macht. Dabei wird man wohl 150 Watt nicht überschreiten. Darunter werden dann 370X und 380 von Polaris 11 ersetzt. Die Lücken sind aktuell ja eher klein und wenn man die in der kommenden Generation vergrößert ist das ja kein Beinbruch, da custom OC-Modelle ja öfter mal an der Grenze zur nächst höheren Karte kratzen. Just my guesses... :)
Nano, 100% Leistung, 175W
Polaris 10, 100% Leistung, 150W
Ist das nicht etwas wenig? Eine Effizienzsteigerung von knapp 17%? Selbst wenn man die Fury X nimmt und vergleichen würde:
Fury X: 100% Leistung, 275W
Nano / Polaris 10: 88% Leistung, 150W
Effizienzsteigerung um 61%. Das ist schon besser, aber für 14 vs 28nm + Architekturupdate auch wieder mau.
Ich gehe mal davon aus, dass man zumindest kurzfristig die schnellste Grafikkarte stellen möchte (abhängig davon, wann nV mit GP104 kommt). Polaris 10 schätze ich mal 20-25% VOR der Fury X bei ca. 175W. Das wäre immerhin eine Effizienzsteigerung um fast 100% (zur Fury X) bzw. 42% zur Nano.
Polaris 10 => neue Topkarte im AMD Portfolio (490X)/(490)
Polaris 10 Salvage => ca. Fury/Nano Niveau (490)/(480)
Polaris 11 => ca. 390 Niveau (480X)/(470)
Polaris 11 Salvage => etwas schneller als eine 380X (480)/(460)
Vega = Fury 2 oder sowas, also kein R400 Branding.
Sunrise
2016-03-16, 10:46:26
Wie kommt ihr eigentlich darauf, dass Polaris 11 jemals für den diskreten Desktop-Markt erscheint?
Polaris 10 ist Mainstream/Performance, Vega ist darüber.
Complicated
2016-03-16, 10:48:51
Fury X: 100% Leistung, 275W
Nano / Polaris 10: 88% Leistung, 150W
Effizienzsteigerung um 61%. Das ist schon besser, aber für 14 vs 28nm + Architekturupdate auch wieder mau.
Ich denke die Verkleinerung des Dies ist hier die wirtschaftlich entscheidende Größe. knapp 600m² vs. ca. 230 m² reduziert die Kosten pro Chip enorm und verbessert zusätzlich die Yields, was die Kosten noch weiter senkt.
Die Performancepunkte der Nano und der FuryX durch wirtschafltichere GPUs zu ersetzen ist nicht so verkehrt. Nur für den Kunden der aufrüsten will wohl nicht das richtige Produkt. Für alle Neu-Käufer schon.
Man atackiert direkt Nvidias Bestseller 970/980 bei der Effizienz und dem Preis. Über Pascals ersten Zielmarkt ist wenig bekannt, doch wenn Nvidia sich entschloßen hat mit dem Big Chip zu starten, könnte es lange dauern bis man in den Preispunkten etwas dagegen halten kann. Und aus Nvidias Sicht gab es ja keinen Grund seine 970/980 schnellst möglich zu ersetzten.
Thunder99
2016-03-16, 10:54:17
Naja, andererseits kann es für eine R9 200er Serie schon lohnen wenn:
aktuelles Featureset
bessere Auslastung das durchgängig +50% oder mehr raus kommen
mehr VRAM
erfüllt/geboten wird
Hübie
2016-03-16, 10:55:52
Wie kommt ihr eigentlich darauf, dass Polaris 11 jemals für den diskreten Desktop-Markt erscheint?
Polaris 10 ist Mainstream/Performance, Vega ist darüber.
Da oben siehst du doch schon ein System mit Polaris 11. Meinst du das ist einfach nur showcase? ;)
@maximus_hertus: Ich habe wohl ein anderes Rating, als du, im Kopf. Bei www.computerbase.de (http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/) ist die Nano mit offenem PT ~10% langsamer als die Fury X, aber ist dennoch effizienter (75% Energiebedarf).
Polaris 11 => ca. 390 Niveau (480X)/(470)
Polaris 11 Salvage => etwas schneller als eine 380X (480)/(460)
Die Karte wurde gegen die 950 gestellt und soll vor allem in Notebooks punkten. Dazu wissen wir, dass der Chip nur ~150 mm² gross ist.
Warum soll Polaris 11 nicht in den Desktop kommen?
750 (Ti), 950 und 960 werden sehr gut verkauft.
@Hübie: das muss nichts heissen, der Chip, der im Dezember gezeigt wurde, war angeblich auch fuer Notebooks vorgesehen, testweise auf einem PCIe Board.
Selbst ImgTec baut ihre PowerVRs auf PCIe Boards zum Testen ;)
Sunrise
2016-03-16, 11:03:16
Da oben siehst du doch schon ein System mit Polaris 11. Meinst du das ist einfach nur showcase? ;)
Das ist ein Pre-production Entwickler-Showcase und das "passive cooling" sollte eigentlich zu denken geben.
Das Ding ist im neuen LineUp absolutes Low-End, da Polaris10 Mainstream/Performance ist, wo ist da im Desktop nochmal der Markt? Das Ding ist geradezu prädestiniert für mobile (Apple und Co.).
M4xw0lf
2016-03-16, 11:04:31
Polaris 10 und 11 müssen schon beide ihren Weg in den Desktop finden. Mit 1x Vollausbau und 1x Salvage (vielleicht deutlicher abgespeckt als man das bisher hatte?) kommt man auf immerhin 4 mögliche GPU-Modelle, damit lässt sich schon viel vom Markt abdecken.
Hübie
2016-03-16, 11:05:46
Das ist ein Prototypen-Entwickler-Showcase und das "passive cooling" sollte eigentlich zu denken geben.
Aha. Die bauen also ein komplettes System, zeigen dies der Öffentlichkeit, um es dann nicht zu verkaufen. :freak: Not gonna happen.
ps: Selbst mein blödes Handy stellt VR-Videos passiv da und ist dabei deutlich kleiner. X-D AMD ist echt der Hit!
Sunrise
2016-03-16, 11:10:07
Aha. Die bauen also ein komplettes System, zeigen dies der Öffentlichkeit, um es dann nicht zu verkaufen. :freak: Not gonna happen.
Die verkaufen es (die GPU) doch, aber nicht in dieser Form, ist dir das zu hoch?
Wo wurde nochmal Tonga primär verkauft? Richtig, NICHT im diskreten PC-Desktop, obwohl es sicher schon Desktop-Prototypen weit vorher gab.
System nicht aber eine Testkarte koennte es wie schon im Dez schon theoretisch sein. Wie gesagt glaube ich aber natuerlich auch nicht dran, dass Polaris 11 nicht im Desktop kommt
Schliesslich gibt/gab es auch Bonaire, Oland, Cape Verde alle im Desktop
das wird OT aber wie werden eigentlich 360° Videos gespeichert und abgespielt?
Mehrere Videos fuer verschiedene Kameras und dann ein simpler Renderer der die auf eine Kugel mappt? Gibt es dafuer ein einheitliches Format?
Sunrise
2016-03-16, 11:16:15
Es ist auch nur eine Überlegung von mir, weil der Low-End PC-Markt zunehmend wegbricht. Was aber nicht wegbricht, sind Notebook und generell mobile-Märkte.
Polaris 10 steht außer Frage, ebenso Vega.
Für Polaris 11 interessiert sich am Desktop doch keine Sau, wenn der nicht min. auf GTX960-Level ist. Und selbst dann hätte AMD andere Kunden, die ihnen die Dinger vorerst aus der Hand reißen würden.
maximus_hertus
2016-03-16, 11:18:59
@maximus_hertus: Ich habe wohl ein anderes Rating, als du, im Kopf. Bei www.computerbase.de (http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/) ist die Nano mit offenem PT ~10% langsamer als die Fury X, aber ist dennoch effizienter (75% Energiebedarf).
Computerbase hat aber kein Stromverbrauchsranking der Grafikkarten, nur des ganzen Rechners?
Edit: Zum Polaris 11 @ Desktop: Wurde bei der CES Demo Polaris 10 bzgl. Performance oder der Energieeffizienz mit der 950 verglichen? Eher wegen der Effizienz. Die Performance konnte ja gar nicht ermittelt werden bzw. es gab quasi keine echten Hinweise (VSync...). Wenn man sich den GM204 anschaut, dann gibt es die Desktop 980 mit 2048 Shader @ 165W (bzw. Customs mit 250W) und auf dem Notebook 1024 Shader @ 50W. Also genug Möglichkeiten einen Chip in verschiedene Geräte / Klassen zu skalieren.
Polaris 11 @ Notebook @ 50W auf Niveau des Desktop GTX 950. Auf dem esktop mit z.B. 100W dann zwischen GTX 960 und 970, vielleicht sogar auf 970 Niveau?
Unicous
2016-03-16, 11:22:04
Kam jetzt auch endlich dazu, das Video anzusehen...
Und fuer mich hat er genau das getan
Wie kann man da dann aufschreiben, dass der chip groesser sei? Naja, egal...
Das berichten mehrere Seiten, ich verstehe nicht was du uns hier sagen willst? Denkst du Anandtech hat das von pcper abgeschrieben?
Hübie
2016-03-16, 11:35:13
Computerbase hat aber kein Stromverbrauchsranking der Grafikkarten, nur des ganzen Rechners?
Ja und? Der Rechner bleibt ja gleich. +/- wenige Prozent kommt es hin. :smile:
Polaris 11 ersetzt Pitcarin und Tonga-Salvage im Desktop. Oland, CapVerde und/oder Bonaire werden uns sicherlich darunter noch erhalten bleiben.
AMD setzte Polaris11 auch nur gegen die 950 mit einem Takt von 800MHz. Die Finale Desktop-Variante wird sicherlich ohne Stromstecker bei 75W bleiben bei 1GHz+ und die 960 ärgern.
Man kann sicherlich
Polaris11 XT ca. auf dem Niveau der GTX960 / R9 380 sehen (R9 470 würde also gut passen als Bezeichnung) bei 75W TDP
und
Polaris10 XT etwas über dem Niveau von FijiXT mit 1GHz+ als R9 490 ~ 150-180W. Dazwischen könnte man die alten 380er und 390er-Karten weiterhin anbieten, bis Vega11 verfügbar ist.
Das berichten mehrere Seiten, ich verstehe nicht was du uns hier sagen willst? Denkst du Anandtech hat das von pcper abgeschrieben?
Ich verstehe auch nicht, was du mir sagen willst.
Meinst du den Artikel? http://anandtech.com/show/10145/amd-unveils-gpu-architecture-roadmap-after-polaris-comes-vega
Da steht dazu doch gar nichts
Complicated
2016-03-16, 13:30:05
Wenn man sich den GM204 anschaut, dann gibt es die Desktop 980 mit 2048 Shader @ 165W (bzw. Customs mit 250W) und auf dem Notebook 1024 Shader @ 50W. Also genug Möglichkeiten einen Chip in verschiedene Geräte / Klassen zu skalieren.
Sind das nicht eher 1536 Shader für die 980m@80W TDP(Chip) TGP(103W package) und 1280 Shader für die 970m@65W TDP(Chip) TGP(80W package)?
https://www.techinferno.com/index.php?/forums/topic/6110-maxwell-gm204-gtx980m-gtx970m-gtx965m/
http://www.3dcenter.org/news/nvidia-stellt-gm204-basierte-mobile-loesungen-geforce-gtx-970m-980m-vor
Ich will damit sagen man sollte nicht zu optimistische Skalierungsmöglichkeiten erwarten bei solch großen Chips beim Stromverbrauch.
Leonidas
2016-03-16, 13:37:06
Schon, aber so eine kümmelige Low-End Karte braucht man einfach im Angebot. z.B. als Aufrüstoption für Multi Monitor Setups o.ä.
Ist wie der GK208 bei NV.
Richtig, gebraucht wird es. Die Frage ist, ob man dafür einen extra 70mm² Chip in 14nm auflegt - oder den Oland-Chip von 90mm² in 28nm weiterbenutzt. Letzterer könnte insgesamt günstiger kommen - und da es auf die Performance nicht ankommt, spielt es auch keine Rolle, das der 14nm-Chip schneller sein könnte.
Ich denke, wenn es in Zukunft wieder zu einem schnelleren Wechsel der Fertigungsverfahren kommt, das man solche LowCost-Gurken vielleicht nur aller zwei Generationen auflegen wird.
Zergra
2016-03-16, 13:39:14
Ich denke, wenn es in Zukunft wieder zu einem schnelleren Wechsel der Fertigungsverfahren kommt, das man solche LowCost-Gurken vielleicht nur aller zwei Generationen auflegen wird.
Ich denke eher das es jetzt bestimmt nochmal 4-5 Jahre dauert bis die 10nm vor der Tür stehen :D :confused:
Loeschzwerg
2016-03-16, 13:41:33
Bin mir sicher man wird diese Generation noch bei Oland bleiben. Für den Einsatzzweck völlig ausreichend.
Leonidas
2016-03-16, 13:42:25
Ich denke eher das es jetzt bestimmt nochmal 4-5 Jahre dauert bis die 10nm vor der Tür stehen :D :confused:
Also TSMC und GF sehen das anders ... Auch "Navi" und "Volta" können in ihrer Konzeption nicht funktionieren ohne neue Fertigung.
Wie kommt ihr eigentlich darauf, dass Polaris 11 jemals für den diskreten Desktop-Markt erscheint?
Polaris 11 ist LowCost/Mainstream im Sinne der 14/16nm-Generation. Ergo heutzutage Mainstream/Performance-Niveau, ähnlich Radeon R7 370 oder GeForce GTX 950 - und etwas besser. Dafür gibt es heute Käufer, dafür wird es auch im Jahr 2016/2017 Käufer geben. Der Chip mag klein sein, bietet aber ausreichend Performance für Gaming, ist also kein echtes LowCost oder gar LowEnd.
Botcruscher
2016-03-16, 13:45:39
GF und gerade TSMC sehen das prinzipbedingt durch die rosa Brille. Volta und Navi gehen dann einfach den Weg der 22nm Planungen.
Complicated
2016-03-16, 13:53:39
Also TSMC und GF sehen das anders ... Auch "Navi" und "Volta" können in ihrer Konzeption nicht funktionieren ohne neue Fertigung.
Für Navi könnte das nicht mehr gelten. Auf der Roadmap stand "nextGen Memory" und "Scalability". Mit der Aussage von Raja Koduri in dem Interview nach dem Capsaicin-Event scheinen hier kleinere Chips die Zukunft zu sein, die auf einem Package in Multi-GPU Konfigurationen verwendet werden. Große Chips leiden einfach unter den Yields und dies wird ja auch in kleineren Fertigungen nicht günstiger. Daher wird mal wohl hier in der Produktion mehr Optimieren müssen als in der Architektur in der Zukunft.
Hab die Quelle hier schon gestern gepostet: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10972455&postcount=3
Man optimiert Chips für Lowcost und Mainstream und findet einen Weg wie sie optimal skalieren in einem Multi-GPU-Package. Softwareseitig könnte bis dahin einiges passiert sein um das möglich zu machen - daran wird ja verstärkt gearbeitet wegen VR.
Hübie
2016-03-16, 14:06:06
NVIDIA sagt genau gegenteiliges: Es muss deutlich mehr Effizienz aus der Architektur heraus geholt werden, als aus dem Prozess, da es per se nicht mehr diese Steigerungen von früher gibt. Und das spiegelt die Praxis aktuell wieder.
maximus_hertus
2016-03-16, 14:44:51
Ja und? Der Rechner bleibt ja gleich. +/- wenige Prozent kommt es hin. :smile:
Öhmm ja...
Nehmen wir mal 130W für den Rest ohne Grafikkarte.
Bei 150W für die Grafikkarte vs 300W hätten wir ja eine 100% bessere Effizienz. Nehmen wir das ganze System sind es 280W vs 430W = 53%. Das ist nicht wirklich ein paar Prozent.
Aus dem Computerbase R9 Nano Review (in Klammern die Watt Angaben von AMD / nV):
R9 Nano (175W) vs 980 Ti (250W), Performancerating (2560x1440) 84% (Nano) zu 100% (980 Ti). Gesamtsystem 298W zu 353W.
Direkter Grafikkartenvergleich: Nano 0,48 fps / Watt - 980 Ti 0,40 fps / Watt. Die Nano ist 20% Energieeffizienter.
Systemvergleich: Nano 0,28 fps / Watt - 980 Ti 0,28 fps / Watt. Tjo, beide gleich Effizient.
Was stimmt denn nun? Nano effizienter oder nicht?
Gipsel
2016-03-16, 14:49:03
Ich denke die Verkleinerung des Dies ist hier die wirtschaftlich entscheidende Größe. knapp 600mm² vs. ca. 230mm² reduziert die Kosten pro Chip enorm und verbessert zusätzlich die Yields, was die Kosten noch weiter senkt.Na, das würde ich im Moment mal nicht überschätzen. Die Yields in 14LPP dürften noch merklich unterhalb der 28nm Yields liegen (mittelfristig nähern die sich an und besser sind die eventuell 2018 oder so) und die 14LPP Wafer sind wohl momentan knapp doppelt so teuer. Damit läuft das für das Die selber eher so ziemlich auf ein Nullsummenspiel hinaus (was auch ein Grund ist, daß es bisher so wenige 14nm Chips gibt, nutzen könnte man es ja im Prinzip schon länger, lohnt nur nicht ;)). Man spart natürlich am Speicher, dem Assembly, dem Wasserkühler usw., insbesondere wenn man mit GDDR5 ankommt. Und längerfristig wird es natürlich günstiger. Aber in der Anfangsphase würde ich nicht zu viel Kostenersparnis erwarten. Für etwas komplexere Chips (wie z.B. eine 230mm² 14/16nm GPU) kommt man jetzt erst so langsam in die Phase des Crossovers für die Kosten.
Sunrise
2016-03-16, 15:15:21
Sind das nicht eher 1536 Shader für die 980m@80W TDP(Chip) TGP(103W package) und 1280 Shader für die 970m@65W TDP(Chip) TGP(80W package)?
https://www.techinferno.com/index.php?/forums/topic/6110-maxwell-gm204-gtx980m-gtx970m-gtx965m/
http://www.3dcenter.org/news/nvidia-stellt-gm204-basierte-mobile-loesungen-geforce-gtx-970m-980m-vor
Ich will damit sagen man sollte nicht zu optimistische Skalierungsmöglichkeiten erwarten bei solch großen Chips beim Stromverbrauch.
Warum steht da mein Name in deinem Quote? Ist doch garnicht mein Text. :confused:
Nakai
2016-03-16, 15:26:11
Mir sind die Namen ziemlich egal für die Chips. Wenn AMD ein Verwirrspiel betreiben möchte, dann sollen die das tun.
Polaris Mid sollte 2xPolaris Small sein. Und Polaris Small wird etwa auf Tonga~Pitcairn sein.
Man sollte schon von 1500 SPs und 3000 SPs für Psmall und Pmid ausgehen. Wenn die Packdichte bei ~35 Mio Transen/mm2 liegt, sind die Zahlen sehr realistisch. Hinzu kommt eine propagierte Perf/Watt-Steigerung von 2,5x. Das muss nicht für jede SKU gelten, zeigt aber wohin die Reise geht. Pmid wird in Fiji Regionen vordringen. Ob ein Pbig kommt, werden wir sehen.
Complicated
2016-03-16, 16:12:41
Warum steht da mein Name in deinem Quote? Ist doch garnicht mein Text. :confused:
Das kann ich dir nicht sagen. Hatte nicht darauf geachtet und den Original-Beitrag konnte ich gerade auch nicht mehr finden. Hab es raus gemacht.:confused:
fondness
2016-03-16, 18:24:54
Für Polaris 11 interessiert sich am Desktop doch keine Sau, wenn der nicht min. auf GTX960-Level ist.
Ähm Polaris 11 wird allemal GTX960-Leistung erreichen. Und natürlich kommt das Ding auch im Desktop, es macht keinen Sinn den Chip dort nicht anzubieten wenn man genug Fertigungskapazitäten hat.
NVIDIA sagt genau gegenteiliges: Es muss deutlich mehr Effizienz aus der Architektur heraus geholt werden, als aus dem Prozess, da es per se nicht mehr diese Steigerungen von früher gibt. Und das spiegelt die Praxis aktuell wieder.
Naja, der Prozess spielt schon noch eine große Rolle, so ist es auch nicht.
Hübie
2016-03-16, 18:36:25
Öhmm ja...
Nehmen wir mal 130W für den Rest ohne Grafikkarte.
Bei 150W für die Grafikkarte vs 300W hätten wir ja eine 100% bessere Effizienz. Nehmen wir das ganze System sind es 280W vs 430W = 53%. Das ist nicht wirklich ein paar Prozent.
Aus dem Computerbase R9 Nano Review (in Klammern die Watt Angaben von AMD / nV):
R9 Nano (175W) vs 980 Ti (250W), Performancerating (2560x1440) 84% (Nano) zu 100% (980 Ti). Gesamtsystem 298W zu 353W.
Direkter Grafikkartenvergleich: Nano 0,48 fps / Watt - 980 Ti 0,40 fps / Watt. Die Nano ist 20% Energieeffizienter.
Systemvergleich: Nano 0,28 fps / Watt - 980 Ti 0,28 fps / Watt. Tjo, beide gleich Effizient.
Was stimmt denn nun? Nano effizienter oder nicht?
TDP kannst du schlecht mit einer Messung vergleichen. Die Elektronik regelt so schnell hin und her, dass die TDP im Mittel kaum anzutreffen sein dürfte. Außerdem ist es zu spezifisch definiert.
Hab noch mal etwas gerechnet und 150 Watt wären etwas zuviel. 135 Watt käme ziemlich genau hin, wenn man eine hypothetische Fury Nano Performanceklasse in 14 LPP bringt.
@Complicated: Es ist mit Nichten so, dass kleinere Prozesse zwangsläufig bessere Yields bedeuten, weil man mehr Chips pro Wafer unterbringen kann. 28 HP war anfangs eine mittelschwere Katastrophe (das ramp up zumindest).
Seit 20 nm haben sich afaik einige Designrules geändert (bei 16 nm bin ich mir sicher).
@fondness: Wenn ich das mal in öde Prozente packen darf:
Bisher->50% Prozess, 35% Architektur und 15% Regel- und Kühltechnik
Künftig->40% Prozess, 45% Architektur und 15% Regel- und Kühltechnik
Das sind jetzt keine empirischen Zahlen, sondern geben so dass wieder was ich immer wieder aus Vorträgen heraus hole und interpretiere. AMD spricht über so etwas ja nicht (oder nicht so öffentlichkeitswirksam).
Sunrise
2016-03-16, 19:08:24
Ähm Polaris 11 wird allemal GTX960-Leistung erreichen. Und natürlich kommt das Ding auch im Desktop, es macht keinen Sinn den Chip dort nicht anzubieten wenn man genug Fertigungskapazitäten hat.
https://twitter.com/Krewell/status/709524680919486465
Möglich, dass es einfach falsch verstanden wurde, aber so unsinnig liest sich das nicht. Er ist übrigens Teilnehmer vom Event gewesen.
Complicated
2016-03-16, 19:10:27
@Complicated: Es ist mit Nichten so, dass kleinere Prozesse zwangsläufig bessere Yields bedeuten, weil man mehr Chips pro Wafer unterbringen kann. 28 HP war anfangs eine mittelschwere Katastrophe (das ramp up zumindest).
Nein aber kleiner Chips bringen bessere Yields. Das bedeutet bei 28nm 600mm² vs. 14nm 230mm² einen Yield-Vorteil für Polaris. Der schlechtere Yield für die frische Fertigung kann damit sicherlich kompensiert werden.
Fiji (ca. 600mm²) kann auf einen 200mm Wafer 34 mal Platz finden.
Polaris (ca.240mm²) passt 98 mal auf den 200mm² Wafer
Grob kalkuliert hiermit: http://www.silicon-edge.co.uk/j/index.php/resources/die-per-wafer
Angenommen Polaris ersetzt Fiji 1:1 im selben Preispunkt, dann kann der 14nm inkl. schlechterer Yields und teurerer Wafer fast 3 mal teurer sein als Fiji in 28nm um auf dieselbe Wirtschaftlichkeitsrechnung zu kommen. Ich glaube da ist 14nm schon weit drunter und daher jetzt schon günstiger als 28nm.
fondness
2016-03-16, 19:12:07
https://twitter.com/Krewell/status/709524680919486465
Möglich, dass es einfach falsch verstanden wurde, aber so unsinnig liest sich das nicht. Er ist übrigens Teilnehmer vom Event gewesen.
Mir fehlt ein plausibler Grund, warum man eine GPU exklusiv für Notebooks anbieten sollte. Das macht keinen Sinn. Vielleicht am Anfang, wo die Kapazitäten begrenzt sind, aber sicher nicht dauerhaft. Sowas gab es auch AFAIK noch nie.
Spasstiger
2016-03-16, 19:14:51
Polaris 10 soll sich dem veröffentlichten Benchmarkergebnis nach zwischen Hawaii und Fiji einordnen, da würde mich eine Performance weit unterhalb von Tonga Pro bzw. GeForce GTX 960 für Polaris 11 schon wundern.
AnarchX
2016-03-16, 19:18:03
Vielleicht hat man die Displayausgänge weggelassen. Das werden aber wohl eher die Pläne für den Erst-Launch sein. Mit genügend Kapazität und 28nm Abverkauf wird wohl P11 auch den Desktop erreichen.
fondness
2016-03-16, 19:19:08
Auch Notebooks benötigen Displayausgänge.
Sunrise
2016-03-16, 19:20:41
@Complicated:
Bei kleineren Chips wird eigentlich alles deutlich einfacher. Deshalb wird NV auch Tegra haben, weil sie Tegra als Basis nehmen können um die großen Chips zu bauen, siehe den X1 und jetzt Pascal.
Wenn man wie AMD zukünftig von ganz unten nach ganz oben skalieren will, dann baut man erst die kleinen, und sobald die problemlos laufen, skaliert man das nach oben und man hat überhaupt keine großen Fehler mehr, die sich einschleichen können, zusätzlich muss man nicht mehrfach für Masken etc. bezahlen.
Kleine Chips haben immer Vorteile, wenn die Software es zulässt, dass man sie auch parallel gut nutzen kann, dann ist das fast schon wie damals bei 3dfx, wenn das auch zu einfach gedacht ist, da Geometrie etc. bzw. einige Dinge eben wohl einfach grottenschlecht skalieren werden oder schlimmstensfalls garnicht.
Wenn AMD meint, das sie das angehen wollen, dann wird es sicher Gründe geben (auch wirtschaftliche), die sie da in Betracht ziehen. Denn solche 500mm² Monster auf FinFET permanent rauszuhauen ist nur dann von Erfolg gekrönt, wenn man auch genug Kunden hat, die sie abnehmen. Kleinere effiziente Chips haben dagegen in immer mehr Märkten Platz.
Wenn es bald eine Situation geben wird, dass Interposer so groß werden können, dass man 2-4 Chips auf ein PCB bekommt und dann noch bis 32GB HBM dazubauen kann, dann sollte es eigentlich klar sein, dass sowas mit dem richtigen Softwarestack ordentlich die Hütte rocken wird. Ob sowas mit Navi kommt, wissen wir nicht, aber es lässt sich zumindest so deuten.
AnarchX
2016-03-16, 19:21:16
Auch Notebooks benötigen Displayausgänge.
Nein, die Ausgabe kann auch der IGP über nehmen, der nahezu immer vorhanden ist. Siehe GF117.
Ist aber bei Polaris auszuschließen, wenn es nur 2 Dies gibt und P11 >120mm2 groß ist.
Hübie
2016-03-16, 19:26:18
Nein aber kleiner Chips bringen bessere Yields. Das bedeutet bei 28nm 600mm² vs. 14nm 230mm² einen Yield-Vorteil für Polaris. Der schlechtere Yield für die frische Fertigung kann damit sicherlich kompensiert werden.
Fiji (ca. 600mm²) kann auf einen 200mm Wafer 34 mal Platz finden.
Polaris (ca.240mm²) passt 98 mal auf den 200mm² Wafer
Grob kalkuliert hiermit: http://www.silicon-edge.co.uk/j/index.php/resources/die-per-wafer
Angenommen Polaris ersetzt Fiji 1:1 im selben Preispunkt, dann kann der 14nm inkl. schlechterer Yields und teurerer Wafer fast 3 mal teurer sein als Fiji in 28nm um auf dieselbe Wirtschaftlichkeitsrechnung zu kommen. Ich glaube da ist 14nm schon weit drunter und daher jetzt schon günstiger als 28nm.
Yield-rate steht für die Ausbeute an funktionsfähigen Chips. Nicht nur wieviel drauf passen. ;) Und 200er Wafer sind out (für große ASICs). Dazu kommen Geschichten wie Belichtung, Verunreinigungen jedweder Art und neue Materialien, welche den Rohstoffpreisen unterliegen (inerte Gase z.B., Phosphor...). Kenne mich zugegebenermaßen aber auch nur begrenzt aus um da jetzt aktuelle, konkrete Zahlen zu benennen.
Die Regel ist jedoch dass ein neuer Prozess anfangs immer das teurere Produkt ergibt. Erst nach ~1 Jahr fuhr man mit 28 nm in sicheren Gewässern (damit meine ich nicht Gewinne).
Sunrise
2016-03-16, 19:31:21
...Die Regel ist jedoch dass ein neuer Prozess anfangs immer das teurere Produkt ergibt. Erst nach ~1 Jahr fuhr man mit 28 nm in sicheren Gewässern (damit meine ich nicht Gewinne).
Das gilt zwar, jedoch kam Tahiti sehr sehr schnell auf 28nm von AMD und der war auch um die 300mm². Und AMD hatte damit keine Verluste gemacht, die Kalkulation mag (wie immer bei AMD) eng gewesen sein, aber Tahiti war schon recht erfolgreich für AMD-Maßstäbe. Wäre NV nicht mit GK104 angetanzt, wäre der Plan wohl locker aufgegangen.
Kleinere Chips kommen natürlich schneller an den Breakeven, weil du einfach mehr davon auf dem Wafer hast. Jedoch sind Größen von bis zu 300mm² nach ein paar Monaten wohl machbar, und deshalb schätze ich Polaris 10 auch exakt auf ungefähr diese Größe (250-300mm²), genau wie NV sich wohl auch an den 300mm² bei GP104 orientieren wird, außer wir haben irgendwas Grundlegendes nicht mitbekommen.
Complicated
2016-03-16, 19:33:58
@Hübie
Wenn mehr Chips auf dem Wafer sind weil sie kleiner sind, ist bei selber Yield die Ausschußrate deutlich kleiner. Es spielt auch keine Rolle ob ich dabei 200er oder 300er Wafer als Kalkulationsgrundlage nehme. Ich schrieb grob, weil das dreifache an Kosten pro Die bei 14nm mit Sicherheit nicht mehr gegeben sein wird und daher der selbe Chip in 14nm 230mm² anstatt 600mm² 28nm jetzt schon günstiger ist. Hast du andere Zahlen die sagen dass 14nm über das dreifache kostet pro Chip? Teurer heisst nicht immer weniger wirtschaftlich.
Ich habe extra den Link hinzugefügt damit es jeder selber probieren kann. Auch bei 300 mm Wafer steht es 244 Polaris Dies vs. 91 Fiji Chips
mczak
2016-03-16, 19:36:03
Auch Notebooks benötigen Displayausgänge.
Jedes Notebook der letzten 5 Jahre benutzt die Displayausgänge des IGP auch mit dedizierter GPU (ok es gibt Ausnahmen im Gamingbereich mit nicht abschaltbaren GPUs wenn ich das richtig im Kopf habe). Display-MUX sind längst ausgestorben.
Deswegen hat der ultra-low-end AMD Chip Sun (5 CUs, 64bit) weder Displaycontroller noch UVD/VCE (der taugt aber eigentlich sowieso bloss als dedizierte GPU für einen Kabini...).
Auch nvidia's gm108 habe ich im Uebrigen auf dem Desktop noch nicht gesehen - ich gebe dir aber recht das macht eigentlich keinen Sinn, weiss auch nicht wieso da nvidia nach wie vor gk208 verkauft denn der hat etwa dieselbe Die-Grösse. Ich dachte jedenfalls zumindest der gm108 sei ein "vollwertiger" Chip aber dass der als Karte nicht auftaucht könnte dagegen sprechen...
Bei der Leistungsklasse von Polaris 11 ist das aber garantiert ein kompletter Chip.
Edit: Das Fehlen von gm108 auf dem Desktop wurde schon mal bei beyond3d diskutiert: https://forum.beyond3d.com/threads/nvidia-maxwell-speculation-thread.50568/page-95
Ich sehe aber mittlerweile auf der nvidia-Seite werden _keine_ Displayoutputs mehr erwähnt bei all diesen gm108 basierten Lösungen (830m, 940m etc.) (der gf117 hatte im Uebrigen auch schon kein Display-Support), nur noch bei den gm107-basierten (mit den entsprechenden Fussnoten dass Auflösungen etc. begrenzt sein können auf das was der IGP kann). Damit dürfte der Fall klar sein, das ist ein Chip ohne Outputs.
Hübie
2016-03-16, 19:58:50
@Hübie
Wenn mehr Chips auf dem Wafer sind weil sie kleiner sind, ist bei selber Yield die Ausschußrate deutlich kleiner. Es spielt auch keine Rolle ob ich dabei 200er oder 300er Wafer als Kalkulationsgrundlage nehme. Ich schrieb grob, weil das dreifache an Kosten pro Die bei 14nm mit Sicherheit nicht mehr gegeben sein wird und daher der selbe Chip in 14nm 230mm² anstatt 600mm² 28nm jetzt schon günstiger ist. Hast du andere Zahlen die sagen dass 14nm über das dreifache kostet pro Chip? Teurer heisst nicht immer weniger wirtschaftlich.
Ich habe extra den Link hinzugefügt damit es jeder selber probieren kann. Auch bei 300 mm Wafer steht es 244 Polaris Dies vs. 91 Fiji Chips
Ich gebs auf :freak:
PS: Im Falle von Fiji wird es natürlich schon so sein, dass Polaris günstiger wird.
@Sunrise: Tahiti hatte kein wirkliches binning. Und wer weiß wie die Redundanz ist oder wieviel salvage es gab.
Was genau meinst du mit sehr sehr schnell? Von risk production zu ramp up hin zu mass production, oder wie? Ich erinnere mich gar nicht an die Zeit. War zu sehr mit Kepler beschäftigt... :D
Nein, die Ausgabe kann auch der IGP über nehmen, der nahezu immer vorhanden ist. Siehe GF117.
Ist aber bei Polaris auszuschließen, wenn es nur 2 Dies gibt und P11 >120mm2 groß ist.
Da muss man gar nicht zu Nvidia schauen. Iceland (VI) ist auch so ein 'seltsamer' Chip ohne UVD, VCE und DCE. Sollte vereinzelt bei irgendwelchen Dual-Graphics Loesungen (APU+GPU) benutzt werden, weiss aber nicht genau wo.
Edit: nur eine Anmerkung, macht bei P11 natuerlich keinen Sinn.
Edit2: Wenn die Info bei TPU (http://www.techpowerup.com/gpudb/2652/radeon-r7-m270dx.html) stimmt (was bezweifelt werden darf ;) ), wird der Chip bei der Dual Loesung "R7 M270DX" eingesetzt und misst 77mm². Das ist gut die Haelfte von dem, was fuer P11 angenommen wird
Ailuros
2016-03-16, 20:20:21
@Hübie
Wenn mehr Chips auf dem Wafer sind weil sie kleiner sind, ist bei selber Yield die Ausschußrate deutlich kleiner. Es spielt auch keine Rolle ob ich dabei 200er oder 300er Wafer als Kalkulationsgrundlage nehme. Ich schrieb grob, weil das dreifache an Kosten pro Die bei 14nm mit Sicherheit nicht mehr gegeben sein wird und daher der selbe Chip in 14nm 230mm² anstatt 600mm² 28nm jetzt schon günstiger ist. Hast du andere Zahlen die sagen dass 14nm über das dreifache kostet pro Chip? Teurer heisst nicht immer weniger wirtschaftlich.
Wenn man nur die wafer-Kosten in Betracht nimmt na klar, duerfte heute ein FF wafer etwas mehr kosten als 28HP bei seinem kickstart. Da sich aber die Kosten insgesamt brutal steigern bei FF Prozessen ist mir das obrige viel zu vereinfacht.
"Guenstiger" haengt von ziemlich vielen Faktoren ab, wobei ueber Einzelheiten nur ware insiders bescheid wissen.
Ich habe extra den Link hinzugefügt damit es jeder selber probieren kann. Auch bei 300 mm Wafer steht es 244 Polaris Dies vs. 91 Fiji Chips
Und was soll mir die Bumsfallera-Rechnung genau sagen? Es basiert alles nur auf Hypothesen. Ohne jegliche wafer bzw. binning yields fuer jeglichen chip ist das Zeug fuer die Muelltonne.
Complicated
2016-03-16, 23:04:17
Ja sicher ist das vereinfacht. Mir ging es ja lediglich darum darzulegen, dass das Argument 14nm wäre zu teuer um Fury abzulösen zum einen nur eine Frage des Zeitpunktes ist und zum anderen es gut sein kann, dass dieser Zeitpunkt schon erreicht ist und 28nm trotz ausgereiftem Prozess schon abgelöst werden könnte auf breiter Front. Auch der kleine Polaris spricht dafür. Der Sprung war ja auch noch nie so groß bei einem Shrink durch die ausgefallenen 20/22nm.
Hübie
2016-03-16, 23:15:52
Dann haben wir wohl aneinander vorbei geschrieben. Fury ist als Produkt sehr teuer im direkten Vergleich. Da machts nur Sinn den einzustampfen und durch eine moderne Architektur zu ersetzen. Polaris wird wieder GDDR5 nutzen, womit man einiges an Kosten spart.
Dies gilt jedoch nicht für andere 28<->14 nm Chips.
Korvaun
2016-03-17, 07:53:01
Ich glaube nicht das TSMC/GF/Samsung noch größere Probleme zumindest mit dem Yield der kleinen 14nm Chips haben. Es sind ja nun schon etliche Millionen Smartphone-Chips produziert, und die sind auch nicht gerade winzig. Und die werden auch schon fast 1 Jahr lang produziert.
Apple A9X z.b. ca. 150mm2, also gut in der Region von Polaris11.
Was ich mit bei Apple aber vorstellen kann ist das sie gesagt haben, wir wollen ALLE 14/16nm-Kapazitäten die ihr (TSMC) habt bis Anfang 2016 exklusiv... möglicherweise wäre es schneller gegangen mit den neuen GPUs (zumindest der kleinen Versionen).
Complicated
2016-03-17, 08:58:56
Appple nutzte den LPE und nicht den LPP - es ist nicht ganz das selbe.
Gipsel
2016-03-17, 09:38:56
Nochmal der Verweis zwei Seiten zurück:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10973093#post10973093
Und nochwas zu der von mir dort genutzten Sprachregelung (die ist ja öfter uneinheitlich), ich meine dort die Yieldrate, nicht die absolute Zahl funktionsfähiger Dies pro Wafer. Und die deutlich höheren Kosten pro Wafer bei 14LPP sollte man natürlich auch nicht vergessen.
Hübie
2016-03-17, 10:22:00
Ich glaube nicht das TSMC/GF/Samsung noch größere Probleme zumindest mit dem Yield der kleinen 14nm Chips haben. Es sind ja nun schon etliche Millionen Smartphone-Chips produziert, und die sind auch nicht gerade winzig. Und die werden auch schon fast 1 Jahr lang produziert.
Apple A9X z.b. ca. 150mm2, also gut in der Region von Polaris11.
Was ich mit bei Apple aber vorstellen kann ist das sie gesagt haben, wir wollen ALLE 14/16nm-Kapazitäten die ihr (TSMC) habt bis Anfang 2016 exklusiv... möglicherweise wäre es schneller gegangen mit den neuen GPUs (zumindest der kleinen Versionen).
Da muss ich dich mal herausreißen: Ein SoC hat völlig andere Anforderungen an Design und Prozess. Die Yields sind mittlerweile für Apple wohl stabil. Der A9X ist ein komplettes System. Die Packdichte ist im Vergleich zu GPUs geradezu lächerlich.
Dazu kommt, dass Apple aufgrund der schieren Menge als Einzelkunde "besondere" Konditionen erhält. ;)
Ailuros
2016-03-17, 11:50:38
Ja sicher ist das vereinfacht. Mir ging es ja lediglich darum darzulegen, dass das Argument 14nm wäre zu teuer um Fury abzulösen zum einen nur eine Frage des Zeitpunktes ist und zum anderen es gut sein kann, dass dieser Zeitpunkt schon erreicht ist und 28nm trotz ausgereiftem Prozess schon abgelöst werden könnte auf breiter Front. Auch der kleine Polaris spricht dafür. Der Sprung war ja auch noch nie so groß bei einem Shrink durch die ausgefallenen 20/22nm.
Die Fiji Abloesung kommt erst Anfang 2017; das alleine spricht schon Volumen fuer die Herstellungskosten eines komplizierteren chip unter einem FF Prozess heute. Je komplizierter/groesser der chip desto groesser die Chancen fuer beschissenere wafer und binning yields.
Sonst weiss ich auch nicht was Du Dir mit jeglichem Prozess-sprung genau einreden willst, aber ich kann Dir schon jetzt sagen dass ein sehr grosser Anteil der zusaetzlichen Effizienz bei Polaris von der Architektur selber kommt.
Da muss ich dich mal herausreißen: Ein SoC hat völlig andere Anforderungen an Design und Prozess. Die Yields sind mittlerweile für Apple wohl stabil. Der A9X ist ein komplettes System. Die Packdichte ist im Vergleich zu GPUs geradezu lächerlich.
Dazu kommt, dass Apple aufgrund der schieren Menge als Einzelkunde "besondere" Konditionen erhält. ;)
Wie sieht es denn Deiner Meinung nach genau mit Packdichten auf 20SoC und 16FF+ bzw. 14LPE SoCs genau aus? Das ein SoC mit einem GPU chip Vergleich fuer die Muelltonne ist, sollte klar sein.
OBrian
2016-03-17, 12:29:52
Die durchschnittlichen Packdichten zu vergleichen, führt doch auch nicht weiter. Auch im SoC gibt es eine CPU und eine GPU, und deren Packdichten müßte man betrachten, nicht noch alles an schlecht schrumpfbaren Riesenstrukturen einrechnen, wovon ein SoC sicherlich mehr hat als eine GPU.
Hübie
2016-03-17, 12:49:54
@Ailuros: Kann ich nicht sagen. 35 Mio ist jedoch etwas zu optimistisch. :|
Vielleicht erfahren wir ja bald waschen es mit GP100 und GP102 auf sich hat. Dann zeichnet sich wohl ein klareres Bild. :naughty:
Zettabit
2016-03-17, 13:04:24
dass ein sehr grosser Anteil der zusaetzlichen Effizienz bei Polaris von der Architektur selber kommt.
Muss er auch, denn sonst sieht man gegenüber NVIDIA wieder kein Land, wenn die Effizienzsteigerung rein aus dem Prozess kommt - denn die Steigerung nimmt NVIDIA ja ebenfalls mit.
Nakai
2016-03-17, 13:46:12
Dann haben wir wohl aneinander vorbei geschrieben. Fury ist als Produkt sehr teuer im direkten Vergleich. Da machts nur Sinn den einzustampfen und durch eine moderne Architektur zu ersetzen. Polaris wird wieder GDDR5 nutzen, womit man einiges an Kosten spart.
Dies gilt jedoch nicht für andere 28<->14 nm Chips.
Mhh, dann frage ich mich, inwieweit P10 in der Lage ist Fiji zu übertrumpfen. Ein 256Bit SI wurde bereits indirekt bestätigt und ohne GDDR5X wird man schwerlich an Fiji Bandbreiten rankommen. Fiji hat natürlich eine sehr hohe Bandbreite, zuviel für die gebotene Leistung. Dennoch wird ein P10 in gewissen Situationen wohl Fiji klein beigeben. Sprich P10 ~Fiji/Hawaii und P11 ~Tonga/Pitcairn. Und ich hoffe, dass man damit das GCN1.2 Dilemma begräbt. GCN1.2 unterscheidet sich doch stärker von GCN1.1/1.0.
Unterhalb P11 dürfen ruhig noch Bonaire und Co. wildern.
Der Sprung auf Polaris/Vega wird so ziemlich der größte Sprung seitens AMD seit langem werden. Polaris wird eben der AMDs Maxwell+Finfet, was schonmal sehr hoffnungsvoll macht.
w0mbat
2016-03-17, 14:56:58
Ist es denn schon sicher, dass P10 kein 5X nutzen wird?
Unicous
2016-03-17, 14:57:47
Hier ein sneak peak auf Polaris 10.
http://vrworld.com/wp-content/uploads/2016/03/AMD_Polaris_10_Back-1106x1080.jpg
:wink:
Nakai
2016-03-17, 15:02:37
Viel interessanter sind die Angaben der Größe. Etwas so groß wie die Fury/R9 Nano. Ergo die Kühlung wird auch nicht so groß werden, was für eine TDP von ~150W spricht.
Polaris könnte für AMD sehr gut werden. ;)
Kartenlehrling
2016-03-17, 15:07:06
wieso verbaut man noch ein DVI-D ?
ein passive DP1.3 to DVI-D hätte es doch auch getan, nachvollziehbar sind einiger Handlunge nicht.
Dural
2016-03-17, 15:11:28
@Nakai
Bleibt zu hoffen das es wirklich AMDs Maxwell ist, und es nicht nur Finfet GCN1.3 ist.
Originalquelle ist vrworld, sogar anstaendig verlinkt ;)
http://vrworld.com/2016/03/17/amd-polaris-10-unveiled/
Wie schon frueher angemerkt koennte das einfach ein Testboard sein, die Karte muss ja nicht so in den Handel kommen. Bei einer Karte dieser Leistungsklasse wuerde ich mich mit 3xDP1.3, HDMI2.0 und DVI aber nicht beschweren.
Die 'Billig'karten werden oft auch einfach fuer mehr Bildschirme oder auch mal fuer aeltere Systeme genutzt. Da kann ein Monitor mit DVI schon mal vorkommen. Sehe auch keinen Grund, warum das stoeren sollte, ausser wenn dadurch das 1-Slot Design riskiert wuerde, was ja hier offenbar ohnehin nicht der Fall ist. Ein weiterer DP wuerde dagegen wohl weniger Sinn machen. Mal schauen was die neue DCE drauf hat und ob ueberhaupt alle Anschluesse gleichzeitig genutzt werden koennen. DaisyChaining gibt es ja auch noch
Frosty
2016-03-17, 15:15:48
wieso verbaut man noch ein DVI-D ?
ein passive DP1.3 to DVI-D hätte es doch auch getan, nachvollziehbar sind einiger Handlunge nicht.
was soll daran nicht nachvollziehbar sein?
gibt genügend leute deren monitore noch auf dvi setzen.
1x dvi, 2-3x displayport und 1x hdmi reichen völlig aus.
Kartenlehrling
2016-03-17, 15:23:56
Der DVI blockiert einen optimalen Kühlfluss, ein passiver 2€ adapter hätte es doch auch gereicht,
wär der DVI ein DVI-i mit Analog hätte ich es vielleicht sogar verstanden um "Analoge Altgeräte" anzuschliessen, aber doch kein DVI-D.
Wir wollen HDR-2560x1440@170Hz.
Der DVI blockiert einen optimalen Kühlfluss, ein passiver 2€ adapter hätte es doch auch gereicht
Die Karte hat keinen DHE, ist doch voellig egal ob da 1 oder 2 Schlitze mehr hin passen. Genauso absurd waere es, wuerde ich mich beschweren dass durch die Schlitze das Gehaeuse mehr zustaubt. Und als ob die Komponente direkt am Board teurer ist, dass es irgendeinen nennenswerten Einfluss haette.
Wir wollen HDR-2560x1440@170Hz.
und? bekommst du doch
Nakai
2016-03-17, 16:08:16
@Nakai
Bleibt zu hoffen das es wirklich AMDs Maxwell ist, und es nicht nur Finfet GCN1.3 ist.
Laut Ail sollen viele Teile der Stromspareffekte durch architekturelle Änderungen zustande kommen.
GCN1/1.1/1.2 sind diesbezüglich sehr ähnlich. Werden die CUs umgebaut und das Speichersubsystem umgekrempelt kann man locker einiges an Energie sparen. Ich sehe da sehr viel Potential. Wenn es eine Effizienzsteigerung von Faktor 2,5 ist (Best Case), dann kann man schon einiges erwarten.
Bei PCGH kommen bei Hitman DX12 in 1440p und 60 Hz nur Fiji und Hawaii in die P10-Regionen. Wir wissen natürlich nicht die genauen Details, aber es tendiert schon in Richtung, dass P10 Fiji/Hawaii-Niveau erreichen wird. Ob es nun ein paar FPs+/- sind, ist dabei unerheblich. Hinzukommt, dass die Karte so klein wie die Fury X/R9 Nano ist. Das erlaubt keine große Kühlung. 150W ist dabei ein angesetztes Ziel.
Originalquelle ist vrworld, sogar anstaendig verlinkt ;)
http://vrworld.com/2016/03/17/amd-polaris-10-unveiled/
Wie schon frueher angemerkt koennte das einfach ein Testboard sein, die Karte muss ja nicht so in den Handel kommen. Bei einer Karte dieser Leistungsklasse wuerde ich mich mit 3xDP1.3, HDMI2.0 und DVI aber nicht beschweren.
Die 'Billig'karten werden oft auch einfach fuer mehr Bildschirme oder auch mal fuer aeltere Systeme genutzt. Da kann ein Monitor mit DVI schon mal vorkommen. Sehe auch keinen Grund, warum das stoeren sollte, ausser wenn dadurch das 1-Slot Design riskiert wuerde, was ja hier offenbar ohnehin nicht der Fall ist. Ein weiterer DP wuerde dagegen wohl weniger Sinn machen. Mal schauen was die neue DCE drauf hat und ob ueberhaupt alle Anschluesse gleichzeitig genutzt werden koennen. DaisyChaining gibt es ja auch noch
Ja, stimmt, VR World ist die original Quelle.
Der Display Controller wird wohl wieder 6 Displays ansprechen können.
Unicous
2016-03-17, 16:14:00
Ja, es ist von VRWorld. Kann man auch leicht an der URL der .jpg ablesen.:wink:
Und es zeigt genau... nichts. :freak:
Nakai
2016-03-17, 16:18:38
Ja, es ist von VRWorld. Kann man auch leicht an der URL der .jpg ablesen.:wink:
Und es zeigt genau... nichts. :freak:
Keine Sorge, das habe ich schon gesehen. Ich habe es auch entfernt, ich mag videocardz definitiv nicht unnötige Klicks bescheren.;D
Unicous
2016-03-17, 16:27:40
Das war gar nicht so sehr auf dich bezogen. Es ist bloß lustig, aus was man alles einen Artikel zusammenschustert. Aber was will man auch von Theo Valich anderes erwarten.:rolleyes:
Nightspider
2016-03-17, 17:58:53
wieso verbaut man noch ein DVI-D ?
ein passive DP1.3 to DVI-D hätte es doch auch getan, nachvollziehbar sind einiger Handlunge nicht.
Damit ich meinen Koreaner noch mit 120Hz bei 1440p laufen lassen kann, falls ich ihn noch eine Weile behalte. ;)
dargo
2016-03-17, 19:49:16
GCN1/1.1/1.2 sind diesbezüglich sehr ähnlich. Werden die CUs umgebaut und das Speichersubsystem umgekrempelt kann man locker einiges an Energie sparen. Ich sehe da sehr viel Potential. Wenn es eine Effizienzsteigerung von Faktor 2,5 ist (Best Case), dann kann man schon einiges erwarten.
Bei PCGH kommen bei Hitman DX12 in 1440p und 60 Hz nur Fiji und Hawaii in die P10-Regionen. Wir wissen natürlich nicht die genauen Details, aber es tendiert schon in Richtung, dass P10 Fiji/Hawaii-Niveau erreichen wird. Ob es nun ein paar FPs+/- sind, ist dabei unerheblich. Hinzukommt, dass die Karte so klein wie die Fury X/R9 Nano ist. Das erlaubt keine große Kühlung. 150W ist dabei ein angesetztes Ziel.
Ich bin mir mittlerweile nicht mehr sicher ob die 150W nicht zu hoch gegriffen sind. Wenn AMD davon ausgeht, dass ein Fiji/Hawaii 300W (was schon hoch gegriffen wäre) braucht dürfte Polaris 10 bei vergleichbarer Leistung eher 120W brauchen. Ich würde mittlerweile auf 100-150W bei P10 tippen, je nachdem wie schnell der wird. Also ob P10 etwas langsamer, gleich schnell oder etwas schneller als die beiden genannten GPUs ist.
Gipsel
2016-03-17, 20:00:41
Ich bin mir mittlerweile nicht mehr sicher ob die 150W nicht zu hoch gegriffen sind. Wenn AMD davon ausgeht, dass ein Fiji/Hawaii 300W (was schon hoch gegriffen wäre) braucht dürfte Polaris 10 bei vergleichbarer Leistung eher 120W brauchen. Ich würde mittlerweile auf 100-150W bei P10 tippen, je nachdem wie schnell der wird. Also ob P10 etwas langsamer, gleich schnell oder etwas schneller als die beiden genannten GPUs ist.Die Energieeffizienzangaben würde ich mal mit sehr großen Fehlerbalken versehen, da nicht so recht klar ist, auf was es sich genau bezieht. Was ist die Basis und betrachtet man den Chip alleine oder rechnet man das Speichersystem mit dazu? Geht man z.B. von Fijis HBM wieder auf ein 256Bit-GDDR5-Interface, verbraucht das Speichersubsystem tendentiell sogar wieder mehr, was Effizienzsteigerungen des eigentlichen Chips zumindest zu einem gewissen Teil auffrißt. Der veröffentlichten Folie würde ich diesbezüglich auch nicht übermäßig trauen (nach der würde die Steigerung bei Vega mit HBM2 vermutlich inklusive Speichersystem angegeben sein, aber dann ist die 28nm-Angabe vermutlich auch ein GDDR5-Design, nicht Fiji).
dargo
2016-03-17, 20:08:47
Die Energieeffizienzangaben würde ich mal mit sehr großen Fehlerbalken versehen, da nicht so recht klar ist, auf was es sich genau bezieht.
Ich habe mir die Folie nochmal angesehen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10971515&postcount=1571
Das Quadrat mit den 28nm GPUs ist recht weit im Jahr 2014 plaziert. Was kam denn da von AMD? September 2014 kam Tonga. Nicht, dass sich die Effizienzangaben auf Tonga beziehen. :freak:
Gipsel
2016-03-17, 20:12:27
Das Quadrat mit den 28nm GPUs ist recht weit im Jahr 2014 plaziert. Was kam denn da von AMD? September 2014 kam Tonga. Nicht, dass sich die Effizienzangaben auf Tonga beziehen. :freak:Wieso wäre das so unwahrscheinlich?
dargo
2016-03-17, 20:15:29
Unwahrscheinlich nicht, schließlich ist Tonga die erste GCN 1.2 GPU gewesen. Ich finds eher amüsant da wir immer wieder hier ausgehend von Fiji/Hawaii spekulieren. :D
Edit:
Ok... dann will ich mal neu ansetzen. :tongue:
* R9 285 = 190W TDP
* 190W/2,5 = 76W
Ergo würde 2x Tonga Pro in ~150W TDP passen. Höchstwahrscheinlich etwas mehr wenn sich am SI nichts gravierend ändert.
Complicated
2016-03-18, 03:31:46
Die Fiji Abloesung kommt erst Anfang 2017;Du meinst wahrscheinlich im Lineup als Topchip. Ich meinte die Ablösung auf selbem Performancelevel. So wie Nakai das auch schildert.
Sprich P10 ~Fiji/Hawaii und P11 ~Tonga/Pitcairn. Und ich hoffe, dass man damit das GCN1.2 Dilemma begräbt. GCN1.2 unterscheidet sich doch stärker von GCN1.1/1.0.
Unterhalb P11 dürfen ruhig noch Bonaire und Co. wildern.
Der Sprung auf Polaris/Vega wird so ziemlich der größte Sprung seitens AMD seit langem werden. Polaris wird eben der AMDs Maxwell+Finfet, was schonmal sehr hoffnungsvoll macht.
Das einzige das ich vielleicht sehe ist dass Tonga noch eine Weile zwischen P10 und P11 erhalten bleiben könnte, da GCN 1.2 Architektur und die Chipgröße noch eine Weile wirtschaftlich in 28nm produziert werden kann.
Ailuros
2016-03-18, 06:56:22
@Ailuros: Kann ich nicht sagen. 35 Mio ist jedoch etwas zu optimistisch. :|
Vielleicht erfahren wir ja bald waschen es mit GP100 und GP102 auf sich hat. Dann zeichnet sich wohl ein klareres Bild. :naughty:
Es ist hier zu verdammt OT und wir koennen es gerne via PM weiterbesprechen, aber wieso sollte A9X nicht um die 5Mrd. Transistoren haben, wenn schon A8X bei 3 lag?
--------------------------------------------------------------------------------------------------------
Nakai,
Es gibt in einem der aelteren SA writeups ein block diagram wo genau eingezeichnet ist an welchen Stellen AMD Aenderungen an der Architektur vorgenommen hat.
---------------------------------------------------------------------------------------------------------
Muss er auch, denn sonst sieht man gegenüber NVIDIA wieder kein Land, wenn die Effizienzsteigerung rein aus dem Prozess kommt - denn die Steigerung nimmt NVIDIA ja ebenfalls mit.
Darum ging es nicht. Es war die Rede von einem angeblichen "grossen" Sprung zwischen 28nm und den heutigen FF Prozessen, weil 20SoC ausgelassen wurde.... hier der quote:
Der Sprung war ja auch noch nie so groß bei einem Shrink durch die ausgefallenen 20/22nm. ......welches natuerlich auch nicht stimmt. Ausser man uebersieht mit Absicht den Sprung von 40G zu 28HP TSMC.
Du meinst wahrscheinlich im Lineup als Topchip. Ich meinte die Ablösung auf selbem Performancelevel. So wie Nakai das auch schildert.
Nur ist eben wenn man bei unter 300mm2 chip-Flaeche halt macht beim ersten Schub das Resultate eben nicht auf "breiter Front" sondern nur genau die Stellen wo innerhalb logischen Grenzen beide IHVs mit einer neuen Generation mit N% weniger Stromverbrauch nachholen muessen. Dafuer wird dann fuer desktop aus Kosten-Gruenden sowohl high end als auch low end weggelassen, das zweite sogar um einiges laenger fuer NVIDIA da sie keine SoCs fuer desktop/notebooks herstellen koennen. Wennn man irgendwo bis zur Haelfte vom maximal moeglichen (die area) herumtrottelt hat man selbstverstaendlich auch nicht die gleichen wafer/binning yield Kopfschmerzen wie bei groesseren chips und beide IHV werden ihre groessten chips vom mittleren Bereich (performance SKUs) wohl auch nicht mit einem geringen MSRP ueber den Ladentisch schmeissen. Bei einem =/>$499 MSRP als Beispiel hat der Verbraucher dann eine performance SKU mit einem schoenen high end Preis. Denn wenn Herstellung wirklich so "billig" waere wie sich manche vorstellen wollen, wuerden sie auch bei um einiges weniger verkaufen.
Complicated
2016-03-18, 09:14:01
Keiner sagt es wäre billig. Es ist aber auch nicht so exorbitant teurer gegenüber 28nm wie andere wiederum das darstellen und aus Kostengründen gewisse Lösungen als unrealistisch bezeichnen. Man muss nur auf die Diekosten schauen und die ergeben sich nicht aus dem Waferpreis allein. Auch die Produktionskosten der OEMs spielen hier eine größere Rolle als bei vorherigen Generationen. Denn auch 28nm gibt es nicht umsonst und es geht lediglich darum wann der Breakeven für die jeweilige SKU ist.
Ailuros
2016-03-18, 09:30:32
Keiner sagt es wäre billig. Es ist aber auch nicht so exorbitant teurer gegenüber 28nm wie andere wiederum das darstellen und aus Kostengründen gewisse Lösungen als unrealistisch bezeichnen. Man muss nur auf die Diekosten schauen und die ergeben sich nicht aus dem Waferpreis allein. Auch die Produktionskosten der OEMs spielen hier eine größere Rolle als bei vorherigen Generationen. Denn auch 28nm gibt es nicht umsonst und es geht lediglich darum wann der Breakeven für die jeweilige SKU ist.
Momentan schon; https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10658173&postcount=1226
Viele Anteile der insgesamten Kosten werden nur einmal bezahlt, die Kurve der Kosten insgesamt ist aber sehenswert gestiegen im Vergleich zu 28nm.
Ein sehenswert groesserer die als 300mm2 unter FF Prozessen lohnt sich heute fuer desktop schwer, wenn man sich in MSRP Regionen bewegen will die noch anstaendige Verkaufsvolumen generieren.
Complicated
2016-03-18, 10:32:03
Entscheidend ist was am Ende der einzelne Die, der Speicher und das fertig zu kaufende Produkt kostet. Der Shrink entspricht auch nicht den bisherigen dort dargestellten Verhälntissen. 28->14nm ist ein größerer Sprung als 65->40nm oder 40->28nm. Flächeneinsparungen und daher gesunkene Kosten pro Die berücksichtig die Grafik überhaupt nicht und daher halte ich sie nicht für tauglich dein Argument zu unterstützen oder meines zu entkärften.
Und da sehr viele Kosten gerade am Angfang in Design und Entwicklung fliesen, ist es um so wichtiger in die Produktion zu kommen damit die Stückzahlen steigen. Damit wartet man auch nicht unbedningt bis der Breakeven erreicht ist, da eben auch Time-to-Market und was die Konkurrenz macht Faktoren sind. Alles was zählt ist der Yield-Rampup. Und hier bin ich sicher, dass sich 14nm deutlich vor 16nm befindet was diese Kostenstrukturen angeht. Alleine auch was die Stückzahlen angeht und vor allem auch die vielen unterschiedliche Produkte die auch im CPU/APU Bereich entwickelt werden auf diesem Prozess. Die Lernkurve ist automatisch steiler bei mehr verschiednen Produkten. Vor allem mit einem 14nm LPE Vorgänger der in Massenproduktion einsetzbar war. Davon gibt es noch nichts in 16nm. Daher hat AMD hier eine entspanntere Situation mit den zuerst kommenden 14nm GPUs gegenüber den 16nm Vega/Pascal vor allem was Kosten des Prozesses angeht.
Ich bin sicher wir können uns darauf einigen, dass 14nm teurer als 28nm ist. 16nm allerdings da noch mal teurer ist in den Kosten pro fertigem Die alleine wegen den niedrigeren Stückzahlen, wie ja deine Grafik auch darstellt. Deswegen wird AMD nicht darauf verzichten 14nm Produkte so schnell wie möglich zu launchen, da sie genau wissen wann 16nm reif genug sind in der Fertigung. Daher, um zum ursprünglichen Kern der Diskussion zwischen uns zurück zu kommen, denke ich nicht dass die wirtschaftlichen Nachteile von 14nm gegenüber 28nm so groß sind wie manche das noch darstellen. 14nm ist so weit und löst 28nm auf breiter Front ab bei AMD. CPU und GPU werden Ende 2016/Anfang 2017 ein recht breites Spektrum an Produkten bieten. Und ich denke dass AMD so schnell wie möglich den Transit komplettieren will.
Botcruscher
2016-03-18, 10:32:20
Gegenfrage: Was hat die unglaublich teure 28nm Fertigung mit den stabilen 500€ Endpreis einer 980 gemein?
Bei zwei Anbietern ist die Preisbildung bestenfalls als eingeschränkt zu betrachten. Da wird sich eh Zeit für den besten Zeitpunkt gelassen. 50% höhere Chipkosten wären dann bei der Karte doch nur 10 bis 20%.
Leo hatte vor Monaten mal Zahlen von Hardwareversendern gebracht. Nach Umsatz waren da eben nicht mehr die Mainstreamteile führend sondern die Enthusiasten.
Gipsel
2016-03-18, 10:36:53
Außerdem gibt es aus unterschiedlichen Quellen seit einiger Zeit immer wieder Aussagen, daß die höheren Waferkosten und auch der Entwicklung so signifikant sind, daß die Kosten pro Transistor steigen.
Nur ein Beispiel (gibt wie gesagt viele aus unterschiedlichen Quellen):
http://www.extremetech.com/wp-content/uploads/2015/06/ISS_F1.jpg
Die Benutzung der kleineren Prozesse lohnt also aus Kostensicht erstmal nur, wenn durch deren Nutzung bestimmte Dinge sonst unmöglich wären (also Highend oder auch bestimmte Verbrauchstargets für mobile Anwendungen).
Nun stecken in solchen Grafiken wie oben natürlich jede Menge Annahmen über die Fixkosten, die natürlich für jedes Projekt anders ausfallen können. Aber allgemein läßt sich wohl festhalten, daß nur für Projekte mit recht großem Volumen/Umsatz, die kleineren Prozesse vielleicht irgendwann günstiger werden (weil man dann die hohen Fixkosten über eine größere Stückzahl amortisieren kann). Ansonsten verschiebt sich der Crossover der Kosten mit denen von 28nm auf den Sankt-Nimmerleins-Tag.
Und man sollte nicht vergessen, daß solche Grafiken typischerweise für jeden Prozeß "mature yields" annehmen, dies also bereits eine Projektion in die Zukunft darstellt. Mit momentan sicher noch nicht perfekten 14/16nm Yields sind die Kosten noch höher, was es eben schwierig macht, z.B. eine 230mm² GPU in 14LPP günstiger zu fertigen als eine mit sagen wir mal 500mm² und etwa gleicher Transistorzahl in 28nm. In diesen Bereich kommen wir gerade jetzt erst langsam rein. Und deutlich billiger ist das in 14LPP bisher ganz sicher nicht.
Complicated
2016-03-18, 10:48:43
Man darf dabei ja zudem nicht ausser acht lassen: Je länger AMD wartet mit 14nm Polaris, desto länger kann Nvidia 28nm Maxwell Produkte verkaufen. Der Druck auf den Konkurrenten kann nur mit den neuen Chips erhöht werden und mit den 16nm Enthusiast-Produkten in der Hinterhand. Je weniger Zeit Nvidia hat den Prozess zu optimieren, desto teuerer muss der Produktlaunch erfolgen. Auch wenn alles am liebsten über GP100 und GP104 spricht, so sind beide Chips, ebenso wie Vega 10 und 11, nicht in der Performanceklasse angesiedelt den die GTX970/980/Fury/Nano/380(X) und niedriger belegen. Dort ist Polaris in 14nm aber deutlich früher anzutreffen als 16nm. AMD wird 16nm gar nicht dort bringen, Nvidia muss dies aber irgendwann.
Ailuros
2016-03-18, 10:55:34
Entscheidend ist was am Ende der einzelne Die, der Speicher und das fertig zu kaufende Produkt kostet. Der Shrink entspricht auch nicht den bisherigen dort dargestellten Verhälntissen. 28->14nm ist ein größerer Sprung als 65->40nm oder 40->28nm. Flächeneinsparungen und daher gesunkene Kosten pro Die berücksichtig die Grafik überhaupt nicht und daher halte ich sie nicht für tauglich dein Argument zu unterstützen oder meines zu entkärften.
Von mir aus kannst Du versuchen das Gegenteil via links uebers Netz zu dokumentieren, nur bleibst Du dann leider beim genau gleichen Fragezeichen der wafer bzw. binning yields stecken fuer jeglichen die. Und da Du schon 65nm in die Mischung bringst, bei NV's grossen dies war der wafer yield fuer den 575mm2 grossen GT200 unter 65nm bei seinem Produktionsstart bei 52.5% und wurde seither nicht mehr erreicht.
***edit: und um Missverstaendnissen zu entgehen: dieses Prozentual gilt ausschliesslich fuer sehr grosse dies. Bei kleineren dies sind die yields natuerlich hoeher, nur steigt das Prozentual daemlicherweise nicht mit jeglichem neuen Prozess und schon gar nicht mit alle den Komplikationen mit denen FF Prozesse ankommen.
Und da sehr viele Kosten gerade am Angfang in Design und Entwicklung fliesen, ist es um so wichtiger in die Produktion zu kommen damit die Stückzahlen steigen. Damit wartet man auch nicht unbedningt bis der Breakeven erreicht ist, da eben auch Time-to-Market und was die Konkurrenz macht Faktoren sind. Alles was zählt ist der Yield-Rampup. Und hier bin ich sicher, dass sich 14nm deutlich vor 16nm befindet was diese Kostenstrukturen angeht. Alleine auch was die Stückzahlen angeht und vor allem auch die vielen unterschiedliche Produkte die auch im CPU/APU Bereich entwickelt werden auf diesem Prozess. Die Lernkurve ist automatisch steiler bei mehr verschiednen Produkten. Vor allem mit einem 14nm LPE Vorgänger der in Massenproduktion einsetzbar war. Davon gibt es noch nichts in 16nm. Daher hat AMD hier eine entspanntere Situation mit den zuerst kommenden 14nm GPUs gegenüber den 16nm Vega/Pascal vor allem was Kosten des Prozesses angeht.
Was anderes behauptet in groben Linien auch keiner. Nur dass eben aus Kosten-Gruenden NV die absoluten Pascal Winzlinge aus Kosten-Gruenden nicht schon in diesem Jahr unter 16FF+ herstellen wird.
16FF wurde storniert.
Sonst stellt GloFo auch nicht umsonst her. TSMC haette so oder so nicht genug Kapazitaeten auflegen koennen um alles gleichzeitig zu bedienen.
Wenn AMD tatsaechlich Greenland auf 16FF+ herstellt (afaik) dann wohl eher weil sie mit hochkomplizierten dies kein grosses Risiko eingehen wollen.
Ich bin sicher wir können uns darauf einigen, dass 14nm teurer als 28nm ist. 16nm allerdings da noch mal teurer ist in den Kosten pro fertigem Die alleine wegen den niedrigeren Stückzahlen, wie ja deine Grafik auch darstellt.
Welche niedrige Stueckzahlen genau? TSMC hat mehr Kunden an der Reihe stehen fuer 16FF+ und ein wafer heute kostet bei denen knapp unter 7k. Glofo hat weder hohe Kapazitaets-Ansprueche fuer 14LPP von QCOM noch von Apple.
Deswegen wird AMD nicht darauf verzichten 14nm Produkte so schnell wie möglich zu launchen, da sie genau wissen wann 16nm reif genug sind in der Fertigung. Daher, um zum ursprünglichen Kern der Diskussion zwischen uns zurück zu kommen, denke ich nicht dass die wirtschaftlichen Nachteile von 14nm gegenüber 28nm so groß sind wie manche das noch darstellen. 14nm ist so weit und löst 28nm auf breiter Front ab bei AMD. CPU und GPU werden Ende 2016/Anfang 2017 ein recht breites Spektrum an Produkten bieten. Und ich denke dass AMD so schnell wie möglich den Transit komplettieren will.
Warum stellt dann kein einziger low-cost orientierter SoC Hersteller fuer den ULP Markt ihre SoCs unter 14LPP bzw. 16FF+ her? Weil Du Dir alles schoen nach Deiner Vorstellung ausgerechnet hast, oder weil sie nie und nimmer die Margen eines Samsung/Apple high end Geraets zufaellig erreichen koennen?
Ailuros
2016-03-18, 10:58:08
Gegenfrage: Was hat die unglaublich teure 28nm Fertigung mit den stabilen 500€ Endpreis einer 980 gemein?
Zeig mir EINE volle mainstream SKU seit der 7970 die einen sehenswert niedrigeren MSRP hatte. Es ist logischer einen Trend beizubehalten bei jeder Prozess-Generation und somit quasi einen Anteil der Kosten ueber mehrere Produkte zu verstreuen.
Man darf dabei ja zudem nicht ausser acht lassen: Je länger AMD wartet mit 14nm Polaris, desto länger kann Nvidia 28nm Maxwell Produkte verkaufen. Der Druck auf den Konkurrenten kann nur mit den neuen Chips erhöht werden und mit den 16nm Enthusiast-Produkten in der Hinterhand. Je weniger Zeit Nvidia hat den Prozess zu optimieren, desto teuerer muss der Produktlaunch erfolgen. Auch wenn alles am liebsten über GP100 und GP104 spricht, so sind beide Chips, ebenso wie Vega 10 und 11, nicht in der Performanceklasse angesiedelt den die GTX970/980/Fury/Nano/380(X) und niedriger belegen. Dort ist Polaris in 14nm aber deutlich früher anzutreffen als 16nm. AMD wird 16nm gar nicht dort bringen, Nvidia muss dies aber irgendwann.
Druck oder kein Druck zur Seite, kein AMD kann es sich leisten in Ewigkeit ueber jeglichen Tahiti oder Hawaii core (sind nur Beispiele) weiterzugeigen. AMD koennte nach aller Wahrscheinlichkeit zumindest ein Quartal Vorsprung haben im mittlerem Bereich, aber es sind schon 3 Kerle im Hintergrund die auf zu knappe Kapazitaeten bei TSMC deuten.
Thunder99
2016-03-18, 11:06:50
Aber wenn die Kosten am Anfang für ein 500mm²+ einfach für den angepeilten MSRP zu groß sind, dann müsste es doch dann später wieder möglich sein (Kostensenkung im Laufe der Zeit) :confused:
Schlechtes Beispiel ist ja die Titan Serie von nvidia. Was damals High-End war wird heute um bis zum doppelte Preis verkauft :freak:
Weiter könnte auch bei AMD ein Trend geben nicht mehr ein Chip für alles zu haben sondern auch zu separieren wie es wahrscheinlich nvidia macht mit GP100<->GP102
Aber wir können ja hoffen das die Kosten dennoch stabil bleiben im Lauf der Zeit. Sonst wäre die Branche schnell am Ende :freak:
Ailuros
2016-03-18, 11:15:26
Aber wenn die Kosten am Anfang für ein 500mm²+ einfach für den angepeilten MSRP zu groß sind, dann müsste es doch dann später wieder möglich sein (Kostensenkung im Laufe der Zeit) :confused:
Schlechtes Beispiel ist ja die Titan Serie von nvidia. Was damals High-End war wird heute um bis zum doppelte Preis verkauft :freak:
Weiter könnte auch bei AMD ein Trend geben nicht mehr ein Chip für alles zu haben sondern auch zu separieren wie es wahrscheinlich nvidia macht mit GP100<->GP102
Aber wir können ja hoffen das die Kosten dennoch stabil bleiben im Lauf der Zeit. Sonst wäre die Branche schnell am Ende :freak:
Fuer den sehr "harten" MSRP einer 980 SKU hast Du dann als Gegengewicht den "weicheren" MSRP einer 970 SKU die um ~35% niedriger ankam. Gibt wohl auch einen Grund warum sowohl wafer als auch binning yields erwaehnt werden.
wafer yield
Begriffsdefinition irgendwo nachlesbar? Ich kann mir unter einer Prozentangabe dafür nichts vorstellen. mMn müsste die Güte hier in Defekten pro Wafer angegeben werden. :confused:
tm0975
2016-03-18, 12:40:06
Leo hatte vor Monaten mal Zahlen von Hardwareversendern gebracht. Nach Umsatz waren da eben nicht mehr die Mainstreamteile führend sondern die Enthusiasten.
topseller sind 970 und 390. wäre nicht unbedingt Enthusiasten-segment, oder?
Zettabit
2016-03-18, 12:49:43
topseller sind 970 und 390.
Stückzahlen != höchster Umsatz.
Wenn die 970 300€ im Durchschnitt kosten und die 980Ti 600€, dann erreichen letztere auch mit der Hälfte an Verkäufen den gleichen Umsatz.
Ailuros
2016-03-18, 13:01:27
Begriffsdefinition irgendwo nachlesbar? Ich kann mir unter einer Prozentangabe dafür nichts vorstellen. mMn müsste die Güte hier in Defekten pro Wafer angegeben werden. :confused:
Ich verstehe unter wafer yields die Anzahl der operativen chips pro wafer. Unter der Vorraussetzung dass sich der IHV an allen vorgeschlagenen Vorsichtsmassnahmen der foundry gehalten hat sind wafer yields eher Prozess-bedingt. Design-bedingt sind dann eher binning yields denn es haengt eher vom design ab wie viele von den dies mit allen Einheiten benutzt werden koennen und wie viele von den jeweiligen salvage parts.
http://www.semi1source.com/glossary/default.asp?searchterm=yield
tm0975
2016-03-18, 13:05:00
Stückzahlen != höchster Umsatz.
Wenn die 970 300€ im Durchschnitt kosten und die 980Ti 600€, dann erreichen letztere auch mit der Hälfte an Verkäufen den gleichen Umsatz.
das schon, nur hat die 980ti nicht die halben stückzahlen der 970 sondern eher 1/10 der 970. die 970 liegt umsatz und stückzahlenmäßig deutlich vor der 980 ti, genauso die 390.
Leo hatte vor Monaten mal Zahlen von Hardwareversendern gebracht. Nach Umsatz waren da eben nicht mehr die Mainstreamteile führend sondern die Enthusiasten.
Dazu gab es glaube ich auch erst kuerzlich eine Studie von JPR, allerdings bin ich mir sehr sicher, dass 970/390 dort auch in Enthusiast/High-End gezaehlt werden...
OBrian
2016-03-18, 13:55:16
also "wafer yield" = Anteil der defekten Chip, die gar nicht laufen (bzw. teildeaktiviert werden müssen, um laufen zu können) und "binning yield" = Anteil der Chips, die die geforderte Taktrate, Spannung, TDP nicht schaffen.
Ich verstehe unter wafer yields die Anzahl der operativen chips pro wafer.
Also in deinem Beispiel alles was für ne GTX280 tauglich war. 260 würde als defekt zählen, richtig? Dann fände ich die 52% aber gar nicht so verkehrt.
Das war der für mich interessanteste Punkt. Das weiter unten ist nur Bonus :D
Design-bedingt sind dann eher binning yields denn es haengt eher vom design ab wie viele von den dies mit allen Einheiten benutzt werden koennen und wie viele von den jeweiligen salvage parts.
Äh, also meiner Meinung nach sollten das genauso prozessbedingte Gründe sein, die natürlich dadurch verstärkt werden können, dass ein Design sich auf riskante Art den Grenzwerten des Prozesses nähert. Anders beeinflusst das Design doch nicht den Yield. Ein anderes Binning ist ja eigentlich nichts anderes als Resteverwertung (höhere Spannung, Salvage) bzw. andersrum gesagt die besten Stückchen raussuchen (höchste Taktraten, geringe Spannung für mobile).
http://www.semi1source.com/glossary/default.asp?searchterm=yield
Das ist mir soweit klar. Mir ging es nur um die genaue Verwendung in deinem Kontext.
Unicous
2016-03-18, 15:46:54
Es sind wieder GPUs unterwegs
PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO/ GRAPHICS CARD) P/N .102-D00001-00 (FOC)
PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO / GRAPHIC CARD) P/N 102-D00001-00 (FOC)
Die P/N hatten wir schon mal im Januar, ich schätze mal das ist dann Polaris e: 10 11.
N0Thing
2016-03-18, 16:39:43
Also in deinem Beispiel alles was für ne GTX280 tauglich war. 260 würde als defekt zählen, richtig? Dann fände ich die 52% aber gar nicht so verkehrt.
Das war der für mich interessanteste Punkt. Das weiter unten ist nur Bonus :D
So wie ich ihn verstanden habe und es auch bisher selber so verstanden habe, wäre auch der Chip einer GTX 260 tauglich und nicht defekt und würde positiv bei den wafer yields vermerkt. Danach folgt das product binning, wo die Chips nach ihrer Güte und Funktionalität unterteilt werden .
[MK2]Mythos
2016-03-18, 20:49:06
Wie kommt ihr eigentlich darauf dass die Polaris Grafikkarten ähnlich klein wie die Fiji/Nano Karten Werden? Die geringe Größe wird bei Fiji doch nur durch HBM erreicht?
Nakai
2016-03-18, 20:59:30
Es gibt genug miniITX-Karten mit stärkeren GPUs auch ohne HBM.
zB.: Gigabyte GeForce GTX 970 Mini
dargo
2016-03-18, 22:32:26
Mythos;10975536']Wie kommt ihr eigentlich darauf dass die Polaris Grafikkarten ähnlich klein wie die Fiji/Nano Karten Werden? Die geringe Größe wird bei Fiji doch nur durch HBM erreicht?
Bei kleinerem Stromverbrauch fällt die Spannungsversorgung/Kühlung auch recht gering aus womit Platz gespart wird. Sowas hier:
http://geizhals.de/sapphire-radeon-r9-380-itx-compact-11242-00-20g-a1280836.html?hloc=at&hloc=de
ist sogar kürzer als eine Fury X und nur ~2cm länger als die Nano.
uweskw
2016-03-18, 23:33:56
Es gibt genug miniITX-Karten mit stärkeren GPUs auch ohne HBM.
zB.: Gigabyte GeForce GTX 970 Mini
Ich glaubs doch nicht wie die NV-Bots bei jeder sich bietenden Gelegenheit unwissende Leser manipulieren. Und die Masse glaubt es auch noch.
Die Gigabyte GeForce GTX 970 Mini ist deutlich schwächer als die AMD Nano.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/70704-itx-battle-r9-nano-vs-gtx-970-mini-18.html
und die gelten, so weit ich weiß, eher als NV freundlich.
greetz
US
victore99
2016-03-19, 00:34:43
Ich glaubs doch nicht wie die NV-Bots bei jeder sich bietenden Gelegenheit unwissende Leser manipulieren. Und die Masse glaubt es auch noch.
Die Gigabyte GeForce GTX 970 Mini ist deutlich schwächer als die AMD Nano.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/70704-itx-battle-r9-nano-vs-gtx-970-mini-18.html
und die gelten, so weit ich weiß, eher als NV freundlich.
greetz
US
Du vergisst, dass die Nano HBM hat. Damit wird der Platz und die Komplexität für die 8 Speicherbausteine eingespart.
Der_Korken
2016-03-19, 01:41:30
Ich glaube das "stärkere" war nicht auf die Nano bezogen, sondern dass allgemein "stärkere" Karten (wie die GTX970) auch auf kurzen PCBs untergebracht werden können, solange die Karten sparsam genug sind (v.a. wegen der Kühlung).
Nakai
2016-03-19, 02:00:11
Ich glaube das "stärkere" war nicht auf die Nano bezogen, sondern dass allgemein "stärkere" Karten (wie die GTX970) auch auf kurzen PCBs untergebracht werden können, solange die Karten sparsam genug sind (v.a. wegen der Kühlung).
Genau. ;)
Wie gesagt, wenn P10 in einem so kleinem Formfaktor ausgeliefert wird, dann kann man sich an die GTX970 orientieren. Mehr als 150W wird das Ding dann eher nicht schlucken. Auch in diesem Formfaktor. Es spricht außerdem für den "geleakten" 232mm² Chip.
Aber ich glaube kaum, dass dieser Chip nur mit einem 256Bit SI GDDR5, gegenüber Fury (X) einen ordentlich Stich macht. Mit GDDR5X ist es schon wieder etwas anderes, aber mit Standard (hochgetakteten) GDDR5 wird man auch die Energieeffizienz einen Abbruch tun.
Hat P10 ein 384 Bit SI? Oder gar HBM?
Nein wohl nicht, da Baffin XT (C98), also wohl P10, mit 4GB GDDR5 "geleakt" wurde. Mittlerweile sind viele Chips auf Zauba "geleakt", die sehr schwer einzuordnen sind. Dass es sich hierbei um Boards handelt, könnten es sich auch um mobile Ableger oder Karten aus dem HPC-Segment handeln.
Also die geleakten Werte (Hitman 1440p 60Hz) sprechen für eine Karte in Fiji/Hawaii-Bereichen. Die Displayausgänge sprechen für einen neuen Chip und neues PCB (drei DP1.3).
AMD hat wohl starke architekturellen Änderungen durchgeführt und vor allem das Speichersystem stark überarbeitet. Wenn man große Caches oder ein besseres Caching-System einbaut, und starke DCC mitbringt, könnte es sein, dass die Bandbreite nicht so stark ausgeht. Eine stark übertaktete GTX980 kommt auch bereits in gute Leistungs-Regionen. Der Sprung ist nicht so groß und schaffbar. Mit GDDR5X wäre eventuell noch mehr drin. Womöglich ist das der Grund für die vielen Boards. Unterschied GDDR5 <-> GDDR5X. Das braucht ein neues Package, sowie neues Board.;)
Hitman wird immer mit so einer selbstverstaendlichkeit als Referenz genannt. Soweit ich weiss, gab es aber ueberhaupt keine naeheren Infos. Wie viel FPS schaffen denn Fiji/Hawaii in der Aufloesung bei min. settings?
fondness
2016-03-19, 09:05:42
Wie gesagt, wenn P10 in einem so kleinem Formfaktor ausgeliefert wird, dann kann man sich an die GTX970 orientieren. Mehr als 150W wird das Ding dann eher nicht schlucken. Auch in diesem Formfaktor. Es spricht außerdem für den "geleakten" 232mm² Chip.
Man könnte es auch mal mit der Logik versuchen, über P10 kommen noch zwei weitere Chips. Wenn P10 schon bei über 150W liegen würde, wäre da kein Platz mehr für zwei weitere Chips. Auch wenn die Perf/Watt bei Vega nochmal etwas steigen wird.
Nakai
2016-03-19, 12:55:26
Man könnte es auch mal mit der Logik versuchen, über P10 kommen noch zwei weitere Chips. Wenn P10 schon bei über 150W liegen würde, wäre da kein Platz mehr für zwei weitere Chips. Auch wenn die Perf/Watt bei Vega nochmal etwas steigen wird.
Naja, Pitcairn verbrauchte auch um die 150W und wir wissen, wieviele Chips AMD noch darüber geliefert hat.
Hitman wird immer mit so einer selbstverstaendlichkeit als Referenz genannt. Soweit ich weiss, gab es aber ueberhaupt keine naeheren Infos. Wie viel FPS schaffen denn Fiji/Hawaii in der Aufloesung bei min. settings?
Wenn es Ultra war, dann um die 60FPS. Ob es wirklich Ultra war, ist nicht klar. Es sollten keine niedrigen Settings gewesen sein, sondern schon höhere. Es waren jedoch rockstable 60fps.
von Richthofen
2016-03-19, 13:16:38
Hitman wird immer mit so einer selbstverstaendlichkeit als Referenz genannt. Soweit ich weiss, gab es aber ueberhaupt keine naeheren Infos.
Man weiss von der sehr kurzen Capsaicin-Demo, in der Agent 47 eine Runde am Hafen mit Blick auf ein Kreuzfahrtschiff? dreht. Diese Szene lief angeblich "konstant" mit 60 FPS unter DX12 in der WQHD-Auflösung auf Polaris 10.
Zum Vergleich (hier im Forum) herangezogene Benchmarkmesswerte der Reviewseiten (CB, PCGH) nutzen andere, stark auf die Performance drückende Szenen mit großen Menschenansammlungen. Daher ist eine Vorabeinordnung der Performance zum gegenwärtigen Zeitpunkt imho gar nicht möglich.
Troyan
2016-03-19, 16:32:56
Schaut man sich das Bild von Overclocked3d an, sieht man auch bei der Überbeleuchtung, dass kein AO an ist (Holzbarrikaden).
Ob es also überhaupt mit "Ultra" gelaufen ist, ist daher fragwürdig. AO in der Szene kostet z.B. rund 10% an Leistung.
victore99
2016-03-19, 17:15:22
Man weiss von der sehr kurzen Capsaicin-Demo, in der Agent 47 eine Runde am Hafen mit Blick auf ein Kreuzfahrtschiff? dreht. Diese Szene lief angeblich "konstant" mit 60 FPS unter DX12 in der WQHD-Auflösung auf Polaris 10.
Zum Vergleich (hier im Forum) herangezogene Benchmarkmesswerte der Reviewseiten (CB, PCGH) nutzen andere, stark auf die Performance drückende Szenen mit großen Menschenansammlungen. Daher ist eine Vorabeinordnung der Performance zum gegenwärtigen Zeitpunkt imho gar nicht möglich.
Irgendein Magazin / Forencamper wird das schon nachstellen...
Ailuros
2016-03-20, 19:18:08
Also in deinem Beispiel alles was für ne GTX280 tauglich war. 260 würde als defekt zählen, richtig? Dann fände ich die 52% aber gar nicht so verkehrt.
Das war der für mich interessanteste Punkt. Das weiter unten ist nur Bonus :D
65nm war zu dem Zeitpunkt nicht nur ziemlich ausgereift, aber wie gesagt das Prozentual wurde seither nicht mehr erreicht.
Äh, also meiner Meinung nach sollten das genauso prozessbedingte Gründe sein, die natürlich dadurch verstärkt werden können, dass ein Design sich auf riskante Art den Grenzwerten des Prozesses nähert. Anders beeinflusst das Design doch nicht den Yield.
Kommt drauf was Du unter Einfluss genau verstehst. Beim GF100 war der Speichercontroller kaputt, ergo bekamst Du von der breiten Mehrzahl der wafer nur einen chip pro wafer mit allen clusters eingeschaltet und ein paar Aussnahmen mit 2 pro wafer. Ein voller Ausbau war sowieso nicht moeglich weil da jedes sample verdammt viel Strom verbrauchte. NV hatte damals so viele halb kaputte chips herumliegen dass sie sogar fuer Quadros GF100-er mit der Haelfte der clusters aktiviert verkauften um sie irgendwie loszuwerden.
Ein anderes Binning ist ja eigentlich nichts anderes als Resteverwertung (höhere Spannung, Salvage) bzw. andersrum gesagt die besten Stückchen raussuchen (höchste Taktraten, geringe Spannung für mobile).
Das ist mir soweit klar. Mir ging es nur um die genaue Verwendung in deinem Kontext.
Einfaches Beispiel mit frei erfundenen Zahlen: angenommen Du bekommst bei einem grossen >500mm2 chip von einem 300mm wafer mal grob 50 operative chips. Davon hast Du 10 mit 100% der Einheiten operativ, 15 chips mit 90% operativen Einheiten und 25 chips mit 80% operativen Einheiten.
Auf Wafer Ebene hast Du irgendwo einen 50% yield und beim binning bzw. Restverwertung oder wie man es nennen mag ~10% bei chips mit vollem Ausbau und ~40% salvage parts. IHVs verkaufen dann bei einem sehr ausgereiften Prozess den ersten bei ~$120, die zweiten bei ~$100 und die dritten bei ~$80. Zumindest war es irgendwie so beim letzten 28nm Schub.
*** edit: ich hab zwar noch keine solche Phaenomaene hier gesehen, aber in anderen fora versuchen manche schon die Anzahl der Polaris 10 bzw. 11 Einheiten zu rateen. Typischer Fehler wie immer, man spekuliert mit der heutigen Effizienz pro cluster im Hinterkopf ;)
Nakai
2016-03-20, 19:44:02
*** edit: ich hab zwar noch keine solche Phaenomaene hier gesehen, aber in anderen fora versuchen manche schon die Anzahl der Polaris 10 bzw. 11 Einheiten zu rateen. Typischer Fehler wie immer, man spekuliert mit der heutigen Effizienz pro cluster im Hinterkopf ;)
Ja, Polaris wird einen schönen Effizienzboost bekommen. Die Frage, die ich mir stelle ist, inwieweit das über die verbesserten CUs oder dem neuen Frontend geschuldet ist.
Der neue CommandProcessor, neue GeometryProcessor und neue Primitive Engines sollten auch einiges bringen. Die CUs werden definitiv eher auf der Seite der skalaren Einheit einige Änderungen bekommen. Eventuell eine gemeinsame Registerfile? Mehr Instruktionen für die skalare Einheit. Da sollte ziemlich viel Potential versteckt sein.
Ich denke die CUs werden stark überarbeitet, um eine höhere Effizienz zu erreichen, vor allem im Bezug auf Perf/Watt.
Umso weniger SPs GCN1/1.1/1.2 hatte, desto effizienter war die Architektur. P11 könnte auch nur ~1000 SPs haben und dabei an Tahiti/Tonga ankratzen.
Für P10 gilt das gleiche, aber eine Hausnummer höher.
AffenJack
2016-03-20, 20:03:09
Umso weniger SPs GCN1/1.1/1.2 hatte, desto effizienter war die Architektur. P11 könnte auch nur ~1000 SPs haben und dabei an Tahiti/Tonga ankratzen.
Für P10 gilt das gleiche, aber eine Hausnummer höher.
Auch wenn ich klar von effizienzsteigerungen ausgehe, sollte man da doch eher realistisch bleiben und ne Verdopplung der Leistung pro SP ist dies nicht. Betrachtet man GCN mal im Vergleich zu Maxwell und rechnet da den Takt raus, dann ist der Unterschied gar nicht so groß und ich glaube auch nicht, dass da noch so riesige Effizienzsteigerungen drin sind. Tonga/Hawaii brauchen etwa 20% mehr Spieleperformance/Gflops um da mit GM204 gleichzuziehen und ich glaube kaum, dass man da wirklich mehr schaffen wird. Irgendwann braucht man einfach mehr Gflops. Daher sind so 15% mehr Performance pro Gflop eher das was ich erwarte.
Ailuros
2016-03-20, 20:39:42
Auch wenn ich klar von effizienzsteigerungen ausgehe, sollte man da doch eher realistisch bleiben und ne Verdopplung der Leistung pro SP ist dies nicht. Betrachtet man GCN mal im Vergleich zu Maxwell und rechnet da den Takt raus, dann ist der Unterschied gar nicht so groß und ich glaube auch nicht, dass da noch so riesige Effizienzsteigerungen drin sind. Tonga/Hawaii brauchen etwa 20% mehr Spieleperformance/Gflops um da mit GM204 gleichzuziehen und ich glaube kaum, dass man da wirklich mehr schaffen wird. Irgendwann braucht man einfach mehr Gflops. Daher sind so 15% mehr Performance pro Gflop eher das was ich erwarte.
Ich will erstmal sehen ob es AMD diesmal geschafft hat ihre voltages dem unterliegenden Prozess richtig anzupassen. Sonst wenn man den Verbrauch erstmal weglaesst fuer heutige Loesungen, stimme ich Dir schon zu ;)
Nakai
2016-03-20, 20:43:08
Auch wenn ich klar von effizienzsteigerungen ausgehe, sollte man da doch eher realistisch bleiben und ne Verdopplung der Leistung pro SP ist dies nicht. Betrachtet man GCN mal im Vergleich zu Maxwell und rechnet da den Takt raus, dann ist der Unterschied gar nicht so groß und ich glaube auch nicht, dass da noch so riesige Effizienzsteigerungen drin sind. Tonga/Hawaii brauchen etwa 20% mehr Spieleperformance/Gflops um da mit GM204 gleichzuziehen und ich glaube kaum, dass man da wirklich mehr schaffen wird. Irgendwann braucht man einfach mehr Gflops. Daher sind so 15% mehr Performance pro Gflop eher das was ich erwarte.
15% klingen ganz gut. Man sollte auch wirklich Tonga mit Tahiti vergleichen. Der Sprung von Tahiti auf Tonga ist mittlerweile schon nicht klein. Neue Spiele lasten Tonga deutlich besser aus als Tahiti. Man ist teilweise schon mehr als 10% schneller, trotz ähnlicher Rohleistung.
Im Grunde zeigt das einfach, dass es bei GCN nicht so sehr an den CUs hängt, sondern eher am Frontend. Dort hat Tonga deutlich mehr Transistoren verballert als Tahiti.
Die Perf/FLOP wird bei Polaris definitiv nicht stagnieren. Selbst wenn die Packdichte bei 14LPP gen 35Mio/mm² geht, muss das nicht bedeuten, dass wir ~2,5x mehr CUs/SPs sehen. Es könnte auch weniger sein, je nachdem wo Polaris deutlich mehr Transistoren anlegt.
Ailuros
2016-03-20, 21:08:35
Mir ging es hauptsaechlich um die Frequenzen; heutige Radeons verbrauchen trotz niedrigeren Frequenzen immer noch mehr Strom als ihre direkte Gegner. Ich will hoffen dass AMD ihre designs fuer 14LPP etwas besser optimiert hat was die voltages betrifft.
Sonst 2.5 Mal auf keinen Fall LOL :D Ist zwar nur Bauchgefuehl aber ich erwarte irgendwo um die 30% hoehere Einheits-Anzahlen, eine um einiges hoeheren Leistungsunterschied zur heutigen Generation aber stets unter +100% im realen Durchschnitt und natuerlich sehenswert niedrigeren Verbrauch.
Unicous
2016-03-20, 21:30:15
Ich erwarte, dass Nvidia mit ihrem Takt und auch Turbo deutlich mehr haushalten muss als noch bei 28nm. AMD im Gegensatz könnte sich annähern ohne Effizienz einzubüßen. Hinzu kommt der deutlich engere shmoo plot beim binning, den AMD angesprochen hatte. Es gibt keine größeren Ausfälle nach oben und nach unten. Das war in der Vergangenheit AMDs größtes Problem.
edit:
AMD hat auch generell über das gesamte Produkt-Portfolio Probleme die leakage einzudämmen. Das führt meines Erachtens auch zu der teils hohen Leistungsaufnahme. Das haben Nvidia und Intel deutlich besser im Griff.
Nakai
2016-03-21, 00:22:15
Mir ging es hauptsaechlich um die Frequenzen; heutige Radeons verbrauchen trotz niedrigeren Frequenzen immer noch mehr Strom als ihre direkte Gegner. Ich will hoffen dass AMD ihre designs fuer 14LPP etwas besser optimiert hat was die voltages betrifft.
AMD hat eben die CUs nicht sonderlich umgekrempelt, während NV mit Maxwell ihre SMs drastisch umgebaut hat. Wie gesagt, man sollte reinher von den CUs erstmal Energieeffizienzverbesserungen erwarten. Reinher vom TopView sollten die CUs sehr ähnlich aussehen. Womöglich verbaut man Dual- oder gar Quad-CUs, um das Routing oder den Interconnect zu optimieren. Aber es werden immer noch 4 16er SIMDs sein, vom Grundkonzept.
Sonst 2.5 Mal auf keinen Fall LOL :D Ist zwar nur Bauchgefuehl aber ich erwarte irgendwo um die 30% hoehere Einheits-Anzahlen, eine um einiges hoeheren Leistungsunterschied zur heutigen Generation aber stets unter +100% im realen Durchschnitt und natuerlich sehenswert niedrigeren Verbrauch.
Falls die Packdichte irgendwie zwischen 30~35Mio Transistoren/mm2 liegt, sollte man nicht über Faktor 2 hinausspekulieren. Im Grunde hängt es dann doch damit zusammen, wieviel Fläche AMD für P10 und 11 verschwendet. Wenn Performance Faktor 2 ansteigt und eine Perf/Watt um 2,5x verbessert wird, sollte die Chips im Schnitt etwas weniger verbrauchen als bisher. Im Grunde ist das ganz gut, da die W/mm² dadurch sinkt. Bei AMD hat man immer das Gefühl, dass die Chips grundlos an die Belastungsgrenze getrieben wurden, sei es bei Temperatur oder Wattage. Irgendwo stimmte das Gesamtkonzept nicht wirklich.
€: Bei AMD sollte man erwarten, dass das Verhältnis zwischen Core und Offcore, stärker in Richtung Offcore geht. Mehr Investitionen in Frontend und Backend wären wünschenswert.
Der Compute-Teil wird erstmal nicht mehr angefasst.
Und Vega ist Polaris+HBM2+kleinere Änderungen. Ich kann mir gut vorstellen, dass Polaris erstmal für das LowEnd und Midrange zuständig ist. Ergo Mobile, OEM und Co. Ich würde nicht zuviel von P10 erwarten. Hawaii-Performance? Jap, evtl sogar ein Stück darüber. P10? Pitcairn+.
Vega10 und Vega11 werden dann interessant. Ich denke Vega10 wird 4 HBM2 Stacks und Vega11 nur 2 HBM2 Stacks besitzen. Vega11 wird wohl ein GP104 (?) und der eigentliche Greenland werden. Vega10 wird gegen GP100 gerichtet sein. Beide sollten in Richtung Compute gehen. Und falls P10 und P11 mit GDDR5X kommen könnten, sehen wir erst Salvage hierfür. Ich glaube nicht, dass AMD eine Lagerräumung verhindern möchte, außer man zielt auf völlig andere Bereiche ab.
victore99
2016-03-21, 09:44:13
Alternativ kann man hoffen, dass AMD vielleicht eine halbwegs leicht zu konstruierende Architektur gebaut hat. Dann müsste Polaris 11 auf diesen etwa 120mm^2 liegen (vvtl 1 se), P10 bei Project-F-Maßen wäre eine glatte Verdoppelung (2 se).
Vvtl der Sprung von 192 auf 384 bit?
Wenn man einen weiteren P11 drauflegt, ist man bei etwa 360mm^2 für 3 se auf Vega 11, bei 480mm läge V10 mit 4 se.
Vielleicht auch pro Shader Engine 1024bit?
Denn drei Stacks HBM für Vega 10... Klingt schräg, die Speichermenge (12G) passt aber perfekt ins Marketing. Niedriger als Vega 11, aber nicht so klein, dass der Polaris Probleme bereitet.
horn 12
2016-03-22, 06:54:56
Polaris 10 zwischen R9 390X und Fury X wäre dann in etwa Fury Performance
Gut möglich dass P10 somit eine weitere "Nano" Karte wird, in Größe und vielleicht nochmals weniger Verbrauch als Nano bei gleicher, Besserer Performance.
Das Fury X abgelöst wird durch P10 glaube ich weniger, dies macht Vega 10/11 Ende dieses, Anfang nächsten Jahres nach gut 1,5 Jahren Fury(X) Präsenz!
Ravenhearth
2016-03-22, 15:45:22
Wer kauft denn noch eine Fury X, wenn es einen Polaris10 gibt? Selbst wenn der ein wenig langsamer sein sollte, überwiegen die Vorteile.
horn, das ergibt einfach keinen Sinn. Wenn die Nano abgeloest werden soll, fliegen auch Fury und Fury X raus. Die Karten liegen zu eng beieinander, um die Furys irgendwie noch rechtfertigen zu koennen mit ihren 4 GiB, hohem Verbrauch und hohem Preis. Davon mal ab haben die quasi schon keinen interessiert, als sie noch neu waren. Wenn P10 wirklich ueber Hawaii liegt, macht es nur Sinn, Fiji mit auslaufen zu lassen.
Nakai
2016-03-22, 16:40:42
http://semiaccurate.com/2016/03/22/why-did-amd-slip-polaris-and-vega/
Warum wohl? Vll, weil Polaris weniger beeindruckend wird, wenn man die Leistungsdaten und die reale Performance sieht? Weil man die aktuellen Verkäufe nicht schaden möchte? Weil Polaris erstmal als Salvage bzw. OEM kommt? Weil die Retailer erstmal unzufrieden sein werden? :rolleyes:
Erst mit Vega kommt AMD ins Highend-Segment.
P10 ~ Pitcairn*2 ~Hawaii
P11 ~ Capeverde*2 ~ Pitcairn/Tonga
Man sollte Polaris erstmal sehr nüchtern betrachten. In dem Zielsegment wird man sehr positive Effekte nach sich ziehen, aber ich denke die Enthusiasten unter uns werden von Polaris sehr enttäuscht sein.
Unicous
2016-03-22, 16:44:52
Warum verlinkst du einen Artikel, der nichts verrät und spekulierst dann auf seiner Basis wild herum?:confused:
[MK2]Mythos
2016-03-22, 17:12:14
Ich glaube auch nicht so wirklich daran, dass P10 Fiji ersetzen wird.
Ich schätze, dass P10 maximal im Performance Segment wildern wird und die High End Karten auf Basis von Vega erst Ende des Jahres (oder später) kommen werden.
Fiji kann natürlich trotzdem vom Markt verschwinden, das Teil ist einfach unsexy.
Wenn P10 performancetechnisch in die Fußstapfen der 390 tritt und dabei nur die Hälfte verbraucht, wäre das ein ziemlich attraktives Kärtchen und mit einem fairen Preis mit Sicherheit ein Verkaufsschlager.
Das würde ja auch das Mysterium um den verbauten Speicher aufklären, eine Performance ähnlich der 390 würde mit der gleichen Bandbreite eben keine Probleme haben. Zumal die AMD Karten mit DX12 nun einen zweiten Frühling erleben, ich würde jedenfalls definitiv zuschlagen.
Ein rundes Produkt im Gegensatz zur Fiji!
Nakai
2016-03-22, 17:33:17
Warum verlinkst du einen Artikel, der nichts verrät und spekulierst dann auf seiner Basis wild herum?:confused:
Ach, das ist einfach.
Aus dem gleichen Grund, du rhetorische Fragen infolgedessen an mich stellst und Charlie seine Infos hinter einer Paywall versteckt:
Große Ödnis und Profilierungssucht.
Mythos;10979495']Ich glaube auch nicht so wirklich daran, dass P10 Fiji ersetzen wird.
Ich schätze, dass P10 maximal im Performance Segment wildern wird und die High End Karten auf Basis von Vega erst Ende des Jahres (oder später) kommen werden.
Fiji kann natürlich trotzdem vom Markt verschwinden, das Teil ist einfach unsexy.
Wenn P10 performancetechnisch in die Fußstapfen der 390 tritt und dabei nur die Hälfte verbraucht, wäre das ein ziemlich attraktives Kärtchen und mit einem fairen Preis mit Sicherheit ein Verkaufsschlager.
Das würde ja auch das Mysterium um den verbauten Speicher aufklären, eine Performance ähnlich der 390 würde mit der gleichen Bandbreite eben keine Probleme haben. Zumal die AMD Karten mit DX12 nun einen zweiten Frühling erleben, ich würde jedenfalls definitiv zuschlagen.
Ein rundes Produkt im Gegensatz zur Fiji!
Fiji läuft noch bis Ende 2016. Schon allein deswegen wird man P10 eher unterhalb ansiedeln. Habe ich auf dieser Seite schon das Bandbreitenargument gebracht? Nein?
P10 wird nicht die nutzbare Bandbreite haben, um Fiji auszustechen.
Ravenhearth
2016-03-22, 17:45:00
Ist GDDR5X so abwegig?
Ist GDDR5X so abwegig?
Jep Zeiträume passen einfach nicht. Mittlerweile gehe ich von HBM1 bei Polaris10 aus, vermutlich final mit 4GBit Chips.
Tamagothi
2016-03-22, 18:50:25
Bei Pascal GP104 redet man von 10-30% über GTX980 Ti
Hier genau anders herum :ucrazy2:
Selbst wenn P10 nur 2816 SP hat könnte der über FuryX liegen. Wie ja einige wissen schaft dieser seine 4k SP nicht richtig zu nutzen.
Das man mit weniger Recheneinheiten mehr rausholen kann hat man ja bei NV mit Maxwell gesehen :wink:
Ailuros
2016-03-22, 20:33:08
Bei Pascal GP104 redet man von 10-30% über GTX980 Ti
wishful dreaming? Egal ist ja OT.
On topic:
http://semiaccurate.com/2016/03/22/why-did-amd-slip-polaris-and-vega/
Ich hab zwar keinen Zugang zu dem Zeug aber es muesste IMO hauptsaechlich Vega betreffen von dem man wohl innerhalb dies Jahres nichts mehr erwarten sollte.
Unicous
2016-03-22, 20:38:16
Hatte Nakai schon gepostet und ich sehe da jetzt keinen Mehrwert. Wann wie und wohin ist Polaris geslipped? Wird alles nicht beantwortet. Charlie möchte nur, dass wir ihm Geld überweisen. Habe ich keinen Bock drauf.:rolleyes:
Ailuros
2016-03-22, 20:42:25
Hatte Nakai schon gepostet und ich sehe da jetzt keinen Mehrwert. Wann wie und wohin ist Polaris geslipped? Wird alles nicht beantwortet. Charlie möchte nur, dass wir ihm Geld überweisen. Habe ich keinen Bock drauf.:rolleyes:
Wenn Polaris ueberhaupt sehenswert verspaetet werden sollte, macht es mir zu stark Angst ueber den eigentlichen Grund nachzufragen. Ich kann Dir aber sagen dass er fuer Polaris Mitte Q2 hatte.
Unicous
2016-03-22, 20:56:01
Man geht ja allgemein von Computex aus (egal ob paper launch oder nicht). Von daher verstehe ich sein Mitte Q2 nicht, das wäre dann ja Mai.:confused:
AMD sagt seit Ende letzten Jahres iirc von Mitte 2016... klingt für mich daher nach clickbait. Wann Greenland?/Vega zu erwarten war, wusste ja so gut wie niemand vorher. Dass es sich wegen "HBM2" verspäten könnte liegt nahe.
Vega10 ist nicht Greenland. Das Projekt Greenland ist sicherlich schon lange tot.
Unicous
2016-03-22, 21:05:36
Vega10 ist nicht Greenland. Das Projekt Greenland ist sicherlich schon lange tot.
Gut zu wissen. Quelle dafür?:rolleyes:
Schnell noch editiert: So lobe ich mir das.
Gut zu wissen. Quelle dafür?:rolleyes:
Nene, Quelle dafür, dass Vega was mit Greenland zu tun hat.
Unicous
2016-03-22, 21:10:33
Wait? Also ich schreibe, Greenland?/Vega... man beachte das Fragezeichen und du haust raus Greenland ist nicht Vega.
Meine Aussage ist Spekulation, deine ist eine deterministische Aussage, die du noch schnell durch einen zweiten Satz erweitert hast.
Warum Greenland nicht einfach Vega ist und Polaris 10/11 nicht Baffin oder Ellesmere kannst du uns doch gerne erzählen, zumal ersterer ja noch vor wenigen Wochen bei Zauba auftauchte. Du weißt es ja offensichtlich. Und Quellen hast du doch auch immer für deine zahlreichen Behauptungen.:wink:
AffenJack
2016-03-22, 22:10:31
Hatte Nakai schon gepostet und ich sehe da jetzt keinen Mehrwert. Wann wie und wohin ist Polaris geslipped? Wird alles nicht beantwortet. Charlie möchte nur, dass wir ihm Geld überweisen. Habe ich keinen Bock drauf.:rolleyes:
Charlie war auch der Meinung Vega10 kommt definitiv dieses Jahr meine ich, den größeren Slip würde ich eher da sehen. Er muss sich halt mal wieder irgendwie retten. Ansonsten stimme ich dir mit dem Geld zu.
Nene, Quelle dafür, dass Vega was mit Greenland zu tun hat.
Quelle dafuer, dass Greenland ueberhaupt je "existiert" hat?
Was ist das fuer eine Forderung? Sofern mit Greenland immer noch der naechste Top-Chip dieser Gen./Fiji Nachfolger mit HBM gemeint ist, ist ja wohl klar dass das Vega xy ist.
Willst du auch Quellen dafuer, dass Ellesmere/Baffin was mit Polaris zu tun haben?
Quelle dafuer, dass Greenland ueberhaupt je "existiert" hat?
Was ist das fuer eine Forderung? Sofern mit Greenland immer noch der naechste Top-Chip dieser Gen./Fiji Nachfolger mit HBM gemeint ist, ist ja wohl klar dass das Vega xy ist.
Willst du auch Quellen dafuer, dass Ellesmere/Baffin was mit Polaris zu tun haben?
Exakt. Das ist genauso absurd wie Vega10=Greenland zu behaupten. Es gibt keine Quellen. Ehrlichweise ist mir das ? einfach entgangen dabei, sonst hätt ichs nicht gepostet.
Unicous
2016-03-22, 22:53:05
Wie du ja anscheinend jetzt auch mitbekommen hast nehme ich es an, du hingegen schrobst und ich zitiere:
Vega10 ist nicht Greenland.
Ich spekuliere, du gibst vor, es zu wissen. Daher -> Quelle?
Oder brauchst du Nachhilfeunterricht beim Verwenden des Indikativ?:eek:
victore99
2016-03-23, 01:47:05
Könntet ihr das bitte lassen? Es ist klar, keiner hat hier Quellen, oder, falls doch, sollte jene Stante Pede offenlegen.
Fakt ist, wir wissen nicht, was los ist.
Ob Vega 10 = Greenland ist, steht in den Sternen, genau dasselbe Spiel bei Polaris.
Ob man die Generation noch Arctic Islands nennt, sollten (Konjunktiv!) die Inselprojekte weg sein, ist die andere Frage.
Also, Fazit: wir wissen es nicht. Könnt ihr also bitte aufhören, euch aufzublasen wie sonstwas?
Ailuros
2016-03-23, 06:24:03
Wie der codename fuer jeden chip genau lautet kann tatsaechlich wurscht sein. Von mir aus kann auch AMD selber verleugnen dass es Namen wie Greenland, Baffin und Ellesmere je gab, aber diese wurden nicht frei erfunden. Das einzige was im Threadtitel jetzt noch fehlt ist neben Polaris auch noch Vega hinzuzufuegen und ja der Rest kann so stehenbleiben.
Thunder99
2016-03-23, 10:47:14
Vega zum Weihnachtsgeschäft -> Umsatzbringer aber dann hat man nichts mehr in 2017
Vega Sommer 2017 -> keiner will im Sommer zoggn :freak:
Vega in "Back to school saison" -> zu spät
Vega zur Comutex nächstes Jahr -> am wahrscheinlichsten?
Sucht es euch aus ;D. Tippe ja auf Variante 4
Botcruscher
2016-03-23, 10:56:00
Vega zum Weihnachtsgeschäft -> Umsatzbringer aber dann hat man nichts mehr in 2017
Da AMD das Geld ausgeht ist es natürlich ein super Argument.:freak:
Michalito
2016-03-23, 11:06:16
Vega zum Weihnachtsgeschäft -> Umsatzbringer aber dann hat man nichts mehr in 2017
Vega Paperlaunch Dezember 2016, verfügbarkeit Q1Mitte 2017 :biggrin:
Wenn NV 16 FF TSMC mit Pascal Richtung Q3 2016 hinbekommt, ist AMD max. 6 Monate später auch dabei. Amd weiß das sie schnell sein müssen, den Pascal wird sehr schnell von Volta abgelöst werden.
Ailuros
2016-03-23, 12:35:58
Volta wird so schnell Pascal abloesen wie man einen Elephanten in einen Haushalts-Kuehlschrank quetschen kann. Gegen Volta wird Navi antreten.
Sonst was die kommende Generation betrifft: das Dilemma bei AMD fuer Vega war in letzter Zeit hauptsaechlich zwischen Ende 16' und Anfang 17', ergo eigentlich 1 Quartal Unterschied. Im Vergleich zu Pascal waeren dann jegliche Vergleiche ziemlich Markt-spezifisch.
Da NV gerade eine Quadro M6000 24GB angekuendigt hat, koennte auch AMD locker eine FirePRO mit 32GB auflegen einfach nur so fuer's "aetschibaetsch ich hab den groesseren framebuffer" ;D
Da NV gerade eine Quadro M6000 24GB angekuendigt hat, koennte auch AMD locker eine FirePRO mit 32GB auflegen einfach nur so fuer's "aetschibaetsch ich hab den groesseren framebuffer" ;D
Sorry fuer OT, aber AMD hat mit der S9170 laengst eine FirePRO mit 32 GiB (ECC) - ah und btw. mit 1/2 FP64 Perf. Ist halt eine S (Tesla) und keine W (Quadro)...
Tesla/Quadro sind geradezu laecherlich seit Hawaii, aber das bringt halt nichts wenn alle CUDA benutzen.
Ailuros
2016-03-23, 12:47:04
Es war auch nur ein Scherz auf workstation SKUs bezogen. Nichtdestotrotz liegen Pascal Quadros auch nicht gerade um die Ecke zeitlich, sonst waere der M6000 24GB launch auch ziemlich ueberfluessig.
OBrian
2016-03-23, 13:53:16
Volta wird so schnell Pascal abloesen wie man einen Elephanten in einen Haushalts-Kuehlschrank quetschen kann. SCNR, aber: Das würde man in 1-2 Tagen hinkriegen, wenn auch mit Verstoß gegen das Tierschutzgesetz und mit allerlei moralischem Aufschrei ;) Nimm eins der beiden gerade geborenen Elefantenbabys (siehe Presse), um die Körpermasse zu minimieren, schneide es in schmale Streifen und gefriertrockne es (Elefanten dürften wie Menschen zu ca. 70% aus Wasser bestehen), dann pulverisiere es. Dürfte sich problemlos in einen größeren haushaltsüblichen Kühlschrank pressen lassen. Wär ein gutes Projekt für die Mythbusters.^^
Also wann kommt der neue Chip? ;)
Man geht ja allgemein von Computex aus (egal ob paper launch oder nicht). Von daher verstehe ich sein Mitte Q2 nicht, das wäre dann ja Mai.Computex ist dieses Jahr vom 31. Mai bis 4. Juni.
Aber evtl./wahrscheinlich wird nicht auf der Messe vorgestellt, weil die zuviel Berichterstattungskapazitäten bindet. Einige Tage vorher hätte man die alleinige Aufmerksamkeit der IT-Presse.
Könnte auch passen: Vorstellung im Mai (und Auslieferung an OEMs) und Verkaufsstart irgendwann im Juni. Hat AMD ja schon öfter gemacht.
Unicous
2016-03-23, 14:28:14
Das mit dem 31. Mai meinst du jetzt aber nicht ernst, oder?:confused:
Spasstiger
2016-03-23, 15:09:40
Polaris 10 mit 8 GiB GDDR5(X) würde mir schon genügen, wenn die GPU zum Performance-Mainstream-Preispunkt verkauft wird (Grafikkarten unter 300€) und die Energieeffizienz neue Maßstäbe setzt.
Sollte AMD aber einfach Fiji im High-End ersetzen und Grafikkartenpreise von 500-600€ ansetzen, dann kann man nur auf einen Vega-10-Release in diesem Jahr hoffen, welcher zu einer Preiskorrektur führen sollte.
Ailuros
2016-03-23, 19:34:50
SCNR, aber: Das würde man in 1-2 Tagen hinkriegen, wenn auch mit Verstoß gegen das Tierschutzgesetz und mit allerlei moralischem Aufschrei ;) Nimm eins der beiden gerade geborenen Elefantenbabys (siehe Presse), um die Körpermasse zu minimieren, schneide es in schmale Streifen und gefriertrockne es (Elefanten dürften wie Menschen zu ca. 70% aus Wasser bestehen), dann pulverisiere es. Dürfte sich problemlos in einen größeren haushaltsüblichen Kühlschrank pressen lassen. Wär ein gutes Projekt für die Mythbusters.^^
Also wann kommt der neue Chip? ;)
Wenn es sich um einen einzigen chip handeln sollte, kannst Du gerne versuchen Transistoren zu pulverisieren damit das Ding auch in 600mm2/16FF+ reinpasst :biggrin:
mczak
2016-03-23, 19:41:05
Hier mal etwas konkretes, die IP-Level von Polaris 11 (Baffin) und Polaris 10 (Ellesmere) sind bekannt. Leider geht aus dem Source-Code nun nicht mehr die Anzahl Shadereinheiten etc. hervor, das wird nun aus dem atom-bios ausgelesen... Mit Ausnahme der Anzahl crtcs sind also keine konkreten Daten da (Polaris 11 hat 5 crtcs, Polaris 10 6).
kaveri bonaire kabini hawaii topaz tonga carrizo fiji pol 10/11
gmc 7.0 7.0 7.0 7.0 8.0 8.0 8.0 8.5 8.1
ih 2.0 2.0 2.0 2.0 2.4 3.0 3.0 3.0 3.1
smc 7.0 7.0 7.0 7.0 7.1 7.1 8.0 7.1 7.2
dce 8.1 8.2 8.3 8.5 N/A 10.0 11.0 10.1 11.2
gfx 7.1 7.2 7.2 7.3 8.0 8.0 8.0 8.0 8.0
sdma 2.0 2.0 2.0 2.0 2.4 3.0 3.0 3.0 3.1
uvd 4.2 4.2 4.2 4.2 N/A 5.0 6.0 6.0 6.3
vce 2.0 2.0 2.0 2.0 N/A 3.0 3.0 3.0 3.4
Wirklich nicht erwartet habe ich denselben gfx IP-Level wie bei allen VI-Chips - tatsächlich werden die Polaris-Chips im Code einfach als weitere VI-Chips geführt. Da hat sich wohl weniger geändert als ich gedacht habe...
Unicous
2016-03-23, 19:56:26
So viel hineinlesen würde ich da auch nicht. Fiji hat einen "neuen" GMC und liegt bei 8.5. Polaris bei 8.1.
Der Unterschied dürfte eindeutig sein. Bei Fiji gibt es HBM, bei Polaris 10/11 nicht.
mczak
2016-03-23, 20:49:28
So viel hineinlesen würde ich da auch nicht. Fiji hat einen "neuen" GMC und liegt bei 8.5. Polaris bei 8.1.
Der Unterschied dürfte eindeutig sein. Bei Fiji gibt es HBM, bei Polaris 10/11 nicht.
Das ist schon klar, mir geht es auch nur um den gfx-Block. So wie ich das sehe macht das Polaris eben zu einem GCN 1.2 Chip. Aber vielleicht irre ich mich ja...
Locuza
2016-03-23, 20:56:20
Wäre etwas komisch GCN Gen 4 vorzustellen und dann intern aber die gleiche IP für den Block zu verwenden.
Gab es mal Code Updates in der Vergangenheit?
Vielleicht ist das nur initial code, ähnlich wie bei Zen, wo sich auch noch paar Sachen ändern.
Unicous
2016-03-23, 20:57:54
@mczak
Ich denke, dass könnte auch lediglich ein Parameter sein "Chip xy verhält sich so und so bzw. ganz anders als Chip yz, hat Feature-Set abc". Wenn sich beim generellen Aufbau der CU nicht viel ändert, heißt das ja nicht, dass sich gar nichts verändert.:wink:
AnarchX
2016-03-23, 21:10:26
CRTS sind die CUs pro Cluster?
6*6=36 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10963394#post10963394).
mczak
2016-03-23, 21:26:37
CRTS sind die CUs pro Cluster?
6*6=36 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10963394#post10963394).
Nein. Das sind die Display Controller. Der Name ist natürlich museumsreif (crt controller :P).
Alle Konfigurationsdetails des Shader Core (im Treiber gibt's max_shader_engines, max_tile_pipes, max_cu_per_sh, max_sh_per_se, max_backends_per_se, max_texture_channel_caches) werden aus atombios ausgelesen. Gut nicht ganz alle, da gibt's noch 7 weitere Werte die sind aber quasi-konstant für sämtliche GCN 1.2 und auch GCN 1.1 Chip mit einer Ausnahme (die maximale Anzahl von gs-threads, halb so hoch bei Kabini,Kaveri,Stoney).
Man da nicht unbedingt viel daraus lesen. Fuer Stoney gibt es z.B. im Kernel auch keine Unterscheidung zu Carrizo, er hat aber eine neue Version der UVD. Das betrifft aber nur Userspace Code
reaperrr
2016-03-23, 21:58:13
Zu der Tabelle, wofür steht 'ih'?
Ansonsten ist das natürlich schon eher enttäuschend, selbst wenn gfx wirklich nur für die CUs selbst und nicht für z.B. den Command Processor/Scheduler steht, was aber eigentlich unlogisch ist, 'gfx' klingt eher nach dem ganzen Grafikteil.
Also kommen wohl alle Verbesserungen, die über den Node-Shrink hinausgehen, aus dem verbesserten MC (bessere DCC?) und Microcode/PowerManagement-Optimierungen. Wenn es so ist, muss AMD wieder über den Preis gehen :frown:
Dann wird wohl erst Vega richtige Architektur-Verbesserungen bringen. Hoffentlich...:rolleyes:
Unicous
2016-03-23, 22:09:56
Interrupt handler iirc.
edit:
http://linux-gpu-amd-evergreen.googlecode.com/git-history/bddebe461f660909553c960d643780db43a7fffa/drivers/gpu/alga/amd/ABBREVIATIONS
Schon uebel finde ich, dass jetzt selbst im source code die codenamen gemischt sind (Ellesmere/Baffin vs Polaris 10/11). 5 ist auch etwas komische Zahl fuer die unterstuetzten Displays bei P11. Bis auf die APUs hatten meine ich alle neueren (GCN+) GPUs 6
Der Code foerdert uebrigens interessante Details zu Tage, wenn man ihn sich auch endlich mal anschaut :redface: So gibt es z.B. gar keine "ACEs", das sind reine Marketing-Bezeichnungen. Die Hardwarebloecke fuers scheduling werden als MC (1x, Grafik) und MCEs (1-2, Compute) bezeichnet. Eine MCE hat 4 Pipes ("ACEs") und eine Pipe 8 Queues.
Kernel 4.6 sollte uebrigens so gegen Mitte Mai erscheinen, 4.7 dann Mitte-Ende Juli. Bin mal gespannt, ob es fuer day 1 support (upstream) reicht. Kritisch ist auch, dass die Aenderungen vom DAL abhaengig sind.
mczak
2016-03-23, 23:59:41
Schon uebel finde ich, dass jetzt selbst im source code die codenamen gemischt sind (Ellesmere/Baffin vs Polaris 10/11).
Wenn ich das richtig sehe wurden die Ellesmere/Baffin Namen in späteren patches ersetzt durch polaris10/polaris11.
5 ist auch etwas komische Zahl fuer die unterstuetzten Displays bei P11. Bis auf die APUs hatten meine ich alle neueren (GCN+) GPUs 6.
Für Sea Islands / vulcanic islands stimmt das - bonaire, tonga, hawaii, fiji unterstützen alle 6 displays (kaveri 4, carrizo 3, kabini/carrizo 2). Mars/Oland hat allerdings bloss 2. Aber klar, in der Leistungsklasse hatte bisher alles 6 display controller. Bloss, welche Karten genau haben denn das wirklich unterstützt? Natürlich geht bei DP mit einem Port auch mehrere Displays, da wird dann aber entsprechend die Auflösung pro Display kleiner. Ich denke da wurde halt etwas gespart für Funktionalität die 99.99% aller potentiellen Käufer sowieso nicht brauchen werden (die restlichen 0.01 Prozent müssen halt deswegen zum teureren Chip greifen - bei nvidia gehen im Uebrigen sowieso nie mehr als 4 wenn ich das richtig im Kopf habe). Ausserdem soll der Chip ja doch vor allem auch in Notebooks zum Einsatz kommen...
Dennoch haetten sie die Namen einheitlich halten koennen. Warum braucht man im Code zwei namen fuer das selbe Produkt? Klar, ist das nicht kritisch oder unbedingt notwendig, aber schoener waere es schon.
Ich denke nur es ist halt extra/neues Design, wenn es ploetzlich eine DCE mit 5 Ausgaengen gibt.
reaperrr
2016-03-24, 00:58:06
Ich denke nur es ist halt extra/neues Design, wenn es ploetzlich eine DCE mit 5 Ausgaengen gibt.
Die DCE wird heutzutage wohl - wie viele andere Elemente auch - so modular aufgebaut sein, dass der zusätzliche Aufwand geringer ist als die Kosteneinsparung durch die reduzierte Fläche, sonst würden sie es nicht so machen.
Nakai
2016-03-24, 01:24:01
https://cgit.freedesktop.org/~agd5f/linux/log/?h=drm-next-4.7-wip-polaris
drm/amdgpu: change ELM/BAF to Polaris10/Polaris11
*hust*
Die meisten Sachen bezüglich Polaris sind Placeholder-Werte. Ergo noch nichts interessantes.
Unicous
2016-03-24, 01:33:05
Vllt. steht da ja auch noch in näherer Zeit change "GLD" to Vega 10/11. :freak:
Nakai
2016-03-24, 01:57:53
Abwarten...das Powergating bei Polaris wird anscheinend stark überarbeitet sein. Bei Polaris wird per_cu_power_gating "angeboten".
€: Bei Polaris ist sehr viel CopyPaste. Und die interessanten Details sind ausgelassen worden. Naja, womöglich wird Polaris dahingehend nicht viel unterschiedlicher als VI, jedenfalls aus Treibersicht.
Unicous
2016-03-24, 02:27:11
Dass sie das Powergating verbessern wollen und müssen, ist ja schon eine Weile klar. Ich denke hier hat Nvidia auch schon eine Weile klare Vorteile die AMD einfach hat brach liegen lassen. Ähnlich sieht/sah es ja bei den APUs aus. Vllt. schafft es AMD ja bereits bei zusammengefassten CU-Blöcken Adaptive Voltage Scaling zu integrieren, dadurch könnte man mMn auch nochmal ordentlich an Effizienz gewinnen.
http://www.extremetech.com/wp-content/uploads/2015/01/Carrizo-FIVR.jpg
Linkedin :wink:
Project ‘Greenland’; Leading project of Graphic IP v9.0
The initial Baffin PCI IDs include 0x67E0, 0x67E1, 0x67E8, 0x67E9, 0x7EB, and 0x7FF. The Ellesmere IDs are 0x67C0 and 0x67DF.
http://phoronix.com/scan.php?page=news_item&px=AMD-Open-Sourced-Polaris
:confused:
mczak
2016-03-24, 04:33:59
Linkedin :wink:
http://phoronix.com/scan.php?page=news_item&px=AMD-Open-Sourced-Polaris
:confused:
Wieso? Macht doch Sinn. Wurde ja erwähnt, Polaris scheint auf dem selben Grafik-IP Level wie VI (gcn 1.2, oder eben 8) zu sein. Wirkliche GCN-Aenderungen kommen erst mit Vega/Greenland. Da werden wahrscheinlich dann einige enttäuscht sein was die Unterstützung von neuen Features angeht - ich erwarte da jedenfalls nichts mehr für Polaris.
AnarchX
2016-03-24, 07:07:15
The initial Baffin PCI IDs include 0x67E0, 0x67E1, 0x67E8, 0x67E9, 0x7EB, and 0x7FF. The Ellesmere IDs are 0x67C0 and 0x67DF.
http://phoronix.com/scan.php?page=news_item&px=AMD-Open-Sourced-Polaris
Also ist die 36 CU GPU doch Ellesmere / Polaris 10:
Details for Result ID 67DF:C4 (2304SP 36C 1GHz, 16kB L2, 3GB DDR3 5GHz 256-bit) (OpenCL)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10958193#post10958193
Weitere Benchmarks: http://ranker.sisoftware.net/show_device.php?q=c9a598ae99dd9ba1e2d6f097aa87b690e2dfefc9a09dac8ae2dfeaccb489b8 9efb9ea393b5c6fbc3&l=en
-------
Fragt sich nur was das für eine Next Gen GPU ist AMD 67FF:C8:
https://compubench.com/compare.jsp?benchmark=compu15d&did1=28432110&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+67FF%3AC8&D2=AMD+Radeon+R7+260X
Der Leistung nach wieder irgendetwas um die 384SPs... Vielleicht eine lizenzierbare Polaris iGPU für SoCs?
Ailuros
2016-03-24, 07:26:52
Linkedin :wink:
http://phoronix.com/scan.php?page=news_item&px=AMD-Open-Sourced-Polaris
:confused:
Du Spielverderber :biggrin:
AnarchX
2016-03-24, 07:38:55
Linkedin :wink:
Project ‘Greenland’; Leading project of Graphic IP v9.0
[...] it has full capacity of 4096 shader processor,
Also nochmal eine Bestätigung für die 4096SPs in Greenland.
Du Spielverderber :biggrin:
Kann man mehr als 36CUs in Ellesmere/P10 erwarten?
Wo hat larabel überhaupt die PCI IDs her? Die ergeben wenig Sinn. 5 IDs für p11? Und die beiden angeblichen für p10 sind eigentlich zu weit auseinander. Und zwei fallen komplett aus der Reihe (0x07xy
Aus denen ließe sich evtl auf eine xtx oder le schließen. Bin aber gerade nur an Handy :ugly:
In die gfx Version muss man nicht zu viel interpretieren. Wie gesagt, wenn nur Funktionalität in den userspace exposed wird, sind die interessanten Änderungen dann dort. D.h. also Änderungen am den cus sind nicht ausgeschlossen
Ailuros
2016-03-24, 08:15:58
Kann man mehr als 36CUs in Ellesmere/P10 erwarten?
Es ging mir eher um die Codenamen. Sonst kein Kommentar denn ich hab keinen Bock wieder die AMD PR Herren auf dem Buckel zu haben.
Kannst Du bitte mal im Threadtitel neben Polaris noch "Vega" reinstecken? Danke im voraus.
fondness
2016-03-24, 09:47:54
Oder vielleicht ein neuer Thread für Vega? Wäre dann etwas übersichtlicher, vor allem wenn sich bei vega doch etwas ändert.
Locuza
2016-03-24, 10:28:50
Ist es noch zu früh die Pascal-Reihe als Gewinner auszurufen? :redface:
Weil ich sehe schon ähnliche "Probleme" wie zu GCN Gen 1/Kepler Zeiten. (+ etwas anders natürlich)
Polaris nur mit DX12 FL12.0?
Vega vielleicht mit DX12 FL12.1?
Vega 10 verwendet HBM und ein DP:SP-Ratio von 1:2.
GP104 wird vermutlich bei der Gaming-Leistung ähnlich dastehen, aber GDDR5 verwenden und ein schwaches DP:SP-Ratio besitzen, am Ende also günstiger und effizienter für Nvidia?
GP100 ist dabei ein echtes HPC-Monster, wo Vega10 nicht gänzlich ankommen wird. Dann braucht es Vega11 und der ist für AMD hoffentlich nicht zu weit entfernt.
Daneben denke ich das AMD wieder nichts in Richtung VP(9) gemacht hat.
Bin dagegen, fuer Vega einen neuen Thread zu machen. Ist imho dieselbe Generation und teils wird dann wieder quer geschrieben und gewinnen tut man dadurch wenig. Sind ja hier eh Spekulationen zum Launch wird es naturlich wieder gesonderte (P)Review Artikel geben.
Laut dem Bild von der Polaris Praesentation auf dem RTG Summit
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55341&stc=1&d=1458809520
ist der Command Processor (also die ME) 'neu', vielleicht findet man da im code doch noch was (glaube ich aber eher nicht). Ebenso sollen Geometry Processor und die CUs 'neu' sein. Also wurde irgendetwas daran gemacht. Wie gesagt, das betrifft niemals alles den kernel-space bzw. haengt natuerlich auch teilweise in der firmware, die nicht fuer uns einsehbar ist (blob). Polaris hier daher saemtliche Verbesserungen abgesehen von DCE und UVD/VCE abzusprechen halte ich fuer falsch.
Ailuros
2016-03-24, 10:38:11
Man braucht uebrigens den neuen MC u.a. auch fuer solches Zeug: https://www.guru3d.com/news-story/micron-starts-sampling-gddr5x-memory-to-customers.html
M4xw0lf
2016-03-24, 11:21:09
Ist es noch zu früh die Pascal-Reihe als Gewinner auszurufen? :redface:
Weil ich sehe schon ähnliche "Probleme" wie zu GCN Gen 1/Kepler Zeiten. (+ etwas anders natürlich)
Kepler hat vielleicht kommerziell gegen GCN1 gewonnen, aber sonst? :confused:
Locuza
2016-03-24, 11:32:22
Also ich finde aus Unternehmenssicht ist ein kommerzieller Sieg schon ganz nice.
Neben Market-Share, wo alles zusammen verbunden ist.
Darum geht es hier aber nicht, dafuer gibt es Threads wie den "wie gut/schlecht steht es um AMD" ;p
Was meinen die auf ihren LinkedIn Profilen eigentlich immer mit "SOC"?
it has full capacity of 4096 shader processor, along with whole new SOC v15 architecture.
[...] tackle all new issues pop up in IP and SOC, bring up [...] legacy feature in SOC, porting IP level test cases and verifying functionality on SOC level.
[...]negotiating project schedule with IP and SOC team
[...] finished graphic IP deployment into SOC [...] Adding SOC level test cases to verify scenario that could only be covered in SOC.
Ailuros
2016-03-24, 11:37:46
Also ich finde aus Unternehmenssicht ist ein kommerzieller Sieg schon ganz nice.
Neben Market-Share, wo alles zusammen verbunden ist.
Aus meiner Laien-Perspektive wuerde ich schon wagen zu behaupten dass AMD die elegantere Architektur hat mit GCN. Von dem abgesehen ist das ja alles schoen und gut auf Papier, aber die eventuellen Abstaende zu insgesamtem Marktanteil bzw. Umsatz sind dann schon gross. Wenn man bei den letzten zwein nichts erreicht ist dann wohl ein ziemlich romantischer Sieg, aber ich bin mir sicher dass jegliches Unternehmen eher beim Marktanteil lieber "gewinnen" wuerde.
Hübie
2016-03-24, 11:39:17
Es ist eben auch nur für den einzelnen Kunden toll, wenn er eine 7970 GHz heute noch nutzen kann. ;)
Locuza
2016-03-24, 12:05:33
Mit Polaris + Vega und Pascal geht es in die nächste Runde.
Mobile (Effizienz), Enthusiasten (Features/Leistung), HPC (Alles).
Wenn Polaris mit DX12 FL12.0 ankommt und Nvidia und Intel mit CR/ROVs Druck machen, dann weiß man schon welche Gruppe AMD nicht gewinnen wird.
Bei Vega10 liegt die Befürchtung nahe, dass es ein bisschen wie bei Tahiti enden wird.
Kein Primus in einer Klasse, sondern eine GPU die zwei Märkte beliefert und jeweils den kürzeren zieht.
Ich habe das Gefühl das Nvidia wieder eine bequeme Situation vor sich haben wird.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.