PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

tm0975
2016-05-10, 16:35:44
In welchen hochvolumigen Geräten steckte in letzter Zeit AMD Hardware? Ich denke, hier ist jede Diskussion unangebracht.


apple


Jetzt ein Produkt für den nächsten Zyklus zu bringen ist nicht clever.

die zeit ungenutzt zu lassen und den fortschritt zu verschlafen ist also clever? zum ende der sommerferien kommen jedes jahr die neuen modelle. amd macht es komplett richtig, wenn sie hier angreifen und mit vielen kleinen chips den marktanteil erhöhen. oem kann ganz schnell ein ordentliches massengeschäft werden. das ist nicht in 2 wochen produziert. drum ist von polaris auch noch nix zu sehen. notebooks haben derzeit prio bei amd.

Complicated
2016-05-10, 16:41:58
Benutzt AMD eigentlich ueberhaupt MXM Module oder etwas eigenes? Sind NV/AMD oder ueberhaupt AMD mit neueren AMD Loesungen austauschbar? Die Kuehlung wird man anpassen muessen etc. Im OEM Desktop sollte das dagegen nicht so eng sein. Neue PCIe Karte rein und fertig.Ja MXM gibt es auch bei AMD
With a massive 4GB of 256bit wide GDDR5 memory and 3277 GFLOPs of floating point performance, the R9 M295X MXM is one of the highest performing GPUs available today. Other members of the R9 MXM family can be found in our Shop including the lower cost R9 M270X MXM.

Armaq
2016-05-10, 17:07:53
apple




die zeit ungenutzt zu lassen und den fortschritt zu verschlafen ist also clever? zum ende der sommerferien kommen jedes jahr die neuen modelle. amd macht es komplett richtig, wenn sie hier angreifen und mit vielen kleinen chips den marktanteil erhöhen. oem kann ganz schnell ein ordentliches massengeschäft werden. das ist nicht in 2 wochen produziert. drum ist von polaris auch noch nix zu sehen. notebooks haben derzeit prio bei amd.
Xbox One / PS4 - du hast meinen Post falsch interpretiert ;)

Schnoesel
2016-05-10, 17:41:48
Der Volumenmarkt sind sicher nicht Grakas mit einem Preispunkt 400€ + und genau da greift AMD an. Ob sich das lohnt wird man abwarten müssen. Für mich selbst ist P10/11 nix aber da gibt es sicher massig Leute da draußen die mit ner R9280(x) oder R7270(x) updaten möchten.

Und schau dir doch mal die Komplett PCs unter 1000€ an. Da steckt keine 400€ Graka drin.

w0mbat
2016-05-10, 18:53:11
Ich will unbedingt von meiner HD7870 wechseln und wenn die GTX 1070 über 400€ kostet wird es wohl Polaris 10 werden.

tm0975
2016-05-10, 18:59:42
Unter 400 halte ich für utopisch. Wahrscheinlich werden schon unter 500 € nicht gleich erreicht werden.

Gipsel
2016-05-10, 19:13:06
Unter 400 halte ich für utopisch. Wahrscheinlich werden schon unter 500 € nicht gleich erreicht werden.
Ist doch egal. Entscheidend ist, das Polaris wohl Lösungen unter 400€ (und auch unter 300€ und mit Polaris 11 auch noch locker unter 200€) bieten wird.

Flusher
2016-05-10, 19:14:09
Und du glaubst ernsthaft das die OEM wegen wenigen Monaten/Wochen nicht auch schauen was von NV kommt?

Ja - weil NVIDIA Mainstream Karten definitiv nicht in ausreichender Stückzahl zur Back-to-School Phase wird liefern können.


Zudem bei den OEM in der regel eh NV drin ist.

Es wird das verbaut, was rechtzeitig da ist, und das beste Paket aus Stromverbrauch, Performance und Preis liefert - GP104 kannst du daher vergessen und GP106 wird zu spät erscheinen.


Es ist viel mehr nur eine Ausrede von AMD, weil sie nicht alles sofort bringen können wie es eben NV macht.


Wann kommt GP106 noch mal?


Zudem die Aussage schon purrer Wahnsinn ist: wir warten mit den Retail Karten um alles zeitgleich bringen zukönnen :freak:

Du siehst das falsch - die Devise ist eher "Wir warten bis wir ausreichende Lieferbarkeit haben um dann die Bombe auf einen Schlag platzen zu lassen"

Die Vergangenheit hat mehrfach bewiesen, dass Paperlaunch Produkte im Markt nicht angenommen werden, auch nach Erreichung einer brauchbaren Lieferbarkeit.

horn 12
2016-05-10, 19:31:01
Nun, AMD scheint überrascht von GTX 1080 und vor Allem zwecks Ihres OC Wunder
Somit prüft, schiebt AMD womöglich Vega 10 vor in den Monat Oktober 2016

Ein genialer Streich um nun, Weinge Wochen vor dem Start der GTX 1080 die Nvidia Kundschaft in Unsicherheit wiegen zu lassen, da vor Alle auch HBM 2 mit von der Partie ist bzw. ins Spiel mit eingebunden wird.

Vor / Mitte bis Ende Juni wird die Lieferbarkeit nicht rosig sein,- und falls AMD echt liefern kann Mitte Oktober,- wäre ein Warten teilweise echt angebracht!
Nur gut dass mir die Sapphire Fury noch ausreicht.

mboeller
2016-05-10, 19:39:40
der Notebook-Markt ist inzwischen, soweit ich weiß viel größer als der Desktop-Markt und genau da greift AMD mit Polaris 10 und 11 an. Pitcairn gab es auch als Notebook-Variante. z.B.:
http://www.notebookcheck.com/AMD-Radeon-R9-M290X.108642.0.html

Wenn Polaris 10 wirklich doppelt so groß und 35% höher getaktet wird darf man incl. Architekturverbesserungen schon eine gute Performance erwarten.

[MK2]Mythos
2016-05-10, 19:59:02
Nun, AMD scheint überrascht von GTX 1080 und vor Allem zwecks Ihres OC Wunder
Somit prüft, schiebt AMD womöglich Vega 10 vor in den Monat Oktober 2016

Ein genialer Streich um nun, Weinge Wochen vor dem Start der GTX 1080 die Nvidia Kundschaft in Unsicherheit wiegen zu lassen, da vor Alle auch HBM 2 mit von der Partie ist bzw. ins Spiel mit eingebunden wird.

Vor / Mitte bis Ende Juni wird die Lieferbarkeit nicht rosig sein,- und falls AMD echt liefern kann Mitte Oktober,- wäre ein Warten teilweise echt angebracht!
Nur gut dass mir die Sapphire Fury noch ausreicht.

Meine Güte horn, denkst du ernsthaft, dass auch nur ein einziger Kunde jetzt überlegt, statt der GTX 1080 im Juni lieber ein AMD Produkt Ende 2016 Anfang 2017 zu kaufen?!
Und noch was, schaffst du es in einem einzigen Posting auch mal, nicht deine Fury zu erwähnen?

fondness
2016-05-10, 20:01:19
Die IMO sehr optimistische Spekulation von 3DCenter verbreitet sich wie ein Lauffeuer :D
http://videocardz.com/59808/amd-vega-gpu-allegedly-pushed-forward-to-october

Sunrise
2016-05-10, 20:07:14
Zudem bei den OEM in der regel eh NV drin ist.
Apple Macbook Pro
Apple iMac
Apple Mac Pro
-> AMD

Vor allem Polaris 11 wird auch weitere OEMs ansprechen. Ebenso Polaris 10. NV hat in diesem Bereich absolut nichts Neues und kann auch aus Featuresicht nicht mithalten.

Ausser Apple die bestimmt die Polaris GPU einsetzten werden.
Wenn du bereits eine gesunde Installationsbasis bei Apple hast, fängst du dort an und baust den Marktanteil sukzessive aus. Das betrifft also nicht exklusiv Apple, sondern alle OEMs.

Es ist viel mehr nur eine Ausrede von AMD, weil sie nicht alles sofort bringen können wie es eben NV macht.
NV hat in den wichtigen umsatzträchtigen Segmenten in denen Polaris positioniert wird exakt NICHTS Neues vorgestellt. Es wurde weder GP106, noch GP107/GP108 vorgestellt.

GP100 läuft komplett außen vor, da unbezahlbar für nicht-HPC-Kunden. Bleibt noch GP104, der überhaupt relevant ist. Schon ziemlich beeindruckend, was NV so alles vorgestellt hat!

Zudem die Aussage schon purrer Wahnsinn ist: wir warten mit den Retail Karten um alles zeitgleich bringen zukönnen :freak:
Und du denkst dass im Hintergrund die Räder stillstehen oder was?

Mal davon ab, dass Back-to-School extrem wichtig ist, der Sommer interessiert eh keine Sau, und wenn dann noch Vega im Oktober kommt, bin ich mal gespannt was NV macht.

Langlay
2016-05-10, 20:27:03
Die IMO sehr optimistische Spekulation von 3DCenter verbreitet sich wie ein Lauffeuer :D
http://videocardz.com/59808/amd-vega-gpu-allegedly-pushed-forward-to-october

Ist halt schon optimistisch wirklich dran glauben das ich mir den kleinen Vega zu Weihnachten gönnen kann.

Aber irgendwo würde es auch Sinn machen.

Es wurde ja früher gesagt AMD ist Monate vor NV weil die Jungs bei GF mit ihrem Prozess schneller fertig werden als die Jungs von TSMC. Jetzt ist Nvidia doch ebenfalls recht früh dran. Ebenfalls wurde gesagt Polaris kommt von GF und Vega von TSMC. Wenn man jetzt annimmt das Vega wirklich bei TSMC gefertig wird. Und GF104 jetzt schon in brauchbaren Zahlen vom Band läuft. Ist es halt auch nicht ausgeschlossen das die Jungs von TSMC jetzt einfach schneller auf einen brauchbaren Level beim Prozess angekommen sind als erwartet. Und AMD somit ebenfalls früher die Möglichkeit hat Produkte mit diesem Prozess zu bringen.

fondness
2016-05-10, 20:29:57
Für mich nur sehr schwer vorstellbar. Und zwar weniger wegen der GPU. Aber nach allem was man bis jetzt hören konnte ist HBM2 vor 2017 unbezahlbar. Wenn, dann kann ich mir nur geringe Stückzahlen zu Maketingzwecken vorstellen.

Sunrise
2016-05-10, 20:31:46
Ich spekuliere ja schon die ganze Zeit damit, dass Vega 10 GDDR5X hat. Vielleicht etwas mutig, aber HBM2 wird 2016 wohl einfach zu teuer werden.

Auf der anderen Seite hat AMD ja Spielraum, weil NV mit der 1080 ja ordentlich beim Preis vorgelegt hat. Sollte also schon irgendwie machbar sein.

Ravenhearth
2016-05-10, 20:33:51
Zumal HBM2 bei max. 512 GB/s Bandbreite auch nicht unbedingt notwendig ist und GDDR5X kostengünstiger die gleiche Bandbreite erreichen könnte. Wenn man HBM2 nutzt, dann hat das andere Gründe als Performance.

Sunrise
2016-05-10, 20:37:05
Zumal HBM2 bei max. 512 GB/s Bandbreite auch nicht unbedingt notwendig ist und GDDR5X kostengünstiger die gleiche Bandbreite erreichen könnte. Wenn man HBM2 nutzt, dann hat das andere Gründe als Performance.
Richtig, vor allem sollte unter 14LPP bei der Polaris-Effizienz der Stromverbrauch kein Argument pro HBM2 sein, denn das scheint AMD auch mit 8GB GDDR5 hinzubekommen. 4096 ALUs passen da problemlos in etwa 350mm^2, wenn P10 schon 2560 bei 230mm^2 hat. AMD wird auch die DCC weiter verbessert haben.

Und dann benötigt NV zwingend GP102, sofern AMD bei der Taktbarkeit nicht vollkommen versagt (was ich bei Vega nicht glaube).

dargo
2016-05-10, 20:38:07
Die IMO sehr optimistische Spekulation von 3DCenter verbreitet sich wie ein Lauffeuer :D
http://videocardz.com/59808/amd-vega-gpu-allegedly-pushed-forward-to-october
Schön wäre das schon. Im Sommer brauche ich keine neue Grafikkarte. Im/vor dem Winter schon eher.

Langlay
2016-05-10, 20:54:28
Schön wäre das schon. Im Sommer brauche ich keine neue Grafikkarte. Im/vor dem Winter schon eher.

Ich auch, und wenn Vega10 Salvage wieder nur ~10% hinter dem vollen Vega10 wäre, wird das glaub ich ne richtig gute Karte in meinem Preisbereich (~350-400€). Mit meiner R9 290 bin ich jetzt auch nach 2.5 Jahre immernoch sehr zufrieden und bei der war die Situation damals ähnlich.

R.I.P.
2016-05-10, 21:22:36
http://abload.de/img/slwc2kziesfr.png (http://abload.de/image.php?img=slwc2kziesfr.png)

Hat jemand diese Folie schon gepostet (GF 14nm)?

Unicous
2016-05-10, 21:29:20
Die Folie ist zumindest nicht "neu" und man kann die Werte meist als "oder" deklarieren.

Skysnake
2016-05-10, 21:53:03
Hat jemand diese Folie schon gepostet (GF 14nm)?
Für was soll das sein?

Logik?

Wenn ja ist das halt so eine Sache.

1. Ist das wohl die absolute Worst-Case-Corner bei 28HPP und wohl auch bei 14nm.
2. Das gilt wohl für CMOS Logik. Sollte man auf jeden Fall im Hinterkopf behalten
3. FMax ist nicht das Maximum der Transistoren sondern wenn dann der Gatter mit einem Fanout von X.
4. Verwenden nVidia und AMD überhaupt die Libs von GF/TSMC? ;)

Kurz um, derartige Folien sagen erstmal nicht viel darüber aus, was man an Taktraten bei einem AMD/nVidia sehen wird.

Sunrise
2016-05-10, 21:57:54
@Skysnake:
Es zeigt zumindest relative Vergleichbarkeitswerte innerhalb GF. Ob direkt auf komplexe ASICs übertragbar oder nicht, schaut man zu NV, scheint hier einiges an Potenzial vorhanden relativ zu älteren Planar-Prozessen.

Denn der Samsung- und TSMC-Aufbau scheint sehr sehr ähnlich zu sein, weshalb es ja ein Gerichtsurteil gab. Will sagen, geht es bei TSMC, sieht das gut aus für 14LPP.

Dennoch hast du natürlich Recht, NV nutzt andere Libs als die von AMD, daher sind diese Werte erstmal schön, aber jetzt zu rechnen wäre etwas blauäugig.

AlphaNUSS
2016-05-10, 22:00:59
Ist eigentlich sicher, ob Vega 10 auch HBM 2 nutzen wird? Wenn ja, wird das nicht etwas teuer um in dem Preisbereich von ~400€ zu landen?
Ich frage mich auch, wie sich das alles einordnen soll:
Polaris 10 mit Gddr5 und 390x Leistung für ~300€ und der kleine Vega 10 mit HBM2 und voraussichtlich über 980ti Leistung für ~400€. Da wäre dann ja eine riesige Lücke, was Leistung angeht.

Sunrise
2016-05-10, 22:06:28
Ist eigentlich sicher, ob Vega 10 auch HBM 2 nutzen wird? Wenn ja, wird das nicht etwas teuer um in dem Preisbereich von ~400€ zu landen?
Ich frage mich auch, wie sich das alles einordnen soll:
Polaris 10 mit Gddr5 und 390x Leistung für ~300€ und der kleine Vega 10 mit HBM2 und voraussichtlich über 980ti Leistung für ~400€. Da wäre dann ja eine riesige Lücke, was Leistung angeht.
Vega 10 würde um GP104-400 positioniert werden, also der 1080, da reden wir von deutlich über 500 EUR. Das wäre preislich sicher zu machen, ich spekuliere aber mit GDDR5X.

Kommt vieles darauf an, ob AMD den Chip wirklich nur im Gaming- und Workstationmarkt sieht oder ob hier Bandbreite auch für HPc zur Verfügung stehen soll, weil man den Chip dann auch deutlich teurer verkaufen könnte.

AlphaNUSS
2016-05-10, 22:07:54
Vega 10 würde um GP104-400 positioniert werden, also der 1080. Das wäre preislich sicher zu machen, ich spekuliere aber mit GDDR5X.

Dann müsste Polaris 10 ja mit der 1070 konkurieren. Also deutlich mehr als 390x Leistung bringen.Ich hoffe AMD gibt beim Polaris Launch auch bekannt, wann mit Vega 10 zu rechnen ist.

Dino-Fossil
2016-05-10, 22:22:30
Wenn Polaris 10 wirklich doppelt so groß und 35% höher getaktet wird darf man incl. Architekturverbesserungen schon eine gute Performance erwarten.

Auch Polaris 11 kann da einiges reißen.
Auf 14nm und inklusive der von AMD angedeuteten Architektur-Verbesserungen bekommt man wohl für wenig Verbrauch locker die Leistung meiner ollen 7850 - für mobile ist das gar nicht so schlecht, zumal es ja eher die Einstiegsklasse ist.

Brillus
2016-05-10, 22:27:07
Dann müsste Polaris 10 ja mit der 1070 konkurieren. Also deutlich mehr als 390x Leistung bringen.Ich hoffe AMD gibt beim Polaris Launch auch bekannt, wann mit Vega 10 zu rechnen ist.

Wenn Vega 10 Full mit GP104 Full spielt, warum dann nicht salvage mit salvage?

horn 12
2016-05-10, 22:35:41
Vega wird mit HBM-2 kommen, AMD ist nicht nur mal schnell ein Spitzen-Vorreiter und bringt gutes Jahr danach einen Rückschritt, zudem die Vorteile bei HBM überwiegen war Kartenlänge, Effizienz und Speicherbandbreite anbelangt
Mit Fiji wars eben nicht anders möglich, Ohne Kosten/ Verfahren in die Höhe zu treiben.
Somit sollte sicher sein dass AMD die HBM Linie weiterfährt!

Alles Andere wäre enttäuschend und nicht AMD´s Strategie geschuldet.

r3ptil3
2016-05-10, 23:05:29
Vega wird mit HBM-2 kommen, AMD ist nicht nur mal schnell ein Spitzen-Vorreiter und bringt gutes Jahr danach einen Rückschritt, zudem die Vorteile bei HBM überwiegen war Kartenlänge, Effizienz und Speicherbandbreite anbelangt
Mit Fiji wars eben nicht anders möglich, Ohne Kosten/ Verfahren in die Höhe zu treiben.
Somit sollte sicher sein dass AMD die HBM Linie weiterfährt!

Alles Andere wäre enttäuschend und nicht AMD´s Strategie geschuldet.

Ich bin zwar nicht voll auf dem laufenden, aber das stand doch sowieso nie zur Frage, dass AMD kein HBM mehr verwenden wird für Vega...

Die Produktion von HBM2 ist jetzt einfach noch nicht bereit dafür, das war doch so oder? Und trotzdem die Zukunft liegt ja anscheinend sowieso nicht bei HBM, da die Effizienz mit den kommenden Generationen keinen Vorteil mehr aufweisen wird, gemäss Nvidia...

Flusher
2016-05-10, 23:14:32
Ich spekuliere ja schon die ganze Zeit damit, dass Vega 10 GDDR5X hat. Vielleicht etwas mutig, aber HBM2 wird 2016 wohl einfach zu teuer werden.

Auf der anderen Seite hat AMD ja Spielraum, weil NV mit der 1080 ja ordentlich beim Preis vorgelegt hat. Sollte also schon irgendwie machbar sein.

Wieso sollte HBM2 für 2016 zu teuer sein, während AMD HBM1 bereits in 2015 eingesetzt hat?

AnarchX
2016-05-10, 23:18:14
Wieso sollte HBM2 für 2016 zu teuer sein, während AMD HBM1 bereits in 2015 eingesetzt hat?
Mehr Stacks, höherer Takt und ein Mitbewerber der den HBM2 auf $10K-HPC-GPUs einsetzt und zu entsprechenden Preis die wohl noch geringe Produktionsmenge abnimmt.

Trotz allem sollte wohl Vega10/Greenland Ende 2016/Anfang 2017 mit HBM2 in größerem Umfang erscheinen können. Fraglich ob GDDR5X für AMD je eine Option war.

Dural
2016-05-10, 23:26:45
Wie so wird den ein forum gerücht in die news genommen?
Aber ich bin ja gespannt was im oktober kommt, oder eben nicht ;)

Tamagothi
2016-05-10, 23:45:48
Mehr Stacks, höherer Takt und ein Mitbewerber der den HBM2 auf $10K-HPC-GPUs einsetzt und zu entsprechenden Preis die wohl noch geringe Produktionsmenge abnimmt.

- 4-Hi bleibt 4-Hi egal ob HBM 1 oder HBM 2.
- Höhere Taktraten sollten auch nicht das Problem sein.
- Mitbewerber benutzt 8-Hi und die sollten teurer sein.

Der einzige Grund den es gäbe ist einfach die Produktionsmenge von HBM 2.

Asmi Meo
2016-05-10, 23:51:26
- 4-Hi bleibt 4-Hi egal ob HBM 1 oder HBM 2.
- Höhere Taktraten sollten auch nicht das Problem sein.
- Mitbewerber benutzt 8-Hi und die sollten teurer sein.

Der einzige Grund den es gäbe ist einfach die Produktionsmenge von HBM 2.
Die HBM2 Stacks sind größer und höher, auf den Fiji Interposer würden die nicht passen. SK Hynix will auch 1,6 Ghz bieten.

N0Thing
2016-05-11, 00:35:33
Wenn Vega kleiner ausfällt als Fiji, dann sollte doch genug Platz auf dem Interposer sein. Oder man nimmt einen etwas größeren Interposer, dessen Kosten sollten eh die kleinsten von allen Faktoren sein.

Die HBM2-Chips sollten dank der Produktion bei Samsung und SK Hynix eigentlich auch keine Mangelware sein, oder?

AlphaNUSS
2016-05-11, 01:02:25
Wieso sollte HBM2 für 2016 zu teuer sein, während AMD HBM1 bereits in 2015 eingesetzt hat?

Weil der kleine Vega eigentlich die 390 ersetzen sollte und in der 350-450€ Preisregion HBM2 wahrscheinlich zu teuer ist. Ende Mai sind wir hoffentlich schlauer.

OBrian
2016-05-11, 01:17:01
Wieso wird denn ein Forum-Gerücht in die News genommen?
Aber ich bin ja gespannt, was im Oktober kommt, oder eben nicht ;)
frag ich mich auch, vor allem als Fakt und nicht als "in einem Internetforum behauptet irgendwer" :rolleyes: Aber das wird ja alle Nasenlang so gemacht. Deswegen finde ich das auch ziemlich unverantwortlich, so einen Scheiß loszutreten, aus Geltungssucht oder weswegen auch immer.

Wer weiß, wann was kommt, ist verpflichtet, die Klappe zu halten, setzt sich sonst einer Zivilklage aus. Wer trotzdem dagegen verstößt, der kann auch gleich alles rausposaunen.

D.h. wenn solche halbgaren Andeutungen gemacht werden, ist es entweder ein Fake irgendeines 16-jährigen Kiddies, oder es ist eine gezielte PR-Aktion eines Herstellers. Letzteres gäbe es aber wohl nicht hier im Forum, sondern in einem englischsprachigen.

Dritte Möglichkeit: Derjenige, der sowas postet, glaubt es selbst, weil es er von jemandem so gehört hat. Aber diese "Quelle" hat ihn einfach nur verarscht, oder mißbraucht ihn für so eine PR-Aktion.




Das Ganze jetzt ist doch ein riesiger Propagandakrieg, mich wundert nur, daß AMD und Nvidia den alleine bestreiten und nicht auch noch Putin und Erdogan drin vorkommen^^

Wieso warten wir nicht einfach mit der Beurteilung ab, bis was bei den Händlern lieferbar auftaucht? Vorher kann man doch eh nichts machen.

iuno
2016-05-11, 01:58:16
Ich finde das ganz interessant, vielleicht fasse ich es aber auch etwas falsch auf:
https://patchwork.freedesktop.org/series/6753/

In dem neuen Code geht es darum, die DMAs* fuer Textur/Kopieroperationen zu nutzen. Fuer Tonga wird dadurch ein Performancezuwachs von 0-80% genannt, fuer APUs sogar teilweise Verschlechterung. Grund: die DMAs koennen keine DCC!
Vielleicht hat AMD daran fuer Polaris was gemacht. Wenn die DCC auch fuer DMA Kopiervorgaenge greift und die DMAs derart effizienter arbeiten, koennte ja ordentlich Bandbreite eingespart werden, wohl auch in "last-gen APIs". Ich waere sonst bisher davon ausgegangen, dass die DMAs generell benutzt werden, aber eben nur mit DX12/Vulkan/OpenCL auch wirklich asynchron arbeiten :confused: Als Alternative bzw. vorherige Zustaendigkeit fuer diese Operationen wird aber die "3D Engine" genannt. Natuerlich kann ich nicht sagen, ob das ueberhaupt bei den WIndows Treibern auch so zutrifft oder vielleicht schon laenger/immer anders gemacht wird. Das kann ich mir aber irgendwie schlecht vorstellen, sonst haette ja die DCC bei Tonga nie greifen duerfen. Der erste Punkt (Speku fuer Polaris) wuerde aber unabhaengig davon gueltig bleiben.

DMA=direct memory access, sorgen vereinfacht gesagt nicht fuer ein komplettes Blockieren waehrend Speicherzugriffen. Seit CI (Bonaire, Hawaii) sind davon 2 pro GPU vorhanden. Die dienen, wie wohl schon aus dem Beitrag hervorgeht dazu, Kopieroperationen durchzufuehren. Mit den neuen APIs sind sie mit copy queues "ansprechbar". Hier im Blockdiagramm sind sie etwa rechts unten eingezeichnet:
http://cdn.wccftech.com/wp-content/uploads/2013/10/Hawaii-Block-Diagram.jpg

mczak
2016-05-11, 03:10:31
sonst haette ja die DCC bei Tonga nie greifen duerfen.
Der "Normalfall" für DCC beinhaltet ja keine Kopieroperationen - die Color-RTs werden komprimiert, spart also ROP-Bandbreite. Auch wenn das RT dann als Textur verwendet wird spart man Bandbreite.
Dass da DCC auch bei "normalen" Texturen funktioniert die aus der App hochgeladen werden ist eher ein Nebeneffekt. Wenn die in einem komprimierten Format vorliegen funktionert DCC eh nicht.

Gipsel
2016-05-11, 03:47:06
Die HBM2 Stacks sind größer und höher, auf den Fiji Interposer würden die nicht passen. SK Hynix will auch 1,6 Ghz bieten.Dass die Höhe größer ist, passt eher besser. HBM2 spezifiziert die Höhe des Stacks praktisch identisch zu einer bevorzugten Waferdicke für größere Logikchips (wie GPUs oder CPUs). Die ursprüngliche HBM-Spec schrieb das noch nicht vor. Deshalb sind z.B. bei Fiji die HBM-Stacks minimal flacher als die GPU, was natürlich suboptimal ist. Und der Fiji-Interposer passt bei Polaris Vega sowieso nicht, man benötigt also in jedem Fall einen neuen :rolleyes:.

fondness
2016-05-11, 08:42:07
Fraglich ob GDDR5X für AMD je eine Option war.

Wenn Vega10/Greenland auf eine INterposer mit einer Zeppelin CPU soll, dann ist GDDR5X sicher keine Option.

R.I.P.
2016-05-11, 08:50:43
frag ich mich auch, vor allem als Fakt und nicht als "in einem Internetforum behauptet irgendwer" :rolleyes: Aber das wird ja alle Nasenlang so gemacht. Deswegen finde ich das auch ziemlich unverantwortlich, so einen Scheiß loszutreten, aus Geltungssucht oder weswegen auch immer.

Wer weiß, wann was kommt, ist verpflichtet, die Klappe zu halten, setzt sich sonst einer Zivilklage aus. Wer trotzdem dagegen verstößt, der kann auch gleich alles rausposaunen.

D.h. wenn solche halbgaren Andeutungen gemacht werden, ist es entweder ein Fake irgendeines 16-jährigen Kiddies, oder es ist eine gezielte PR-Aktion eines Herstellers. Letzteres gäbe es aber wohl nicht hier im Forum, sondern in einem englischsprachigen.

Dritte Möglichkeit: Derjenige, der sowas postet, glaubt es selbst, weil es er von jemandem so gehört hat. Aber diese "Quelle" hat ihn einfach nur verarscht, oder mißbraucht ihn für so eine PR-Aktion.




Das Ganze jetzt ist doch ein riesiger Propagandakrieg, mich wundert nur, daß AMD und Nvidia den alleine bestreiten und nicht auch noch Putin und Erdogan drin vorkommen^^

Wieso warten wir nicht einfach mit der Beurteilung ab, bis was bei den Händlern lieferbar auftaucht? Vorher kann man doch eh nichts machen.

Ich muss dir sagen, ich finde im Moment alles lustig, oder doch nicht...
Sollte es dich interessieren, ich bin 38 Jahre alt und glaube doch daran, dass alles (was extrem wenig war) was mir gesagt wurde wahr ist, oder zumindest zweifle ich nicht daran, dass ich nicht verarscht werden sollte.

Dass meine Aussagen, eine ganze News wert waren, hat mich ziemlich erschreckt, vor allem, weil das Internet jetzt voll von dieser "Neuigkeit" ist. :eek:

Passen würde es auf jedem Fall. Samples von Vega scheinen schon im Umlauf zu sein, warum sollte AMD ganz groß für den BF1 Trailer und die Zusammenarbeit mit DICE Werbung machen (Twitter, etc.)? Jetzt schon in Mai? AMD muss, sofern technisch möglich, zum Release von BF1 eine Grafikkarte bieten, welche der 1080 Paroli bieten kann. Es werden sehr viele genau für dieses Spiel ihre Systeme aufrüsten. Welch passendere Gelegenheit? Vielleicht gibt es Vega für einige Monate in homeopathischen Dosen, wie beim Lauchn von Fiji?

Ich kann dir darauf keine Antworten geben. Gepostet habe ich nur, weil es für mich zusätzlich auch Sinn macht, was mir gesagt wurde. Bis Oktober ist doch viel Zeit.

Ich bleibe bei meiner Meinung P10 wird der 1070 ebenbürtig sein und heuer wird noch Vega dazukommen, um mit der 1080 gleichzuziehen.

Wenn ich verscheißert wurde, dann werde ich sauer :freak:

Sunrise
2016-05-11, 09:02:27
Wieso sollte HBM2 für 2016 zu teuer sein, während AMD HBM1 bereits in 2015 eingesetzt hat?
Ich denke die Chance, dass Vega 10 kein HBM2-Interface hat ist gering bis nicht vorhanden, es ist mehr ein theoretischer Gedanke meinerseits.

AMD wird natürlich viel besser wissen, dass HBM2 nicht nur möglich ist, sondern auch bei Hynix (Q3) und Samsung (bereits erfolgt) die Massenproduktion jeweils anläuft.

Vega wird ganz sicher mit HBM2-Interface kommen, denn wenn Hynix ab spätestens Q3 in Massenproduktion geht, reicht AMD Hynix wahrscheinlich als Zulieferer aus, während NV weiterhin mit Samsung Lieferverträge hat.

512GB/s wären eben auch für das professionelle Segment gut, wenn das Ding im HPC-Markt verkauft werden soll. Das würde AMD bei einem etwa 350mm² Die auch sehr gute Margen liefern und das Ding wäre auch nur geringfügig größer als GP104, also eigentlich optimal.

Sofern AMD hier die Takte etwas höher eingeplant hat, als bei den Low-End/Mainstream/Performance-Polaris-Chips (was ja durchaus gewollt ist, damit man auch in Notebooks mit wenig TDP kann), dann wird Vega auch sicher sehr gut ankommen!

Wenn Vega10/Greenland auf eine INterposer mit einer Zeppelin CPU soll, dann ist GDDR5X sicher keine Option.
Ich glaubs auch nicht, es wäre aber theoretisch eine Option. Aber AMD hatte Vega ja bereits vor GDDR5X mit HBM gebaut, daher ist die Chance quasi 0, ansonsten würde auch der Slide keinen Sinn ergeben.

Kartenlehrling
2016-05-11, 09:36:46
Das man jetzt die Release Termine von Spiel nehmen kann um zu wissen wann die Grafikkarten aufschlagen halte ich für ein Witz.
Wenn man das jetzt weiterspinnt,... Mass Effect würde auf Q1/2017 verschoben (https://www.youtube.com/watch?v=uG8V9dRqSsw), das heist 120Hz-HDR Monitor gibts dieses Jahr nicht mehr :)

iuno
2016-05-11, 10:13:23
Der "Normalfall" für DCC beinhaltet ja keine Kopieroperationen
Das stimmt natuerlich :facepalm:
Trotzdem ist es imho beachtlich, wenn mal bis zu 80% Leistung beim Upload gut gemacht werden koennen. Fraglich ist halt, ob das nicht bei den Windows Treibern sowieso schon immer so gemacht wurde.
Aber Da die Performance beim Testen mit APUs auch mal eingebrochen ist, scheint es doch Faelle zu geben, wo die DCC auch beim Upload eine gewisse Rolle spielt. Kommt es denn oft vor, dass Texturen unkomprimiert hochgeladen werden:confused:

Passen würde es auf jedem Fall. Samples von Vega scheinen schon im Umlauf zu sein, warum sollte AMD ganz groß für den BF1 Trailer und die Zusammenarbeit mit DICE Werbung machen (Twitter, etc.)? Jetzt schon in Mai? AMD muss, sofern technisch möglich, zum Release von BF1 eine Grafikkarte bieten, welche der 1080 Paroli bieten kann. Es werden sehr viele genau für dieses Spiel ihre Systeme aufrüsten. Welch passendere Gelegenheit? Vielleicht gibt es Vega für einige Monate in homeopathischen Dosen, wie beim Lauchn von Fiji?
Wo wurden Samples gesehen?
AMD macht das einfach, weil DICE denen nahestehen und technisch imho so mit die beste Arbeit von allen Studios macht, insofern ist diese Verbindung sehr wichtig fuer AMD. Dass ein AAA Titel wie BF1 gehypt wird ist voellig normal. Das spiel wird sicher nicht nur (spaeter!? :P) auf Vega, sondern auch auf Hawaii, Fiji und Polaris ordentlich laufen.

R.I.P.
2016-05-11, 10:29:30
Wo wurden Samples gesehen?
AMD macht das einfach, weil DICE denen nahestehen und technisch imho so mit die beste Arbeit von allen Studios macht, insofern ist diese Verbindung sehr wichtig fuer AMD. Dass ein AAA Titel wie BF1 gehypt wird ist voellig normal. Das spiel wird sicher nicht nur (spaeter!? :P) auf Vega, sondern auch auf Hawaii, Fiji und Polaris ordentlich laufen.

Nehme an,du glaubst nicht, dass Vega noch im Oktober auf den Markt kommt, richtig?;D

Ich versteh den ganzen Aufstand bezüglich meiner Aussage nicht :confused: finde es jedoch ziemlich interessant :tongue:

iuno
2016-05-11, 10:36:47
Ich glaube gar nichts. Woher soll ich es auch einschaetzen koennen? Gesprochen wird viel, es ist nur eine Quelle von vielen. Um ehrlich zu sein, dachte ich auch an Vega noch kurz vor Jahresende, das ist aber alles Spekulation.
Auf der Roadmap mit dem Diagramm (perf/Watt) mit Vega und Navi ist Vega kurz vor Jahresende eingezeichnet. Natuerlich ist das nur ein grober Hinweis und laesst keine Einschaetzung zu.
In der Roadmap vom FAD ist Vega fuer 2017 eingezeichnet, das hat imho aber keine Bedeutung. Wenn Produkte so kurz vor Jahresende kommen, hat das fuer das Fiskaljahr keine Bedeutung mehr. Die exakt selbe Situation haben wir ja bei Zen.

Davon aber mal ab: selbst wenn alles korrekt ist und AMD plant, Vega im Oktober zu bringen, heisst das noch lange nicht, dass es auch passiert. Und bei sowas bin ich eben eher Pessimist.

Naja wenn man etwas so lostritt, sollte man schon auch mit der entsprechenden Reaktion rechnen. Ich hoffe fuer dich und deine Quelle dass das keine Konsequenzen hat ;p

Sunrise
2016-05-11, 10:48:00
Vega zusammen mit Zen noch dieses Jahr wäre natürlich eine fantastische Weihnachtsüberraschung. Sofern bei AMD da alles nach Plan läuft und nicht wieder irgendwas dazwischen kommt, werden sich da sicher einige freuen.

R.I.P.
2016-05-11, 10:50:21
Davon aber mal ab: selbst wenn alles korrekt ist und AMD plant, Vega im Oktober zu bringen, heisst das noch lange nicht, dass es auch passiert. Und bei sowas bin ich eben eher Pessimist.

Na da bin ich ja komplett deiner Meinung :)

Trotzdem: Die Gier nach Informationen/Gerüchten von Foren und Online-Medien ist derart groß, das ein interessantes Experiment daraus gemacht werden könnte. :wink:

Dino-Fossil
2016-05-11, 11:58:56
Das hat in den letzten Jahren wirklich erschreckende Ausmaße angenommen.
Irgendwo macht jemand eine Bemerkung, gibt sich etwas mysteriös und schon verbreitet sich sein persönlicher feuchter Traum als neuestes Gerücht übers Netz.
Und wenn erstmal genug voneinander abgeschrieben haben, gilt es als bestätigt.

Sollte man wirklich mal ein wenig ausnutzen. :biggrin:

Pirx
2016-05-11, 12:22:47
Wieso eigenlich? Derzeit und bis nach dem Sommer hat doch eh kaum jemand wirklich Bedarf an einer neuen Grafikkarte.

Elite_Warrior
2016-05-11, 12:44:53
Und warum höre ich schon die ersten im Pascal Thread die Füße scharren?

iuno
2016-05-11, 12:49:10
Laut TweakTown (http://www.tweaktown.com/news/52056/rumor-amd-partners-showing-polaris-cards-computex/index.html) (lol) und NordicHardware (http://www.nordichardware.se/nyheter/grafikkort/frustration-och-osakerhet-hos-amd-partners-infor-polaris.html) (?) keine Polaris Partnerkarten zur Computex: http://www.computerbase.de/2016-05/amd-polaris-partnerkarten-spaeter/

laut dem NH Bericht gibt es wohl nicht mal Polaris auf der Computex, das Event in Macau soll bis weiter in den Juni hinein unter NDA stehen.

Isen
2016-05-11, 12:50:29
Und warum höre ich schon die ersten im Pascal Thread die Füße scharren?

Repräsentieren sie den Weltmarkt?;D

@iuno,

CB mal wieder. Mag wieder bissle mehr Kohle für die Urlaubskasse.... hätte, äh, wenn, äh, vielleicht, blubb.
Was die da erzählen, woher saugen die sich das?
Low-Mid hat AMD doch selbst gesagt ...
Hauptseite von AMD sogar auch.. ( Massenmarkt für VR blabla )

iuno
2016-05-11, 12:55:44
Was flamst du CB, die geben nur die Infos weiter, der Rest ist die typische Anreicherung, die immer gemacht wird, damit es fuer einen "Artikel" reicht. Lies halt die Originalquellenlaut dem NH Bericht gibt es wohl nicht mal Polaris auf der Computex, das Event in Macau soll bis weiter in den Juni hinein unter NDA stehen.

Elite_Warrior
2016-05-11, 13:03:58
Repräsentieren sie den Weltmarkt?;D



Die Rede war von "hat doch eh kaum jemand wirklich Bedarf", dass kann auch nicht der Weltmarkt sein.

Isen
2016-05-11, 13:05:12
Goldwaage halt. Gibt immer die was kaufen. Nie gibt es nicht.
Du weißt aber, wie er das gemeint hat :)
Im Sommerloch ist sowas immer nicht so leicht viel Reibach zu machen gerade in dem Preisbereich, außer man ist nen Reisebüro :D


@iuno

von CB:
Überhaupt habe AMD den Boardpartnern bislang noch keine Polaris-Lösung präsentiert, die es mit Nvidias GeForce GTX 1080 aufnehmen könne.

Die Frage stellt man sich nicht, wenn man als Presse wissen (muss) das dies auch gar nicht der Zweck von Polaris ist, wie AMD doch schon öfter gesagt hat. Und es sogar selbst erwähnen.

Die ziehen sich mal wieder zu viel aus der Nase, um künstlich irgendwelche Erwartungen zu schüren die es nicht geben kann.

Da haste deine Antwort auf " was flamst du CB "

Menace
2016-05-11, 13:12:25
Was flamst du CB,

Vielleicht deshalb:

Überhaupt habe AMD den Boardpartnern bislang noch keine Polaris-Lösung präsentiert, die es mit Nvidias GeForce GTX 1080 aufnehmen könne.

Das hat AMD auch nie behauptet (imho).

Was AMD bisher gezeigt habe, sei eine Mittelklasse-Grafikkarte, die die Leistung einer Radeon R9 390 oder 390X erreiche – viel Leistung fürs Geld, aber eben keine High-End-Leistung.


"Aber eben" = Ist eine Bewertung.


Zwar war die deutliche Verbesserung der Leistung pro Watt eines der erklärten Ziele, die AMD für die Polaris-Architektur hatte. Aber im Grafikkarten-Markt zählt eben auch, wer die höchste Leistung liefern kann.

Stimmt, der Preis ist ja gleich. :freak: Ich stelle mir mal vor, dass ich solche Artikel z.B. bei Musikinstrumente lesen müsste. PRS stellt ihr neue Edelgitarre für 3000 € und ich beschwere mich, dass MusicMan nur eine "schwächere" für 1500 € zunächst zu kaufen gibt - undenkbar. So ein Schwachsinn gibt es eben nur bei Hardware-"Zeitschriften".

Edit: Sorry, zu spät.

iuno
2016-05-11, 13:27:48
Indirekte Rede bzw. Konjunktiv ist dir ein Begriff? Das bezieht sich jeweils auf die Originalquelle.

Überhaupt habe AMD den Boardpartnern bislang noch keine Polaris-Lösung präsentiert, die es mit Nvidias GeForce GTX 1080 aufnehmen könne.
Uebersetzung: das bedeutet, dass Hardwarepartner sich offenbar dahingehend negativ geaeussert haben und ist keine Interpretation von CB.

In der Originalquelle steht das, sofern man der maschinellen Uebersetzung halbwegs trauen kann, uebrigens nicht so, sondern so, dass die Partner ungehalten darueber sind, dass sie nichts zu zeigen haben bzw. selber noch wenig wissen, was auch voellig verstaendlich waere. Die Sache mit der "Konkurrenzsituation" wurde von TweakTown typischerweise angefuegt. CB hat das dann halt von der Quelle uebernommen, who cares?
Fuer die weiteren Stellen gilt dasselbe.

Dass es staendig solche "Artikel" gibt ist hinlaenglich bekannt, es bringt nichts sich staendig in den Threads hier darueber zu echauffieren, davon abgesehen ist es OT.

Stattdessen koennte man auch einfach anerkennen, dass es offenbar neue Infos gibt, nach denen Polaris angeblich noch nicht auf der Computex der Oeffentlichkeit vorgestellt werden soll.

Sunrise
2016-05-11, 13:30:04
Da steht doch da, dass das 'eben auch' zählt und der Konjunktiv wurde auch verwendet. Die weitläufige Erwartungshaltung eben, dass AMD kontert.

Da fehlt einfach der Hinweis und das Wissen, dass Vega bald nachkommt. Ist halt eine verwurstete Info, die man etwas ausschreibt, um daraus eine "News" zu machen.

Im Endeffekt zählen die Besuche der Seite, denn die Online-Presse presst eben auch nur Geld, indem man Inhalte liefert.

Blediator16
2016-05-11, 13:30:06
Schon lange nicht mehr so viel negative Gerüchte eines GPU Starts gehört wie jetzt bei AMD. Das kann ja echt lustig werden. Viele werden wohl ihre Gesichter verlieren.

tm0975
2016-05-11, 13:38:26
Schon lange nicht mehr so viel negative Gerüchte eines GPU Starts gehört wie jetzt bei AMD. Das kann ja echt lustig werden.

je geringer die erwartung, desto größer bzw. wahrscheinlicher ist doch dann die freude.

vergleich doch mal mit einer 390:

shaderanzahl gleich
gcn verbesserungen mit ein wenig mehr ipc (+0 bis 5%)
takt geht von 1000 mhz auf mind. 1150 mhz (+15 bis 20%)

haben:
ca 20 % mehrleistung (kratzt an der fury)
verbrauch geht von 250 auf 120 bis 130

preis 349 $

finde ich jetzt nicht so schlecht. das einzige risiko sehe ich im SI von 256 bit inkl gddr5, das könnte evtl eine bremse sein. allerdings wird es dann erst recht die 1070 bremsen.

Dino-Fossil
2016-05-11, 13:54:19
Ja, die negativen Gerüchte entspringen doch v.a. den völlig falschen Erwartungen, die mancher an Polaris stellt.

Alles was über Polaris 11+10 bisher bekannt ist macht klar, dass die beiden Chips für das Mittelfeld gedacht sind.
Polaris 11 wird sicherlich auch Ausläufer nach unten ins low-end bringen und hat einen gewissen Fokus auf mobile, Polaris 10 schaut nach einem perfekten Nachfolger für die 370-380er Karten aus.
Negativ wird es erst, wenn man jetzt auf Teufel-komm-raus eine Konkurrenz für GP104 herbeireden will - dafür war der Chip nie gedacht.

Ich hoffe nur, dass AMD sich von dem geseiere nicht anstecken lässt und versucht den Chip künstlich nach oben zu pushen.

PuppetMaster
2016-05-11, 13:57:45
Mal ein Gegenszenario: Vor der Computex wird in Macau neben Polaris 11 die kleine Polaris 10 gezeigt, mit 2304 Shadern und einer Performance zwischen 390 und 390X. Marktstart ist nach der Computex. Oktober folgt dann nicht Vega, sondern die große Polaris 10 mit 2560 Shadern und GDDR5X. Vega kommt wie gehabt Anfang 2017 mit HBM2.

So lassen sich alle Gerüchte halbwegs unter einen Hut bringen.

hesTeR-
2016-05-11, 13:58:12
Lustig, hwluxx hat die meldung auch gebracht, wenn man dann auf die quellen klickt kommt man zu dem Post von R.I.P. :D die quelle ist also jemand in einem Forum der sagt ja kommt aber ich darf nicht sage woher ich es habe und das von jemandem mit 1000 Posts (nichts für ungut)

finde das schon sehr funny welche globale runde grade so ein Post zieht. :D

smalM
2016-05-11, 13:59:14
Indirekte Rede bzw. Konjunktiv ist dir ein Begriff? Das bezieht sich jeweils auf die Originalquelle [...] Die Sache mit der "Konkurrenzsituation" wurde von TweakTown typischerweise angefuegt.

Der erste verfälscht die Aussage mit Hinzufügungen, der zweite zitiert im Konjunktiv, der dritte läßt den Konjunktiv fallen, der vierte verewigt das ganze als Eintrag in Wikipedia :biggrin:

das von jemandem mit 1000 Posts

Der Wahrheitsgehalt eines Posts hängt an der Gesamtzahl der Posts?
Ja lüge ich denn nur noch?

Nakai
2016-05-11, 14:02:46
Lustig, hwluxx hat die meldung auch gebracht, wenn man dann auf die quellen klickt kommt man zu dem Post von R.I.P. :D die quelle ist also jemand in einem Forum der sagt ja kommt aber ich darf nicht sage woher ich es habe und das von jemandem mit 1000 Posts (nichts für ungut)

finde das schon sehr funny welche globale runde grade so ein Post zieht. :D

Ich finde es eher lustig, wie sich gerade der Spreu vom Weizen trennt bzgl der Qualität des Online-Hardware-Journalismus.

Das ist gerade sehr viel durchgefallen. ;D

Palpatin
2016-05-11, 14:09:24
je geringer die erwartung, desto größer bzw. wahrscheinlicher ist doch dann die freude.

vergleich doch mal mit einer 390:

shaderanzahl gleich
gcn verbesserungen mit ein wenig mehr ipc (+0 bis 5%)
takt geht von 1000 mhz auf mind. 1150 mhz (+15 bis 20%)

haben:
ca 20 % mehrleistung (kratzt an der fury)
verbrauch geht von 250 auf 120 bis 130

preis 349 $

finde ich jetzt nicht so schlecht. das einzige risiko sehe ich im SI von 256 bit inkl gddr5, das könnte evtl eine bremse sein. allerdings wird es dann erst recht die 1070 bremsen.
Wäre aber auch nicht wirklich gut gegen eine 379$ GTX 1070 falls die Performance Prognose ~ 1070 = 980ti aufgeht.

tm0975
2016-05-11, 14:16:16
Wäre aber auch nicht wirklich gut gegen eine 379$ GTX 1070 falls die Performance Prognose ~ 1070 = 980ti aufgeht.

zwischen fury und 980 ti liegt nicht so viel, vor allem nicht in 4k, dx 12, all die tollen neuen sachen. und fürs erste stehen die 449$ zu buche bei der 1070. wenn die boardpartner für 449 die referenzlösung verkaufen können und lediglich nen sticker draufkleben müssen, warum sollten sie dann für 379$ mit custom designs kommen. das müssen sie doch erst, wenn vega kommt. ich glaube, bzgl. der nvidia preise werden sich einige noch wundern.

und außerdem hat die 1070 nen viel zu hohen verbrauch :-D :-D

Palpatin
2016-05-11, 14:52:24
zwischen fury und 980 ti liegt nicht so viel, vor allem nicht in 4k, dx 12, all die tollen neuen sachen. und fürs erste stehen die 449$ zu buche bei der 1070. wenn die boardpartner für 449 die referenzlösung verkaufen können und lediglich nen sticker draufkleben müssen, warum sollten sie dann für 379$ mit custom designs kommen. das müssen sie doch erst, wenn vega kommt. ich glaube, bzgl. der nvidia preise werden sich einige noch wundern.

Weil die Boardpartner auch untereinander Konkurrieren. Auch sind ja jetzt schon die ersten Costum Karten zummindest der 1080 für Juni angekündigt.
Wird wie immer nen Early Adapter Aufschlagen geben, aber denk spätestens im September sehen wir die 1070 für unter 400€ auf der Straße.
P10 so wie er imo Eingeschätzt wird (zwischen Fury und 390x) müsste hier mit knapp unter 300€ gegen halten, sonst wird das nix.

scully1234
2016-05-11, 15:10:05
Im Sommerloch ist sowas immer nicht so leicht viel Reibach zu machen gerade in dem Preisbereich, außer man ist nen Reisebüro :D



@Back to school
The second-biggest shopping event of the year is shaping up to be not much of an event at all.

As consumers increasingly stock up on back-to-school essentials throughout the year, and simultaneously shift their view as to what constitutes a school item in the first place, a new study has found that parents of children from kindergarten through high school plan to spend $434 on back-to-school items this year—a 20 percent decline.


http://www.cnbc.com/2015/07/14/caution-signs-for-back-to-school-shopping.html

Nur gut das das kein Amerikaner hoert:P

Isen
2016-05-11, 15:12:52
Zonk URL.
Und du hast es nicht verstanden, schade Marmelade.
Ich mach es dir mal deutlicher: Das Weihnachtsgeschäft ist ein Mythos.

Edit: Nur gut? Ich bin einer. Was jetzt? ... Der Witz kam halt bei dir nicht an :D

Asmi Meo
2016-05-11, 15:16:40
Dass die Höhe größer ist, passt eher besser. HBM2 spezifiziert die Höhe des Stacks praktisch identisch zu einer bevorzugten Waferdicke für größere Logikchips (wie GPUs oder CPUs). Die ursprüngliche HBM-Spec schrieb das noch nicht vor. Deshalb sind z.B. bei Fiji die HBM-Stacks minimal flacher als die GPU, was natürlich suboptimal ist. Und der Fiji-Interposer passt bei Polaris Vega sowieso nicht, man benötigt also in jedem Fall einen neuen :rolleyes:.
Was mir das sagen soll verstehe ich nicht, mein Post bezog sich auf den Vorredner, was das jetzt mit deinem Ausführungen zu tun haben soll und was mir das sagen soll, ich kanns nicht erkennen. Davon habe ich nicht gesprochen.

Was die Größe von HBM2 angeht, Du glaubst SK Hynix, Amkor und UMC Größen reden Bullshit? Es gibt ein Whitepaper zur weiteren Entwicklung von HBM.

Wir können uns gerne den Rest meiner Anwesenheit hier im Forum volltrollen und rolleyes an unsere Post tackern. Ich weiß nicht was das bringen soll. Und Nein, ganz in deinem Stil, nVidias wäre in der Lage mittels Interposer die Größenverhältnisse und Höhenunterschiede auszugleichen. Wieso sollte AMD daher den Fiji Interposer verwenden? Rechne plus deine imaginären +2mm^2. Mal sehen wo du pro Die rauskommst. Es sind und bleiben vorerst 20nm bei 1, 1,6, 2,0 Gbps/s. Das 2Hi-8Hi Stacks dabei anders ausfallen, dürfte jedem klar sein. Ansonsten hieße es nicht Stack.

O.k. ich muß mir das nicht antun.

Botcruscher
2016-05-11, 15:35:42
Ich finde es eher lustig, wie sich gerade der Spreu vom Weizen trennt bzgl der Qualität des Online-Hardware-Journalismus.

Das ist gerade sehr viel durchgefallen. ;D

Gerade? AMD und NV haben bei Leaks schlicht schon lange alle Schleusen dicht gemacht. Der einzige Brocken mit Substanz dürfte das Profil über Projekt F gewesen sein. Dazu kommt dann noch die kleine Sache mit dem Referenzkühler. Alles andere war und ist purer Spekulatius.

iuno
2016-05-11, 16:14:33
Referenzkuehler? Sprichst du dabei jetzt von Nvidia?

hesTeR-
2016-05-11, 17:12:47
spitze zu RIPS post bei der HWluxx news ... musste etwas lachen. :D

Wir bitten den Gehalt dieser Meldung zum aktuellen Zeitpunkt mit äußerster Vorsicht zu genießen. Die Quellen lassen sich nicht überprüfen und sind bisher nicht durch übermäßige Genauigkeit oder Insiderwissen aufgefallen.

Gipsel
2016-05-11, 17:59:09
Was mir das sagen soll verstehe ich nicht,Denkst Du darüber nach, ob das vielleicht Teil des Problems ist?
mein Post bezog sich auf den Vorredner, was das jetzt mit deinem Ausführungen zu tun haben soll und was mir das sagen soll, ich kanns nicht erkennen. Davon habe ich nicht gesprochen.Im Gegenteil. Dein Post hat allerhöchstens am Rande mit der Frage zu tun gehabt, wie es z.B. gegen Ende des Jahres 2016 (im Raum stehendes Vega-Launch-Fenster) mit den Preisen von HBM2 aussieht. Ich gehe allerdings explizit auf die von Dir erwähnten Punkte ein (bis auf den, den N0Thing bereits entkräftet hatte) und begründe, warum Deine Einwände wohl eher keine Rolle spielen.

Die vollständige Antwort gibt es per PN, denn das interessiert hier vermutlich nicht so Viele. Ich denke auch so werden die Meisten erkennen, was sie von Deinem Post halten sollten. Aber die Hinweise von mir dazu gibt es wie gesagt für Dich per PN.

R.I.P.
2016-05-11, 18:04:38
spitze zu RIPS post bei der HWluxx news ... musste etwas lachen. :D

Na mindestens jemand, der auch dazuschreibt, dass ich weiß, das ich wenig weiß..muahaha

basix
2016-05-11, 20:23:14
...Early Adapter...

SCNR :biggrin:

fondness
2016-05-11, 21:02:05
Version: 5.70.3843 beta (May 11, 2016)
Release notes:

preliminary GPU information for AMD Polaris 10 (Ellesmere)
preliminary GPU information for AMD Polaris 11 (Baffin)
preliminary GPU information for AMD Vega 10 (Greenland)
preliminary GPU information for nVIDIA GeForce GTX 1080 (GP104)
improved memory type detection for AMD GPUs
Intel Processor Number detection for Pentium D1519
Intel Processor Number detection for Xeon D-1529, D-1539, D-1559
extended sensor support for AquaStream Ultimate
fixed: motherboard specific sensor info for MSI MS-7881, 7882, 7883, 7885 (too low Vcore)

http://www.aida64.com/

Wundert mich, dass da selbst schon Vega10 Support vorhanden ist, während bei Nvidia nur die GTX0180 auftaucht.

scully1234
2016-05-12, 03:21:52
According to sources in the know, the Polaris for PlayStation Neo is clocked at 911 MHz, up from 800 MHz on the PS4. The number of units should increase from the current 1152. Apparently, we might see a number higher than 1500, and lower than 2560 cores which are physically packed inside the Polaris 10 GPU i.e. Radeon R9 400 Series (http://vrworld.com/2016/05/11/amd-confirms-sony-playstation-neo-based-zen-polaris/)

iuno
2016-05-12, 08:29:59
Das gehört in den Konsolen thread

MadPenguin
2016-05-12, 08:35:30
Naja, finde schon interessant, dass Polaris in einer Konsole mit >900Mhz läuft :biggrin: heute Abend ist Shareholder Meeting bei AMD. Vielleicht kriegen wir mehr Infos!

Hallo an alle übrigens :D

iuno
2016-05-12, 08:46:10
Naja, finde schon interessant, dass Polaris in einer Konsole mit >900Mhz läuft :biggrin: heute Abend ist Shareholder Meeting bei AMD. Vielleicht kriegen wir mehr Infos!

Hallo an alle übrigens :D
Herzlich willkommen ;)

Es ist nicht sicher, ob es Polaris ist, davon abgesehen geht es hier im Thread um die dedizierten Karten, nicht APUs und auch keine semi-custom SoCs.
Ob die neo Polaris bekommt, ist alles andere als sicher. GNM ist wohl nochmal deutlich hardwarenaeher als Vulkan und D3D12. Sony will unbedingt komplette Kompatibilitaet erhalten, das schliesst auch ein, dass es keine Regression oder komisches Verhalten gibt, weil die Architekturen sich im Detail unterscheiden.
Je nachdem, wie viel an Polaris' CUs und uncore gebaut wird, bin ich mir momentan noch unsicher, ob die neo wirklich einen Grafikteil auf Polaris-Stand bekommt. Da bei AMD sowieso alles wie aus einem Baukasten zusammengebaut wird, ist auch eine zusammengestueckte GPU mit IP Bloecken irgendwo zwischen GCN Gen.2 und Gen.4 moeglich.
Das selbe gilt fuer die CPU Architektur. 8 "Zen lite" Kerne, was soll das sein? Entweder sind es Zen Kerne oder nicht. Darunter gibt es nur Puma. Und 8 Zen kerne bei 2,1 GHz staenden wohl in keinem Verhaeltnis zur aktuellen CPU Loesung. Da koennten sie das Teil auch gleich PS5 nennen.
Davon mal abgesehen halte ich das fuer zu schoen um wahr zu sein. 8 Zen Kerne + GPU vom Kaliber (und Featurelevel) Polaris 10 waere eine riesige APU und vor allem sehr teuer.

Und dass es "Polaris 10" ist, nur weil die Anzahl der CUs grob uebereinstimmt, ist sowieso grober Unfug, der auch in dieser Logik staendig von dem Typen bei DigitalFoundry verbrochen wird.

Ein Mod kann die Posts hoffentlich bei Gelegenheit verschieben ;)

Rabiata
2016-05-12, 11:43:53
Weil die Boardpartner auch untereinander Konkurrieren. Auch sind ja jetzt schon die ersten Costum Karten zummindest der 1080 für Juni angekündigt.
Wird wie immer nen Early Adapter Aufschlagen geben, aber denk spätestens im September sehen wir die 1070 für unter 400€ auf der Straße.
P10 so wie er imo Eingeschätzt wird (zwischen Fury und 390x) müsste hier mit knapp unter 300€ gegen halten, sonst wird das nix.
Das sollte auch von der Chipfläche und damit von den Fertigungskosten her passen, so wie P10 und GP104 bisher eingeschätzt werden.

GP 104 im Bild: (http://videocardz.com/59266/nvidia-pascal-gp104-gpu-pictured-up-close) geschätzte Chipfläche laut videocardz.com etwa 333 mm².

P10: etwa 232 mm², also ca. 70% der GP 104 Chipfläche.

Angenommen, daß die Kosten pro mm² für beide Chips etwa gleich sind, kann AMD den P10 vermutlich durchaus unter 300€ anbieten, wenn Nvidia die GTX 1070 für unter 400€ verkaufen kann. Ich denke es bleibt dabei, daß P10 eine Preisklasse unter der GTX 1070 antritt und damit auch bei etwas weniger Performance attraktiv bleibt.

dargo
2016-05-12, 12:09:40
Das Ding wird ja immer größer. :freak:

Ok... bei einem GP104 mit ~333mm² sollte es eher sehr, sehr unwahrscheinlich sein, dass ein voller P10 mit der GTX1070 konkurriert. Sofern P10 tatsächlich nur ~232mm² groß ist.

Nakai
2016-05-12, 12:11:42
Dann liegt man etwa bei 22Mio Transen/mm². Das ist eine Packdichteerhöhung von etwa 60%, was nicht der "prophezeiten" Verdopplung entspricht. Mal gucken wo AMD liegt. Aber reinher von den Spezifikationen schätze ich AMD ein starkes Stück vor NV bei der Packdichte ein. Bei 2560 SPs sollte man von den Transistoren in Richtung Hawaii gehen. Das wäre mindestens eine Packdichte von 26Mio/mm². Ich gehe bei AMD eher in Richtung Faktor 2+ bzgl den 28nm Produkten. Vll erreicht man sogar 30 Mio/mm²

Der_Korken
2016-05-12, 12:33:43
Man darf nicht vergessen, dass Nvidia den Prozess anscheinend stark in Richtung Taktbarkeit ausnutzt. Eine Steigerung von aktuell spekulierten 60% habe ich jedenfalls bisher noch nie gesehen bei Highend-Hardware. Man kann das ganze wohl als ein Optimierungsproblem ansehen: Transistoren * Takt = Performance. Mehr Transistoren (auf gleicher Fläche) heißt automatisch weniger Takt und andersrum. Bei Nvidia wären das 60% mehr Packdichte und 60% mehr Takt, also theoretisch bis zu ~2,5fache Leistung pro Fläche. Wenn AMD 100% mehr Packdichte bei 25% mehr Takt erreicht, wäre man etwa gleich auf, was die Prozessausbeute angeht.

Nakai
2016-05-12, 12:42:13
Man darf nicht vergessen, dass Nvidia den Prozess anscheinend stark in Richtung Taktbarkeit ausnutzt. Eine Steigerung von aktuell spekulierten 60% habe ich jedenfalls bisher noch nie gesehen bei Highend-Hardware. Man kann das ganze wohl als ein Optimierungsproblem ansehen: Transistoren * Takt = Performance. Mehr Transistoren (auf gleicher Fläche) heißt automatisch weniger Takt und andersrum. Bei Nvidia wären das 60% mehr Packdichte und 60% mehr Takt, also theoretisch bis zu ~2,5fache Leistung pro Fläche. Wenn AMD 100% mehr Packdichte bei 25% mehr Takt erreicht, wäre man etwa gleich auf, was die Prozessausbeute angeht.

Genau so sehe ich das auch.;)

Ergo kann ein P10 auf ähnliche Transistorenwerte kommen, wie GP104, dafür ist die Taktbarkeit stark eingeschränkt.

tm0975
2016-05-12, 12:49:07
Genau so sehe ich das auch.;)

Ergo kann ein P10 auf ähnliche Transistorenwerte kommen, wie GP104, dafür ist die Taktbarkeit stark eingeschränkt.

... dafür aber die effizienz besser.

Nakai
2016-05-12, 12:50:11
... dafür aber die effizienz besser.

Das glaube ich nicht, Jim.

Hoher Takt heißt nicht sofort miese Effizienz. Ergo möchte ich keine Aussage zur Effizienz tätigen.

Rabiata
2016-05-12, 13:17:08
Das glaube ich nicht, Jim.

Hoher Takt heißt nicht sofort miese Effizienz. Ergo möchte ich keine Aussage zur Effizienz tätigen.
Kommt auf den Fertigungsprozeß an, aber bei bisherigen Chipgenerationen war es so. Die beste Effizienz wurde mit niedrig getakteten Chips erreicht. Beispiele sind

verschiedene Stromspar-CPUs aus dem Serverbereich, die mit moderat abgesenktem Takt viel sparsamer sind
die Fury Nano

Ob das so auch für die kommende Generation von GraKas gilt bleibt abzuwarten, aber die Erfahrung spricht dafür.

Edit:
Habe mittlerweile noch ein Paper (https://jorge-cardoso.github.io/publications/Papers/WP-2014-076-GCC-Energy-Efficient-Databases.pdf) gefunden, in dem die Effizienz eines Intel-basierten Servers in Abhängigkeit von der Taktfrequenz untersucht wird. Getestet wird die Energieffizienz bei diversen Sortieralgorithmen.
Der Server läuft auf zwei Xeon E5-2690, die bis zu 2,9 GHz Takt (ohne Turbo-Modus) können. Am effizientesten läuft das Teil bei Frequenzen zwischen 1,8 und 2,4 GHz.

Dural
2016-05-12, 13:26:20
Die Erfahrung spricht dafür?

Bis jetzt waren die NV Karten immer höher getakt als die gegenstücke bei AMD und haben weniger Strom bei mehr Leistung verbraucht.

Klar braucht ein Chip bei weniger Takt auch weniger Strom, das hat mit der Architektur aber 0,0 nichts zu tun.

woodsdog
2016-05-12, 13:44:00
Das Takt per-se mehr kostet und weniger effizient ist, gilt doch nur bei Vergleichen innerhalb der Chip-Familie.

Man kann schlicht nicht 2 Designs nebeneinander halten und sagen "der taktet höher, kann nicht so effizient sein".

Das sollte doch nun echt der letzte hier wissen...

Sunrise
2016-05-12, 13:52:52
...Angenommen, daß die Kosten pro mm² für beide Chips etwa gleich sind, kann AMD den P10 vermutlich durchaus unter 300€ anbieten, wenn Nvidia die GTX 1070 für unter 400€ verkaufen kann. Ich denke es bleibt dabei, daß P10 eine Preisklasse unter der GTX 1070 antritt und damit auch bei etwas weniger Performance attraktiv bleibt.
Ja, Polaris wird höchstwahrscheinlich unter der 1070 antreten.

Allerdings kannst du den Endpreis bei NV nicht nur an der 1070 festmachen, weil NV ja einen festen Preis (Chips pro Wafer = Ausbeute) hat und die Chips für die 1070 sind bereits diejenigen, die wohl für die 1080 nicht funktionieren. Daher ergibt sich aus Endpreissicht eine Mischkalkulation und AMD muss mit P10 auch noch soviel verdienen, dass der Chip einigermaßen profitabel ist.

$299 sind nicht wirklich viel, AMD hat aktuell die folgenden MSRPs:

R9 390X 8GB - $429 US
R9 390 8GB - $329 US

Da Polaris voraussichtlich über 2560 ALUs verfügen wird und Hawaii nur geringfügig mehr davon hat, sollte Polaris 10 das spielend über den Takt ausgleichen können.

Der oberste Polaris 10 sollte also mehr als $299 kosten, ansonsten würde AMD hier schlechter verdienen. Denn dass ein 232mm² Die auf 14LPP weniger kostet als ein 28nm Die mit 438mm² halte ich für höchst zweifelhaft, bei einem Waferpreis von maximal $3000 pro 28nm 300mm Wafer und auf jedenfall mehr als das Doppelte bei einem 14/16nm 300mm Wafer.

Tonga hat sogar noch weniger, nämlich nur 366mm², dem gegenüber ein 232mm² 14LPP Die und dann noch 8GB VRAM - das wird für AMD nicht plötzlich magisch billiger werden.

Leonidas
2016-05-12, 13:56:22
Sehe ich ähnlich. AMD peilt wohl 329$ oder 349$ an. Deswegen dürfte NV die Taktschraube bei 1070/1080 hochgezogen haben, damit man sich bei der Performance in jedem Fall noch vor P10 plaziert (mit der 1070). Dagegen kann AMD jetzt natürlich weiterhin am Takt von P10 drehen - und kommt eventuell doch noch an die 1070 ran. Deswegen womöglich auch noch kein Launch auf der Computex - man will, das NV zuerst final die Hosen runterläßt mit der 1070. Weswegen NV derzeit noch nichts finales zur 1070 gesagt hat. Chicken Game ;)

Dino-Fossil
2016-05-12, 13:57:42
Der oberste Polaris 10 sollte also mehr als $299 kosten, ansonsten würde AMD hier schlechter verdienen.

Hängt aber auch von den Herstellungskosten ab, dank kleinerer Fläche könnten die ja deutlich niedriger liegen (natürlich ist es ein neuer Prozess, der noch teurer sein könnte/wird).
Edit: Hatte deine Änderung noch nicht gesehen. Bis wir genauere Zahlen zu den Kosten haben (falls wir die jemals bekommen) , bleibt es allerdings spekulativ.

Ich frage mich gerade ein wenig, wie sich die vermutlich höhere Packdichte bei Polaris auf die Ausbeute auswirkt.

igg
2016-05-12, 14:04:50
Deswegen womöglich auch noch kein Launch auf der Computex - man will, das NV zuerst final die Hosen runterläßt mit der 1070. Weswegen NV derzeit noch nichts finales zur 1070 gesagt hat. Chicken Game ;)
Fällt das 1070 Review NDA nicht zeitgleich mit dem der 1080 (17.5.)? Grundsätzlich ja schonmal ein gutes Zeichen wenn AMD sich zutraut da ranzukommen.

herp_derp
2016-05-12, 14:13:26
Hier ist jemand sehr überzeugt davon, dass Polaris in den Oktober verschoben wurde:
http://www.overclock.net/t/1599305/vc-first-gtx-1080-benchmarks/1240

Bitte sagt mir, dass das nicht sein kann.

iuno
2016-05-12, 14:21:32
Hängt aber auch von den Herstellungskosten ab, dank kleinerer Fläche könnten die ja deutlich niedriger liegen (natürlich ist es ein neuer Prozess, der noch teurer sein könnte/wird).
Edit: Hatte deine Änderung noch nicht gesehen. Bis wir genauere Zahlen zu den Kosten haben (falls wir die jemals bekommen) , bleibt es allerdings spekulativ.
Ein bisschen was laesst sich auch am Speicher, Board und Spannungsversorgung sparen ;p Inwieweit das ins Gewicht faellt habe ich aber keine Ahnung, vielleicht ein paar Dollar (immerhin halb so viele Speicherchips)
Hier ist jemand sehr überzeugt davon, dass Polaris in den Oktober verschoben wurde:
http://www.overclock.net/t/1599305/vc-first-gtx-1080-benchmarks/1240

Bitte sagt mir, dass das nicht sein kann.
Kann sein, kann genausogut reines trolling sein. Woher sollen wir es wissen?
Dass man den Chip nicht ueber 850 MHz bekommt, halte ich aber angesichts der Hitman demo fuer unwahrscheinlich

Schaffe89
2016-05-12, 14:25:38
Das hätte man schon früher merken müssen, dass man Taktprobleme hat.
Absoluter Bullshit, eventuell hatte man welche, kann sein, aber wenn das Marketing schlau ist, dann würde man nich von mitte 2016 sprechen wenn man es nicht halten kann und das Event ist ja auch schon geplant.
Die Karten kommen Juni, soviel ist sicher.

Würde der Chip 850 mhz machen, wäre man irgendwo bei ner 7970 ghz von der Leistung her.
1200 müssen schon drinn sein, sonst schafft man keine Fury.

Zergra
2016-05-12, 14:29:11
Hier ist jemand sehr überzeugt davon, dass Polaris in den Oktober verschoben wurde:
http://www.overclock.net/t/1599305/vc-first-gtx-1080-benchmarks/1240

Bitte sagt mir, dass das nicht sein kann.

Kann ja auch sein das er sich vertan hat, Vega wurde ja scheinbar auf Oktober verschoben. Dann würde das ganze imho Sinn ergeben.

Schaffe89
2016-05-12, 14:30:29
Vertan sprach der Hahn und stieg von der Ente.

fondness
2016-05-12, 14:40:23
$299 sind nicht wirklich viel, AMD hat aktuell die folgenden MSRPs:

R9 390X 8GB - $429 US
R9 390 8GB - $329 US

Da Polaris voraussichtlich über 2560 ALUs verfügen wird und Hawaii nur geringfügig mehr davon hat, sollte Polaris 10 das spielend über den Takt ausgleichen können.

Der oberste Polaris 10 sollte also mehr als $299 kosten, ansonsten würde AMD hier schlechter verdienen. Denn dass ein 232mm² Die auf 14LPP weniger kostet als ein 28nm Die mit 438mm² halte ich für höchst zweifelhaft, bei einem Waferpreis von maximal $3000 pro 28nm 300mm Wafer und auf jedenfall mehr als das Doppelte bei einem 14/16nm 300mm Wafer.


Naja, der Preis wird ja nicht nur vom Die bestimmt. Hawaii 512bit SI, Polaris 10 256 bit -> PCB deutlich preiswerter. Hawaii Stromversorgung und Kühlung für ~300W, Polaris10 für max. 150W, eher weniger.

iuno
2016-05-12, 14:51:44
Kann ja auch sein das er sich vertan hat, Vega wurde ja scheinbar auf Oktober verschoben. Dann würde das ganze imho Sinn ergeben.
Oder einfach nur am trollen, wegen der Sache mit R.I.P.

Fottemberg glaub dass das power gating schuld ist und deshalb die Frequenzen im Eimer seien ;D

ndrs
2016-05-12, 15:14:02
R9 390X 8GB - $429 US
R9 390 8GB - $329 US
[...]
Der oberste Polaris 10 sollte also mehr als $299 kosten, ansonsten würde AMD hier schlechter verdienen.
Aber AMD hatte doch behauptet, dass der VR-Einstieg mit Polaris 10 günstiger wird. Also sollte die UVP ja unter der der 390 liegen.

iuno
2016-05-12, 15:17:14
P10 PRO kann ja immer noch billiger werden und auf Niveau von Hawaii PRO liegen.

Zergra
2016-05-12, 15:25:55
Oder einfach nur am trollen, wegen der Sache mit R.I.P.

Fottemberg glaub dass das power gating schuld ist und deshalb die Frequenzen im Eimer seien ;D
Eine Absprache zwischen AMD wäre doch aktuell gar nicht so unwahrscheinlich. NV deckt die obere Sparte ab und ab Siedelt sich mit 2 Chips unter der 1070GTX an. NV kann so gut im oberen Bereich verkaufen, indem Sie besser Verkaufen. AMD kann dafür einen guten Effizienten Chip verkaufen, der auch einen guten und günstigen Preis hat. Bei <300€ wäre auch ich dabei.

Ravenhearth
2016-05-12, 15:31:56
Das macht für beide keinen Sinn.

Ailuros
2016-05-12, 15:36:08
Sehe ich ähnlich. AMD peilt wohl 329$ oder 349$ an. Deswegen dürfte NV die Taktschraube bei 1070/1080 hochgezogen haben, damit man sich bei der Performance in jedem Fall noch vor P10 plaziert (mit der 1070). Dagegen kann AMD jetzt natürlich weiterhin am Takt von P10 drehen - und kommt eventuell doch noch an die 1070 ran. Deswegen womöglich auch noch kein Launch auf der Computex - man will, das NV zuerst final die Hosen runterläßt mit der 1070. Weswegen NV derzeit noch nichts finales zur 1070 gesagt hat. Chicken Game ;)

Die ~50+MHz die jeglicher IHV in letzter Minute noch dazustecken kann machen den Braten auch nicht mehr fett. Ergo waren NV's Ziel-frequenzen wohl immer schon so relativ hoch.

Damit AMD den Takt auf Polaris erhoeht um sich direkt gegen die 1070 zu plazieren muesste der Abstand auch hier relativ klein sein, ausser es ist ihnen wieder egal dass sie hoehere TDPs als die Konkurrenz haben werden. Nochmal fuer GM204/GTX980 SKUs mit einem um 16+% hoeherem Takt steigt die TDP von den default Frequenzen 180W auf ganze 300W (+66%).

Oder einfach nur am trollen, wegen der Sache mit R.I.P.

Ich hab das Ding zwar nicht verfolgt aber HBM2 Verfuegkbarkeit muss schlagartig gewachsen sein fuer Q3 16'.

Fottemberg glaub dass das power gating schuld ist und deshalb die Frequenzen im Eimer seien ;D

Ich weigere mich dass zu posten was ich darueber gerade denke :rolleyes:

Dino-Fossil
2016-05-12, 15:38:01
Was mich an diesem Gerücht ein wenig stutzig macht sind solche Sachen:

The only cards being offered to partners right now are in a 390x performance range.

Das klingt eher so, als ob da immer noch eine Menge "Journalisten" der Meinung sind, dass sich P10 mit GP104 anlegen soll. Jetzt sickert langsam zu ihnen durch das P10 von der Performance her eher auf Höhe der 390(X) liegt und es vor Oktober keine Karten von AMD geben wird, die mit GP104 konkurrieren (?).

Resultat:
"Polaris ist auf Oktober verschoben"

mboeller
2016-05-12, 15:46:04
Oder einfach nur am trollen, wegen der Sache mit R.I.P.

Fottemberg glaub dass das power gating schuld ist und deshalb die Frequenzen im Eimer seien ;D

... der hat aber ein paar Seiten vorher eingeräumt das er keine Ahnung von GPU's hat

... und hat gerade ein neues Gerücht gestreut... der Polaris 10 IMC ist angeblich für GDDR5X ausgelegt.


IMHO: nachdem die Nvidia-Karten so hoch takten glaube ich, dass die 1150MHz die man Polaris10 zuschreibt für den Notebook-Topdog mit 100W gelten. Für AMD würde es IMHO einfach sehr viel mehr Sinn machen zuerst mal die Notebook GPUs zu bringen.

Sunrise
2016-05-12, 15:47:00
Die ~50+MHz die jeglicher IHV in letzter Minute noch dazustecken kann machen den Braten auch nicht mehr fett. Ergo waren NV's Ziel-frequenzen wohl immer schon so relativ hoch...
Sie waren sicher hoch, also höher als bei Maxwell (damit man auf eine gewisse Endleistung kommt, und man die hohen Preise rechtfertigen kann), vor allem hat sich NV auch ganz klar für den Weg entscheiden, keine Rücksicht darauf zu nehmen, dass GP104-400 180W TDP benötigt, während GM204 "nur" 165W TDP laut NV-Angaben benötigte. Völlig losgelöst von der Endleistung hat man sich somit also verschlechtert. Zumindest rein auf dem Papier, wenn man NUR die TDP betrachtet.

GM204 -165W TDP
GP104 - 400 180W TDP

Man hat aber den Fokus klar auf den Vergleich zur Titan X gelegt (deshalb hat Jensen bei der Vorstellung geschickterweise beim Marketing auch permanent die Titan X erwähnt), damit GP104-400 natürlich verblüffend gut dagegen aussieht. Vor allem wenn man den Preis vergleicht. Man hat ja die Reaktion des Publikums bemerkt, als er den Preis erwähnte im Vergleich zur Titan X. Bei der 1070 war die Reaktion nochmal deutlich stärker.

Denn plötzlich wurde Folgendes draus:

GP104-400 180W TDP
GM200 250W TDP

Das ist eben das geniale am NV-Marketing. Selbst wenn sie irgendwo Defizite haben, sie lenken die Nachricht an die Verbraucher so um, dass es wie ein Vorteil aussieht.

Und die Leistungsdaten und Specs beider Chips kennen wir ja inzwischen, fehlen die Praxistests.

AMDs Ziel hingegen scheint/schien vollkommen in einer andere Richtung zu gehen. Die TDP so stark drücken, dass die Effizienz der Architektur im Vordergrund steht (vor allem im Vergleich zu Hawaii, Tonga und Fiji) und man somit auch problemlos wieder größere Chips mit maximal 250W und hoher Leistung bauen kann, und keine TDP-Negativrekorde aufstellt. Inwieweit sich AMD von NV beeinflussen lässt, werden wir dann wohl sehen, denn bei spekulierten 130W TDP bei P10 wäre eine Angabe deutlich höher bei Vorstellung schon stark auffällig. Dass NV hier AMD jederzeit wieder den Riegel vorschieben kann, ist aber auch klar, denn NV bestimmt den Leistungsbereich und kann somit die Preise machen wie sie lustig sind.

Zumindest solange Vega kommt. Eventuell auch deshalb die Beschleunigung, Vega so schnell als möglich zu bringen, so kann man auch NV preislich etwas unter Druck setzen. GP102 scheint noch in weiter Ferne zu liegen.

iuno
2016-05-12, 15:54:51
... und hat gerade ein neues Gerücht gestreut... der Polaris 10 IMC ist angeblich für GDDR5X ausgelegt.
Ja, der schreibt auch viel wenn der Tag lang ist.

Das habe ich schonmal gesagt: der MC in Polaris ist wohl neu entwickelt worden. Ein MC ist ein Block, der einmal entwickelt und vielfach eingesetzt wird. Es kann schon sein, dass der neue MC mit 5X umgehen kann, das heisst aber noch lange nicht, dass P10 auch jemals auch mit 5X gepaart werden muss.

Agent117
2016-05-12, 15:55:13
Ich hab das Ding zwar nicht verfolgt aber HBM2 Verfuegkbarkeit muss schlagartig gewachsen sein fuer Q3 16'.


War Vega deiner Einschätzung nach aufgrund der HBM2 Verfügbarkeit erst für Ende 16/ Anfang 17 angesetzt?
Wir hatten hier ja neulich mal die Diskussion dass Vega eventuell nur Polaris + HBM und HPC (=Projekt Greenland) sein könnte.

Ist das mit Vega bei TSMC noch aktuell?

Langlay
2016-05-12, 15:55:59
Bis jetzt waren die NV Karten immer höher getakt als die gegenstücke bei AMD und haben weniger Strom bei mehr Leistung verbraucht.


Njet.

HD5870(850Mhz & 188W TDP) vs GTX480 (700MHz & 250W TPD)
R9 290(x) (947/1000Mhz &250W TDP) vs GTX780(ti) (902/928MHz & 250W TDP)

Sind schon 2 Beispiele die mir direkt einfallen.

Ailuros
2016-05-12, 15:57:06
Sie waren sicher hoch, also höher als bei Maxwell (damit man auf eine gewisse Endleistung kommt), vor allem hat sich NV auch ganz klar für den Weg entscheiden, keine Rücksicht darauf zu nehmen, dass GP104-400 180W TDP benötigt, während GM204 "nur" 165W TDP laut NV-Angaben benötigte.

GM204 -165W TDP
GP104 - 400 180W TDP

Ich lass mal die Einzelheit weg dass es in keinem Fall seit Maxwell eigentlich ein TDP ist sondern wie NVIDIA selber auf ihrer Seite angiebt "maximum graphics card power". Von dem abgesehen wenn man so frisch hinter den Ohren ist wie mit 16FF+ kann man nicht soooo leicht auf kleinere perf/W zielen wie mit einem ueberreifen 28HP. TDP hin und her GK104 war auch 294mm2 gross, ihr erster 28nm chip und hatte eine TDP von 195W.

Hiermit fress ich einen Schokoladenbesen fuer Dich falls es eine Zweitauflage von GP104 unter 16FF+ geben sollte dass dieser auch wieder um die 400mm2 schwanken wird mit einem niedrigeren als heute Stromverbrauch. Ja warum wohl? :rolleyes:

Losgelöst von der Endleistung hat man sich somit verschlechtert. Anscheinend hat man aber den Fokus klar auf den Vergleich zur Titan X gelegt (deshalb hat Jensen bei der Vorstellung geschickterweise beim Marketing auch permanent die Titan X erwähnt), damit GP104-400 natürlich verblüffend gut dagegen aussieht.

Denn plötzlich wurde Folgendes draus:

GP104-400 180W TDP
GM200 250W TDP

Und die Leistungsdaten und Specs beider Chips kennen wir ja inzwischen, fehlen die Praxistests.

Du kannst die beiden chips auch auf Gleichstand fuer den Verbrauch bringen, nur wird dann der GP104 eben nicht nur um =/>20% im absoluten Durchschnitt schneller sein sondern ein gutes Stueckt ueber 30% (wenn's mehr wird desto besser), ist aber auch keine besondere Ueberraschung.

Herstellungskosten mal zur Seite: wuerde heute NV einen groesseren chip als 104 fuer den desktop liefern, wird es wohl schwer sein sich auch hier unter der 250W Grenze zu halten. Kein Wunder dass sie stets bei neuen Prozessen fuer ihre groessten chips zumindest einen metal spin brauchen um ihre Ziele zu erreichen wenn nicht sogar oefters 2. GT200 kam erst als mGPU an nach zwei metal spins nachdem es erstmal auf 55nm geschrumpft wurde.

Mirror mirror on the wall.....wie viele spins braucht denn Fiji? Denn wer glaubt dass AMD bzw. ATi je sehr grosse chips nur so aus dem Aermel schuettelte und schuetteln sollte es vielleicht nochmal ueberdenken. Von den Komplikationen in solchen Faellen ist keiner immun...

War Vega deiner Einschätzung nach aufgrund der HBM2 Verfügbarkeit erst für Ende 16/ Anfang 17 angesetzt?
Wir hatten hier ja neulich mal die Diskussion dass Vega eventuell nur Polaris + HBM und HPC (=Projekt Greenland) sein könnte.

Ist das mit Vega bei TSMC noch aktuell?

Keine Ahnung wirklich wo sie am Ende herstellen. Wie ich schon oefters sagte die leaks von beiden IHVs sind verdammt gering und das meisste dass herumfliesst ist absoluter BS. NV kann GP100 nicht in groesseren Mengen als heute bis Ende 16' verkaufen erstens weil die chips zu gigantisch sind und yields eher beschissen und wegen der begrenzten HBM2 Verfuegbarkeit. Das endgueltige Resultat kostet zu viel dass man es nur logisch in high margin Profi Maerkten verkaufen kann. Wieso soll AMD davon selbst zu einem Teil nicht davon betroffen sein und als was genau soll AMD solche einen chip schon im Oktober genau verkaufen? Wenn mir einer antworten wuerde dass AMD einen guten HPC deal gelandet hat und fuer diesen einen begrenzten wafer run machen kann dann unterschreibe ich es gerne. Im jeglichen Gegenfall....?

Sunrise
2016-05-12, 16:03:30
Ja, der schreibt auch viel wenn der Tag lang ist.

Das habe ich schonmal gesagt: der MC in Polaris ist wohl neu entwickelt worden. Ein MC ist ein Block, der einmal entwickelt und vielfach eingesetzt wird. Es kann schon sein, dass der neue MC mit 5X umgehen kann, das heisst aber noch lange nicht, dass P10 auch jemals auch mit 5X gepaart werden muss.
Stimmt prinzipiell schon, nur wenn man den MC so baut, dann sollte man den auch nutzen. Bei 8GB GDDR5X vs. 8GB GDDR5 hätte man Vorteile bei der Effizienz und man müsste die Spannungsversorgung nicht überdimensionieren, ebenso kommt das sicher den SerDes zugute, die man nicht übertrieben stark auslegen muss.

Nachteil:
GDDR5X ist teurer.

Tonga ist natürlich ein Gegenbeispiel bei AMD, hier wusste die eine Hand aber scheinbar auch nicht, was die andere tut (ganz ehrlich, denn sowas kam bisher noch nie vor). Denn dass man Tonga nichtmehr richtig im Markt positionieren konnte, weil auch das PCB mit Nutzung von 384bit Busbreite teurer wurde, das weiß man auch vorher schon. Keine Ahnung, was AMD hier geritten hat.

Da die IP-Blöcke aber sowieso unabhängig voneinander entworfen werden, kann es schon sein (wie du sagst), dass AMD es total Wurst ist, ob jetzt die neue Version da drin ist oder nicht, wenn die Fläche es nicht wesentlich begrenzt. Dann baut mein einfach alles an IP rein was neu ist und fertig ist das Ding. Ob es genutzt wird ist dann in der Tat zweitrangig.

Ob AMD z.B. mit einem alten MC bei P10 auf 225mm² kam oder mit dem (spekulativ) neuen MC mit GDDR5X-Kompatiblität auf 232mm² spielt sicher keine Geige.

Rabiata
2016-05-12, 16:22:30
Denn plötzlich wurde Folgendes draus:

GP104-400 180W TDP
GM200 250W TDP

Das ist eben das geniale am NV-Marketing. Selbst wenn sie irgendwo Defizite haben, sie lenken die Nachricht an die Verbraucher so um, dass es wie ein Vorteil aussieht.

Letztlich zählt die Relation von Leistung zu Verbrauch und Preis, und die scheint ja gegenüber Maxwell durchaus verbessert zu sein.
Sobald mehr als die GP 104-Modelle raus sind, kann der Kunde die absolute Höhe von Leistung und Verbrauch über die Auswahl der Leistungsklasse steuern. GP104-400 noch zu durstig? Nimm eine GP 106...

Die große Frage ist eher, wie steht AMD gegenüber NV da, sobald sich die Portfolios wirklich überschneiden?
Zum Beispiel "kleiner" Vega gegen GP104-400 oder Polaris 10 gegen die nächst "kleinere" Karte unter der GTX 1070.

Complicated
2016-05-12, 16:25:26
HDMI 2.0b für Polaris offiziel bestätigt:
http://www.planet3dnow.de/cms/23748-auch-amd-polaris-kann-hdmi-2-0b/

Sunrise
2016-05-12, 16:31:23
...NV kann GP100 nicht in groesseren Mengen als heute bis Ende 16' verkaufen erstens weil die chips zu gigantisch sind und yields eher beschissen und wegen der begrenzten HBM2 Verfuegbarkeit. Das endgueltige Resultat kostet zu viel dass man es nur logisch in high margin Profi Maerkten verkaufen kann. Wieso soll AMD davon selbst zu einem Teil nicht davon betroffen sein und als was genau soll AMD solche einen chip schon im Oktober genau verkaufen? Wenn mir einer antworten wuerde dass AMD einen guten HPC deal gelandet hat und fuer diesen einen begrenzten wafer run machen kann dann unterschreibe ich es gerne. Im jeglichen Gegenfall....?
Nunja, bisher scheint Samsung der einzige Semi zu sein, der wirklich auch HBM2 liefern kann (die Massenproduktion wurde von Ihnen bestätigt). Hynix kommt erst ab Q3/16 dazu, das heißt das Angebot wird größer, die Preise sollten sich also stabilisieren oder leicht abnehmen.

Es ist aber sehr auffällig, dass nachdem Samsung die Massenproduktion von HBM2 verkündet hat auch GP100 offiziell vorgestellt wurde, und jetzt, wenn Hynix in Q3 HBM2 in Massenproduktion geht auch die Gerüchte mit Vega im Oktober kommen. Da ist doch ein klarer Zusammenhang erkennbar. Vor allem arbeitet AMD sehr eng mit Hynix zusammen, warum sollte AMD noch länger warten wollen? Das wäre ziemlich bescheuert.

Ganz vergleichbar ist es auch nicht mit NV. Denn ein 350mm² Die zu produzieren (relativ zu einem 600mm² Die bei NV) sollte AMD genausogut wie NV hinbekommen, denn GP104 hat ja bereits um die 300mm². Also rein theoretisch, wenn HBM2 verfügbar ist, sollte Vega10 problemlos im Preisbereich einer 980 Ti (Vega10 Salvage) und einer Titan X (Vega10-Vollausbau) verkaufbar sein und zwar noch dieses Jahr.

Die HPC-Deals kann AMD aber sicher an einer Hand abzählen, es sei denn wir übersehen etwas Wesentliches, denn AMD hat mit dem alten Hawaii lediglich deshalb noch ein Fuß im Tor, weil das Ding bis zu 32GB VRAM liefert, sie ziemlich viel DP-Leistung damit haben und es wohl einige Kunden gibt, die den AMD-Workflow nutzen.

ndrs
2016-05-12, 16:36:38
Stimmt prinzipiell schon, nur wenn man den MC so baut, dann sollte man den auch nutzen.
Oder nVidia hat ein Exklusiv-Abkommen mit Micron im Austausch für Entwicklungshilfe abgeschlossen und sich für die ersten paar Monate sämtliche vom Band laufenden Chips gesichert. AMD könnte so zwar Wind von 5X bekommen und einen MC bauen, ihn aber noch nicht so estücken, bis Micron an AMD liefern darf. Nur ne Theorie...

Complicated
2016-05-12, 17:10:51
Welche Entwicklungshilfe soll Nvidia bei GDDR5X geboten haben?

illidan
2016-05-12, 17:26:44
Nochmal fuer GM204/GTX980 SKUs mit einem um 16+% hoeherem Takt steigt die TDP von den default Frequenzen 180W auf ganze 300W (+66%).

lol, mit Sicherheit nicht.

Ravenhearth
2016-05-12, 17:39:11
Halte ich auch für ein Gerücht. Meine EVGA GTX 980 SC ACX 2.0 erreicht durch werksseitige Übertaktung laut CB etwa 12% mehr Performance als eine Stock-980 und braucht 20W mehr. Vielleicht gibt es Modelle, bei denen 300W der Fall sind, aber die sind nicht die Norm.

illidan
2016-05-12, 17:45:38
Das lässt sich auch einfach im Internet nachschlagen.
MSI Gaming 980 mit 1,3Ghz Takt (ca. + 15%): 200W gegenüber ~185W des Referenzdesigns
http://www.tomshardware.de/nvidia-geforce-gtx-970-gtx-980-roundup-vergleichstest,testberichte-241658-14.html
http://www.computerbase.de/2014-11/geforce-gtx-980-test-vergleich-round-up/3/#abschnitt_taktraten_unter_last

Sunrise
2016-05-12, 17:47:33
Kommt immer darauf an, wieviel mehr Spannung man geben muss, denn die geht quadratisch in die Verlustleistung ein.

Pretest
2016-05-12, 18:47:48
Bezüglich dem Polaris auf Oktober verschoben Spekulatius:
https://www.reddit.com/r/Amd/comments/4j16sc/rumour_polaris_validation_failed_might_launch_in/d32uwx7

I just finished listening/watching the quarterly stock market investors presentation from AMD. Basically, Lisa addresses her shareholder's with some information on how business is doing. During the presentation she stated that Polaris is still on track for it's original release date. I'd imagine this is the most current and up to date information, available only within the last 10 minutes.

Polaris scheint also immer noch auf Kurs zu sein.

Botcruscher
2016-05-12, 19:18:54
Aus dem Vega Post wurde jetzt also Polaris. Der Googleübersetzer hat es voll drauf.:freak:

Complicated
2016-05-12, 19:47:25
Die HPC-Deals kann AMD aber sicher an einer Hand abzählen, es sei denn wir übersehen etwas Wesentliches, denn AMD hat mit dem alten Hawaii lediglich deshalb noch ein Fuß im Tor, weil das Ding bis zu 32GB VRAM liefert, sie ziemlich viel DP-Leistung damit haben und es wohl einige Kunden gibt, die den AMD-Workflow nutzen.
Nimmt man dieses neue Joint-Venture mit den Chinesen, denke ich dass da einiges kommen wird:
http://www.planet3dnow.de/cms/23216-amd-aktie-hebt-ab-quartalszahlen-und-chinesischer-server-deal/
AMD wird in das Joint Venture jedoch kein Geld einbringen, sondern ausschließlich das Know-How zur Entwicklung und zum Bau von Serverchips mit allem, was dazugehört (Schnittstellen, Controller, etc.). Der Deal hat einen Umfang von 293 Millionen US-Dollar. Da ist zwar zunächst keine GPU IP in dem Deal vorhanden, doch dieses Joint-Venture wird auch nicht drumherum kommen die neuen Server-CPUs für heterogene Einsätze mit GPUs tauglich zu machen. AMDs Schnittstellen und Controller IP lädt förmlich dazu ein auch AMD GPUs hier zu verwenden. Da ist die Tür zu einem Markt sehr weit geöffnet worden mit einem handfesten Wettbewerbsvorteil aus der Position heraus.

Dural
2016-05-12, 20:09:17
Du siehst das ernsthaft als gewinn für AMD? Sowas macht man nur wenn man kein geld mehr hat! Jahrzente lange erfahrung und entwicklung für schlappe 300millionen und das noch von den chinesen die so wie so alles letztentlich selber machen wollen.

Skysnake
2016-05-12, 20:49:18
Und was ist mit IBM und OpenPower?

Die haben einen sehr ähnlichen Deal mit den Chinesen gemacht.

Complicated
2016-05-12, 20:53:50
Ich sehe das als Eintrittskarte in einen Markt, der nicht jedem zugänglich ist. Und was an den 300 Mios schlapp sein soll erschließt sich mir nicht. Intel lizenziert x86 IP seit Jahrzehnten an AMD und hat darunter nicht gelitten.
Edit: zumal AMD ja an jedem Prozessor mit verdient. Sie sind Teilhaber des Joint Ventures.

OT Details:

http://www.anandtech.com/show/10268/china-calling-amd-forms-joint-venture-for-x86-server-socs-in-china
Finally, let’s talk about the financials and other business aspects of the deal. Overall this is a pure technology investment for AMD; they are not putting any money into the joint venture, but they are contributing a significant amount of technology and technological expertise. It will be partner THATIC that supplies the funding for the venture, along with the remaining IP and expertise. Importantly, this means AMD doesn’t have any financial risk in the joint venture, and should it not pan out then AMD doesn’t lose any of their already limited financial resources.

On the up side however, AMD stands to gain significantly from the deal if it goes well. The initial joint venture licensing agreement calls for AMD to be paid $293 million – spread out over multiple payments that are contingent on the joint venture hitting certain milestones – while AMD will also receive royalty payments on future processors.

Isen
2016-05-12, 21:17:54
War doch klar, dass mit, Lisa su Richtung China geht. Amerikanische Markt ist doch auf dem besten Weg gegen die Wand.

Dural
2016-05-12, 21:43:41
An was verdient man mehr, an einem chip oder an einer lizenz? Ganz eine einfache frage.
Und 300 millionen quasi für alles sind nichts. Nur so als vergleich, intel und nv geben milliarden für die entwicklung aus! Die chinesen lachen sich doch krumm mit den 300millionen.

Kriegsgeier
2016-05-12, 21:47:38
Ich befürchte, dass Polaris 11 und 10 - also beide! Im Wesentlichen wirklich für Konsolen entwickelt wurde.
Und die Desktoplösung aus dieser Entwicklung wird als Nebeneffekt genutzt.

Erst VEGA als reinrassige Desktoplösung???
Möglich wäre es. Oder?

PS: glaube sehr stark daran dass VEGA mit BF1 eingeführt werden soll...

Complicated
2016-05-12, 21:48:49
An was verdient man mehr, an einem chip oder an einer lizenz? Ganz eine einfache frage.Ja und ebenso irrelevant wenn AMD beides bekommt.
Edit: zumal AMD ja an jedem Prozessor mit verdient. Sie sind Teilhaber des Joint Ventures.

OT Details:

http://www.anandtech.com/show/10268/china-calling-amd-forms-joint-venture-for-x86-server-socs-in-china

tm0975
2016-05-12, 22:25:01
An was verdient man mehr, an einem chip oder an einer lizenz? Ganz eine einfache frage.
Und 300 millionen quasi für alles sind nichts. Nur so als vergleich, intel und nv geben milliarden für die entwicklung aus! Die chinesen lachen sich doch krumm mit den 300millionen.

und alle anderen hier lachen sich schlapp darüber, dass du nciht mal die news zum thema lesen kannst. pro verkaufter cpu verdient amd nochmal separat mit. der deal ist ein einstieg in den chinesischen markt. vielviel verkauft amd wohl derzeit dort?! und dass nvidia mrd. für entwichlung ausgibt passiert allenfalls, wenn man die kosten einer dekade zusammen rechnet.

ndrs
2016-05-12, 22:25:13
Welche Entwicklungshilfe soll Nvidia bei GDDR5X geboten haben?
GPU-Prototypen zur Validierung, eventuelle Patente oder einfach nur Geld. Keine Ahnung.

Complicated
2016-05-12, 22:31:04
Also keine. Ich dachte du hättest da eine Quelle... Zuletzt gab es ja Gerüchte Nvidia hätte Speichercontroller IP für HBM von AMD lizenziert. Wurde ja auch umgehend als Unsinn demaskiert. Das ist alles JEDEC und frei zugänglich für Member.

Agent117
2016-05-12, 22:46:59
GPU-Prototypen zur Validierung, eventuelle Patente oder einfach nur Geld. Keine Ahnung.

Es gab ja auch noch das Problem mit der Cache Line Size. Dessen Lösung war sicherlich in Nvidias Interesse, ansonsten hätte man die verdoppeln müssen, was neben dem Aufwand auch Nachteile in Sachen Leistung mit sich bringen könnte (wurde hier par Seiten vorher schonmal geposted).

Sunrise
2016-05-12, 23:08:01
HDMI 2.0b für Polaris offiziel bestätigt:
http://www.planet3dnow.de/cms/23748-auch-amd-polaris-kann-hdmi-2-0b/
Pascal kommt auch mit DP 1.4 (zumindest ready, derzeit noch nicht certified), mal sehen ob AMD nur DP 1.3 bieten kann oder auch DP 1.4 bringt.

Hübie
2016-05-12, 23:13:09
Ja, der schreibt auch viel wenn der Tag lang ist.

Das habe ich schonmal gesagt: der MC in Polaris ist wohl neu entwickelt worden. Ein MC ist ein Block, der einmal entwickelt und vielfach eingesetzt wird. Es kann schon sein, dass der neue MC mit 5X umgehen kann, das heisst aber noch lange nicht, dass P10 auch jemals auch mit 5X gepaart werden muss.

Das wird mit hoher Wahrscheinlichkeit genau so wenig der Fall sein, wie Vega ohne HBM2. Noch unwahrscheinlicher ist es, dass Polaris 10 erst im Oktober kommt. Da hat jemand (im guru3d-Forum) Spaß dran zu tr0llen.

Was sein kann: P10 erhält mit dem Refresh 2017 ein neues Speicherinterface, welches dann GDDR5X kann.

Hauwech
2016-05-12, 23:17:13
...

GP102 scheint noch in weiter Ferne zu liegen.

Ist zwar der falsche Thread dafür aber bis relativ kurz vor der Vorstellung von GP104 haben die meisten auch geglaubt das nVidia erst nach AMD damit auf den Markt kommt. So wenig wie nach außen bezüglich GP104 gedrungen ist, wer weiss schon ob GP102 nicht doch näher ist als gedacht.

Ist zwar nur ein Gedanke aber wenn es stimmt das Vega auf Oktober vorgezogen wurde, könnte es ja durchaus auch mit GP102 zusammenhängen. Und GP106 wurde für die Autogeschichte anscheinend ja auch schon gezeigt.

Sunrise
2016-05-12, 23:54:04
Was sein kann: P10 erhält mit dem Refresh 2017 ein neues Speicherinterface, welches dann GDDR5X kann.
Das würde aber eine neue Maske erfordern, für sehr wenig Änderungen. Das wäre nur dann lohnenswehrt, wenn AMD diese Kosten irgendwie garantiert wieder zurückbekommt. Ich glaube nicht, dass Polaris 2017 durch irgendwas abgelöst wird, dass passiert erst 2018 wieder.

Sind wir uns wirklich sicher, dass (ja, ich weiß, der AMD Slide) ein Refresh von Polaris weiterhin auf 14LPP und im gleichen Preissegment überhaupt Sinn ergibt? Also IMHO spricht da wie gesagt einiges dagegen.

Wie du schon sagtest, entweder er hat bereits den neuen MC (siehe Vega) oder nicht, für alles andere müsste starkes Interesse von irgendwo herkommen und das Budget kann AMD in anderen Bereichen besser nutzen.

Preislich wäre so ein Vega-Refresh auch teurer, da HBM2 2017 sicher noch nicht so günstig sein wird wie GDDR5 oder GDDR5X aufgrund der Packaging-Komplexität. Ob das im Preisbereich den AMD mit Polaris auch anpeilt überhaupt verkaufbar ist? Ich habe da so meine Zweifel.

OBrian
2016-05-13, 01:11:14
Den Chip muß man ja gar nicht refreshen im Sinne einer Umarbeitung, wenn der MC 5X jetzt schon kann. Man baut einfach eine neue Karte mit GDDR5X drauf. Und der Chip hat bis dahin evtl. eine neue Revision, womit sich noch ein paar MHz mehr rausquetschen lassen, ohne daß die TDP explodiert. So kommt man doch bis 2020 hin, wenn 10nm machbar wird. P10 ist ja schließlich ein Mainstreamchip, 2019 wird so eine Karte gerade noch 100 € kosten.

Hübie
2016-05-13, 03:32:19
Ich kann mir schwer vorstellen dass der IMC schon 5X kann...

Complicated
2016-05-13, 03:57:48
Ich glaube P10 ist vom Design her auf Kampfpreis getrimmt und wird daher auch nur GDDR5 nutzen. Wenn die Performance wie vermutet zwischen GTX 980 und 980 Ti liegt, ist es wohl alles genau an dem Durchsatz des 256-bit Interfaces ausgerichtet, was mit günstigem GDDR5 möglich ist. Vega 10 und Vega 11 bilden mit Salvage 4 SKUs die darüber positioniert werden und keine Kampfpreise fahren müssen. Da besteht keine Notwendigkeit den P10 teuer etwas höher zu puschen mit einem Refresh/Redesign.

woodsdog
2016-05-13, 08:17:13
Ich kann mir schwer vorstellen dass der IMC schon 5X kann...

weil....? :rolleyes:

Pirx
2016-05-13, 09:12:31
mangelnde Vorstellungskraft

Malabolge
2016-05-13, 09:15:33
weil....? :rolleyes:

- AMD sowieso zu "blöd" ist, irgendwas richtig zu bauen :rolleyes:
- AMD sowieso ...

iuno
2016-05-13, 09:36:05
Das haengt imho einfach nur voellig davon ab, ob AMD intentionen hatte/hat, 5X auf irgendeinem Produkt (zukuenftig) einzusetzen. Die Machbarkeit anzuzweifeln ist ja wohl laecherlich.
Das sehe ich momentan aber eigentlich nicht. Welches Produkt soll das sein? Eine APU (semi-custom oder nicht) wohl nicht. Ueber P10 kommt nur noch Vega mit HBM. Wenn P10 gut performt und nicht im Limit haengt, trifft das auch auf P11 zu.
Darauf kommt es aber letztlich an. Ich denke, dass AMD nur 5X einsetzen wuerde, wenn unbedingt noetig. Alleine der Effizienz wegen (also fuer Polaris und deren low-end Nachfolger) werden sie das nicht machen, weil Micron der einzige Hersteller ist und den Preis quasi diktieren kann. Zumal Nvidia die Chips zu ueberzogenen Preisen abnehmen kann, weil die 1080 wohl wieder mal ein Margen-Monstrum ist. Ist ja immer noch billiger als auf HBM zu setzen.
Wenn es nur um Effizienz geht, kann man auch GDDR5 Chips mit 1,35V verwenden, aber so viel wird der Speicher bei 256 Bit ohnehin nicht ausmachen.

Ailuros
2016-05-13, 09:53:31
Nunja, bisher scheint Samsung der einzige Semi zu sein, der wirklich auch HBM2 liefern kann (die Massenproduktion wurde von Ihnen bestätigt). Hynix kommt erst ab Q3/16 dazu, das heißt das Angebot wird größer, die Preise sollten sich also stabilisieren oder leicht abnehmen.

Es ist aber sehr auffällig, dass nachdem Samsung die Massenproduktion von HBM2 verkündet hat auch GP100 offiziell vorgestellt wurde, und jetzt, wenn Hynix in Q3 HBM2 in Massenproduktion geht auch die Gerüchte mit Vega im Oktober kommen. Da ist doch ein klarer Zusammenhang erkennbar. Vor allem arbeitet AMD sehr eng mit Hynix zusammen, warum sollte AMD noch länger warten wollen? Das wäre ziemlich bescheuert.

Ganz vergleichbar ist es auch nicht mit NV. Denn ein 350mm² Die zu produzieren (relativ zu einem 600mm² Die bei NV) sollte AMD genausogut wie NV hinbekommen, denn GP104 hat ja bereits um die 300mm². Also rein theoretisch, wenn HBM2 verfügbar ist, sollte Vega10 problemlos im Preisbereich einer 980 Ti (Vega10 Salvage) und einer Titan X (Vega10-Vollausbau) verkaufbar sein und zwar noch dieses Jahr.

Die HPC-Deals kann AMD aber sicher an einer Hand abzählen, es sei denn wir übersehen etwas Wesentliches, denn AMD hat mit dem alten Hawaii lediglich deshalb noch ein Fuß im Tor, weil das Ding bis zu 32GB VRAM liefert, sie ziemlich viel DP-Leistung damit haben und es wohl einige Kunden gibt, die den AMD-Workflow nutzen.

Wer sagt denn dass Vega nur 350mm2 gross wird? Ich bin mir ziemlich sicher dass Vega zumindest 4 TFLOPs DP liefern wird, ergo wuerde ich die gesamte Rechnung nochmal einem 1:2 chip anpassen. Und bevor ich nochmal die These lese dass DP "sehr wenig" bei AMD braucht damit alle Datenpfade richtig laufen, erinnere ich daran dass sie bei Fiji 1:2 weglassen mussten.

Sunrise
2016-05-13, 10:12:03
Wer sagt denn dass Vega nur 350mm2 gross wird? Ich bin mir ziemlich sicher dass Vega zumindest 4 TFLOPs DP liefern wird, ergo wuerde ich die gesamte Rechnung nochmal einem 1:2 chip anpassen. Und bevor ich nochmal die These lese dass DP "sehr wenig" bei AMD braucht damit alle Datenpfade richtig laufen, erinnere ich daran dass sie bei Fiji 1:2 weglassen mussten.
350mm² ist wahrscheinlich etwas zu konservativ, wenn man DP einrechnet. Hierzu als Referenz nochmal der Beitrag von fondness, er hatte das schön zusammengefasst, nachdem wir die längere Diskussion über DP usw. hatten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11026752#post11026752

Vega 10 sollte maximal 350-400mm² haben, ausgehend von 232mm² für P10 mit 2560 ALUs. Etwas mehr als 50% mehr ALUs und zusätzlicher Komplexität für DP und HPC und das HBM2-Interface. Vega 11 hat dann etwa 550mm², sofern es beide wirklich gibt.

4096 ALUs (Greenland, nun Vega 10) und 6144 ALUs (neu, HPC-Konkurrenz für GP100).

Ob es Vega 11 wirklich gibt bezweifle ich aktuell noch, auch wenn AMD das angab. Das Ding wäre dann wahrscheinlich zwar deutlich billiger als bei NV derzeit, aber NV hat auch richtig fette große Lieferverträge mit der Industrie und Institutionen und auch das entsprechende Software-Backend. Bei AMD sieht es da weniger gut aus.

ndrs
2016-05-13, 10:19:57
Ich dachte du hättest da eine Quelle...
Natürlich nicht. Deswegen hatte ich es ja auch klar als meine persönliche Theorie gekennzeichnet :)

iuno
2016-05-13, 10:20:50
Und bevor ich nochmal die These lese dass DP "sehr wenig" bei AMD braucht damit alle Datenpfade richtig laufen, erinnere ich daran dass sie bei Fiji 1:2 weglassen mussten.
nicht dass ich diese These erneut aufschreibe :P aber mussten? Was will man mit HPC auf der Karte mit 4 GiB?
Ich wuerde da schon immer noch Hawaii als Referenz sehen, nicht Fiji, natuerlich kommen aber noch andere Faktoren dazu. HBM2 SI, weitere Aenderungen an der Architektur (hat ja schon bei GCN Gen.3 deutlich mehr Platz/Transistoren gebraucht)

Ailuros
2016-05-13, 10:29:36
350mm² ist wahrscheinlich etwas zu konservativ, wenn man DP einrechnet. Hierzu als Referenz nochmal der Beitrag von fondness, er hatte das schön zusammengefasst, nachdem wir die längere Diskussion über DP usw. hatten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11026752#post11026752

Vega 10 sollte maximal 350-400mm² haben, ausgehend von 232mm² für P10 mit 2560 ALUs. Etwas mehr als 50% mehr ALUs und zusätzlicher Komplexität für DP und HPC und das HBM2-Interface. Vega 11 hat dann etwa 550mm², sofern es beide wirklich gibt.

4096 ALUs (Greenland, nun Vega 10) und 6144 ALUs (neu, HPC-Konkurrenz für GP100).

Ob es Vega 11 wirklich gibt bezweifle ich aktuell noch, auch wenn AMD das angab. Das Ding wäre dann wahrscheinlich zwar deutlich billiger als bei NV derzeit, aber NV hat auch richtig fette große Lieferverträge mit der Industrie und Institutionen und auch das entsprechende Software-Backend. Bei AMD sieht es da weniger gut aus.

Wenn ein "GP102" Grund zur Existenz hat, wieso dann auch nicht ein zweiter Vega chip? Ehrliche Frage.

Sonst eine 180W TDP fuer etwas dass 4 TFLOPs DP erreichen soll? Echt? :freak: :P Wenn's stimmen sollte dann sollte sowohl Intel KNL als auch NV ihren P100 einstampfen und nie wieder einen HPC chip entwickeln.

4000 GFLOPs DP / 180W = 22,22 DP FLOPs/W

P100
5300 GFLOPs DP / 300W = 17,66 DP FLOPs/W

Ich waere froh wenn sie bei 15 landen.

nicht dass ich diese These erneut aufschreibe :P aber mussten? Was will man mit HPC auf der Karte mit 4 GiB?
Ich wuerde da schon immer noch Hawaii als Referenz sehen, nicht Fiji, natuerlich kommen aber noch andere Faktoren dazu. HBM2 SI, weitere Aenderungen an der Architektur (hat ja schon bei GCN Gen.3 deutlich mehr Platz/Transistoren gebraucht)

Eigentlich "muss" man gar nichts nur sterben, aber NV "musste" auch DP beim GM200 weglassen, weil rein zufaellig fuer beide IHVs 20SoC TSMC zur Banane entwickelt hatte.

Sunrise
2016-05-13, 10:33:42
...Sonst eine 180W TDP fuer etwas dass 4 TFLOPs DP erreichen soll? Echt? :freak: :P
Wären immerhin fast 50% mehr TDP als beim großen Polaris, wenn der tatsächlich "nur" 130W TDP hat. Es ist eine recht konservative Schätzung, aber wenn bei DP wirklich alle Einheiten voll aktiv sind, wird das Ding wohl noch etwas mehr ziehen dürfen, das dürfte klar sein. Ist ja kein Spiel, dass unbedingt die Einheiten immer voll auslastet, bei HPC liegt da wohl deutlich mehr dauerhafte durchgehende Last an.

Ailuros
2016-05-13, 10:36:40
Wären immerhin fast 50% mehr TDP als beim großen Polaris, wenn der tatsächlich "nur" 130W TDP hat. Es ist eine recht konservative Schätzung, aber wenn bei DP wirklich alle Einheiten voll aktiv sind, wird das Ding wohl noch etwas mehr ziehen dürfen, das dürfte klar sein. Ist ja kein Spiel, dass unbedingt die Einheiten immer voll auslastet, bei HPC liegt da wohl deutlich mehr dauerhafte durchgehende Last an.

Was zum Henker hat Polaris mit double precision/FP64 genau am Hut? Dank dem niedrigen Durchbruch fuer FP64 auf Polaris wird die Relation auf diesen eher laecherlich sein im Vergleich zu den grossen chips.

Sunrise
2016-05-13, 10:43:04
Was zum Henker hat Polaris mit double precision/FP64 genau am Hut? Dank dem niedrigen Durchbruch fuer FP64 auf Polaris wird die Relation auf diesen eher laecherlich sein im Vergleich zu den grossen chips.
Wenn du die "2x Performance per Watt" ausgehend von Hawaii mit DP auf Vega überträgst, jedoch mit einem viel sparsameren HBM2-Interface ggü. 512bit GDDR5 (mit bis zu 32GB VRAM) bei Hawaii, dann hast du nicht nur Einsparungen beim Stromverbrauch durch HBM2 zusätzlich zu "2x" (weil die sich auf Polaris beziehen), sondern bei 40% mehr ALUs (2816 -> 4096) locker unter 50% weniger TDP dauerhaft anliegen, weil die Effizienz da voll durchschlägt.

Nimm also mal an, dass Hawaii bei DP dauerhaft 300-350W TDP hat, dann nimmst du die oberen Zahlen und kommst auf 180-200W TDP bei Vega. Nachvollziehbar? Das alles unter der Prämisse, das Vega eventuell sogar noch weitere Optimierungen haben könnte, da 14LPP weiter gereift ist.

Nebenbei sind es bei AMD aktuell die einzigen Daten (die von Polaris und Hawaii), auf die wir uns beziehen können. :P

Das ist auch der Grund, warum ich mir einen HPC-Chip mit 6144 ALUs (also Vega 11) schwerlich noch unter 14LPP vorstellen kann. Denn wenn wir bereits bei 200W TDP sind, dürften die zusätzlichen Einheiten maximal noch 100W TDP mehr verbrauchen (300W TDP wie bei NV GP100), was für mich nicht nach viel Spielraum klingt. Also entweder hat Vega 11 weniger ALUs, oder der Takt ist deutlich weiter unten.

iuno
2016-05-13, 10:51:53
Wenn ein "GP102" Grund zur Existenz hat, wieso dann auch nicht ein zweiter Vega chip? Ehrliche Frage.
Es wird doch sowieso zwei Vega Chips geben. Oder sprichst du noch von einem weiteren Vega unterhalb von Greenland/V10 :confused:

Sonst eine 180W TDP fuer etwas dass 4 TFLOPs DP erreichen soll? Echt? :freak: :P Wenn's stimmen sollte dann sollte sowohl Intel KNL als auch NV ihren P100 einstampfen und nie wieder einen HPC chip entwickeln.

4000 GFLOPs DP / 180W = 22,22 DP FLOPs/W

P100
5300 GFLOPs DP / 300W = 17,66 DP FLOPs/W
Naja, schon die jeweiligen direkten Vorgaenger angeschaut?
GPU|TFLOPs (DP)|Watt|GFLOPs DP/Watt
KNC|1,3|300|4,33
GK110B|1,4|235|5,96
Hawaii XT|2,6|275|9,45
Hawaii PRO|2,5|235|10,77

Und jetzt? Haben Intel/Nvidia da ihre Produkte eingestampft?

Unter der Annahme, dass V11 der Kracher wird, der dann richtig Dampf macht, kann man V10 schon auch eine gewisse Effizienz zugestehen, denke ich. Die Maximale Leistungsaufnahme wird aber nicht steigen, daher sollte V11 <300 W bleiben. Und dann muss V10 ja noch irgendwo hin. Warum soll Hawaii so eine Ausnahmeerscheinung sein/bleiben?

fondness
2016-05-13, 10:53:34
4000 GFLOPs DP / 180W = 22,22 DP FLOPs/W

P100
5300 GFLOPs DP / 300W = 17,66 DP FLOPs/W

Ich waere froh wenn sie bei 15 landen.


15 hat schon fast Hawaii. :ugly:
Vega sollte ausgehend von Hawaii (immerhin hat der auch schon ein paar Jahre auf dem Buckel^^) locker bei 20+ DP FLOPs/W landen.
AMD hatte hier auch in der Vergangenheit erheblich Effizienzvorteile bei DP.

Sunrise
2016-05-13, 11:07:22
...AMD hatte hier auch in der Vergangenheit erheblich Effizienzvorteile bei DP.
Nicht nur das. Wenn man sich mal iunos Tabelle anschaut und selbst wenn man KNL mit in die Tabelle dazunimmt (3TFLOPS Peak DP), dann wird Vega ein ziemliches HPC-Monster, egal welchen Vega wir jetzt meinen.

Gipsel
2016-05-13, 11:07:43
Ausgehend von Hawaii wären 22 GFlop/s pro Watt nicht sonderlich überraschend. Die Profi-Version von Hawaii macht 2,6 DP TFlops bei 275W TDP. Faktor 2,5 Energieeffizienz und man ist da.

Botcruscher
2016-05-13, 11:09:51
Wenn ein "GP102" Grund zur Existenz hat, wieso dann auch nicht ein zweiter Vega chip? Ehrliche Frage.
Weil AMD kräftig an R&D gespart hat.

PS: Wohl eher dritter Chip.

Sunrise
2016-05-13, 11:13:44
Ausgehend von Hawaii wären 22 GFlop/s pro Watt nicht sonderlich überraschend. Die Profi-Version von Hawaii macht 2,6 DP TFlops bei 275W TDP. Faktor 2,5 Energieeffizienz und man ist da.
Jup, min. 2x mehr Perf/W für die Architektur und zusätzlich HBM2, alleine das sollte schon voll durchschlagen bei HPC, oder ich fall vom Glauben ab.

StefanV
2016-05-13, 11:26:21
Pascal kommt auch mit DP 1.4 (zumindest ready, derzeit noch nicht certified), mal sehen ob AMD nur DP 1.3 bieten kann oder auch DP 1.4 bringt.
Ja und ein 1366x768 Punkte Fernseher ist auch 'HD Ready'.

Verstehe nicht, warum du hier so viel auf die nVidia Marketingaussagen gibst, denn das sind in erster Linie nur Marketingaussagen!!
Dass kann vieles und gar nichts bedeuten. Und im schlimmsten Fall ist damit gemeint, dass man da einen DP1.4 Bildschirm anschließen kann...

Daher einfach mal abwarten, wie das in der Praxis ausschaut.
Sofern dieses Zeugs nicht von unabhängiger Seite bestätigt wurde, ist das kaum mehr als heiße Luft.

StefanV
2016-05-13, 11:27:34
Was sein kann: P10 erhält mit dem Refresh 2017 ein neues Speicherinterface, welches dann GDDR5X kann.
Und woher weißt du, dass Polaris nicht auch GDDR5X kann?
Verstehe nicht, dass du hier annimmst, dass AMD das nicht implementiert haben soll.

Ailuros
2016-05-13, 11:33:13
15 hat schon fast Hawaii. :ugly:

Mit einer TDP die nur in Deiner Phantasie kursiert?

StefanV
2016-05-13, 11:34:45
Ob es Vega 11 wirklich gibt bezweifle ich aktuell noch, auch wenn AMD das angab. Das Ding wäre dann wahrscheinlich zwar deutlich billiger als bei NV derzeit, aber NV hat auch richtig fette große Lieferverträge mit der Industrie und Institutionen und auch das entsprechende Software-Backend. Bei AMD sieht es da weniger gut aus.
Ja und genau deswegen macht es ja auch Sinn, solch ein Teil zu bringen...

Denn AMD braucht für dieses Segment Karten, die besser sind als das, was 'die anderen' machen, um in diesem Bereich überhaupt hinein zu kommen...

Mit Tahiti und Hawaii hat man ja schon einige zum Nachdenken gebracht.
Wenn sie es jetzt schaffen ein Dickschiff zu bauen, was alles platt macht, könnte das unter Umständen den einen oder anderen zum Handeln veranlassen...

Ailuros
2016-05-13, 11:36:07
Weil AMD kräftig an R&D gespart hat.

PS: Wohl eher dritter Chip.

Nach Anandtech soll es zwei Vega chips geben. Von dem abgesehen hast Du meine Frage wohl nicht verstanden.

Ausgehend von Hawaii wären 22 GFlop/s pro Watt nicht sonderlich überraschend. Die Profi-Version von Hawaii macht 2,6 DP TFlops bei 275W TDP. Faktor 2,5 Energieeffizienz und man ist da.

Schoen waere es fuer jeglichen IHV wenn ein solcher Marketing-technischer Faktor durchgehend fuer alle chips gelten wuerde.

Sunrise
2016-05-13, 11:46:58
Ja und ein 1366x768 Punkte Fernseher ist auch 'HD Ready'.

Verstehe nicht, warum du hier so viel auf die nVidia Marketingaussagen gibst, ....
NV unterstützt nicht nur die nötigen Auflösungen, sondern voraussichtlich auch alle Features (die zusätzliche Kompression, HDR), die bei DP 1.4 vorgesehen sind.

Auszug aus den Specs von GP104:

Display Support: 7680x4320@60Hz (Maximum Digital Resolution)
Standard Display Connectors: DP 1.4, HDMI 2.0b, DL-DVI
Multi Monitor: Yes
HDCP: 2.2

Nebenbei, der durchgehende 10bit-Support inkl. Ultra HD Blu-Ray-fähige Dekoder (RGB / YUV 4:4:4) ist bereits bei GM206 (GTX 960) vorhanden.

Was das jetzt mit HD Ready zu tun haben soll, wird wohl dein Geheimnis sein. Die JEDEC ist einfach nur etwas langsam, bzw. NV wohl zu schnell, daher ist das noch nicht "certified". Für AMD wird wahrscheinlich das Gleiche gelten.

Die Display-Controller und die Video-Processing-IP ist bei NV seit einiger Zeit immer führend. Was hat NV bitte davon, hier pures Marketing zu betreiben...

Dass man einen DP 1.4-fähigen Monitor anschließen kann... Meinst du das Ernst? :facepalm:

iuno
2016-05-13, 11:47:04
Nach Anandtech soll es zwei Vega chips geben. Von dem abgesehen hast Du meine Frage wohl nicht verstanden.
Ich denke, das habe ich auch nicht, du hast aber auch nicht zur Klarstellung geantwortet:
Es wird doch sowieso zwei Vega Chips geben. Oder sprichst du noch von einem weiteren Vega unterhalb von Greenland/V10 :confused:

Du erwartest also, dass es einen HPC-Vega gibt (vorher Greenland) und darunter noch einen Gaming-Vega (analog zu GP102)?
ergo, dass AMD die Anzahl an CUs von der 28 zur 14 nm Generation nicht steigert?

Ailuros
2016-05-13, 11:54:00
Ich denke, das habe ich auch nicht, du hast aber auch nicht zur Klarstellung geantwortet:


Du erwartest also, dass es einen HPC-Vega gibt (vorher Greenland) und darunter noch einen Gaming-Vega (analog zu GP102)?
ergo, dass AMD die Anzahl an CUs von der 28 zur 14 nm Generation nicht steigert?

Da muss ich mich entschuldigen da ich Deinen Post wohl leider ueberflogen habe, sonst haette ich Dir schon geantwortet.

Wie ich schon erwaehnte es war lediglich eine rein spekulative aber ehrliche Frage: wenn NV einen Grund hat einen 3D konzentrierten GP102 chip aufzulegen, dann warum auch nicht AMD?

Gibt es ueberhaupt wenigstens eine ernsthafte Indizie dass es einen Vega chip mit mehr als 64CUs wirklich giebt?

Complicated
2016-05-13, 12:18:00
Man sollte hierbei nicht vergessen, dass AMD auch eine HPC-APU plant. Sie haben somit andere Lineups für HPC und vielleicht andere Designziele.

Hier steht eine 300W APU zur Debatte.
http://www.bit-tech.net/news/hardware/2015/03/31/amd-hpc-roadmap/1
AMD Japan's Junji Hayashi revealed a roadmap for the company which offered a high-level overview of the company's plans. In slides released at the event, Hayashi revealed a roadmap GPU roadmap which suggested a next-generation GPU release in 2016 alongside an accelerated processing unit (APU) suitable for high-performance computing (HPC) use. This would be followed by a next-next-generation launch in 2018, with an APU capable of offering multiple teraflops (trillions of floating-point operations per second) of compute for the HPC market.

These server APUs, Hayashi's slide deck explains, are designed to sit above the server CPU and below the FirePro dedicated graphics board segments. Offering much the same general-purpose performance as the company's existing Opteron family, the HPC APUs are being positioned by the company as being the logical choice for uses where GPGPU acceleration makes sense but there's no thermal envelope or room for discrete graphics. Power draw, however, will be high: Hayashi's comments suggested that the top-end HPC APU could draw between 200W and 300W at full load.


http://n.mynv.jp/articles/2015/03/04/amd_pccluster/images/005l.jpg
http://n.mynv.jp/articles/2015/03/04/amd_pccluster/images/006l.jpg

Daraus ergibt sich ein Bereich im Profisektor den AMD nicht mit diskreten GPUs bedienen muss. Damit wäre ein großer Vega für HPC und ein kleiner Vega nur für Gaming ohne Lücken im Portfolio möglich.

Schaut man zu Nvidia und nimmt den spekulierten GP102, der ja für Gaming optimiert sein soll, würde unterhalb von GP100 bei Nvidia GP104 das Profisegment bedienen müssen. IMHO wäre das eine ziemliche Lücke, die wohl nicht gewollt sein kann.

fondness
2016-05-13, 12:22:54
Mit einer TDP die nur in Deiner Phantasie kursiert?

Das war eine bewusste Übertreibung, deshalb auch der :ugly: smiley. :)
Hawaii hat ~10 DP FLOPs/Watt, da sollten mehr als 15 für einen FinFET-Chip kein Problem darstellen.

iuno
2016-05-13, 12:32:49
Gibt es ueberhaupt wenigstens eine ernsthafte Indizie dass es einen Vega chip mit mehr als 64CUs wirklich giebt?
Nein, es gibt nichts handfestes, fuer GP102, den du genannt hast, aber auch nicht.
Aber Gegenfrage, bzgl. des oben angesprochenen: Wieso sollte AMD's Lineup bei unter 400 sqmm, unter 250 Watt, 2 HBM Stacks und 64 CUs aufhoeren? Das ergibt doch noch weniger Sinn, als dass Vega an die 20 GFLOPs/Watt schafft ;)

Ailuros
2016-05-13, 12:56:20
Nein, es gibt nichts handfestes, fuer GP102, den du genannt hast, aber auch nicht.
Aber Gegenfrage, bzgl. des oben angesprochenen: Wieso sollte AMD's Lineup bei unter 400 sqmm, unter 250 Watt, 2 HBM Stacks und 64 CUs aufhoeren? Das ergibt doch noch weniger Sinn, als dass Vega an die 20 GFLOPs/Watt schafft ;)

Wenn der HPC chip wirklich "nur" 64CUs hat, dann wird der hypothetische 3D only chip wohl schwer mehr als das haben, weil es dann wohl eher ein abgespecktes etwas sein wird als ein total neu aufgelegter chip.

Uebrigens beindruckt mich schon seit langem dass die meisten von Hawaii die area in Relation zu CUs ausgehen. Wenn AMD wirklich fundamentale Aenderungen an der Architektur vorgenommen haben dann sind sie wohl auch nicht umsonst. Es erwartet wohl keiner hier einen Fiji die shrink auf 14LPP mit HBM2 draufgeklatscht oder?

iuno
2016-05-13, 13:06:13
Ich gehe ja im Gegensatz zu dir auch nicht von einem 3D-only Vega aus. Es gibt aber 2 Chips. Ein abgespeckter Chip zaehlt nicht als zweiter Chip.

Mit den oben genannten Eckdaten erwarte ich also Vega 10, der auch auf die HPC APU/MCM kommt und Vega 11 spaeter darueber als dGPU die dann ziemlich an die Grenze geht, so wie GP100. Beide Vega koennten/sollten auch fuer Gaming eingesetzt werden.
AMD kann es sich imho nicht leisten einen Chip extra nur fuer den einen oder den anderen Bereich zu machen, vor allem nicht weil sie auch nicht die Mengen absetzen wie Nvidia. Und das hat eigentlich wenn man ehrlich ist sowohl bei Tahiti als auch bei Hawaii bisher auch ganz gut geklappt. Ich finde den Pessimismus dahingehend etwas ueberzogen/unangebracht.

Es erwartet wohl keiner hier einen Fiji die shrink auf 14LPP mit HBM2 draufgeklatscht oder?
Verstehe die Argumentation nicht. Selbst wenn man 1:1 von den alten Chips projiziert ist die Aussicht ja immer noch positiver als das was du suggerierst. Wenn der Transistorcount steigt hat das ja auch Gruende und positive Auswirkungen, sonst kann man es auch grad lassen.

Ailuros
2016-05-13, 13:12:37
Nochmal ich hab eine Frage gestellt und gehe VON GAR NICHTS aus. Schon ein ziemlich grosser Unterschied.

Sonst "es gibt 2 chips" nur weil jemand bei Anandtech es geschrieben hat (ausser es gibt einen weiteren Anhalt/Indizie der mir nicht bewusst ist) garantiert mir wenig bis gar nichts denn die Herren sind auch nicht immun zu Missverstaendnissen wie ziemlich jeder der sich mit der Materie beschaeftigt ausser den eigentlichen IHV Angestellten.

AMD kann es sich imho nicht leisten einen Chip extra nur fuer den einen oder den anderen Bereich zu machen, vor allem nicht weil sie auch nicht die Mengen absetzen wie Nvidia. Und das hat eigentlich wenn man ehrlich ist sowohl bei Tahiti als auch bei Hawaii bisher auch ganz gut geklappt. Ich finde den Pessimismus dahingehend etwas ueberzogen/unangebracht.

Ach und sie koennen es sich leisten zwei HPC chips verschiedener Groesse aufzulegen welches sie bis heute noch nie angestellt haben? Es ist ueberhaupt kein Pessimismus. Irgend etwas stimmt hier nicht oder ich verpasse hier wesentliches. AMD ist der letzte IHV der resources dafuer hat mehr als EINEN chip fuer Profi-Maerkte zu entwickeln.

iuno
2016-05-13, 13:16:49
Ach und sie koennen es sich leisten zwei HPC chips verschiedener Groesse aufzulegen welches sie bis heute noch nie angestellt haben?
Tahiti und Hawaii? Case closed?

Ailuros
2016-05-13, 13:18:02
Tahiti und Hawaii? Case closed?

Nein.

iuno
2016-05-13, 13:20:00
;D
Und warum nicht?

Zumal das auch zu der Konkurrenzsituation passt.
Tahiti vs GK104, V10 vs GP104
Hawaii vs GK110, V11 vs GP100

Ich sage ja nicht, dass die beiden annaehernd zeitgleich kommen sollen. Dazu kommt ja noch, dass V10 einfach der zweite Einsatzbereich auf einem MCM nachgesagt wird.

Ailuros
2016-05-13, 13:28:12
Aus dem einfachen Grund dass zwischen dem Tahiti und Hawaii launch ganze 22 Monate lagen und noch einfacher dass Hawaii die zweite 28nm Auflage war die Maxwell als direkten Konkurrenten hatte. Ich kann es eben nicht so einfach mit Vega eventuell vergleichen weil dieses auf AMD's roadmap fuer 2017 anliegt und Navi nach >15 Monaten als Nachfolger projeziert wird.

Wenn AMD wirklich zwei Vega chips verschiedener Groesse brauchen sollte, dann heisst es wohl eher dass der erste Vega chip der veroeffentlicht wird zu schwach sein koennte fuer HPC. Oder am allereinfachsten es gibt nur einen einzige Vega und der Rest ist einfach BS. Genauso wie AMD Hawaii angeblich neu aufgelegt haben sollte bzw. dass noch X clusters im chip flach liegen oder aehnlicher Duenschiss der in so manchen moechtegern writeups im Netz auftauchten.

Gipsel
2016-05-13, 15:17:52
Schoen waere es fuer jeglichen IHV wenn ein solcher Marketing-technischer Faktor durchgehend fuer alle chips gelten wuerde.Natuerlich nicht für alle. Aber HawaiiPro liegt auf den FirePro-Karten trotz Einheitendeaktivierung über 10 GFlops/W. Voll aktiviert auf dem niedrigeren Takt der Pro wären das ja eher noch mehr (mit dem höheren Takt der Verkaufsversion liegt man bei knapp 10). Es reicht also Faktor 2 für ein ähnlich ausgelegtes Modell. Nur mal zum Vergleich, nV hat gegenüber dem Vorgängermodell auf 28nm mit dem GP100 etwa Faktor 3 geschafft. Okay, die haben den zusätzlichen Effekt der Steigerung der SP-Rate von 1/3 auf 1/2 (was die DP-Energieeffizienz steigen lassen sollte), aber sonst? Warum sollte Faktor 2 ausgehend von Hawaii nicht drin sein?
Uebrigens beindruckt mich schon seit langem dass die meisten von Hawaii die area in Relation zu CUs ausgehen. Wenn AMD wirklich fundamentale Aenderungen an der Architektur vorgenommen haben dann sind sie wohl auch nicht umsonst. Es erwartet wohl keiner hier einen Fiji die shrink auf 14LPP mit HBM2 draufgeklatscht oder?Natürlich nicht, aber so fundamental hat AMD die CUs wohl nicht umgestellt. Die Implementation wurde generalüberholt, aber die Grundkonzeption der CUs hat sich schwerlich geändert. Am Frontend hat sich was getan. Aber falls das zu einer deutlichen Verschlechterung der Performance pro Transistor führen würde, wäre das ja schlecht investierter Aufwand.
Somit ist der Grund für Hawaii als Ausgangsbasis ganz einfach, daß Hawaii eben im Vergleich zu Polaris 10 mit der CU-Zahl am dichtesten dranliegt. Insbesondere paßt auch die Halbierung des (bei Shrinks nicht gut skalierenden) Speicherinterfaces auf 256Bit ganz gut zur groben Halbierung der Fläche bei Polaris 10 auf 14LPP. Weiterhin hat Hawaii mit der ganzen HPC-Funktionalität (ECC, 1/2 DP-Rate) gegenüber einem Consumermodell (mit 1/16 DP-Rate) bereits eine Handvoll-Extra-Transistoren verbaut, die teilweise die Mehrtransistoren durch den Überabeitung der Architektur kompensieren.
Aber es wurden ja auch schon weitere Datenpunkte zum Vergleich genannt (wie Pitcairn, im Vergleich zu Polaris 10 ebenfalls 256Bit-Interface, etwas kleinere, aber grob vergleichbare Fläche; bzw. die Progression der Diefläche von Pitcairn über Tahiti zu Hawaii). All das ändert nicht so viel.
Aber man kann natürlich auch gerne Fiji im Vergleich zum Vega mit 4096SPs heranziehen, wenn Dir das besser paßt. Auf 596mm² gibt es dort ein Interface für 4 HBM-Stacks. Dann shrinke das mal um den Faktor ~2 und addiere wieder etwas für die schlecht skalierende PCIe- und Display-Interfaces. Das Speicherinterface halbiert sich ja praktisch von vier Stacks auf zwei. Wer glaubt, daß da mehr als 400mm² bei rumkommen, überschätzt den Aufwand für die Architekturänderungen und 1/2Rate-DP wohl ziemlich (man vergleiche wiederum Pitcairn, Tahiti und Hawaii) oder wir überschätzen den Anstieg der Packdichte (aber es gibt ja sogar Aussagen von >2, wenn man darauf setzt). Die von mir mal genannten 350-380mm² für einen Vega mit 4096SPs und 2 HBM-Stacks würde ich fast noch konservativ nennen. Da paßt ja fast noch ein schnelles Interface zur Anbindung an ein paar Zen-Kerne auf einem Interposer für diesen ominösen "Zeppelin" mit drauf (dann könnte man näher an die 400mm² kommen). Aber das ist natürlich Alles nur Spekulation.

Sunrise
2016-05-13, 15:45:17
Oder am allereinfachsten es gibt nur einen einzige Vega und der Rest ist einfach BS.
So stellt sich die Sache aktuell für mich dar. Es sei denn AMD hat mit der FirePro-Serie tatsächlich soviel Kundschaft, sodass sich solch ein zusätzlicher Chip lohnen würde. Selbst NV hatte erst jetzt einen extra Chip hauptsächlich für HPC gebaut, aufgrund ihrem Fokus auf Gaming, Workstation, HPC. Aber das auch nur, weil sie Intel nicht mehr Marktanteil geben dürfen und weil NV bereits viele Kunden hat, die mit CUDA arbeiten. Zusätzlich kann man damit natürlich ordentlich Geld verdienen, wie sonst nirgendwo, die Margen sind gigantisch.

Der AMD Slide ohne Details zu Vega, nur mit Nennung von HBM2 als Änderung ist einfach extrem verwirrend. Da kann man sich im Prinzip alles mögliche aus der Nase ziehen und ist am Ende auch nicht schlauer.

Hübie
2016-05-13, 15:55:55
Die CU soll jetzt doch angeblich zwei skalare ALUs haben oder? Erfordert größere Register, aber sonst?
Ehrlich gesagt erwarte ich einen Fiji geschrumpft mit HMB2 plus die genannten Änderungen (ich beziehe mich auf die Folie mit den "New"-Bäm :D)

Ailuros
2016-05-13, 16:13:03
So stellt sich die Sache aktuell für mich dar. Es sei denn AMD hat mit der FirePro-Serie tatsächlich soviel Kundschaft, sodass sich solch ein zusätzlicher Chip lohnen würde. Selbst NV hatte erst jetzt einen extra Chip hauptsächlich für HPC gebaut, aufgrund ihrem Fokus auf Gaming, Workstation, HPC. Aber das auch nur, weil sie Intel nicht mehr Marktanteil geben dürfen und weil NV bereits viele Kunden hat, die mit CUDA arbeiten. Zusätzlich kann man damit natürlich ordentlich Geld verdienen, wie sonst nirgendwo, die Margen sind gigantisch.

Der AMD Slide ohne Details zu Vega, nur mit Nennung von HBM2 als Änderung ist einfach extrem verwirrend. Da kann man sich im Prinzip alles mögliche aus der Nase ziehen und ist am Ende auch nicht schlauer.

Gott es gab in der Vergangenheit schon angebliche Codenamen und am Ende war es nur eine daemliche mGPU mit dem gleichen Brei. Ich kann zwar nichts ausschliessen, aber irgendwo fehlt mir der eigentliche Zweck bzw. Sinn fuer einen zweiten Vega.

Gipsel's Post muss ich oben noch mit Ruhe durchlesen denn ich renn in den letzten Tagen wie ein Spinner rum....

illidan
2016-05-13, 16:21:11
Und woher weißt du, dass Polaris nicht auch GDDR5X kann?

Wenn die Daten für die PS4 Neo stimmen (geringer Bandbreitenzuwachs bei deutlich gesteigerter Rechenleistung), wird Polaris 10 5X überhaupt nicht benötigen. Erst recht nicht, wenn der Takt nicht Richtung Maxwell OC-Karten oder besser geht.

iuno
2016-05-13, 16:36:25
Ehrlich gesagt erwarte ich einen Fiji geschrumpft mit HMB2 plus die genannten Änderungen (ich beziehe mich auf die Folie mit den "New"-Bäm :D)
Die Folie bezieht sich auf Polaris. Analog zu den vorherigen Iterationen kann bei Vega mehr oder weniger zusaetzlich zu dem umgebaut werden. Uncore oder aber auch an den CUs selber.
Ich weiss nicht mal ob es ueberhaupt 2 GCN Chips mit dem genau selben IP Level gibt oder ob das sogar fuer P10/P11 ueberhaupt zutrifft.

tm0975
2016-05-13, 16:43:31
auf den effizienz-folien von AMD hat vega eine höhere effizienz als polaris. vermutlich hat polaris vorrangig fertigungsspezifische vorteile, während vega bessere stromsparmechanismin haben könnte.

Agent117
2016-05-13, 16:44:56
Wenn die Daten für die PS4 Neo stimmen (geringer Bandbreitenzuwachs bei deutlich gesteigerter Rechenleistung), wird Polaris 10 5X überhaupt nicht benötigen. Erst recht nicht, wenn der Takt nicht Richtung Maxwell OC-Karten oder besser geht.

Nein das kann man so nicht sagen. Der GPU Teil der PS4.5 bringt es auf 4200GFlops Rechenleistung (2304SP a 911Mhz) und dabei 6800Mhz effektiven Speichertakt.
Die bisherigen Spekulationen für Polaris 10 sprechen von 2560SP mit 1150Mhz
und das sind gleich 5900GFlops, also 40% Mehr.
Für 40% mehr Bandbreite braucht man GDR5X mit 9500Mhz.

Macht man die gleiche Rechnung mit der R9 M480 kommt man für Polaris 10XT nur noch auf etwa 7500Mhz notwendigen effektiven Speichertakt.

Ich nehme mal an dass die M480 tendentiell etwas bandbreitenlimitiert ausgelegt sein könnte, da das in dem Performancesegment kein arg großer Beinbruch ist.
Die PS4.5 hat dagegen wmgl. etwas übertrieben viel Bandbreite da sie ja 4K fähig sein soll.
So liegt das Optimum für Polaris 10 vlt irgendwo in der Mitte.

Sunrise
2016-05-13, 17:01:30
auf den effizienz-folien von AMD hat vega eine höhere effizienz als polaris. vermutlich hat polaris vorrangig fertigungsspezifische vorteile, während vega bessere stromsparmechanismin haben könnte.
http://www2.pic-upload.de/thumb/30638942/12-ImprovementRoadmap_low.png (http://www.pic-upload.de/view-30638942/12-ImprovementRoadmap_low.png.html)


Integrated Voltage regulation


Environment and reliability aware boost


Advanced Bandwidth compression


Per-IP adaptive voltage


Workload aware energy optimization

Diese Teile erklären recht gut, wo die Reise hingeht. Und das GDDR5X wohl nicht (zwingend) benötigt wird. Ebenso die enormen Stromspar- und somit Effizienz-Vorteile von Polaris. Ob Vega da noch mehr bekommt, oder ob Polaris davon vielleicht etwas fehlt, ist unklar.

Der Fertigungsprozess kommt natürlich noch dazu. Und Vega bekommt HBM2, das gibt nochmal Effizienzvorteile, wenn man es auf die Gesamt-Perf/W des Chips rechnen würde.

fondness
2016-05-13, 17:27:38
Gott es gab in der Vergangenheit schon angebliche Codenamen und am Ende war es nur eine daemliche mGPU mit dem gleichen Brei. Ich kann zwar nichts ausschliessen, aber irgendwo fehlt mir der eigentliche Zweck bzw. Sinn fuer einen zweiten Vega.


Naja, Polaris10 liegt bei ~230mm². Da braucht es nicht viel Phantasie, um sich vorzustellen, das da darüber noch mehr wie ein Chip Platz hat. Gerade wo Lisa die Bedeutung des High-Ends immer wieder betont hat, und AMD mit Fiji wohl endgültig die small-Chip-Strategie aufgegeben hat.

Leonidas
2016-05-13, 17:28:42
Neue, abweichende Specs:
http://www.techpowerup.com/222450/more-polaris10-and-polaris11-specifications-revealed

P10
2048 SE
5,5 TFlops
256 Bit GDDR5X (aber wohl trotzdem nur GDDR5 genutzt)
nicht mehr als 150W TDP

P11
896 SE
2,5 TFlops
(angenommen) 128 Bit GDDR5
50W TDP

... auch bei AMD also steigende Taktraten (~1340 MHz bzw. ~1400 MHz)

fondness
2016-05-13, 17:31:39
Für 5.5 TFLOPs bei 2048 SPs bräuchte es immerhin 1,35Ghz Takt, beim kleinen Chip sogar 1,4Ghz. Also womöglich taktet auch AMD deutlich höher mit den neuen Chips?

Blediator16
2016-05-13, 17:32:46
Sollen angeblich Laptop Teile sein :freak:

reaperrr
2016-05-13, 17:33:24
edit: ninja'd.

Wenn's stimmt, taktet P10 (XT ?) mit 1,35 GHz und P11 (XT ?) mit 1,4 GHz Chiptakt.

Das würde auch dazu passen, dass P10 "nur" in der Region von 390(X) liegen soll, 39% mehr Chip-Takt als Tonga XT + Architekturverbesserungen sollte ziemlich genau in dem Bereich landen.

Etwas fraglich sind dann aber die kolportierten 234mm², das wäre nämlich fast schon etwas viel für die Specs. Andererseits, vielleicht brauchen die Architektur-Änderungen, neueren UVD/VCE/HDMI/DPort-Revisionen usw. einfach mehr Platz, evtl. wurde der L2-Cache pro SI-Kanal verdoppelt und vielleicht stimmen die 2304 ALUs ja doch und wir bekommen bloß aus Yield-Gründen keinen Vollausbau.


P11 hätte damit übrigens sogar ohne Berücksichtigung von Architektur-Verbesserungen schon 54% mehr Rohleistung als die 360, in <50W wäre das schon nicht schlecht, könnte in der Praxis >= GTX 950 OC/270X ausfallen.

Godmode
2016-05-13, 17:34:19
Neue, abweichende Specs:
http://www.techpowerup.com/222450/more-polaris10-and-polaris11-specifications-revealed

P10
2048 SE
5,5 TFlops
256 Bit GDDR5X (aber wohl trotzdem nur GDDR5 genutzt)
nicht mehr als 150W TDP


Das wäre von der Rechenleistung recht ähnlich der GTX 1070.

fondness
2016-05-13, 17:35:49
Naja, die GTX1070 hat 6,5 TFLOps, also ein ganze TFLOP mehr. ;)

HOT
2016-05-13, 17:39:01
Hm, die 36CUs geistern ja auch noch herum. 40 war eh nur ne Speku ohne Substanz. Hört sich für mich schwer nach Salvage-Varianten an. Demnach hat P10 XT hat 36CUs mit GDDR5X. So ein Chip hätte kaum mehr als 5Mia Transistoren und würde ganz gut in 232mm² reinpassen, selbst bei moderater Packdichte und dafür höheren Taktraten. Natürlich kommt man mit 36CUs kaum an der 1070 vorbei.
Also:
P11 Pro: 14 CUs = 896 Shader 128Bit GDDR5
P11 XT: 18-20 CUs = 1152-1280 Shader bei 128Bit GDDR5
P10 Pro: 32CUs = 2048 Shader bei 256Bit GDDR5
P10 XT: 36CUs = 2560 Shader bei 256Bit GDDR5(X)

fondness
2016-05-13, 17:41:39
Interessante Aussage dazu von Videochardz:

Our comment: We received the exact same specifications just few days ago. Although it was noted that those are specifications for mobile GPUs, so you may want to take this into consideration.

http://videocardz.com/59903/possible-polaris-10-and-polaris-11-specifications-emerge

Leonidas
2016-05-13, 17:50:33
Sind es Mobile-Specs, wird die Sache noch fetter. Denn dann sind im Desktop ja *noch* höhere Taktraten zu erwarten.



Fällt das 1070 Review NDA nicht zeitgleich mit dem der 1080 (17.5.)?


Nein, 1070 kommt erst am 10. Juni. Eventuell wartet AMD ab, bis das Teil wirklich offenbart ist, damit man passend kontern kann bzw. NV nicht in letzter Minute noch die Taktfrequenzen ändert.




Nachteil:
GDDR5X ist teurer.


Vorteil:
GDDR5X wird im Laufe des Lebens der Grafikkarte immer billiger. Primär die hohen Anfangsaufschläge werden gut abschmelzen. Gute Wahl, wenn man später mal damit rechnen muß, mit dieser Grafikkarte in einen Preiskampf gehen zu müssen.

Ailuros
2016-05-13, 17:55:14
Naja, Polaris10 liegt bei ~230mm². Da braucht es nicht viel Phantasie, um sich vorzustellen, das da darüber noch mehr wie ein Chip Platz hat. Gerade wo Lisa die Bedeutung des High-Ends immer wieder betont hat, und AMD mit Fiji wohl endgültig die small-Chip-Strategie aufgegeben hat.

Wenn AMD vorhat ihre Taktik seit R600 zu aendern dann natuerlich touche. In jeglichem anderen Fall war Fiji eine Ausnahme der Notwendigkeit und die halten sich von sehr komplizierten und grossen chips fern.

Gipsel
2016-05-13, 17:55:18
Die CU soll jetzt doch angeblich zwei skalare ALUs haben oder? Erfordert größere Register, aber sonst?
Zur ersten Frage, woher hast Du denn das? Kann ich nicht so recht glauben.
Und zur zweiten Frage: Nein, das erfordert keine größeren Register.

reaperrr
2016-05-13, 18:04:14
Also:
P11 Pro: 14 CUs = 896 Shader 128Bit GDDR5
P11 XT: 18-20 CUs = 1152-1280 Shader bei 128Bit GDDR5
P10 Pro: 32CUs = 2048 Shader bei 256Bit GDDR5
P10 XT: 36CUs = 2560 Shader bei 256Bit GDDR5(X)
Dann wäre bei P11-Pro prozentual mehr deaktiviert als bei P10-Pro, das halte ich für ziemlich unwahrscheinlich. 16 CUs im Vollausbau sind mMn realistischer.

Dass P11 weniger als halb so viel Strom brauchen soll klingt für mich auch nach weniger als halb so vielen CUs wie P10, auch im Vollausbau. Zumal mehr als 16 CUs bei den Taktraten auch nicht unbedingt nötig wären.

Natürlich kommt man mit 36CUs kaum an der 1070 vorbei.
War von 'vorbei' denn jemals die Rede?

Jedenfalls, wenn die 32CUs @ 1.35 GHz wirklich mobile Specs sind, könnten es im Desktop durchaus 36CUs @ 1,4-1,5 GHz werden. Und 36CUs @ 1,45 GHz wären z.B. 6,65 TFLOPs...

iuno
2016-05-13, 18:05:32
Verbesserungen clock/power gating sind schon in Polaris drin, nicht erst Vega. Das zeigt ja schon der veroeffentlichte drm code.
WhyCry der Witzbold. Will die Infos seit ein paar Tagen haben, hat aber nicht veroeffentlicht? Schon klar :rolleyes:

Ich wuerde mal noch nicht zu viel auf die Infos geben. Mobile specs hin oder her, 150 Watt sind mobil verdammt viel, das muss nicht unbedingt zutreffen...

Ailuros
2016-05-13, 18:10:41
Natuerlich nicht für alle. Aber HawaiiPro liegt auf den FirePro-Karten trotz Einheitendeaktivierung über 10 GFlops/W. Voll aktiviert auf dem niedrigeren Takt der Pro wären das ja eher noch mehr (mit dem höheren Takt der Verkaufsversion liegt man bei knapp 10). Es reicht also Faktor 2 für ein ähnlich ausgelegtes Modell. Nur mal zum Vergleich, nV hat gegenüber dem Vorgängermodell auf 28nm mit dem GP100 etwa Faktor 3 geschafft. Okay, die haben den zusätzlichen Effekt der Steigerung der SP-Rate von 1/3 auf 1/2 (was die DP-Energieeffizienz steigen lassen sollte), aber sonst? Warum sollte Faktor 2 ausgehend von Hawaii nicht drin sein?

Ich hab offensichtlich gegen einen Faktor 2.5x kommentiert, wobei 2.0 schon mal ein Stueck niedriger ist was aber auch nicht gegen meine Aussage spricht dass ein Ideal-Fall einer neuen Architektur sich eben NICHT ueber die gesamte Produkt-Familie verstreut.

Natürlich nicht, aber so fundamental hat AMD die CUs wohl nicht umgestellt. Die Implementation wurde generalüberholt, aber die Grundkonzeption der CUs hat sich schwerlich geändert. Am Frontend hat sich was getan. Aber falls das zu einer deutlichen Verschlechterung der Performance pro Transistor führen würde, wäre das ja schlecht investierter Aufwand.
Somit ist der Grund für Hawaii als Ausgangsbasis ganz einfach, daß Hawaii eben im Vergleich zu Polaris 10 mit der CU-Zahl am dichtesten dranliegt. Insbesondere paßt auch die Halbierung des (bei Shrinks nicht gut skalierenden) Speicherinterfaces auf 256Bit ganz gut zur groben Halbierung der Fläche bei Polaris 10 auf 14LPP. Weiterhin hat Hawaii mit der ganzen HPC-Funktionalität (ECC, 1/2 DP-Rate) gegenüber einem Consumermodell (mit 1/16 DP-Rate) bereits eine Handvoll-Extra-Transistoren verbaut, die teilweise die Mehrtransistoren durch den Überabeitung der Architektur kompensieren.
Aber es wurden ja auch schon weitere Datenpunkte zum Vergleich genannt (wie Pitcairn, im Vergleich zu Polaris 10 ebenfalls 256Bit-Interface, etwas kleinere, aber grob vergleichbare Fläche; bzw. die Progression der Diefläche von Pitcairn über Tahiti zu Hawaii). All das ändert nicht so viel.
Aber man kann natürlich auch gerne Fiji im Vergleich zum Vega mit 4096SPs heranziehen, wenn Dir das besser paßt. Auf 596mm² gibt es dort ein Interface für 4 HBM-Stacks. Dann shrinke das mal um den Faktor ~2 und addiere wieder etwas für die schlecht skalierende PCIe- und Display-Interfaces. Das Speicherinterface halbiert sich ja praktisch von vier Stacks auf zwei. Wer glaubt, daß da mehr als 400mm² bei rumkommen, überschätzt den Aufwand für die Architekturänderungen und 1/2Rate-DP wohl ziemlich (man vergleiche wiederum Pitcairn, Tahiti und Hawaii) oder wir überschätzen den Anstieg der Packdichte (aber es gibt ja sogar Aussagen von >2, wenn man darauf setzt). Die von mir mal genannten 350-380mm² für einen Vega mit 4096SPs und 2 HBM-Stacks würde ich fast noch konservativ nennen. Da paßt ja fast noch ein schnelles Interface zur Anbindung an ein paar Zen-Kerne auf einem Interposer für diesen ominösen "Zeppelin" mit drauf (dann könnte man näher an die 400mm² kommen). Aber das ist natürlich Alles nur Spekulation.

Ich wuerde auch mit einer albernen Milchmaedchenrechung auf 400mm2 kommen wenn ich einfach denken wuerde dass wenn NV fuer 5.3 TFLOPs ganze 15.3b braucht, wuerde Vega dann fuer 4.0 einfach nur um die 11+ brauchen welches bei einer Packdichte von ca. 28Mio/mm2 auf irgendwo 400mm2 kommt.....wird aber wohl nicht so einfach sein eben weil die idiotische Rechnung erstmal an der Frequenz scheitern wird.

Ich habe momentan von der neuen Generation auf dem anderen Ufer einen GP104 mit 40 clusters die 7.2 Mrd Transistoren entsprechen und auf der anderen Seite teilweise wahrscheinlich als Konkurrent bis zum einem Punkt einen Polaris chip der mit eingeschaetzten =/>6.5 Mrd (?) und 36 clusters (?) im Endeffekt dank moeglicher groesserer Packdichte auch um keine Welten kleiner sein wird als GP104 (und ja bei diesem kostet natuerlich die Frequenz-spielerei auch ein gutes Stueck Logik...). Das jegliche Prozentual Unterschied kann man sich schon ausrechnenn, aber da wo ich die ganze Verbindung als Laie verliere ist wenn Vega wirklich um die 400mm2 wiegt, wieso NVIDIA ganze >50% mehr die area braucht.....

Fuer GP100:

1. Leicht kleinere Packdichte = check
2. NVlink = check
3. hoehere Frequenzen = check
4. dedizierte FP64 SPs aber fuer schaetzungsweise 40-45mm2 = check

.....aber >50%? Bei 350mm@14LPP liegt der Unterschied sogar bei >70%.

dargo
2016-05-13, 18:23:53
Ich wuerde mal noch nicht zu viel auf die Infos geben. Mobile specs hin oder her, 150 Watt sind mobil verdammt viel, das muss nicht unbedingt zutreffen...
Jo... das passt nicht wirklich zusammen. Aber vielleicht hat da einer wieder was durcheinander geworfen und Mobile-Taktraten, dafür aber Desktop TDPs aufgeschnappt. :tongue: Mal weiter abwarten und Tee rauchen.

Sunrise
2016-05-13, 18:33:23
...aber da wo ich die ganze Verbindung als Laie verliere ist wenn Vega wirklich um die 400mm2 wiegt, wieso NVIDIA ganze >50% mehr die area braucht.....

Fuer GP100:

1. Leicht kleinere Packdichte = check
2. NVlink = check
3. hoehere Frequenzen = check
4. dedizierte FP64 SPs aber fuer schaetzungsweise 40-45mm2 = check

.....aber >50%?
Die fetten Caches hast du noch vergessen. Ebenso die Redundanz, die du angegeben hattest. NVLink wird einiges kosten. Da kommt einiges zusammen.

AMD hatte ja schon bei Hawaii mehr DP als NV bei GK110/GK180/GK210, die hohe Differenz der Fläche von 438mm^2 zu ca. 600mm^2 ist auch hier schon ersichtlich. Und bei NV wurden die ALUs mit Pascal ja stark aufgebohrt, ähnlicher zu GCN, aber scheinbar deutlich mehr Logik (Taktraten, Durchsatz).

GP100 ist keine gute Ausgangsbasis zum Rechnen, AMD hat weder NVLink, noch diese extrem hohen Taktraten. Beides nur schwer vergleichbar.

N0Thing
2016-05-13, 19:01:08
Jo... das passt nicht wirklich zusammen. Aber vielleicht hat da einer wieder was durcheinander geworfen und Mobile-Taktraten, dafür aber Desktop TDPs aufgeschnappt. :tongue: Mal weiter abwarten und Tee rauchen.

Wie hoch war denn die TDP beim GM204 las Notebook Chip? Dort sind ja sogar vollwertige GM204 verbaut worden. Wikipedia listet eine TDP von 200W, aber keine Quellenangabe für diese Angabe.

AlphaNUSS
2016-05-13, 19:03:44
Am 18.05 wissen wir hoffentlich mehr.

https://twitter.com/AMD/status/731158531664171008

Sunrise
2016-05-13, 19:06:58
Einen Tag nach den Nvidia-Reviews, so ein Zufall...:D

Ailuros
2016-05-13, 19:07:23
Die fetten Caches hast du noch vergessen. Ebenso die Redundanz, die du angegeben hattest. NVLink wird einiges kosten. Da kommt einiges zusammen.

NVlink hab ich selber erwaehnt. Sonst haben AMD keine caches und deren Noete bei steigender auf AMD chips bleibt gleich durch alle Generationen und sie haben nirgends einen Fetzen Redundanz oder wie soll ich das verstehen?

AMD hatte ja schon bei Hawaii mehr DP als NV bei GK110/GK180/GK210, die hohe Differenz der Fläche von 438mm^2 zu ca. 600mm^2 ist auch hier schon ersichtlich. Und bei NV wurden die ALUs mit Pascal ja stark aufgebohrt, ähnlicher zu GCN, aber scheinbar deutlich mehr Logik (Taktraten, Durchsatz).

GK110 hat im Vergleich zu Hawaii 14.5% mehr Transistoren.

GP100 ist keine gute Ausgangsbasis zum Rechnen, AMD hat weder NVLink, noch diese extrem hohen Taktraten. Beides nur schwer vergleichbar.

Ich hab erstmal GP104 mit Polaris verglichen auf rein spekulativer Basis.

AlphaNUSS
2016-05-13, 19:14:49
Einen Tag nach den Nvidia-Reviews, so ein Zufall...:D
Das stimmt mich schon mal sehr positiv. AMD scheint sich mit Polaris nicht vor Nvidia verstecken zu müssen.

Locuza
2016-05-13, 19:16:59
Hm, die 36CUs geistern ja auch noch herum. 40 war eh nur ne Speku ohne Substanz. Hört sich für mich schwer nach Salvage-Varianten an. Demnach hat P10 XT hat 36CUs mit GDDR5X. So ein Chip hätte kaum mehr als 5Mia Transistoren und würde ganz gut in 232mm² reinpassen, selbst bei moderater Packdichte und dafür höheren Taktraten. Natürlich kommt man mit 36CUs kaum an der 1070 vorbei.
Also:
P11 Pro: 14 CUs = 896 Shader 128Bit GDDR5
P11 XT: 18-20 CUs = 1152-1280 Shader bei 128Bit GDDR5
P10 Pro: 32CUs = 2048 Shader bei 256Bit GDDR5
P10 XT: 36CUs = 2560 Shader bei 256Bit GDDR5(X)
40 CUs sind eine ziemlich logische Spekulation auf Basis der Architektur.
Bei GCN teilen sich bis zu 4 CUs immer gemeinsam den K$ und I$.
40 CUs sind perfekt durch 4 teilbar, so hat man 10 "Quad-Units".
Außer bei Tahiti und Tonga hat das AMD allerdings glaube ich nie so umgesetzt, obwohl die Architektur genau so balanciert wird.
Ich bin weiterhin für 40 CUs und damit 2560 Shader (36 CUs = 2304).

Edit: Sry, screw up, bei 40 CUs hat man natürlich auch nicht immer 4 CUs gepaart, außer AMD verwendet 5 Shader-Engines, was viel unwahrscheinlicher ist.

dargo
2016-05-13, 19:57:17
Wie hoch war denn die TDP beim GM204 las Notebook Chip? Dort sind ja sogar vollwertige GM204 verbaut worden.
Vollwertig ja, der Takt ist aber niedriger.
http://www.nvidia.de/object/geforce-gtx-900m-graphics-cards-de.html?sku=GFGTX980NB#pdpContent=2

Die TDP sollte also unter 165W liegen. Ich schätze mal 130-140W.

Rabiata
2016-05-13, 20:43:24
Uebrigens beindruckt mich schon seit langem dass die meisten von Hawaii die area in Relation zu CUs ausgehen. Wenn AMD wirklich fundamentale Aenderungen an der Architektur vorgenommen haben dann sind sie wohl auch nicht umsonst. Es erwartet wohl keiner hier einen Fiji die shrink auf 14LPP mit HBM2 draufgeklatscht oder?
Ich würde erwarten, daß es

entweder Fiji Die Shrink 14LPP mit HBM2 draufgeklatscht ist
oder etwas anderes, das aber mehr Leistung pro investierten Transistor bringt.

Ganz sicher bin ich natürlich nicht, AMD hat es (bei der ersten Bulldozer-Generation) schon mal geschafft die Vorteile aus dem neuen Fertigungsprozeß über schlechtere Architektur zu vergeuden. Ein schlichter Die Shrink des Phenom hätte damals wohl mehr gebracht...

illidan
2016-05-13, 20:55:45
Vom Bulldozer Rückschlüsse auf GPUs zu ziehen, ist ziemlich verfehlt.

Rabiata
2016-05-13, 21:27:42
Vom Bulldozer Rückschlüsse auf GPUs zu ziehen, ist ziemlich verfehlt.
Es ging mir auch weniger um die Architektur an sich als um AMDs Ansatz, die Änderung auf Biegen und Brechen durchzuziehen.

AMD hat sicher auch Bulldozer mit Phenom II verglichen und gesehen, daß das alte Modell besser performt. Trotzdem gab es offenbar keinen Plan B. Bulldozer wurde in den Markt gedrückt obwohl klar unterlegen.
Ich hoffe daß sie sowas nicht mehr machen - aber wie gesagt, AMDs Mangement traue ich (leider) fast jede Kamikazeaktion zu.

StefanV
2016-05-13, 21:34:16
Wenn die Daten für die PS4 Neo stimmen (geringer Bandbreitenzuwachs bei deutlich gesteigerter Rechenleistung), wird Polaris 10 5X überhaupt nicht benötigen. Erst recht nicht, wenn der Takt nicht Richtung Maxwell OC-Karten oder besser geht.
Das ist eine ziemlich bescheuerte Argumentation. Sorry, aber macht Null Sinn.
Zumal wir ja auch noch nicht genau wissen, was für Auswirkungen GDDR5X auf den Speichercontroller und auch die gesamte Energieaufnahme hat...

Zumal AMD die Speichercontroller eh neu designen muss, da sie einerseits nix in 14nm haben, andererseits aber eh was höher taktendes brauchen als es zuletzt eingesetzt wurde.

Warum sollte man dann nicht auch gleich GDDR5X implementieren?!

Es ist ja nicht so, dass Speichercontroller nur das können, was drauf steht.
Früher war es ja auch üblich, einige 'Exotische' Speichertechnologien zu unterstützen.
EDRAM (nicht eDRAM), VCM, BEDO.

Warum sollte jetzt Polaris KEIN GDDR5X unterstützen?!
Nur weil das blöd für nVidia wäre?!

Skysnake
2016-05-13, 22:14:49
Nochmal ich hab eine Frage gestellt und gehe VON GAR NICHTS aus. Schon ein ziemlich grosser Unterschied.

Sonst "es gibt 2 chips" nur weil jemand bei Anandtech es geschrieben hat (ausser es gibt einen weiteren Anhalt/Indizie der mir nicht bewusst ist) garantiert mir wenig bis gar nichts denn die Herren sind auch nicht immun zu Missverstaendnissen wie ziemlich jeder der sich mit der Materie beschaeftigt ausser den eigentlichen IHV Angestellten.



Ach und sie koennen es sich leisten zwei HPC chips verschiedener Groesse aufzulegen welches sie bis heute noch nie angestellt haben? Es ist ueberhaupt kein Pessimismus. Irgend etwas stimmt hier nicht oder ich verpasse hier wesentliches. AMD ist der letzte IHV der resources dafuer hat mehr als EINEN chip fuer Profi-Maerkte zu entwickeln.
Für mich ist diesbezüglich immer noch am Wahrscheinlichsten, das man einen Cip hat, den man einmal mit nem CPU DIE zu ner apu kombinieren kann und das andere mal mit nem zweiten zu ner "großen" dGPU.

Damit würde man sehr nice Produkte haben.

illidan
2016-05-13, 22:20:31
Warum sollte jetzt Polaris KEIN GDDR5X unterstützen?!
Nur weil das blöd für nVidia wäre?!
Hab ich irgendwo was von unterstützen geschrieben?

Craftsman
2016-05-13, 23:04:26
Für mich ist diesbezüglich immer noch am Wahrscheinlichsten, das man einen Cip hat, den man einmal mit nem CPU DIE zu ner apu kombinieren kann und das andere mal mit nem zweiten zu ner "großen" dGPU.

Damit würde man sehr nice Produkte haben.

Spinnen wir das weiter, nennen wir es mal den grafikmode, hat der chip 4 stacks hbm, im apu mode 2, und die 2 freien mc verbinden die gpu mit der cpu.
hbm ist schon so lange ein tema bei amd, vieleich haben sie die möglichkeiten, was das böte bedacht.

iuno
2016-05-13, 23:50:36
Wie hoch war denn die TDP beim GM204 las Notebook Chip? Dort sind ja sogar vollwertige GM204 verbaut worden. Wikipedia listet eine TDP von 200W, aber keine Quellenangabe für diese Angabe.
200 W ist voelliger Unsinn. Die 980 hat ja schon max. 165, wie Dargo schreibt, wird die mobile 980 darunter liegen.
Am 18.05 wissen wir hoffentlich mehr.

https://twitter.com/AMD/status/731158531664171008
MTE? Was ist das denn fuer ein Event? Bezweifle ehrlich gesagt irgendwie, dass es da gescheite Infos gibt... Obwohl sie sich das dann auch sparen koennten. "Inside look at Polaris" und anschliessend QnA? Warum gibt es keine ordentliche Vorstellung oder findet die (noch unangekuendigt) davor statt?

horn 12
2016-05-14, 00:11:28
Die große Frage wird wohl nach dem Polaris Launch sein wie die komplette Fiji Serie gehandhabt wird:
R9 Fury X - Fury - Nano - R9 Pro Duo sind eine Menge an releasten, JEDOCH aber eben sehr wenig verkauften Karten.
Werden diese Fury - Nano Grafikkarten nach Polaris links liegen gelassen und stiefmütterlich behandelt, oder sollte die Serie bis Vega 10 - 11 doch noch supportet und Treiberseitig ausgebaut, sprich weiter optimiert werden.

Dies wird wohl die große, und zurecht stellende Frage sein, vor Allem eben wegen ihrer 4GB HBM Speicher "Problematik".

OBrian
2016-05-14, 00:16:39
@iuno: klingt eher nach einer Architekturbetrachtung ohne Nennung des Zuschnitts tatsächlicher Produkte. Wäre aber sicherlich auch interessant :)

@horn12: wenn P10 langsamer ist, muß Fiji ja erstmal weiterlaufen, aber wird wohl durch Vega abgelöst, wann auch immer. Naja und Treiber, was soll man da großartig noch machen. Keine Hoffnung in Wundertreiber setzen bitte ;)

reallord
2016-05-14, 00:20:03
...
Werden diese Fury - Nano Grafikkarten nach Polaris links liegen gelassen und stiefmütterlich behandelt, oder sollte die Serie bis Vega 10 - 11 doch noch supportet und Treiberseitig ausgebaut, sprich weiter optimiert werden.

Dies wird wohl die große, und zurecht stellende Frage sein, vor Allem eben wegen ihrer 4GB HBM Speicher "Problematik".

Es hieß hier doch mehrfach im Thread, dass Vega Fiji done right ist (oder sein könnte). In dem Fall macht's doch durchaus Sinn, dass AMD weiterhin Arbeit in den Treiber für Fiji steckt, davon würde doch dann Vega später nur profitieren.

Complicated
2016-05-14, 01:13:00
Selbst die erste GCN Generation mit Southern Islnads wird noch supported und optimiert. Warum sollte das für Nano und Fiji nicht gelten mit GCNv3?

AlphaNUSS
2016-05-14, 01:18:12
Es gibt offizielle Specs zur den M400 Chips.
http://www.amd.com/en-gb/products/graphics/notebook/r9-m200

gedi
2016-05-14, 01:31:27
Ich sehe es so: Wenn an den Firestrike Ultra Werten etwas Wahres dran ist, dann steht es nicht schlecht um AMD, zumal AMD nun die Zeit hatte die Frequenzen dementsprechend anzupassen. Meine Vermutung lautet nun, dass P10 mit ~1.4G aufgestellt wird. Performancetarget ca. 20-30% unter einer 1080 und somit so performant wie eine aktuelle TX. 5X halte ich nicht für ausgeschlossen, wenn P10 sich 490 nennen darf.

MadPenguin
2016-05-14, 07:04:34
Es gibt offizielle Specs zur den M400 Chips.
http://www.amd.com/en-gb/products/graphics/notebook/r9-m200

Coole Sache. Danke dir. Die 485x mit 32CU also..rebranding Tonga? Es bliebe jedoch die 490 und die 490x für P10, sowie die 480x für den P11 übrig :)

Complicated
2016-05-14, 08:29:21
Ja das sind keine Polaris Specs sondern die Rebrands.

uweskw
2016-05-14, 08:35:14
Wieso schreiben die auf der Hauptseite eigentlich vom Chiptakt? 1250 und 1500MHz. In der Präsentation geht es um den Speichertakt.(Max Memory Clock)

Greetz
US

AnarchX
2016-05-14, 08:38:49
Ja das sind keine Polaris Specs sondern die Rebrands.
Danach sieht es aus. Und das hat man wohl mit den anderen Polaris Daten vermischt.

Zergra
2016-05-14, 09:19:45
Wieso schreiben die auf der Hauptseite eigentlich vom Chiptakt? 1250 und 1500MHz. In der Präsentation geht es um den Speichertakt.(Max Memory Clock)

Greetz
US
Leo hat sich wohl versehen, ein Kaffee zu wenig am Morgen :smile:

Kriegsgeier
2016-05-14, 09:23:31
Ist aber menschlich :-)
Und es ist gut, dass es um RAM-Takt handelt:
Somit ist es bewiesen, dass es ein GDDR5 und kein GDDR5X verbaut wird.
+
Dass der GPU-Takt eher oberhalb von 1,5 GHz liegen kann ;-)

PS: wobei es geht ja wirklich um Laptop Graphics ;-)

[MK2]Mythos
2016-05-14, 09:28:41
Wenn das wirklich ein Tonga rebrand ist, ist die Verwendung von GDDR5 auch keine Überraschung.
Ich kanns mir aber nicht so recht vorstellen, Polaris wird so oder so massiv mehr Performance/Watt bringen, da macht ein rebrand für mich keinen Sinn.

Zergra
2016-05-14, 09:29:48
Ist aber menschlich :-)
Und es ist gut, dass es um RAM-Takt handelt:
Somit ist es bewiesen, dass es ein GDDR5 und kein GDDR5X verbaut wird.


Nein, ist es nicht da es sich ja einfach um eine 380x handelt ;)

AffenJack
2016-05-14, 09:48:13
Ja das sind keine Polaris Specs sondern die Rebrands.

Was für einen Sinn hat es Tonga zu rebranden? Den Platz kann locker ein Polaris übernehmen. Einzig im absoluten Low-End mag Platz für ältere Sachen sein.

Troyan
2016-05-14, 09:55:44
Richtig - es macht null Sinn Tonga zum dritten Mal zu verwenden. Polaris 10 sollte klar schneller und effizienter bei besser Wirtschaftlichkeit sein.

HOT
2016-05-14, 09:58:32
Was für einen Sinn hat es Tonga zu rebranden? Den Platz kann locker ein Polaris übernehmen. Einzig im absoluten Low-End mag Platz für ältere Sachen sein.
Weil der Chip mit moderatem Takt und 32CUs genau dazwischen passt. Ich vermute, dass das Loch zwischen P11 XT und P10 Pro im Mobile sehr groß ist und einfach mit dem M485X (welcher ja bei der Numerierung klar eine Zwischenlösung darstellt) ergänzt wird. Ist ja auch nur von einer XT-Version die Rede nicht, von einer Pro-Variante.
Richtig - es macht null Sinn Tonga zum dritten Mal zu verwenden. Polaris 10 sollte klar schneller und effizienter bei besser Wirtschaftlichkeit sein.
Wenn man 2 Foundries einsetzt macht das durchaus Sinn, erst Recht, wenn der Chip genau dazuwischen passt. Da das glasklar Rebrands sind, lässt das in jedem Fall auch Rückschlüsse auf evtl. Rebrands im Desktop-Bereich zu. Ist wohl doch nicht so weit her mit dem angeblichen Verzicht auf Rebrands. Gut, hätte einen auch gewundert.
Nach der Nummerierung fehlen klar die M480(X) und M490(X), welche Chips könnten das wohl sein, zumal der Lanch nicht weit entfernt sein kann, da die Serie ja schon offiziell ist.

horn 12
2016-05-14, 10:05:11
@Hot
@AnarchX

Wie schnell schätzt Ihr dann schlussendlich Polaris XT ein, wieviel CU - Shader und welchen Takt sollte jener final wohl erhalten?

AnarchX
2016-05-14, 10:09:47
Solche Rebrands sind häufig auf Basis von OEM-Wünschen, vielleicht hat da ein Partner noch viele Mobile-Tongas, welcher er als M400 verkaufen möchte.
Und ob AMD mit Polaris vielleicht die Endkunden-Bezeichnungen etwas ändert ist ja auch nicht bekannt.

Troyan
2016-05-14, 10:10:37
Wenn man 2 Foundries einsetzt macht das durchaus Sinn, erst Recht, wenn der Chip genau dazuwischen passt. Da das glasklar Rebrands sind, lässt das in jedem Fall auch Rückschlüsse auf evtl. Rebrands im Desktop-Bereich zu. Ist wohl doch nicht so weit her mit dem angeblichen Verzicht auf Rebrands. Gut, hätte einen auch gewundert.

"Zwischen passt"? Polaris 10 ist überall besser: Leistung, Effizienz und Wirtschaftlichkeit. Wo soll dort Tonga reinpassen? Das wäre so als wenn nVidia GM204 und GP104 gleichzeitig für Notebooks verwenden würde...

Der einzige Grund für Rebrands wäre eine fehlende Verfügbarkeit von Polaris 10 für das 2. Halbjahr für die Notebook-OEMs.

HOT
2016-05-14, 10:13:18
Wie stellst du dir das vor, 485X als Top-Dog im Mobilbereich? Gabs bisher nicht und ist extrem unwahrscheinlich. Als nächstes wäre noch ein P10-LE denkbar, aber auch das ist unwahrscheinlich. Das wird einfach OEM-Wunsch gewesen sein, wie AnarchX schon treffend beschrieb.

AffenJack
2016-05-14, 10:19:19
Wie stellst du dir das vor, 485X als Top-Dog im Mobilbereich? Gabs bisher nicht und ist extrem unwahrscheinlich. Als nächstes wäre noch ein P10-LE denkbar, aber auch das ist unwahrscheinlich. Das wird einfach OEM-Wunsch gewesen sein, wie AnarchX schon treffend beschrieb.

Gut OEM Wunsch wäre als Grund zu hoffen, denn sonst gäbe es eigentlich nur 2 mögliche Gründe und das wären nicht genug Polaris, die GF liefern kann und die man soweit beschneiden will oder geringere Produktionskosten für Tonga im Vergleich zu Polaris.

tm0975
2016-05-14, 10:25:50
wenn im desktop p10 als 480/X kommt, dann im mobilbereich als m490/X. da ist es doch egal, ob ein tonga darunter positioniert ist. zwischen p10 und p11 ist ne große lücke. unter tonga kommt dann p11 als m480/x und dadrunter kommt uralter billigmüll. so kann amd sicherstellen, dass sie die lager mit altem zeugs leerkriegen (ein großes problem der vergangenheit) und die oems genug billiges zeugs mit neuem namen im blödmarkt und co verramschen können an ahnungslose. und gamer wissen sowieso meist, worauf sie achten müssen. für diese zielgruppe kann man ja die ordentlichen neuen gpus nehmen. ich finde, die aktuelle amd strategie ist im rahmen ihrer möglichkeiten (2 chips in diesem jahr) extrem stimmig und durchdacht. jetzt muß das marketing nachziehen. wenn dann der p10 auch im desktop noch so hoch gefahren werden kann, dass er die 1070 halbwegs erreicht, dann wird amd massiv marktanteile zurück gewinnen. amd hat nicht umsonst den umsatz für q2 mit +15% angegeben. das machen die nicht, wenn sie nciht die entsprechenden produkte und verträge in der tasche haben.