PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 [44] 45 46 47 48 49 50 51

Mancko
2016-08-29, 10:36:04
Wie du ständig auf dem aktuell noch völlig unbedeutenden Low Level Part rumreitest. Hat AMD nichts anderes zu bieten?

Frag ich mich auch grad. Er spricht wahrscheinlich von 2, 3 Games vs. Tausende wo es anders herum aussieht. Das ist nun wirklich albern und es gibt auch neue Games wo Nvidia vorne sein wird. Am Ende hat das doch mit neueren Games ohnehin nichts zu tun sondern viel mehr damit welcher IHV nun mit welchem Studio mehr zusammengearbeitet hat. Bei den ganzen Epic Games wird man das dann auch wieder sehen können.

dildo4u
2016-08-29, 10:38:01
Es scheint nicht mal druck von AMD zu brauchen die 1070 gibt schon für 399,es ist eh ein Irrglaube das die Preise massiv fallen wenn AMD kommt.HBM2 lässt kein Verramschen zu wenn Vega zwei mal so schnell wie die 480 ist,kostet sie mindestens 600€.Die Top Karte hat nie das beste Preis Leistungverhältniss.

Mancko
2016-08-29, 10:38:18
Ich persönlich hab noch die fury x ,und bekomm demnächst einen 4k monitor,von daher würde ich noch gern auf vega warten,aber es ist hart :)
Aber NV macht auch nciht alles richtig,bei einer 1080ti würde ich sogar wechseln,aber so warte ich doch noch auf vega ,bis anfang 17 gebe ich amd noch zeit.

Zielgruppe für GTX 1070/1080 und TitanX sind die High End Käufer der Kepler Reihe und nicht die der Maxwell Reihe oder was zu dem Zeitpunkt halt verfügbar war. Sagt Nvidia übrigens selber.

dargo
2016-08-29, 10:48:55
Wie du ständig auf dem aktuell noch völlig unbedeutenden Low Level Part rumreitest.
Das sehe ich ganz anders und zum Glück viele Entwickler auch.

Frag ich mich auch grad. Er spricht wahrscheinlich von 2, 3 Games vs. Tausende wo es anders herum aussieht.

Erstens gibt es mehr low level Games jetzt schon und bis Ende 2016, Anfang 2017 (in der Winterzeit werden verständlicherweise die meisten Games released falls es keine unvorgesehenen Verzögerungen gibt) wird die Anzahl weiter steigen. Zweitens... wer kauft sich eine neue Grafikkarte für uralte Games? Dafür war schon die alte Karte schnell genug.


Das ist nun wirklich albern und es gibt auch neue Games wo Nvidia vorne sein wird. Am Ende hat das doch mit neueren Games ohnehin nichts zu tun sondern viel mehr damit welcher IHV nun mit welchem Studio mehr zusammengearbeitet hat.
Welche Studios arbeiten überhaupt noch eng mit NV zusammen? X-D

Es scheint nicht mal druck von AMD zu brauchen die 1070 gibt schon für 399,es ist eh ein Irrglaube das die Preise massiv fallen wenn AMD kommt.HBM2 lässt kein Verramschen zu wenn Vega zwei mal so schnell wie die 480 ist,kostet sie mindestens 600€.Die Top Karte hat nie das beste Preis Leistungverhältniss.
Was spricht dagegen P10 ~6-9 Monate nach Release im Preis zu senken? Denkbar wären hier 199$ für 8GB. Übrigens... wäre der kleine Vega 2x so schnell wie P10 sieht es für die GTX1080 ganz schön düster aus unter low level. Die Erwartungen würde ich etwas zurückschrauben. Ich gehe eher von +~70% aus.

Oromis16
2016-08-29, 11:07:21
@Mancko
Aus anderer Sicht ist die AMD aber ausverkauft obwohl sie teurer ist ;)
Man kann natürlich argumentieren, dass AMD vielleicht Lieferschwierigkeiten hat, aber so lange man (mehr als) alle Karten für den Preis losbekommt gibt es auf jeden Fall absolut keinen Grund weniger zu verlangen ;)

HOT
2016-08-29, 11:16:05
Die 1060 kostet ja momentan noch nicht mal einen Aufpreis. Im Gegenteil. Die ist sogar im Schnitt günstiger, insbesondere bei den Custom Designs und auch der Lieferbarkeit sieht es deutlich besser aus. Sprich Nvidia kann hier mehr als gut konkurrieren und AMD fleißig unter Druck setzen. Weiter oben kann Nvidia schalten und walten wie sie wollen. Druck ist da frühstens Anfang 2017 zu erwarten und bis dahin hat man genügend Asche gemacht um alle Produkte da oben eine Etage nach unten zu setzen und darüber wieder mit kleinen Refreshes die Preissegmente zu besetzen.
Mach nicht den Fehler hier die Marktfelder durcheinanderzuwerfen. Das kann in Wirklichkeit in anderen Regionen ganz anders aussehen, als in der deutschen Geizhalstabelle.
Wenn die RX480 keine Mangeware mehr sind und die Vorbestellungen endlich mal befriedigt sind, sinken auch die Preise. Sapphire beipielsweise rechnet damit, dass sich die Lage erst Anfang September entspannt. Die sind alle von der hohen Nachfrage doch schwer überrascht worden, wie es aussieht. AMD hat einfach zu wenig bei GloFo bestellt, verständlich nach den letzten Launches. Da ist nix in Stein gemeißelt, sobald die Mehrproduktion, die man sicherlich angeleiert hat (AMD hat ja sogar 100000 Referenzkarten der RX480 nachbestellt), im Markt ankommt und die Nachfrage langsam zurückgeht gibts auch viele Karten für gute Preise. Davon ab ist auch die Liefersituation der 1060 nicht so pralle, wenn auch hier besser als die AMDs.
Eine 1060 mag ja momentan billiger sein, aber a.) ist sie in vielen neuen Reviews nur minimal schneller, wenn neue APIs ins Spiel kommen dreht sich die Sache sowieso und b.) hat sie eben auch keine 8GB.

dildo4u
2016-08-29, 11:21:11
Was spricht dagegen P10 ~6-9 Monate nach Release im Preis zu senken? Denkbar wären hier 199$ für 8GB. Übrigens... wäre der kleine Vega 2x so schnell wie P10 sieht es für die GTX1080 ganz schön düster aus unter low level. Die Erwartungen würde ich etwas zurückschrauben. Ich gehe eher von +~70% aus.
Die 1080 ist doch nur der 980 Nachfolger und nich der Fette Pascal Chip,ich sehe Vega schon leicht schneller dafür ist die Die halt größer.

Ailuros
2016-08-29, 11:23:55
Die 1060 war von Anfang an nur minimal schneller als die 480, ergo ist es nicht etwas das jetzt erst enstanden ist. Sonst koennen die ueblichen Tagtraeumer beruhigt daran glauben dass kommende APIs aus dem Weltall oder sonst irgendwelcher Zauberstaub irgendwelche Situationen retten wird.

Alfa
2016-08-29, 11:25:23
Frag ich mich auch grad. Er spricht wahrscheinlich von 2, 3 Games vs. Tausende wo es anders herum aussieht. Das ist nun wirklich albern und es gibt auch neue Games wo Nvidia vorne sein wird. Am Ende hat das doch mit neueren Games ohnehin nichts zu tun sondern viel mehr damit welcher IHV nun mit welchem Studio mehr zusammengearbeitet hat. Bei den ganzen Epic Games wird man das dann auch wieder sehen können.

Da ein Argument pro NV zu finden ist aber auch schwer. Welches dieser besagten DX11 Games läuft denn nicht auf einer RX470/480 ?
In den meisten fällen erreicht hier AMD eine gute FHD/WQHD Preformance von 60FPS+

Und ich kauf mir doch heute nicht eine GraKa für die Spiele von Gestern. Die neuen Titel mit DX12/Vulkan und massiv Speicherbedarf kommen, das ist sicher. Man konnte ja auf der GC schon einiges sehen.

Gruß

dargo
2016-08-29, 11:27:01
Die 1080 ist doch nur der 980 Nachfolger und nich der Fette Pascal Chip,ich sehe Vega schon leicht schneller dafür ist die Die halt größer.
Für den fetten Pascal kommt auch ein fetter Vega. Zudem gibt es die neue Titan X nur bei NV zu kaufen zu einem völlig überzogenen Preis und ohne eine GTX1080TI für den Gamingmarkt kaum von Relevanz. Ich frage mich sowieso warum es diese Karte nur direkt bei NV gibt? Entweder ist die Ausbeute dermaßen schlecht oder man versucht damit dem Kunden was Exklusives vorzutäuschen. Sprich... wieder möglichst viel Asche zu kassieren.

btw. Die-Size
Je nachdem wie der kleine Vega ausfällt könnte man eventuell sogar den Salvage gegen die GTX1080 stellen. Ich gehe nicht davon aus, dass AMD Vega so stark kastriert wie NV GP104. Dann wäre die Größe nicht mehr das große Problem.

HOT
2016-08-29, 11:34:40
Die 1060 war von Anfang an nur minimal schneller als die 480, ergo ist es nicht etwas das jetzt erst enstanden ist. Sonst koennen die ueblichen Tagtraeumer beruhigt daran glauben dass kommende APIs aus dem Weltall oder sonst irgendwelcher Zauberstaub irgendwelche Situationen retten wird.
Sry, aber das ist vollkommen unlogisch. Wenn die AMDs mehr Rohleistung freisetzen können, sind die vorne, der Abstand ist unter DX11 schon denkbar knapp und bislang deutet nichts darauf hin, dass die Pascals soviel Leistung gewinnen können wir GCN durch AsyncCompute. Die 1060 beispielsweise (darum gehts ja primär bei der 480) hat einfach deutlich weniger Rohleistung. Da ist nix mit Zauberei, je mehr Compute genutzt wird, desto effizienter laufen die GCNs.
Natürlich ist das alles nicht so weltbewegend, dass hier großartig am Status Quo gerüttelt werden kann, jedenfalls noch nicht.

dargo
2016-08-29, 11:36:14
Die 1060 war von Anfang an nur minimal schneller als die 480, ergo ist es nicht etwas das jetzt erst enstanden ist.
Das stimmt doch gar nicht. Es gibt einige high level Spiele wo die GTX1060 schon deutlich vor der RX480 liegt. Bei low level habe ich außer dem "Unfall" @RotTR noch nichts dergleichen gesehen.

Ailuros
2016-08-29, 11:45:05
Das stimmt doch gar nicht. Es gibt einige high level Spiele wo die GTX1060 schon deutlich vor der RX480 liegt. Bei low level habe ich außer dem "Unfall" @RotTR noch nichts dergleichen gesehen.

Der durchschnittliche Unterschied einer 1060 in 1080p war beim launch bei einem einstelligen Prozentual, irgendwo bei =/>5% mehr je nach review. Jetzt loese mit Dir selber was zum Henker Du wieder falsch verstanden hast.

dargo
2016-08-29, 11:49:36
Der durchschnittliche Unterschied einer 1060 in 1080p war beim launch bei einem einstelligen Prozentual, irgendwo bei =/>5% mehr je nach review. Jetzt loese mit Dir selber was zum Henker Du wieder falsch verstanden hast.
Die avgs. interessieren aber oft nicht wenn man gerade die Spiele mit den großen Abweichungen spielt. Ich denke ich brauche dir doch wohl nicht das Problem der Glättung beim Durchschnitt erklären oder täusche ich mich da?

Botcruscher
2016-08-29, 11:56:37
Streitet ihr jetzt ernsthaft über die 5% Leistungsunterschied hier und da? Wer viel mehr will macht einfach den RAM voll. Das AMD nicht liefern kann ist viel entscheidender. Zen und Vega werden schon gut werden. Derweil verdienen aber Intel und NV. Gerade NV steuert zwangsläufig auf 2 Rekordquartale zu. Bis zum Jahreswechsel ist es noch eine gefühlte Ewigkeit. Im übrigen halte ich den GDDRX dann auch nicht für viel günstiger als den HBM2. Nebenbei entfällt noch eine Komponente wo die Hersteller mit ihren Gurkenkonstruktionen versagen können. Da muss man sich schon mühe geben die SpaWas irgendwie ungekühlt zu lassen.

dargo
2016-08-29, 12:06:24
Streitet ihr jetzt ernsthaft über die 5% Leistungsunterschied hier und da?

Wir diskutieren.

Und nein... es geht mir nicht um die ~5% bei den avgs. sondern zb. um sowas.
57173

und sowas
57174

Das dürfte dann @high level Worstcase sein.
57175

Quelle (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/)

Ailuros
2016-08-29, 12:09:37
Streitet ihr jetzt ernsthaft über die 5% Leistungsunterschied hier und da?

Ich nicht unbedingt. Es ist lediglich typisch dargo wobei er dass versteht was er verstehen will. Erlaeutert man was man meinte reitet er nach wie vor weiter darueber rum, ist auch egal so lange es so stark wie moeglich OT und kontra-produktiv ist....

Wer viel mehr will macht einfach den RAM voll. Das AMD nicht liefern kann ist viel entscheidender. Zen und Vega werden schon gut werden. Derweil verdienen aber Intel und NV. Gerade NV steuert zwangsläufig auf 2 Rekordquartale zu. Bis zum Jahreswechsel ist es noch eine gefühlte Ewigkeit. Im übrigen halte ich den GDDRX dann auch nicht für viel günstiger als den HBM2. Nebenbei entfällt noch eine Komponente wo die Hersteller mit ihren Gurkenkonstruktionen versagen können. Da muss man sich schon mühe geben die SpaWas irgendwie ungekühlt zu lassen.

Hier gibt es wenig bis gar nichts einzuwenden.

Die avgs. interessieren aber oft nicht wenn man gerade die Spiele mit den großen Abweichungen spielt. Ich denke ich brauche dir doch wohl nicht das Problem der Glättung beim Durchschnitt erklären oder täusche ich mich da?

Siehe oben.

Oromis16
2016-08-29, 12:10:32
@dargo
Gibts aber auch genau andersrum pro AMD, das ist also nur für die Minderheit interessant die nur diese Spiele spielt.

@Vega
Ich würde hoffen, dass AMD damit eine späte aber dafür volle Breitseite liefert. Polaris scheint momentan nur 'wenig' hinter Pascal zu liegen, die Architekturverbesserungen von Vega könnten AMD helfen NVidia so zu übertrumpfen. Natürlich kommt dann schon bald Volta, aber die Zeit dazwischen wäre so zumindest mal in AMDs Hand.

[wenig = Definitionssache; dieser Post basiert auf feinstem Spekulatius]

HOT
2016-08-29, 12:12:21
DX12/Vulkan ist 2017 absolut die REGEL. Alle großen Engines sind bis 2017 soweit, sowohl EA, als auch Crytek, das Ubi-Gedöns, UE4 usw, also 95% des Marktes.

dargo
2016-08-29, 12:12:39
@dargo
Gibts aber auch genau andersrum pro AMD, das ist also nur für die Minderheit interessant die nur diese Spiele spielt.

Natürlich, nur versteht das offenbar Ailuros nicht.

DX12/Vulkan ist 2017 absolut die REGEL.
Sehe ich absolut genau so. Und das ist ein riesen Vorteil für den Launch von Vega. Vega würde heute nicht so einschlagen wie 2017 weil noch zu viele high level Spiele in den üblichen Benchmarkparcours verwendet werden.

Ailuros
2016-08-29, 12:16:17
Natürlich, nur versteht das offenbar Ailuros nicht.

Ich verstehe es sehr wohl. Dass es im generellen Kontext so wie es gemeint war scheissegal ist passt wohl nicht in Deinen Schaedel.

scully1234
2016-08-29, 12:31:15
oder man versucht damit dem Kunden was Exklusives vorzutäuschen. Sprich... wieder möglichst viel Asche zu kassieren.
.

Gratuliere du hast gerade ergründet wie der Hase in der freien Marktwirtschaft läuft ;D

Gesunde Unternehmen ,bringen auch gesunde Produkte , nur mal so als Denkanstoß..

Und mit denen läßt sich dann auch überproportional gut verdienen ,wenn das Gegenüber gerade den eigenen technologischen Stillstand zelebriert bis Q1 2017.

HOT
2016-08-29, 12:38:47
Was für ein Unsinn :hammer:

Birdman
2016-08-29, 12:39:14
DX12/Vulkan ist 2017 absolut die REGEL. Alle großen Engines sind bis 2017 soweit, sowohl EA, als auch Crytek, das Ubi-Gedöns, UE4 usw, also 95% des Marktes.
2017 ist bereits in 4 Monaten und Du redest von 95% LL-APIs?
äh, ja genau....
Ich verwette hier meinen Arsch darauf dass selbst bezogen auf nur den AA sowie AAA Markt bis Mitte 2017 keine 50% erreicht werden.
Nimmt man dann noch alle kleinen/Indie Games dazu, dann werden die nakten Zahlen geradezu lächerlich.

Zudem, nur weil die Engine dann (rudimentären) Support für DX12/Vulkan bietet, heisst das nicht auch automatisch, dass damit erscheinende Spiele dies auch tun.

dargo
2016-08-29, 12:47:27
@Oromis16
Ich habe mir die Mühe gemacht bissel zu sortieren da CB neuerdings ein nettes Werkzeug in ihren Benchmarkparcours anbietet.

Stets wird die Referenz GTX1060 mit der Referenz RX480 verglichen.

Gesamter Parcour mit gerade mal 3 low level Spielen (5% Rückstand für die RX480).
57178

Parcour ohne Spiele wo die GTX1060 über 10% schneller abschneidet (Gleichstand).
57176

Parcour ohne Spiele wo die GTX1060 über 5% schneller abschneidet (5% Vorteil für RX480).
57177

Wie wird das wohl erst mit mehr low level Spielen, geschweige denn nur LL-Spielen aussehen? Ich hoffe so ist es verständlicher worauf ich hinaus will. Ist jetzt natürlich nicht speziell auf dich bezogen Oromis16.

2017 ist bereits in 4 Monaten und Du redest von 95% LL-APIs?
äh, ja genau....

Ein ganzes Jahr hat für mich 12 Monate. Ist das bei dir anders?

Und nochmal es geht hier ausschließlich um AAA-Titel und nicht irgendwelche Spiele mit winzigen Budgets.

Oromis16
2016-08-29, 12:52:09
@Birdman
Mit der Wintersaison solten imho aber trotzdem ne Menge neue Spiele kommen, und der Prozentsatz an DX12ern dadurch ansteigen. Es müssen ja nicht 50% DX12-Titel sein. Es reicht, wenn es 10% der Benchmarkparcours sind und die durchgehend auf AMD besser laufen [was hoffentlich so kommt].
Die meisten schauen nämlich (erneut imho) nur auf das Gesamtrating.

Botcruscher
2016-08-29, 13:02:58
DX12/Vulkan ist 2017 absolut die REGEL. Da wette ich jenseits der großem Titel ganz locker einen Keks dagegen. Schon mal überhaupt keine 95% des Marktes. Der ganze Indie und Moba Markt wird nicht so schnell nachziehen. Selbst DX9 Level wird noch seine gute Verbreitung haben.
Und nein... es geht mir nicht um die ~5% bei den avgs. sondern zb. um sowas.
Ich sehe da was zwischen 7 und 44%. Absolut normal...
...und nicht irgendwelche Spiele mit winzigen Budgets.
Nach dem Kriterium sind Blödfield und CO extrem überhypt. Da hat der Landwirtschaftssimulator vermutlich mehr aktive Spieler.

PS: Von mir aus kann das ganze DX Gedöns nicht schnell genug sterben aber deswegen klammer ich mich nicht an Strohhalme. Der IT Markt war schon immer langsam und manchmal reicht auch das nötigste.

dargo
2016-08-29, 13:10:10
Nach dem Kriterium sind Blödfield und CO extrem überhypt. Da hat der Landwirtschaftssimulator vermutlich mehr aktive Spieler.
Das ist völlig irrelevant im Zusammenhang.

scully1234
2016-08-29, 13:12:01
Da wette ich jenseits der großem Titel ganz locker einen Keks dagegen. Schon mal überhaupt keine 95% des Marktes. Der ganze Indie und Moba Markt wird nicht so schnell nachziehen. Selbst DX9 Level wird noch seine gute Verbreitung haben.


Nicht eher ne Keksdose?

Zumal die grossen AAA Titel auch so ihre liebe Muehe und Not haben, das da ueberhaupt was halbwegs Gares bei rum kommt.

Mit DX11 kennt man sich aus, und der Kostendruck lastet auch auf den grossen Studios, gerade und erst recht wenn man mehrere Renderpfade pflegen soll

dargo
2016-08-29, 13:15:24
Mit DX11 kennt man sich aus, und der Kostendruck lastet auch auf den grossen Studios, gerade und erst recht wenn man mehrere Renderpfade pflegen soll
Das ist kein Argument. Bei jeder neuen API gab es für den Übergang zwei Renderpfade, nichts Neues also. Mit low level spricht man zusätzlich eine viel größere Käuferschicht an da die vorhandene Hardware mehr leistet. Ergo mehr Absatz bei Spielen.

scully1234
2016-08-29, 13:19:03
Wenn ich fluessiges Gameplay habe, habe ich fluessiges Gameplay, da interessierts die Nobs da draussen ,erstmal die Bohne welcher Renderpfad da genutzt wird

Somal die Hardware ja auch mit waechst

Effekte kann ich auch in DX11 implementieren, ohne alles bisherige von Grund auf ueber den Haufen zu werfen , dazu brauchts kein low Level Marketing

Botcruscher
2016-08-29, 13:24:01
Welche neue Käuferschicht würde ein LoL oder ein Landwirtschaftssimulator mit lowlevel denn erreichen?!? Warum sollte ein WoW, Starcraft oder WoT umgebaut werden? Den Größen das Marktes geht Lowlevel schlicht am A vorbei.
Die Karten werden den überwältigenden Teil der Zeit weiterhin nicht unter low level angesprochen werden.

Rancor
2016-08-29, 13:38:39
DX12/Vulkan ist 2017 absolut die REGEL. Alle großen Engines sind bis 2017 soweit, sowohl EA, als auch Crytek, das Ubi-Gedöns, UE4 usw, also 95% des Marktes.

Und? Es wird aber keine DX 12 only Spiele geben, also relativ uninteressant. Nvidia ist unter DX 11 immer noch konkurrenzfähig zu AMD unter DX 12. AMD ist auf DX 12/Vulkan angewiesen, Nvidia nicht.

Ausserdem wird ja immer gerne die Tatsache ignoriert, das die Entwicklung und der Support für Low Level Engines und Spiele ungleich höher ist wie für DX 11 Titel. Ich lache mich tot wenn BF1 unter DX12 schlechter läuft als unter DX 11.
Es wird sicherlich noch 2 - 3 Jahre dauern bis DX 12/Vulkan dominieren wird und bis dahin gibts ehh neue Karten.

Mancko
2016-08-29, 13:41:23
Da ein Argument pro NV zu finden ist aber auch schwer. Welches dieser besagten DX11 Games läuft denn nicht auf einer RX470/480 ?
In den meisten fällen erreicht hier AMD eine gute FHD/WQHD Preformance von 60FPS+

Und ich kauf mir doch heute nicht eine GraKa für die Spiele von Gestern. Die neuen Titel mit DX12/Vulkan und massiv Speicherbedarf kommen, das ist sicher. Man konnte ja auf der GC schon einiges sehen.
Gruß

Auch da wird die 1060 schnell genug sein. Das Argument kannst Du andersherum im Endeffekt genauso anwenden und es muss sich erstmal zeigen ob überhaupt bei jedem neuen Spiel AMD vorne liegt. Bisher kann man diese Aussage nicht mal Ansatzweise treffen. Es wird auch genügend neue Spiele geben wo es exakt andersherum ist. Ob AMD allerdings jemals bei den aktuellen Games aufholt ist fraglich. Die haben vermutlich nicht die Resourcen sich damit zu beschäftigen.

dildo4u
2016-08-29, 13:43:40
2017 hat NV Volta am Start vermutlich mit besseren Low Level Support,kein Plan wo das ein Nachteil für NV sein soll wenn sie Mitte 2017 wieder neue Karte verkaufen.

Mancko
2016-08-29, 13:46:07
Für den fetten Pascal kommt auch ein fetter Vega.


Der kommt zu spät. Den fetten Pascal gibt es 6 Monate früher. Weiß nicht was Du Dir da einen zurecht träumst.


Zudem gibt es die neue Titan X nur bei NV zu kaufen zu einem völlig überzogenen Preis und ohne eine GTX1080TI für den Gamingmarkt kaum von Relevanz. Ich frage mich sowieso warum es diese Karte nur direkt bei NV gibt? Entweder ist die Ausbeute dermaßen schlecht oder man versucht damit dem Kunden was Exklusives vorzutäuschen. Sprich... wieder möglichst viel Asche zu kassieren.


Du entscheidest nicht was ein überzogener Preis ist, sondern der Markt. Und er scheint mir den Preis sowohl für die 1070, 1080 als auch TitanX herzugeben.
Die 1070 hat derzeit übrigens ein leicht besseres P/L Verhältnis als die RX480 bei übrigens gleichem Verbrauch :), denn normalerweise nimmt das P/L Verhältnis nach oben ab. Jede Wette das NV Minimum genausoviele 1070 wie AMD RX480 verkauft, wenn nicht sogar mehr.


btw. Die-Size
Je nachdem wie der kleine Vega ausfällt könnte man eventuell sogar den Salvage gegen die GTX1080 stellen. Ich gehe nicht davon aus, dass AMD Vega so stark kastriert wie NV GP104. Dann wäre die Größe nicht mehr das große Problem.

Der Zeitnachteil ist aber das Problem. Nvidia hat dann 6 Monate lang in aller Ruhe Geld gemacht. Die können GP104 dann einfach preislich absenken. Das R&D ist dann anteilig schon eingespielt. Bei AMD fängt es dann aber erst an. Ehrlich gesagt ist das eine beschissene Ausgangslage.

Schnoesel
2016-08-29, 13:47:13
Ich lache mich tot wenn BF1 unter DX12 schlechter läuft als unter DX 11.

Mit ner OC High End CPU vielleicht. Man sollte aber nicht vergessen, dass es nicht nur GPU Limits gibt, sondern LL vor allem auch die CPU entlastet wird, bei beiden im Übrigen. Dass die Grünen die LL APIs als nutzlos darstellen wollen nur weil Nvidia nicht im GPU Limit profitiert ist schlicht lächerlich.

gedi
2016-08-29, 13:50:07
Warten wir den DX12-Patch für Theos EX ab - es würde mich kaum wundern, wenn P10 da ganz groß aufspielt.

Mancko
2016-08-29, 13:53:12
Welche neue Käuferschicht würde ein LoL oder ein Landwirtschaftssimulator mit lowlevel denn erreichen?!? Warum sollte ein WoW, Starcraft oder WoT umgebaut werden? Den Größen das Marktes geht Lowlevel schlicht am A vorbei.
Die Karten werden den überwältigenden Teil der Zeit weiterhin nicht unter low level angesprochen werden.

Vor allem bedeutet Lowlevel deutlich mehr Entwicklungsaufwand. Dann muss man an zwei GPU Architekturen Hardware näher Programmieren. Das ist der Vorteil von DX11. Da muss man das im Zweifel nicht so genau. Mehr Aufwand kostet mehr Geld. Und das eine breitere Käuferschicht angesprochen wird ist auch Quatsch von ihm. Kein Kunde juckt das ob das nun ein Lowlevel Game ist oder nicht.

Ich gehe übrigens die Wette mit. Wir werden nicht 50% Lowlevel Games sehen und die aktuellen Games sind ja zudem immer noch dabei und es wird auch noch eine Reihe neuer Games geben die auf Bewährtem aufsetzen. Und was eigentlich viel entscheidender ist. Am Ende ist es vollkommen wurscht ob nun DX11, DX12, Vulkan, Lowlevel oder sonst was. Am Ende ist viel eher von Bedeutung mit wem da im Detail zusammengearbeitet wurde. Das war schon immer so und das wird auch immer so bleiben.

HOT
2016-08-29, 13:58:40
Nicht eher ne Keksdose?

Zumal die grossen AAA Titel auch so ihre liebe Muehe und Not haben, das da ueberhaupt was halbwegs Gares bei rum kommt.

Mit DX11 kennt man sich aus, und der Kostendruck lastet auch auf den grossen Studios, gerade und erst recht wenn man mehrere Renderpfade pflegen soll
Das ist ein völlig dämliches Argument aus meiner Sicht, aber das genau das Totschlageargument, dass immer gegen die neuen APIs angewendet wird. Es ist aber eben auch vollkommen unlogisch, denn die neuen APIs werden DX11 ersetzen, da das Drawcalllimit eben tatsächlich ein Problem ist und AsyncronuosCompute oder den Einsatz von Computeshadern in Grafik generell eine ganze revolutionäre Welle neuer Möglichkeiten für die Entwicklung der Spielegrafik mitbringt. Die Studios werden sich also so oder so damit beschäftigen, sie kommen nicht drumherum, von daher ist das Kostenargument total irrelevant.
Ich verstehe es, wenn ein kleineres Studio wir PiranhaBytes beispielsweise sehr konservativ mit ihrer eigenen Technik ist (die haben ja auch noch ihre eigene Technik) und mit Elex erstmals überhaupt auf DX11 springen. Da braucht man natürlich nichts zu erwarten in der Hinsicht. Aber bei den großen Studios/Publishern, wo die Technik sowieso immer zentralisierter behandelt wird, eben genau aufgrund dieses Kostendrucks, werden die APIs ein ganz selbstverständlicher Teil der neuen Spielegeneration sein. Das ist i.Ü. auch exakt der Grund, warum im ersten Jahr des Aufkommens der neuen APIs so viele AA und AAA-Titel schon auf die neuen APIs setzen. Zähl das mal durch, was dieses Jahr gelaufen ist, das schon jetzt ziemlich viele Titel, die die neuen APIs einsetzen, eine so schnelle Reaktion auf eine neue SpieleAPI gabs in der Vergangenheit nie, selbst als die APIs noch jährlich erschienen. Die Zentralisierung der Speielentwicklung seitens der großen Publisher wird dafür sorgen, dass sich die neuen APIs sehr schnell durchsetzen werden, da die Arbeit eh getan werden muss und man genau um diese Kosten nicht drumherum kommt.
Der einzige Pferdefuss und das ist der einzige Kritikpunkt der die neuen APIs etwas aufhalten wird, weil dadurch DX11 künstlich weiterbeatmet wird und der die ganze Entwicklung jetzt noch aufhält, ist Microsoft, weil diese dämliche Win10-Exklusivität von DX12 sich jetzt nämlich als Boomerang erweist.
Das wird aber nicht dafür sorgen, dass sich die neuen APIs nicht durchsetzen, sondern nur, dass bis zum Sanktnimmerleinstag DX11 mit durchgeschleppt werden muss.

Korvaun
2016-08-29, 14:04:59
Enthusiast-VEGA kommt erst 1H2017 laut ComputerBase. Spekuliert wird nur ob damit beide VEGA gemeint sind oder nur der Vega11...

https://www.computerbase.de/2016-08/amd-vega-fuer-enthusiasten-kommt-erst-2017/

Ich rechne für 2016 mit keiner neuen Grafikkarte über RX480 von AMD...

dargo
2016-08-29, 14:11:59
Und? Es wird aber keine DX 12 only Spiele geben, also relativ uninteressant. Nvidia ist unter DX 11 immer noch konkurrenzfähig zu AMD unter DX 12.

Es hat auch niemand was anderes behauptet. Es wird allerdings zu kleinen Verschiebungen in den jeweiligen Segmenten kommen. Zb. aus GTX1060 vs. RX480 wird GTX1060 vs. RX470.


Ausserdem wird ja immer gerne die Tatsache ignoriert, das die Entwicklung und der Support für Low Level Engines und Spiele ungleich höher ist wie für DX 11 Titel. Ich lache mich tot wenn BF1 unter DX12 schlechter läuft als unter DX 11.

Du meinst die Schöpfer von Mantle haben DX12 nicht im Griff? :lol:

Screemer
2016-08-29, 14:13:32
@korvaun: blättere mal 3-4 Seiten zurück.

dargo
2016-08-29, 14:16:33
2017 hat NV Volta am Start vermutlich mit besseren Low Level Support,kein Plan wo das ein Nachteil für NV sein soll wenn sie Mitte 2017 wieder neue Karte verkaufen.
Schon putzig... jedes Jahr lese ich, dass NV mit neuer Hardware unter low level besser wird. Déjà-vu @Maxwell. :tongue: Und aus Kundensicht wird das als Vorteil hervorgehoben, dass man wieder Geld investieren muss. :uup:

Rancor
2016-08-29, 14:23:07
Du meinst die Schöpfer von Mantle haben DX12 nicht im Griff? :lol:
Abwarten ;D Unter Mantle war man auch mal grade so auf Augenhöhe mit DX 11 zumindest unter NV ^^

dargo
2016-08-29, 14:26:17
Vor allem bedeutet Lowlevel deutlich mehr Entwicklungsaufwand. Dann muss man an zwei GPU Architekturen Hardware näher Programmieren. Das ist der Vorteil von DX11. Da muss man das im Zweifel nicht so genau. Mehr Aufwand kostet mehr Geld. Und das eine breitere Käuferschicht angesprochen wird ist auch Quatsch von ihm. Kein Kunde juckt das ob das nun ein Lowlevel Game ist oder nicht.

Du hast schon eine seltsame Sicht der Dinge aus Kundensicht. Wobei ich mich bei deinem Aufenthalt in 3DC ernsthaft frage welchen Standpunkt der Kunde bei dir überhaupt hat? Bisher konnte ich dazu nichts Positives finden. Du meinst also den Kunden interessiert es nicht wenn er mit der gleichen Hardware und einer schlankeren API mehr Leistung bekommt und er sich dadurch ein Hardwareupgrade für Zeitraum X spart? :facepalm:


Die 1070 hat derzeit übrigens ein leicht besseres P/L Verhältnis als die RX480 bei übrigens gleichem Verbrauch :), denn normalerweise nimmt das P/L Verhältnis nach oben ab.
Das stimmt schon mal beim Benchmarkparcour der CB mit jeder Menge alter Software nicht. Dort liegt die GTX1070 (400€) 42% vor der RX480 (270€). Das sind 48% mehr beim Preis. Zudem ist es kein Wunder, dass der "Abfall" @GTX1070 günstiger angeboten werden kann.


Der einzige Pferdefuss und das ist der einzige Kritikpunkt der die neuen APIs etwas aufhalten wird, weil dadurch DX11 künstlich weiterbeatmet wird und der die ganze Entwicklung jetzt noch aufhält, ist Microsoft, weil diese dämliche Win10-Exklusivität von DX12 sich jetzt nämlich als Boomerang erweist.
Das wird aber nicht dafür sorgen, dass sich die neuen APIs nicht durchsetzen, sondern nur, dass bis zum Sanktnimmerleinstag DX11 mit durchgeschleppt werden muss.
So kritisch sehe ich es gar nicht. Windows 10 ist bei den Spielern sehr beliebt. Das belegen die Zahlen bei Steam sehr gut. Vergleich das mal mit dem Umstieg auf DX10.x mit Windows Vista. Das sind zwei verschiedene Welten.

prinz_valium
2016-08-29, 14:44:18
und kurz nach vega kommt dann schon volta in 16nm FF+ oder was auch immer
sieht alles echt bitter aus. da ist es dann bald schon fast nebensächlich, ob das produkt gut oder schlecht wird.

naja ich interessiere mich eh nur für ZEN und vega als GPU in der xbox scorpio

Hübie
2016-08-29, 14:47:24
Schon putzig... jedes Jahr lese ich, dass NV mit neuer Hardware unter low level besser wird. Déjà-vu @Maxwell. :tongue: Und aus Kundensicht wird das als Vorteil hervorgehoben, dass man wieder Geld investieren muss. :uup:

Als wäre Maxwell schlecht / lahm. Bisher konnte noch keine AMD-Karte meiner das Wasser reichen. Und das bei nur 50€ Aufpreis ggü. Fiji. Ich finde man sollte die Kirche im Dorf lassen.
Wenn die Entwickler es nicht geschissen bekommen mit der neuen, schlanken API kontinuierlich mehr Performance zu erzielen kann D3D11 gar nicht so scheiße sein. Das meine ich IHV-unabhängig.
Den großen Nachteil bei D3D11 und davor sehe ich eigentlich darin, dass man völlig von der Willkür seines Herstellers abhängig ist. Kepler z.B. erreicht längst nicht mehr die Performance die man erreichen könnte weil die Treiber nur noch für Maxwell und Pascal optimiert werden. Wie lange Maxwell noch von neuen Treibern für neue Spiele profitiert steht in den Sternen...
Bei D3D12/Vulkan ist man halt davon abhängig welcher IHV am besten Doku/Resources zur Verfügung stellt oder wer Büros ausstattet. ;) Beides find ich irgendwie scheiße, um ehrlich zu sein.
AMD'ler heulen bei 90% der Spiele wegen D3D11 und wir NVIDIA'ner heulen bei 10% wegen mäßiger Implementierung von D3D12/Vulkan.

Edit: Ergänzend möchte ich noch sagen dass es für die momentane Situation gilt. Es gibt noch keine Engine die mit Ziel low-level entwickelt wurde und content mit dem Ziel low-level Machbarkeit.

Schaffe89
2016-08-29, 15:10:53
Die Erwartungen würde ich etwas zurückschrauben. Ich gehe eher von +~70% aus.

Das hieße ja dass die Einheiten komplett nach oben skalieren, das glaube ich erst wenn ich es sehe.
Ich gehe mal von 40 bis 50% für den kleinen Vega aus und von 80 bis 90% beim großen Vega.

Das dürfte dann @high level Worstcase sein.
57175

Ne, da gibts mit Project Cars, Rust, Asetto Corsa und WOW noch deutlich schlimmere Titel.

Kepler z.B. erreicht längst nicht mehr die Performance die man erreichen könnte weil die Treiber nur noch für Maxwell und Pascal optimiert werden.

Gibts dazu eigentlich irgendeinen Beleg? Ich dachte das liege vor allem an der geringeren V-ram Menge.
Beim Hexer 2015 hab ich das auch mal gemeint dass die alte Generationen benachteiligen, wurde aber gepatched. Aber eine rx480 holt gegenüber der r9 390 auch auf und hat sie in Full HD mittlerweile leicht überholt.
Scheint wohl nix ungewöhnliches zu sein.

dargo
2016-08-29, 15:17:20
Das hieße ja dass die Einheiten komplett nach oben skalieren, das glaube ich erst wenn ich es sehe.

Zum x-ten Male - Vega ist kein aufgeblasener P10.


Ne, da gibts mit Project Cars, Rust, Asetto Corsa und WOW noch deutlich schlimmere Titel.
Assetto Corsa? Das läuft hier mit Grenada @1440p mit sehr hohen Frames. Völlig unproblematisch.

Dorn
2016-08-29, 15:27:56
Zum x-ten Male - Vega ist kein aufgeblasener P10.
Man kann es garnicht oft genug wiederholen. :wink:

Schaffe89
2016-08-29, 15:31:46
Und wo gibts die Info dazu?

dargo
2016-08-29, 15:33:57
Als wäre Maxwell schlecht / lahm.
Ach Hübie, das habe ich so nirgendwo gesagt. Ich habe nur gesagt es kommt zu kleinen Verschiebungen in den jeweiligen Segmenten. Vergleich mal Fiji mit GM200 zum Launchzeitpunkt und heute. Natürlich solange die 4GB nicht limitieren. Leider war mit HBM bei 4 Stacks nicht mehr möglich gewesen.

Iruwen
2016-08-29, 15:37:34
Schon putzig... jedes Jahr lese ich, dass NV mit neuer Hardware unter low level besser wird. Déjà-vu @Maxwell. :tongue: Und aus Kundensicht wird das als Vorteil hervorgehoben, dass man wieder Geld investieren muss. :uup:

Wie schaffe hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11144081#post11144081) schon feststellte bist du doch derjenige der ununterbrochen ins Low-Level Horn bläst, was noch komplett ungelegte Eier sind.
Jedes Jahr lese ich, dass AMD demnächst ganz sicher total aufholen wird, da kommt dann <Wunderfeature XY> und dann gehts aber richtig ab, joho.
Jo, irgendwann zahlt sich AMDs Strategie irgendwie aus und die Karten stehen besser da als ihre Pendants. Nur interessiert das dann leider längst keinen mehr.

HOT
2016-08-29, 15:37:40
und kurz nach vega kommt dann schon volta in 16nm FF+ oder was auch immer
sieht alles echt bitter aus. da ist es dann bald schon fast nebensächlich, ob das produkt gut oder schlecht wird.

naja ich interessiere mich eh nur für ZEN und vega als GPU in der xbox scorpio
Lass Volta vllt. Ende 2017 kommen, wenig später kommt dann Navi in einem neuen Prozess... das geht immer weiter, da gibts nix was bitter ist. Und die Scorpio hat keine Zen-Kerne, sondern aller Wahrscheinlichkeit nach Tiger- oder Cheetah-Kerne.

Schaffe89
2016-08-29, 15:39:59
Vergleich mal Fiji mit GM200 zum Launchzeitpunkt und heute.

Ja man ist bei Computerbase in Full HD von 8% bei Release auf 10% Rückstand zurückgefallen.:eek: Klasse!https://www.computerbase.de/2016-06/radeon-rx-480-test/5/#abschnitt_benchmarks_in_1920__1080_und_2560__1440

HOT
2016-08-29, 15:41:09
Ja man ist bei Computerbase in Full HD von 8% bei Release auf 10% Rückstand zurückgefallen.:eek: Klasse!
Wenn ich sowas immer lese .. wähl ein paar andere Spiele aus und du hast 5% mehr.. so ein Quatsch immer. Könnt ihr noch was anderes als dieses DÜMMLICHE andauernde völlig ermüdende AMD-Bashing, wie schlimm das alles ist? Kommt da auch nochmal was konstruktives oder bleibts jetzt bei diesem völlig destruktivem Schwachsinn? Du tust dich da ganz besonders mit einer irren Ausdauer hervor... ich empfinde dass das 90% destruktiv ist was von dir kommt.

Sunrise
2016-08-29, 15:41:33
Wie AMD den ohnehin schon vorhanenen R&D Rückstand aufholen will ist mir auch schleierhaft. Mit den Mainstream Produkten wird das nicht gelingen.
AMD wird auf kurze Sicht sowieso garkeine R&D nur über Graphics finanzieren können, weil AMD laut Plan mit dem CPU-Geschäft das Geld verdienen wird und muss. Ein Geschäft, dass NV nicht hat, und genau deshalb muss NV auch alles was sie verdienen in Graphics investieren, damit sie weiterhin weit vor AMD liegen.

Ja, NV muss immer meilenweit vor AMD stehen, denn AMD wird immer mehr Marktanteile von NV wieder zurückholen und NV kann das nur durch weit bessere (schnellere) Produkte und konstant hohe Einnahmen (R&D) auch erreichen.

Das sind leider immer so einseitige Aussagen, die man auch immer wieder umdrehen kann, weil NVs Erfolg basiert eben darauf, bei Graphics die Besten zu sein, ansonsten kannst du den Laden auch zumachen (um mal deinen Tenor aufzugreifen). Dem gegenüber ist AMD weit besser aufgestellt, von Patenten will ich garnicht erst anfangen.

Ohne Geld funktioniert logischerweise nirgends was, bevor man aber immer wieder von vorne das Horn bläst, sollte man erstmal schauen, wieder Geld zu verdienen, und solide über einen geplanten Zeitraum zu kalkulieren und das ist keine leichte Aufgabe.

Dass Vega erst 2017 kommt war absehbar anhand der Twitter-Aussagen von Raja Koduri und wenn es nicht schneller geht, geht es halt nicht schneller. Warum da wieder seitenlang darüber diskutiert werden muss, erschließt sich mir nicht. Es war entweder kein Geld vorhanden, die Yields waren zu schlecht oder man wollte vorher das Risiko nicht eingehen, sucht euch was aus. HBM2 wie ihn AMD möchte war/ist auch nicht vor Q3/16 verfügbar, also wäre es viel früher sowieso nicht gegangen.

Es wird schon seine Gründe haben, warum ein >450mm² Die mit GDDR5X nur noch direkt von NV verkauft wird und dann auch noch zu Mondpreisen. Aus genau dem Grund, weil NV eben auch nicht in Masse liefern kann. Und AMD soll das dann plötzlich mit einem ähnlichen großen Die und HBM2 für weit weniger Geld können? Ihr träumt einfach zuviel in den Tag hinein.

Hübie
2016-08-29, 15:48:29
Gibts dazu eigentlich irgendeinen Beleg? Ich dachte das liege vor allem an der geringeren V-ram Menge.
Beim Hexer 2015 hab ich das auch mal gemeint dass die alte Generationen benachteiligen, wurde aber gepatched. Aber eine rx480 holt gegenüber der r9 390 auch auf und hat sie in Full HD mittlerweile leicht überholt.
Scheint wohl nix ungewöhnliches zu sein.

Kannst dir die Mühe machen und mal vergleichen wo eine Titan @1200 oder 780 @ 1350 mit jeweils 6 GB früher und heute im Index steht. Auch an den Release Notes kann man es erahnen. Dazu kommt noch dass man es gar nicht wirklich wissen kann: Neuer Titel kommt raus, nix wird für Kepler optimiert und fertig. Wenn es natürlich Bugs gibt werden die ausgemerzt. Also nein: Offizielle Quellen gibt es nicht. ;)
@dargo: Die stock 980 Ti hat beinahe keine Relevanz. Die ist sogar noch weiter von Fiji weg gerückt wenn man jetzt mal einen Schnitt aus aktuellen Titeln zieht, würde ich mal behaupten. Geprüft hab ich es aus Zeitmangel noch nicht.

dargo
2016-08-29, 16:14:41
Wie schaffe hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11144081#post11144081) schon feststellte bist du doch derjenige der ununterbrochen ins Low-Level Horn bläst, was noch komplett ungelegte Eier sind.
Jedes Jahr lese ich, dass AMD demnächst ganz sicher total aufholen wird, da kommt dann <Wunderfeature XY> und dann gehts aber richtig ab, joho.
Jo, irgendwann zahlt sich AMDs Strategie irgendwie aus und die Karten stehen besser da als ihre Pendants. Nur interessiert das dann leider längst keinen mehr.
Warum interessiert das dann nicht mehr? Kommt nach Fiji nichts mehr? :uconf2:

AMD wird auf kurze Sicht sowieso garkeine R&D nur über Graphics finanzieren können, weil AMD laut Plan mit dem CPU-Geschäft das Geld verdienen wird und muss. Ein Geschäft, dass NV nicht hat, und genau deshalb muss NV auch alles was sie verdienen in Graphics investieren, damit sie weiterhin weit vor AMD liegen.

Ja, NV muss immer meilenweit vor AMD stehen, denn AMD wird immer mehr Marktanteile von NV wieder zurückholen und NV kann das nur durch weit bessere (schnellere) Produkte und konstant hohe Einnahmen (R&D) auch erreichen.

Das sind leider immer so einseitige Aussagen, die man auch immer wieder umdrehen kann, weil NVs Erfolg basiert eben darauf, bei Graphics die Besten zu sein, ansonsten kannst du den Laden auch zumachen (um mal deinen Tenor aufzugreifen). Dem gegenüber ist AMD weit besser aufgestellt, von Patenten will ich garnicht erst anfangen.

Ohne Geld funktioniert logischerweise nirgends was, bevor man aber immer wieder von vorne das Horn bläst, sollte man erstmal schauen, wieder Geld zu verdienen, und solide über einen geplanten Zeitraum zu kalkulieren und das ist keine leichte Aufgabe.

Dass Vega erst 2017 kommt war absehbar anhand der Twitter-Aussagen von Raja Koduri und wenn es nicht schneller geht, geht es halt nicht schneller. Warum da wieder seitenlang darüber diskutiert werden muss, erschließt sich mir nicht. Es war entweder kein Geld vorhanden, die Yields waren zu schlecht oder man wollte vorher das Risiko nicht eingehen, sucht euch was aus. HBM2 wie ihn AMD möchte war/ist auch nicht vor Q3/16 verfügbar, also wäre es viel früher sowieso nicht gegangen.

Es wird schon seine Gründe haben, warum ein >450mm² Die mit GDDR5X nur noch direkt von NV verkauft wird und dann auch noch zu Mondpreisen. Aus genau dem Grund, weil NV eben auch nicht in Masse liefern kann. Und AMD soll das dann plötzlich mit einem ähnlichen großen Die und HBM2 für weit weniger Geld können? Ihr träumt einfach zuviel in den Tag hinein.
Sehr schön zusammen gefasst. (y)

Oromis16
2016-08-29, 16:16:37
@Schaffe89
AMDs offizieller Roadmap ist zu entnehmen, dass Polaris, Vega und Navi Architekturen bezeichnen ;)
http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzI0NjU4fENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=635918349639602935

Schaffe89
2016-08-29, 16:21:15
Wenn ich sowas immer lese ..

Es geht nicht darum dass irgendeine Karte hier innerhalb von Messungenauigkeiten schneller oder langsamer wird, darum gehts mit insbesondere überhaupt nicht. Aber offenbar dargo, der behauptet, die Fury X hätte ja so aufgeholt und das ist eben nicht der Fall.

Zu Release der Fury X Anno2015 waren es bei CB 8% Punkte hinter der GTX 980 Ti in Full HD und zu Release der rx480 waren es 11% Punkte. Aufholen tut AMD da nirgends.

Kommt da auch nochmal was konstruktives oder bleibts jetzt bei diesem völlig destruktivem Schwachsinn?

Wenn du die Realität als destruktiv empfindest, kann ich dir nicht helfen HOT.

@Schaffe89
AMDs offizieller Roadmap ist zu entnehmen, dass Polaris, Vega und Navi Architekturen bezeichnen ;)


Das lässt zumindest hoffen, dass es kein 1:1 Polaris nur aufgebohrt ist, sondern auch evtl. noch ein bisschen mehr Effizienz dabei heausspringt, denn irgendwie wird man Vega in ein 250 Watt Korsett zwengen müssen. Das Produkt kommt ja deutlich später als GP104 dann sollte es auch zumindest eine ähnliche Effizienz aufweisen.

Warum interessiert das dann nicht mehr? Kommt nach Fiji nichts mehr?

Das Problem ist doch, dass selbst mit Directx12 die GTX 1080 immernoch rund 60% vor der rx480 liegt und die Titan X doppelt so schnell ist.
Natürlich interessiert das für die User die bereits bei einer rx480 oder GTX 1060 zugeschlagen haben, aber außer Minimalverschiebungen im Schnitt wird da nix bei rauskommen.

Iruwen
2016-08-29, 16:22:17
Warum interessiert das dann nicht mehr? Kommt nach Fiji nichts mehr? :uconf2:
Kommt nach Pascal nichts mehr? :uponder:

prinz_valium
2016-08-29, 16:31:02
Lass Volta vllt. Ende 2017 kommen, wenig später kommt dann Navi in einem neuen Prozess... das geht immer weiter, da gibts nix was bitter ist. Und die Scorpio hat keine Zen-Kerne, sondern aller Wahrscheinlichkeit nach Tiger- oder Cheetah-Kerne.

ich glaube nicht, dass volta erst ende 2017 kommt.
nicht der 104er chip. den wird es mit Sicherheit ungefähr ein Jahr nach pascal 104 geben. also Mitte 2017

Ich meine Zen als Desktop CPU und Vega in der Scorpio APU als Grafikteil.
dass wir dort kein zen sehen, halte ich leider auch für wahrscheinlich.

dargo
2016-08-29, 17:15:40
Das Problem ist doch, dass selbst mit Directx12 die GTX 1080 immernoch rund 60% vor der rx480 liegt und die Titan X doppelt so schnell ist.

Welches Problem? Du meinst die ~5% des Marktes die über 650€ für eine Grafikkarte ausgeben und die 0,x% die sich eine Titan holen? Selbst in einem Nerdforum wie diesem sind die Titankäufer überschaubar.

Hübie
2016-08-29, 17:20:51
ich glaube nicht, dass volta erst ende 2017 kommt.
nicht der 104er chip. den wird es mit Sicherheit ungefähr ein Jahr nach pascal 104 geben. also Mitte 2017

Ich meine Zen als Desktop CPU und Vega in der Scorpio APU als Grafikteil.
dass wir dort kein zen sehen, halte ich leider auch für wahrscheinlich.

Na da wirst du aber enttäuscht sein. Gewöhne dich daran dass du 2017 kein Volta zum Zocken in deinen PCs wirst schrauben können. ;)

HOT
2016-08-29, 17:28:25
ich glaube nicht, dass volta erst ende 2017 kommt.
nicht der 104er chip. den wird es mit Sicherheit ungefähr ein Jahr nach pascal 104 geben. also Mitte 2017

Ich meine Zen als Desktop CPU und Vega in der Scorpio APU als Grafikteil.
dass wir dort kein zen sehen, halte ich leider auch für wahrscheinlich.
Ich bin mir auch nicht sicher, ob wir dort Vega IP sehen. Ich gehe eher davon aus, dass der Grafikkern den gleichen IP-Level mitbringt wie die One. Nur der eDRAM entfällt zugunsten von GDDR5.
Du vergisst, dass NV an den Chips, die die produzieren auch was verdienen müssen. Wenn ich sehe, dass das Pascal-Projekt mehrere Milliarden verschlungen hat, dann muss das erst mal wieder reingeholt werden, zudem ist ja die Produktion anfangs auch nicht grade billig. Man kompensiert das mit diesen Mondpreisen ein bisschen. Aber 1 1/2 Jahre sind der Minimumzeitraum, in dem man eine Generation betreiben muss, notfalls verlängert mit einem Rebrand. GM204 lief 1 1/2 Jahre, GK104 sogar mehr als 2 1/2, GM200 lief 1 Jahr (effektiv als 980Ti). Ein GP102, der jetzt nur als Titan und Quadro/Tesla auf den Markt kommt wird sicherlich später noch tiefer in den Desktop-Markt rutschen, allein das spricht schon dagegen, dass wir so schnell Volta sehen werden. Ich würd sagen, dass man von mindestens ein Jahr vom Release der 1080Ti ausgehen kann und mindestens 1 1/2 Jahre nach dem Launch der 1080 für den GV104. Da passt also Jahreswechsel 17/18 recht gut, in 16nm.

ilibilly
2016-08-29, 18:01:19
Wenn vega big (6kshader) erst gegen mitte 2017 kommt ,dann kommt imho gp102 in form einer 1170 und 1180 mit 3k und 3,5k shader und mann ist wider vorne ,die neue titan bekommt dann den vollausbau mit 3840 shader und 16gb ram.
Ich weiss das ist quarsch,aber wenn ich 1060 vs rx480 hochrechne von 1280 vs 2300 shader x3 bei 3840 vs 6900 dann düfte ein vega mit 6000 das nachsehen gegen gp102 haben,auch wenn es eine neue gcn architecture bekommt,die steugerungendürfte ja nicht mehr als 5% sein wenn man gcn 1,2,3 ansieht.
Kann ja gut sein das nv aktuell schlechte gp102 chips bunkert für eine 1170 gegen juni/juli

Skysnake
2016-08-29, 18:04:11
und kurz nach vega kommt dann schon volta in 16nm FF+ oder was auch immer
sieht alles echt bitter aus. da ist es dann bald schon fast nebensächlich, ob das produkt gut oder schlecht wird.

So kurz, wie GP100 nach der Vorstellung auf den Markt kam? :freak:

Volta wird ziemlich lange auf sich warten lassen. Selbst heute haste noch keine relevante Installation an GP100 am MArkt stehen soweit man das weiß.

Und auch der GP102 ist nicht wirklich in relevanten Mengen am Markt zugange. Da von der nächsten Generation zu sprechen ist wahnsinnig. Die werden irgendwann das Ding vorstellen, aber bei nVidia hat Vorstellung seit einiger Zeit nichts mehr mit Verfügbarkeit zu tun.....

Und schon gleich zehn mal nicht im Desktopmarkt.

Korvaun
2016-08-29, 18:11:43
Bis AMD in die Puschen kommt mit VEGA gibts bei Nv entweder Pascal 2.0 oder es wird GP102 verwurstet zu ner 1170/80. AMD hat auf die nächsten paar Jahre gesehen keine Chanche Nv zu überholen. Selbst ein Gleichziehen (Performance, Energieeffizienz, Releasedatum) wäre mMn sensationell...

HOT
2016-08-29, 18:32:22
Wenn vega big (6kshader) erst gegen mitte 2017 kommt ,dann kommt imho gp102 in form einer 1170 und 1180 mit 3k und 3,5k shader und mann ist wider vorne ,die neue titan bekommt dann den vollausbau mit 3840 shader und 16gb ram.
Ich weiss das ist quarsch,aber wenn ich 1060 vs rx480 hochrechne von 1280 vs 2300 shader x3 bei 3840 vs 6900 dann düfte ein vega mit 6000 das nachsehen gegen gp102 haben,auch wenn es eine neue gcn architecture bekommt,die steugerungendürfte ja nicht mehr als 5% sein wenn man gcn 1,2,3 ansieht.
Kann ja gut sein das nv aktuell schlechte gp102 chips bunkert für eine 1170 gegen juni/juli
Der Name ist doch etwas sperrig, wenn wird das Teil 2080 heißen, aber das denke ich ebenfalls. In 2017 wird es sicherlich neue Karten geben, sei es 1080ti oder 2080(ti). Vega ist unglaublich schwer einzuschätzen finde ich. Polaris bringt schon einige wirksame Verbesserungen mit, die auch unter DX11 helfen, wie Vega sich auswirkt ist vollkommen offen.

Mancko
2016-08-29, 18:45:37
Enthusiast-VEGA kommt erst 1H2017 laut ComputerBase. Spekuliert wird nur ob damit beide VEGA gemeint sind oder nur der Vega11...

https://www.computerbase.de/2016-08/amd-vega-fuer-enthusiasten-kommt-erst-2017/

Ich rechne für 2016 mit keiner neuen Grafikkarte über RX480 von AMD...

AMDs sagenhaftem Marketing ist durchaus zuzutrauen mit Quatsch wie einer Polaris Dual Karte um die Ecke zu kommen. Nach dem Motto "Sie bekommen nicht ganz GTX 1080 Leistung aber dafür brauchen wir trotzdem 2/3 mehr Saft.

Mancko
2016-08-29, 18:49:56
Lass Volta vllt. Ende 2017 kommen, wenig später kommt dann Navi in einem neuen Prozess... das geht immer weiter, da gibts nix was bitter ist. Und die Scorpio hat keine Zen-Kerne, sondern aller Wahrscheinlichkeit nach Tiger- oder Cheetah-Kerne.

Aktuell released Nvidia schneller als AMD die eigene Palette. Ist schon seit Maxwell so. Momentan vergrößern sich die zeitlichen Abstände. Alles eine Folge des heruntergeschraubten R&Ds. Aktuell sieht es nicht so aus, als ob AMD hier die Lücke schließen kann.

dargo
2016-08-29, 18:56:58
Aktuell released Nvidia schneller als AMD die eigene Palette.
Erzähl keine Märchen, unterhalb GP106 hat NV gar nichts Neues.

Mancko
2016-08-29, 19:02:33
AMD wird auf kurze Sicht sowieso garkeine R&D nur über Graphics finanzieren können, weil AMD laut Plan mit dem CPU-Geschäft das Geld verdienen wird und muss.


Das wäre ehrlich gesagt extrem schlecht, denn beim Thema Geld im CPU Segment verdienen ist AMD extrem abhängig davon, was Intel mit seiner großen Kriegskasse zulassen möchte. Selbst wenn alles technisch übermäßig nach Plan laufen würde und sie es in eine Ahtlon64 Position schaffen (was ich derzeit noch nicht sehe), dann wird Intel einfach mit Geld AMD wie gehabt klein halten bis ihnen beim refreshen wieder die Luft ausgeht. Intel kann es sich leisten temporär eigene Produkte derart im Preis zu senken, dass Marktanteile nur mäßig und langsam sich verschieben und die Zeit spielt dann wieder für Intel, denn die haben viele Entwicklerteams parallel. Also sich auf das CPU Geschäft zu verlassen ist viel zu dünn. Das reicht hinten und vorne nicht.


Ein Geschäft, dass NV nicht hat, und genau deshalb muss NV auch alles was sie verdienen in Graphics investieren, damit sie weiterhin weit vor AMD liegen.


Nun ich muss sagen, dass man auf den Konkurrenzkampf mit Intel auch gern verzichten kann. AMD hat in seiner gesamten Geschichte dort btw. in Summe auch nur rote Zahlen eingefahren. Alle Jahre übereinander gelegt ist auch dort tief rot. Warum das nun auf einmal komplett anders sein soll musst Du mir mal erklären. ATI konnte sich früher noch selber über Wasser halten. Wenn AMDs Plan jetzt nach Deiner Aussage ist die GPU Abteilung durch die defizitäre CPU Abteilung zu stützen, na dann gute Nacht.


Ohne Geld funktioniert logischerweise nirgends was, bevor man aber immer wieder von vorne das Horn bläst, sollte man erstmal schauen, wieder Geld zu verdienen, und solide über einen geplanten Zeitraum zu kalkulieren und das ist keine leichte Aufgabe.


Erstmal sollte man mal schauen bzw. resümieren, dass AMD es geschafft hat sich von einer größeren Firma als Nvidia mit deutlich mehr Umsatz und mehr R&D Budget in eine deutlich kleinere Firma zu reduzieren. Deswegen lass ich auch nirgends als Entschuldigung gelten, dass AMD weniger Geld als Nvidia zur Verfügung hat. Für die doch satte Talfahrt seit der ATI Übernahme ist AMD höchst selbst verantwortlich.


Dass Vega erst 2017 kommt war absehbar anhand der Twitter-Aussagen von Raja Koduri und wenn es nicht schneller geht, geht es halt nicht schneller. Warum da wieder seitenlang darüber diskutiert werden muss, erschließt sich mir nicht. Es war entweder kein Geld vorhanden, die Yields waren zu schlecht oder man wollte vorher das Risiko nicht eingehen, sucht euch was aus. HBM2 wie ihn AMD möchte war/ist auch nicht vor Q3/16 verfügbar, also wäre es viel früher sowieso nicht gegangen.


Beim ersten Teil gebe ich Dir Recht. Wenn es nicht schneller geht, dann geht es nicht schneller. Beim zweiten Teil gebe ich Dir nicht Recht, denn GDDR5X wäre eine Alternative gewesen. Schlußendlich ist AMD aber auch selber schuld wenn es Negativkommentare hagelt. Von den Monaten Vorsprung haben sie höchst selber gesprochen. Das waren nicht die Reviewer und nicht die User.


Es wird schon seine Gründe haben, warum ein >450mm² Die mit GDDR5X nur noch direkt von NV verkauft wird und dann auch noch zu Mondpreisen. Aus genau dem Grund, weil NV eben auch nicht in Masse liefern kann. Und AMD soll das dann plötzlich mit einem ähnlichen großen Die und HBM2 für weit weniger Geld können? Ihr träumt einfach zuviel in den Tag hinein.[/B]

Warum Mondpreise? Die Preise werden bezahlt. Ist ja nicht das erste Mal, dass es teure Grafikkarten gibt. Und wieso Nvidia selber verkauft ist auch klar. Die testen die Kundschaft in Bezug auf das Apple Verhalten. Wenn es von Erfolg gekrönt ist, wirst Du Dich daran gewöhnen dürfen, dass Nvidia zunehmend selber verkauft samt eigener GeForce Now und GeForce Experience und was weiß ich noch alles für Plattformen. Der Eigenvertrieb wird derzeit einfach nur angetestet. Die Gelegenheit ist günstig, weil die Konkurrenz abwesend ist. Das hat erstmal mit Lieferbarkeit gar nichts zu tun. Genauso wie die FE Editions nichts mit Lieferbarkeit zu tun haben. Das ist alles antesten und schauen wie das Feedback ist und ob es in Summe ankommt.

scully1234
2016-08-29, 19:05:04
aber bei nVidia hat Vorstellung seit einiger Zeit nichts mehr mit Verfügbarkeit zu tun.....


Dass in Kontext dieses Threads zu bringen, hat schon etwas von grosser Ironie:freak:

aufkrawall
2016-08-29, 19:07:06
Wer glaubt schon ernsthaft, dass der Vega-Launch besser über die Bühne gehen wird als der von Polaris.
Bis es brauchbare Custom Designs von Vega 10 kaufbar gibt, gehe ich davon aus, dass die Vegetation schon wieder neues Grün trägt.

Mancko
2016-08-29, 19:08:46
Erzähl keine Märchen, unterhalb GP106 hat NV gar nichts Neues.

Nvidia hat GP106, GP104, GP102 und im Profi Segment GP100. GP107/8 gesellt sich bereits innerhalb der nächsten 8 Wochen dazu oder glaubst Du die brauchen wie AMD mehr als ein halbes Jahr auf die Konkurrenz? Die Mobilen Produkte kommen noch dazu. Und Maxwell hast Du auch offensichtlich übersehen. AMD war nur zu Rebrands in der Lage und die extrem späte Fury, das wars.

Mancko
2016-08-29, 19:14:27
Dass in Kontext dieses Threads zu bringen, hat schon etwas von grosser Ironie:freak:

Das dachte ich mir auch gerade, unter anderem weil AMD durch Abwesenheit glänzt und insbesondere wenn man sich die direkten Gegenspieler GTX1060 und RX480 anschaut.

Mancko
2016-08-29, 19:16:57
Wer glaubt schon ernsthaft, dass der Vega-Launch besser über die Bühne gehen wird als der von Polaris.
Bis es brauchbare Custom Designs von Vega 10 kaufbar gibt, gehe ich davon aus, dass die Vegetation schon wieder neues Grün trägt.

Also wie die Konkurrenzsituation aussehen wird weiß ich nicht und wie gut/schlecht Vega 10 ist weiß ich auch nicht. Ich hoffe nur für AMD, dass das man sich nicht wieder solche Eigentore wie durch das eigene unfähige Marketing oder durch Überschreiten von Specs etc. schießt. Vielleicht lernt man ja daraus auch mal und hält die Klappe im Vorfeld.

Schaffe89
2016-08-29, 19:34:59
ATI konnte sich früher noch selber über Wasser halten. Wenn AMDs Plan jetzt nach Deiner Aussage ist die GPU Abteilung durch die defizitäre CPU Abteilung zu stützen, na dann gute Nacht.

Das ist ja akuell das Problem. AMD hat ATI über die Jahre mit der Übernahme eigentlich runtergewirtschaftet und jetzt muss man mangels Geld die Produkte ewig hinauszögern, das kann niemals Sinn der Sache sein. Mit so einer Strategie kommt man niemals wieder auf die Füße.

Beim zweiten Teil gebe ich Dir nicht Recht, denn GDDR5X wäre eine Alternative gewesen. Schlußendlich ist AMD aber auch selber schuld wenn es Negativkommentare hagelt.

GDDR5x wäre die richtige Entscheidung für Vega gewesen, GDDR5 auch die richtige Entscheidung für Fijii. Denn dann könnte man jetzt Fijii günstiger anbieten evtl. sogar shrinken und weiterhin verkaufen.
Das war vorher alles schon absehbar, d.h. jemand der ein bisschen Ahnung vom Markt hat hätte sich bei solchen Nachteilen erstmal nicht für HBM entschieden. AMD hat es trotzdem getan und dann muss man einfach zweifeln ob da die richtigen Leute arbeiten und nicht manche für solche Entscheidungen mal gefeuert gehören.

Thunder99
2016-08-29, 19:42:37
Wer glaubt schon ernsthaft, dass der Vega-Launch besser über die Bühne gehen wird als der von Polaris.
Bis es brauchbare Custom Designs von Vega 10 kaufbar gibt, gehe ich davon aus, dass die Vegetation schon wieder neues Grün trägt.
Es muss ja nicht immer schlecht laufen (hoffe ich) :)

AMD hat endlich das Potential wieder Konkurrenzfähig zu sein. Daher wird Vega schon gut sein. Aber wie gut, DAS ist das Rätsel ;)

Pirx
2016-08-29, 20:02:51
...
GDDR5x wäre die richtige Entscheidung für Vega gewesen, GDDR5 auch die richtige Entscheidung für Fijii. ...
Poste sowas doch bitte in der Lounge oder besser in einem anderen Forum und lasse hier den Platz für ernsthafte Spekulationen.

Schaffe89
2016-08-29, 20:26:22
Naja, ist das nicht der Grund, warum es offenbar so lange dauert? Nvidia hat GP102 ohne HBM gebracht und bis man größere Mengen GP100 HPC Chips sieht dauerts doch womöglich noch ein paar Monate. Außerdem bist du ganz schön unfreundlich.

Botcruscher
2016-08-29, 20:39:11
Der Grund liegt eher im Ausfall von 20nm und der finanziellen Situation. Da fehlt massiv R&D. Ansonsten halte ich die Entscheidung für HBM 1 schon für zweifelhaft. Ob HBM2 besser läuft muss sich noch zeigen.

HOT
2016-08-29, 20:55:02
Das ist ja akuell das Problem. AMD hat ATI über die Jahre mit der Übernahme eigentlich runtergewirtschaftet und jetzt muss man mangels Geld die Produkte ewig hinauszögern, das kann niemals Sinn der Sache sein. Mit so einer Strategie kommt man niemals wieder auf die Füße.

GDDR5x wäre die richtige Entscheidung für Vega gewesen, GDDR5 auch die richtige Entscheidung für Fijii. Denn dann könnte man jetzt Fijii günstiger anbieten evtl. sogar shrinken und weiterhin verkaufen.
Das war vorher alles schon absehbar, d.h. jemand der ein bisschen Ahnung vom Markt hat hätte sich bei solchen Nachteilen erstmal nicht für HBM entschieden. AMD hat es trotzdem getan und dann muss man einfach zweifeln ob da die richtigen Leute arbeiten und nicht manche für solche Entscheidungen mal gefeuert gehören.

Also echt, das liegt doch nicht an HBM, dass Vega in 2017 kommt, sondern an der Projektpriorisierung. NV hat bislang 4 16nm Chips zur Reife gebracht und AMD ebenfalls, P10, P11, XB1Slim und SummitRidge. Die Kapazitäten sind halt beschränkt, also kommt Vega etwas später als NVs Chips. AMD hat da so einiges in der Pipeline, mehr als NV. Da gibts noch den PS4Neo-Chip, Scorpio, V10 und V11, RavenRidge, K12-SoC, sicherlich 3 Navi-Chips und Zen+.

AMD wurde in 2011/12/13 schon etwas heruntergewirtschaftet, nein, falscher Begriff, kaputtgespart trifft es eher. Dein Kreuzzug gegen AMD nimmt langsam echt groteske Züge an.
Ich weiss auch nicht ob man das so 9x-klug abtun kann mit "GDDR5 wär besser gewesen". Da gibts so viele Faktoren, die da ne Rolle spielen, dass man das unmöglich bewerten kann.

N0Thing
2016-08-29, 21:02:35
Naja, ist das nicht der Grund, warum es offenbar so lange dauert? Nvidia hat GP102 ohne HBM gebracht und bis man größere Mengen GP100 HPC Chips sieht dauerts doch womöglich noch ein paar Monate. Außerdem bist du ganz schön unfreundlich.

Der Grund für die Verzögerung bei Nvidias GP100 dürfte die Produktion (großer Chip auf neuem Prozess) sein und selbst beim GP102 war in den USA schnell der gesamte Vorrat laut Shop ausverkauft, sonderlich viele funktionierende Chips sind da vorher sicher nicht vom Band gefallen, trotz Verzichts auf HBM und teildeaktiviertem Chip.
AMDs Vega war schon immer für das Jahresende in der Roadmap eingezeichnet und auch dies dürfte nicht an der Produktion von HBM2 liegen. Sollte Vega erst zum Frühling auf den Markt kommen, wäre das natürlich was anderes und weder für den Kunden noch für AMD wünschenswert. Aber zum jetzigen Zeitpunkt heißt es einfach mal abwarten.

Oromis16
2016-08-29, 21:06:29
Ob das Verzögerung ist oder nicht ist imho Anssichtssache.

Man kann da einerseits fragen: 'Wann veröffentlicht AMD endlich einen Big-Chip?', oder man fragt andererseits: 'Warum tun sies nicht jetzt?'.
Aus Chip- und Marktsicht erlaubt sich AMD hier etwas nur wenig nachvollziehbares, aus architektonischer Sicht hingegen ist die Situation einfach zu schwer zu beurteilen.
Wenn AMD weiß, dass die Vega-Architektur ein volles DX12-Featurelevel und obendrein (beträchtliche) Effizienz/Größenverbesserungen hat, dann würde ich als Aufsichtsrat den CEO persönlich aus dem Gebäude werfen, wenn er für nur 6 Monate Verkaufszeit einen Polaris-Big-Chip in Auftrag gibt.

reaperrr
2016-08-29, 21:21:08
GDDR5 auch die richtige Entscheidung für Fiji.
Der einzige Grund, warum Fiji a) den gleichen Chiptakt wie Hawaii erreichen konnte, ohne die 450W oder gar 500W-Marke zu knacken, und b) noch in 600mm² gepasst hat, war HBM.

Also nein, Fiji mit GDDR5 in 28nm zu bringen wäre sinnlos bzw. technisch nahezu unmöglich gewesen.

AMD hat es trotzdem getan und dann muss man einfach zweifeln ob da die richtigen Leute arbeiten und nicht manche für solche Entscheidungen mal gefeuert gehören.
Gegen Ende 2014, also kurz nach dem Launch der 285 und vor allem der GTX 970/980, haben gleich mehrere Führungskräfte, u.a. aus AMD's Grafik-Bereich, "neue Herausforderungen gesucht".

Skysnake
2016-08-29, 23:01:11
GDDR5x wäre die richtige Entscheidung für Vega gewesen, GDDR5 auch die richtige Entscheidung für Fijii. Denn dann könnte man jetzt Fijii günstiger anbieten evtl. sogar shrinken und weiterhin verkaufen.
Das war vorher alles schon absehbar, d.h. jemand der ein bisschen Ahnung vom Markt hat hätte sich bei solchen Nachteilen erstmal nicht für HBM entschieden. AMD hat es trotzdem getan und dann muss man einfach zweifeln ob da die richtigen Leute arbeiten und nicht manche für solche Entscheidungen mal gefeuert gehören.
Schaffe das ist mal ziemlich großkotzig....

AMD hat mit seinen Partnern dank Fiji das erst mal wirklich Si-Interposer in den Massenmarkt gebracht, nicht so was wie Xilinx. Von HBM wollen wir mal gar nicht anfangen zu reden.

So was sind auch immer Testballons, und die Erfahrungen die man daraus ziehen kann sind unbezahlbar. Gerade in einem schon sehr ausgereiften Prozess das Ding zu bringen könnte sich noch auszahlen. Man hatte konnte damit einfach das Risiko minimieren. Du musst dir ja mal vorstellen, das man alles rein auf Grundlage von irgendwelchen Modellen designt, dann mal irgendwelche Testchips macht usw. am Ende aber sich nie sicher sein kann, dass dann auch der echte Konsumerchip auch wirklich so funktioniert wie er soll. Vor allem! was die Yields anbelangt. Und da rede ich jetzt insbesondere auch von Reliability, also nicht das die Chips scheinbar ganz gut aussehen, dann aber im Wald und Wiesen Einsatz nach einigen MOnaten die Flügel strecken, weil die Signalintegrität nicht mehr gewährleistet ist aus welchen Gründen auch immer.

N0Thing
2016-08-30, 00:24:42
Und da rede ich jetzt insbesondere auch von Reliability, also nicht das die Chips scheinbar ganz gut aussehen, dann aber im Wald und Wiesen Einsatz nach einigen MOnaten die Flügel strecken, weil die Signalintegrität nicht mehr gewährleistet ist aus welchen Gründen auch immer.

Gab es das schon einmal im Bereich der GPUs von AMD/ATI/Nvidia und CPUs von Intel/AMD?

Schaffe89
2016-08-30, 02:26:56
Der einzige Grund, warum Fiji a) den gleichen Chiptakt wie Hawaii erreichen konnte, ohne die 450W oder gar 500W-Marke zu knacken, und b) noch in 600mm² gepasst hat, war HBM.

Man hätte den Chip auch mit der Shaderanzahl von dem beschnittenen Chip bringen können und dafür 8 oder 16GB GDDR5 Speicher verbauen können und den Chip statt 275 mit 300 Watt TDP bringen können.
HBM spart vielleicht 25 Watt ein.

Der Chip wäre heute deutlich schneller und mit einem einfachen Shrink überhalb von Polaris zu platzieren gewesen bis dann Vega kommt.

Es spricht doch nicht wirklich was für HBM. Fiji konnte seine Shader eh nie ganz auslasten.

Also nein, Fiji mit GDDR5 in 28nm zu bringen wäre sinnlos bzw. technisch nahezu unmöglich gewesen.

Ganz genau das ist es nicht, 3584 Shader, 512bit SI wie bei Hawai, währen locker möglich gewesen.

StefanV
2016-08-30, 03:23:09
Gab es das schon einmal im Bereich der GPUs von AMD/ATI/Nvidia und CPUs von Intel/AMD?
Ja, gab es...
Danksagung für den ganzen Elektronikschrott bitte an die EU Kommission, die damals Bleihaltiges Lot verboten hat, was dann aber sehr schnell zu gewaltigen Problemen in der Elektronikbranche geführt hat, da bleiloses Lot sehr spröde ist...

Das dürfte so ziemlich alles aus ~2006 oder so sein: XBox 360 RROD, PS3 YLOD, viele ATi und nVidia Grafikchips...
Und das dürfte wohl nur die Spitze des Eisberges sein...

Man hätte den Chip auch mit der Shaderanzahl von dem beschnittenen Chip bringen können und dafür 8 oder 16GB GDDR5 Speicher verbauen können und den Chip statt 275 mit 300 Watt TDP bringen können.
HBM spart vielleicht 25 Watt ein.
Woher willst du das wissen?!
Und was, wenn HBM hier 50W einspart?!

Zumal du ja auch noch recht hoch taktenden GDDR5 Speicher brauchst, um die Bandbreite von Fiji hin zu bekommen. Dazu noch das 512bit Speicherinterface...



Der Chip wäre heute deutlich schneller und mit einem einfachen Shrink überhalb von Polaris zu platzieren gewesen bis dann Vega kommt.
...was aber nicht so einfach mehr ist, da sich einfach mal alles mit der Einführung von FinFets geändert hat!!
Deshalb wäre das gleichbedeutend mit einem kompletten redesign - und warum soll man jetzt das alte Zeugs noch mal neu machen, hier hunderte von Millionen Dollar verplempern für, ja was genau?!


Es spricht doch nicht wirklich was für HBM. Fiji konnte seine Shader eh nie ganz auslasten.
Es spricht sehr viel für HBM!
Höhere Energieeffizienz, höhere Bandbreite (Fiji mit 1GHz HBM2 hätte 1024GB/Sec!!), vereinfachtes und kompakteres Boardlayout!
Du brauchst ja so gut wie nix mehr, auch kannst einige Lagen einsparen...


Ganz genau das ist es nicht, 3584 Shader, 512bit SI wie bei Hawai, währen locker möglich gewesen.
Aber warum sollte man das machen?!
Schau dir doch mal das PCB von Hawaii an, wie viel Platz darauf vom Speicher verbraten wird!

Schaffe89
2016-08-30, 05:43:41
J
Woher willst du das wissen?!

Wurde doch ewig hier diskutiert bevor Fijii rauskam.
Will jetzt da nicht ewig suchen, ich meine es waren um den Dreh max. 30 Watt.

Zumal du ja auch noch recht hoch taktenden GDDR5 Speicher brauchst, um die Bandbreite von Fiji hin zu bekommen.

Fijii leidet sicherlich nicht an der Bandbreite... soviel Bandbreite braucht Fijii nicht.

Dazu noch das 512bit Speicherinterface...

Why not, bei Hawai hat man das sogar sehr platzsparend für ein 512bit Interface hinbekommen.

hier hunderte von Millionen Dollar verplempern für, ja was genau?!

Damit man Chips anbieten kann und was hat und nicht fast ein Jahr ohne Däumchen dreht. Gabs sowas eigentlich schonmal jemals seit der HD2900XT/HD 3870? Kann mich nicht mehr erinnern,bitter.

Es spricht sehr viel für HBM!
Dafür spricht gar nichts, weil es einfach zuviele Nachteile hatte bei Fijii und die Vorteile würden das ganze niemals aufwiegen.

Höhere Energieeffizienz, höhere Bandbreite (Fiji mit 1GHz HBM2 hätte 1024GB/Sec!!), vereinfachtes und kompakteres Boardlayout!

Kompakteres Boardlayout für was? Die Nano war ein Ladenhüter, auch wenn das die beste Karte war, war sie viel zu teuer lange Zeit.
Von dem kompakten Boardlayout konnte sich AMD nichts kaufen, da man einen meistens Fiepende Pumpe inkl. Radiator einbauen musste oder bei der Fury einen fetten Kühler.

Grenada war ein recht lauter und warmer Hawai Refresh, dafür aber geizte man nicht mit dem V-ram und siehe da das Ding verkaufte sich.
Wenn man bei Fijii in die Vollen Gegangen wäre mit GDDR5 und 8 vll 16GB als Enthusiastmodell, könnte man in 4K eine GTX 980 Ti schlagen.
Heute verliert man da wegen dem V-ram und büßt Leistung ein.

Das läuft die nächsten Monate alles auf eine Dual rx480 hinaus mit ~300 Watt TDP oder so, denn so lange ohne irgendeine Konkurrenz im über 300 Euro Markt anzutreten ist extrem ungesund.

horn 12
2016-08-30, 06:59:07
Vega kommt noch in diesem Jahr, Pünktlich Ende November bis Weihnachten wenn gar nicht früher!
AMD bringt sicher den GTX 1080 Konter zu besserem Preis und der Große Vega dann Jänner bis März 2017.
Vega klein, zwar in homopatsischen Dosen, so wie die GTX 1080.
Ist bei Zen ja nicht anders...

Loeschzwerg
2016-08-30, 07:04:02
Vega kommt noch in diesem Jahr, Pünktlich Ende November bis Weihnachten wenn gar nicht früher!


Woher die Gewissheit?

Skysnake
2016-08-30, 08:23:09
Gab es das schon einmal im Bereich der GPUs von AMD/ATI/Nvidia und CPUs von Intel/AMD?
Ja, einige wurden oben ja schon genannt. ansonsten - z.B. Sata-Gate Bug und die Probleme mit PCI-E 3.0 in bei SandzBridge und Fermi. nVidia musste bei den Profi-Karten PCI-E 3.0 streichen, was wirklich weh getan hat.

Und das sind jetzt nur die Sachen, die wirklich auf den Markt gekommen sind und DANN die Probleme aufgetaucht sind. Vieles wird ja schon vorher erkannt, weil man die entsprechenden Tests hat. Bei HBM betrat man aber Neuland. Da wusste man also noch gar nicht so genau, wo wirklich die kritischen Parameter sind. Man muss ja bedenken, dass die obigen Beispiele auftraten obwohl es die zichste Iteration einer bekannten Technologie war...

Ailuros
2016-08-30, 09:05:46
Ist zwar etwas OT aber es gibt jedesmal Wehwehchen wenn es groessere Aenderungen im Speichercontroller gibt und dieses gilt ebenso fuer die gruene als auch die rote Seite.

Fiji gab es schon mit HBM, ergo hat AMD zumindest erstmal einen Teil ueber den Berg (wer Lust hat kann ja mal nachfragen wie viele spins das Ding brauchte). Sonst hatte AMD Vega schon immer fuer irgendwo Anfang 2017 geplant; entweder glaubten sie vor einiger Zeit nicht dass NV es schafft einen groesseren als 300mm2 chip@16FF+ in die Produktion zu schicken innerhalb 2016 oder ihnen war eine $1200 MSRP Antwort zu daemlich um ihr zu folgen da sie sich es auch nicht wirklich leisten koennen.

Limit
2016-08-30, 09:30:29
Wurde doch ewig hier diskutiert bevor Fijii rauskam.
Will jetzt da nicht ewig suchen, ich meine es waren um den Dreh max. 30 Watt.
AMD und nVidia geben eine Reduktion von etwa 66% bei gleicher Geschwindigkeit an. Das 256-Bit SI von Polaris 10 soll etwa 40W verbrauchen. Bei einem gleich schnellen 512-Bit SI wären das also 80W bei rechnerisch etwa 27W für HBM (Differenz 53W).

Damit man Chips anbieten kann und was hat und nicht fast ein Jahr ohne Däumchen dreht. Gabs sowas eigentlich schonmal jemals seit der HD2900XT/HD 3870? Kann mich nicht mehr erinnern,bitter.
Das ist eine Ermessenssache. Mit HBM kann man die bessere Grafikkarte bauen. Dafür muss man einen höheren Preis und einen späteren Start in Kauf nehmen. Wobei letzteres nicht zwangsläufig nur am Speicher liegt, da ja auch weitere Verbesserungen vorgenommen werden sollen.

Dafür spricht gar nichts, weil es einfach zuviele Nachteile hatte bei Fijii und die Vorteile würden das ganze niemals aufwiegen.
Meine Theorie dazu ist ja folgende: Ursprünglich waren drei Polaris-Chips geplant, neben den beiden bekannten noch Greenland als größter Polaris-Chip. Da Polaris aber nicht die Effizienz erreichte, die man sich erhofft hatte, hat man Greenland gestrichen. Stattdessen entschloss man sich vom zukünftigen Profi-Chip mit all seinen Verbesserungen inkl. HBM2 einen verkleinerten Ableger zu entwickeln. In ein schon so weit fortgeschrittenes Design noch kurzfristig ein ganz anderes SI einzubauen wäre da wohl zu aufwendig geworden.

Wenn man bei Fijii in die Vollen Gegangen wäre mit GDDR5 und 8 vll 16GB als Enthusiastmodell, könnte man in 4K eine GTX 980 Ti schlagen.
Heute verliert man da wegen dem V-ram und büßt Leistung ein.
Das bezweifle ich, da Fiji dadurch zwar mehr Speicher, dafür aber weniger Speicherbandbreite und Rechenleistung erhalten hätte.

HOT
2016-08-30, 09:59:19
AMD war gezwungen erst mal die Chips für die Slim-Versionen der Konsolen fertigzustellen, daneben ist ja auch der PS4-Neo SoC nicht fern. Das bindet Ressourcen, deshalb kein Vega. Außerdem kommt ja ein späterer Launch AMD zu pass, desto mehr Games bieten ausgereiften lowLevel-Support.

victore99
2016-08-30, 10:20:04
Das bezweifle ich, da Fiji dadurch zwar mehr Speicher, dafür aber weniger Speicherbandbreite und Rechenleistung erhalten hätte.
Wer jetzt den Fiji-VRam OCt, dem fällt auf, dass Fiji genial Skaliert.
Aber ob die 512 GB/sec jetzt von HBM kommen oder von 512bit-G5 @8Gbit/sec/bit, wäre fiji egal. Da wäre der 8G oder 16G Vram schon weit besser als 512 ALUs, die eh niemand auslastet.

Aber: die Diesize ginge hoch, genau wie der Stromverbrauch und die Platinenmaße.
Trozdem billiger herzustellen.. Nur eben etwas zu gefräßig.

(Kurzzeitig war ja mal ne 490 Gelistet - Vielleicht Fiji mit 2Hi-HBM2-Speicher?)

Und das Problem mit HBM ist aktuell nicht der Energieverbrauch oder die Bandbreite - nein, Problem ist, dass es die falschen Größen zu den falschen Preisen gibt.
Ein Stack HBM ergibt ja dieselbe Transferrate wie 256bit G5 - aber was ergibt sich? 4G, womit man heute keinen Blumentopf gewinnen kann, oder 8G (8Hi), was Verschwendung der wertvollen 8Hi-Stacks ist.
Eine Schande..

(Frage: Kam schon wer auf die Idee, HBM mit QDR zu kombinieren? Dann wäre der Overkill an Transferrate perfekt: Wahnwitzige 320 bis gar 448 GBit/sec, aber nur lustige 4GB.)

Loeschzwerg
2016-08-30, 10:31:46
Wer jetzt den Fiji-VRam OCt, dem fällt auf, dass Fiji genial Skaliert.


Kann das nicht auch eher mit den Timings zusammenhängen?

victore99
2016-08-30, 10:41:39
Kann das nicht auch eher mit den Timings zusammenhängen?
Kann sein, ich glaube durch den (im VGL zur GPU) seeehr langsamen HBM bei Fiji eher daran, dass die Latenzen durch die Decke gehen... Die kommen ja auch mit von den Timings.

Latenzen kriegt man mit G5 besser in den Griff, aber Timings? Keine Ahnung wie die bei G5, G5X oder HBM (1/2) so liegen.

Rabiata
2016-08-30, 11:12:18
Und das Problem mit HBM ist aktuell nicht der Energieverbrauch oder die Bandbreite - nein, Problem ist, dass es die falschen Größen zu den falschen Preisen gibt.
Ein Stack HBM ergibt ja dieselbe Transferrate wie 256bit G5 - aber was ergibt sich? 4G, womit man heute keinen Blumentopf gewinnen kann, oder 8G (8Hi), was Verschwendung der wertvollen 8Hi-Stacks ist.
Eine Schande..

(Frage: Kam schon wer auf die Idee, HBM mit QDR zu kombinieren? Dann wäre der Overkill an Transferrate perfekt: Wahnwitzige 320 bis gar 448 GBit/sec, aber nur lustige 4GB.)
Deshalb wird ja vielfach spekuliert, daß Vega mit zwei 4Hi-Stacks HBM2 kommt. Ergäbe dieselbe Transferrate wie die vier Stacks HBM1 bei Fiji, aber 8GB. Was für eine GTX 1080-Konkurrenz passen würde :smile:.

victore99
2016-08-30, 11:16:40
Deshalb wird ja vielfach spekuliert, daß Vega mit zwei 4Hi-Stacks HBM2 kommt. Ergäbe dieselbe Transferrate wie die vier Stacks HBM1 bei Fiji, aber 8GB. Was für eine GTX 1080-Konkurrenz passen würde :smile:.
Oooder Sie haun richtig raus mit 16 und 24 G. (sry, träume nur rum)

Der_Korken
2016-08-30, 11:27:28
Vielleicht werden wir zu Beginn erstmal nur niedrig getakteten HBM2 sehen mit 1,5-1,6 Ghz. Dann hätte man mit 2 Stacks 8GB bei etwa 400GB/s, also 60% mehr als die 480. Das sollte für einen GP104-Konkurrenten reichen. Wenn HBM wirklich so teuer ist wie immer gesagt wird, werden wir >8GB wahrscheinlich nur beim Big Vega sehen.

Rabiata
2016-08-30, 11:29:48
Oooder Sie haun richtig raus mit 16 und 24 G. (sry, träume nur rum)
Ich dachte an den kleineren der beiden Vega Chips, der zuerst rauskommen soll.

Technisch wäre es wohl möglich, mehr Stacks zu verbauen, ging ja schon mit Fiji und HBM1. Aber damit sich das lohnt, muß meiner Meinung auch die Gesamtleistung rauf, damit die höheren Preise irgendwie gerechtfertigt sind.

Das wird dann wieder ein Riesen-Chip am Limit dessen was der Fertigungsprozeß hergibt, und kommt vermutlich später.

HOT
2016-08-30, 11:36:26
Warum greift ihr Fiji aufgrund des HBM so an? das ist total sinnlos, das Projekt hat nur 18 Monate gebraucht und der Yield des Chips war immer gut -> Das Teil war ein Erfolg. Der Chip ist nicht effizient, das hat doch mit HBM nix zu tun. Das ist alles wieder dämliches Gebashe in meinen Augen und das spamt den Thread schon seit Seiten voll, total lächerlich.

Wenn ihr alle so schlau seit, dann entwickelt das Teil selber, aber das Geblubber was AMD alles hätte besser machen können kann man sich einfach sparen, denn dazu hat keiner ausreichend Einblick. Hier sinkt grad das Niveau wegen zwei gewissen Leuten ins Bodenlose ab grade...
Es gibt nunmal nur Fiji mit HBM und ich bezweifle ernsthaft, dass das anders in der kurzen Zeit in 28nm möglich gewesen wäre, das ist alles nur Träumerei.

Mit Vega hat das alles gar nix zu tun. Vega kommt nicht wegen HBM so "spät", das ist einfach wieder mal Bashing und Getrolle.

iuno
2016-08-30, 11:38:24
Auch wenn AMD nichts dazu geschrieben hat, kann ich mir schwer vorstellen, dass die S9170 keinen Nachfolger bekommt. Ich halte daher 8 GiB@2048 Bit bei Vega 10 und 16/32 (sobald 8Hi verfuegbar) @4096 Bit bei Vega 11 immer noch am Wahrscheinlichsten.
Die 2 Gbps sollten ja eigentlich nicht problematisch werden, bei GDDR arbeitet man mit deutlich hoeheren Takten. Fuer Salvage gibt es HBM auch mit 1.6 Gbps. V10 Pro koennte mit 56 CUs dann 404 GB/s bekommen, das ist in Relation immer noch etwas mehr Durchsatz als die 480 hat. Die Moeglichkeit, hier zu sparen, hatte AMD bei der Fury noch nicht.
Und V11 koennte aus Effizienzgruenden auch mit 1.6 Gbps laufen. Mit 4 Stacks haette man immer noch Bandbreite satt, selbst fuer 96 CUs, wenn es denn so kommen sollte.


OT: wuerde gerne weniger OT sehen. Das hatten wir schon x mal, im Fiji Speku Thread, in allen Fury (P)Review Threads und jetzt auch wieder hier :rolleyes:

Hübie
2016-08-30, 11:50:30
Man wird weniger die yieldrate der Dice als Problem gehabt haben, sondern viel mehr Nacharbeit oder Defekte bei der Zusammensetzung aus Die, Interposer und den vier HBM-Modulen. Hier hat man hoffentlich viel der gesammelten Erfahrungen umgesetzt und Prozesstechniken verfeinert oder erweitert. Denn sonst wird es wieder schwierig in den Markt zu dringen. Ich schiele mal ganz unauffällig zu GP100. :whistle::sneak:

Dieses dümmliche Gelaber Gerede, dass HBM nicht hätte verbaut werden sollen ignoriert ihr mal bitte, denn wenn AMD es nicht täte würden wir wohl nie zu mehr Bandbreite kommen. NV hat sich da ja schön herausgehalten. ;)
GDDR5X ist ein exzellenter Interims, aber nichts strategisch wirklich wertvolles.

HOT
2016-08-30, 11:55:17
Klar bekommt der S9170 einen Nachfolger: Greenland mit 4 8er-Stacks.
Das ist jetzt endlich wieder Speku:
V10 != Greenland != V11, das sind mMn 3 verschiedene Chips. Anders lässt sich das meiner Ansicht nach nicht sinnvoll lösen.

raumfahrer
2016-08-30, 12:05:39
8Gb GDDR5 kam erst September 2015 [1], zu spät für Fiji. Zum HBM-Testballoon gab es ja die Hot Chips Präsentation [2].

Und was sind eigentlich immer diese Wünsche, AMD soll doch "einfach mal die letzte Generation shrinken (und verdoppeln)"? Früher war alles besser, wir brauchen nur mehr davon?

[1] https://www.micron.com/about/blogs/2015/august/next-gen-graphics-products-get-extreme-speed-from-latest-graphics-memory-solutions
[2] https://www.computerbase.de/2015-08/amd-fiji-vom-ersten-schritt-zum-fertigen-produkt-in-8.5-jahren/

N0Thing
2016-08-30, 12:16:36
Ja, gab es...
Danksagung für den ganzen Elektronikschrott bitte an die EU Kommission, die damals Bleihaltiges Lot verboten hat, was dann aber sehr schnell zu gewaltigen Problemen in der Elektronikbranche geführt hat, da bleiloses Lot sehr spröde ist...

Das dürfte so ziemlich alles aus ~2006 oder so sein: XBox 360 RROD, PS3 YLOD, viele ATi und nVidia Grafikchips...
Und das dürfte wohl nur die Spitze des Eisberges sein...


Die Probleme durch das Lot sind ja keine Probleme bei der Chipproduktion, sondern die entstanden bei der Hochzeit von Chip und Board, weil die Hersteller noch den letzten Cent sparen wollten. Heute hat man immer noch bleifreies Lot und keine Probleme, weil man nicht mehr zur billigsten Lösung greift.
Und ich bin recht froh darüber, dass sich die Staaten der EU dazu entschlossen haben, weniger Schwermetalle in die Umwelt gelangen zu lassen. Davon profitiert am Ende jeder auf der Welt.



Ja, einige wurden oben ja schon genannt. ansonsten - z.B. Sata-Gate Bug und die Probleme mit PCI-E 3.0 in bei SandzBridge und Fermi. nVidia musste bei den Profi-Karten PCI-E 3.0 streichen, was wirklich weh getan hat.

Und das sind jetzt nur die Sachen, die wirklich auf den Markt gekommen sind und DANN die Probleme aufgetaucht sind. Vieles wird ja schon vorher erkannt, weil man die entsprechenden Tests hat. Bei HBM betrat man aber Neuland. Da wusste man also noch gar nicht so genau, wo wirklich die kritischen Parameter sind. Man muss ja bedenken, dass die obigen Beispiele auftraten obwohl es die zichste Iteration einer bekannten Technologie war...

Waren das denn Probleme die durch die Produktion aufgetreten sind, oder waren das Probleme durch Fehler im Design? So habe ich das von damals abseits des SATA-Bugs zumindest in Erinnerung.

Skysnake
2016-08-30, 12:57:43
(Frage: Kam schon wer auf die Idee, HBM mit QDR zu kombinieren? Dann wäre der Overkill an Transferrate perfekt: Wahnwitzige 320 bis gar 448 GBit/sec, aber nur lustige 4GB.)
QDR denke ich wird eher nicht kommen. Entweder nochmals eine Verdoppelung der Frequenz oder aber doppelt so viele Zustände. Was effizienter ist muss sich noch zeigen. Ich würde aber eher auf noch einmal Frequenz verdoppeln tippen, und danach dann Zustände.


Waren das denn Probleme die durch die Produktion aufgetreten sind, oder waren das Probleme durch Fehler im Design? So habe ich das von damals abseits des SATA-Bugs zumindest in Erinnerung.
Die Unterscheidung die du da machen willst kann man nicht wirklich tätigen. Man designt auf Grundlage von Daten zu den Prozessen. Wenn aus welchen Gründen auch immer die Daten nicht passen, dann kommt am Ende halt Müll raus.

Das Problem dabei ist leider auch, das es einen gewaltigen Tail gibt in der Verteilungsfunktion, es also keine echte Gaußverteilung ist. Diesen Tail kannste aber nur ganz schwer anlysieren, da du dafür gewaltige Mengen an Chips produzieren müsstest. Also haut man statistik drauf. Kann richtig sein, muss es aber nicht.

Deswegen ist es auch heute noch so. Man weiß erst zu 100% das ein Chip läuft, wenn man ihn im Labor hat un anschaltet. Das Problem dabei ist heute nur, das Chips heutzutage significant altern und man das AKTIV! in seinen Designs berücksichtigen muss.

N0Thing
2016-08-30, 13:17:34
Okay, danke.

Skysnake
2016-08-30, 21:40:33
Nur mal so als "funny fakt" am Rande. Ich hatte mal ein Layout gemacht, und danach mal geschaut, ob das Powernet denn die Ströme von den Transistoren abkönnte. Kam mir nämlich irgendwie etwas haarig vor an einigen Stellen. Am Ende stellte sich heraus, das ich einige Leitungen mehr als doppelt so breit machen musste :ugly: Die Dinger wären teils sogar über den spezifizierten Maximalströmen betrieben worden. Das hätte also entweder direkt puff gemacht beim einschalten, oder aber innerhalb kürzester Zeit, sofern das Ding überhaupt durchs Tapeout der FAB gegangen wäre...

Und das war jetzt KEIN FinFET Prozess. Bei denen wird das Problem noch größer, weil die Treiberstärken der FinFETs größer sind.... :ugly:

Setsul
2016-08-31, 01:03:34
Man hätte den Chip auch mit der Shaderanzahl von dem beschnittenen Chip bringen können und dafür 8 oder 16GB GDDR5 Speicher verbauen können und den Chip statt 275 mit 300 Watt TDP bringen können.
HBM spart vielleicht 25 Watt ein.

Der Chip wäre heute deutlich schneller und mit einem einfachen Shrink überhalb von Polaris zu platzieren gewesen bis dann Vega kommt.

Es spricht doch nicht wirklich was für HBM. Fiji konnte seine Shader eh nie ganz auslasten.



Ganz genau das ist es nicht, 3584 Shader, 512bit SI wie bei Hawai, währen locker möglich gewesen.
Keine Zeit eine andere Quelle zu suchen.
http://www.3dcenter.org/news/was-man-mit-high-bandwith-memory-hbm-anfangen-kann

Wenn man das mal überschlagsmäßig durchrechnet bei etwas unter 70% der Fläche für CUs sparen wir uns ~50mm² für 8 CUs und verbraten 40mm² davon wieder für das SI.

Auch mit 56 CUs braucht man am Ende ~30W mehr dank GDDR5.

8Gbps gabs auch noch nicht, also niedrigere Bandbreite.

Alles in allem haben wir dann einen 10mm² kleineren Die, 30W mehr Vebrauch und mindestens 10% weniger Leistung, kann also nicht mal mehr mit dem beschnittenen GM200 konkurrieren.

Wunderbar, was will man jetzt damit anfangen? Billiger wäre es bestimmt gewesen, aber beim High End geht es nun einmal sehr darum was schneller ist. Ich nehme stark an, dass AMD in der Hinsicht große Hoffnungen hatte. Ganz unangebracht waren die auch nicht, wenn man sich 1440p/4K mit neueren Treibern ansieht.

Unter dem Gesichtspunkt kann man das Ganze verstehen denke ich. HBM war die einzige Möglichkeit überhaupt Chancen zu haben den GM200 (salvage oder full kann man jetzt diskutieren was AMD an Leistung erwartet hat) zu schlagen und unter dem PCIe 300W Limit und 625mm² Die size zu bleiben. Dass es nicht gereicht hat ist wieder eine andere Geschichte.



Aber zurück zum Thema.
Klar bekommt der S9170 einen Nachfolger: Greenland mit 4 8er-Stacks.
Das ist jetzt endlich wieder Speku:
V10 != Greenland != V11, das sind mMn 3 verschiedene Chips. Anders lässt sich das meiner Ansicht nach nicht sinnvoll lösen.
Ich würde eher auf das Gegenteil tippen.
AMD kann und wird momentan nur Chips produzieren die absolut nötig sind. Im Verhältnis zur Anzahl der Märkte die sie bedienen ist es eine extrem kleine Firma.
Alles wird wiederverwendet wo immer es geht.
Zen und K12 haben recht viel gemeinsam. Zen sollte klar sein und K12 auch wozu man die braucht.
Xbox One S SoC. Keine Ahnung ob P11 da mit drin steckt, bin da nicht auf dem neuesten Stand. 16nm, 12 CUs aktiv also wahrscheinlich wieder 14 CUs vorhanden, könnte also genauso gut nur ein Shrink mit minimalen Veränderungen sein.
P11 braucht man für Mobile und Apple.
P10 damit man eine 16/14nm GPU hat die die VR Minimalvoraussetzungen erfüllt und für die PS4 Neo.
Scorpio gibts dann auch noch.
Zu den Zen 8C CPUs kommen dann noch 4C APUs.

Kurze Zwischenbilanz:
3 Chips released: P11, P10, Xbox One S
3 in naher Zukunft: PS4 Neo, Zen 8C CPU, Vega 10
3 später im nächsten Jahr: Zen 4C APU, Vega 11, Xbox Scorpio

Wenn man das vergleicht mit nVidia, bei ähnlich vielen Mitarbeiter haben die:
4 released: GP100, GP102, GP104, GP106
3 noch auf dem Weg: GP107, GP108, Tegra X2
Keine Ahnung ob ich noch irgendwelche vergessen habe.


Andere Überlegungen dazu: Zen ist nicht zum Spaß modular, das erleichtert schonmal die 4C APUs enorm. Es wäre also relativ einfach monolithische 16C und 32C Dies aufzulegen. Aber dafür sind einfach keine Ressourcen mehr verfügbar. Deshalb MCM.

Genauso wenn man sich die 400er Serie anschaut. Bei nVidia ist der nächste Chip meistens doppelt so groß, gibt auch nicht viele Möglichkeiten bei den GPCs. Normalerweise 1, 2, 4 und dann fürs High End 6 (GK110 50% größere GPC dafür nur 5). Entsprechend dann eher mal 3 Versionen pro Chip.
AMD bringt immer nur 2, dafür sind die Chips näher beieinander, so etwa Faktor 1,4-1,5. Einmal wars 2, zwischen Cap Verde und Pitcairn, aber die Lücke wurde dann mit Bonaire wieder geschlossen.
Jetzt schaut man sich mal P11 und P10 an. Faktor 2,25. Das gabs so nie. Und dann kommen von 16 CUs nur 14 CUs in der Desktop GPU Version an. Der Abstand zwischen dem kleinsten Desktop P10 und dem größten Desktop P11 ist größer als jeder Abstand zwischen full Chips bis jetzt.
Normalerweise wäre in der Lücke mindestens noch ein Chip. Im Mobile wird das notdürftig mit Tonga/Antigua gestopft aber das wars.
Niemand wird sagen die Lücke zwischen RX 460 und RX 470 ist gewollt und gut so.
P10 ist einfach ein Muss (VR und PS4 Neo), genauso wie P11 (Mobile / Low Power usw.), alles andere ist Luxus und den kann sich AMD momentan nicht leisten.

Vega 11 wird auch gleichzeitig Profi / HPC Segment, generell eben DP, und gleichzeitig High End Gaming bedienen müssen, wieso sollte man also jetzt anfangen und Vega 10 und Greenland zu trennen? Wenn es für einen dritten Polaris Chip um 170mm² nicht mehr reicht wird man woll kaum zwei sehr ähnliche Chips mit an die 400mm² bringen.


Langer Rede kurzer Sinn, ich nehme deshalb an dass das Zen / Greenland APU Dings einfach aus Vega 10 und 2 Zen 8C dies als MCM zusammengebastelt wird (meinetwegen auch 16C wenn und falls es die bis dahin gibt). Klar wird V10 dann etwas größer aber bei dem Anteil den Entwicklungskosten bei 14nm haben sind die Kosten pro Die am Ende immernoch niedriger als bei zwei seperaten Chips.

EDIT: Es passt auch einfach perfekt zu V10 mit 2 HBM Stacks. http://www.fudzilla.com/media/k2/items/cache/bdff5e4df5710735d8a1ecdc5dd9efcf_XL.jpg

Vielleicht lehne ich mit dem Ganzen hier auch zu weit aus dem Fenster, aber sonst wäre es ja langweilig.

ilibilly
2016-08-31, 08:21:07
Vielleicht hätte man sich mehr darüber gedanken machen sollen warum man soviel bandbreite benötigt,wenn nv es schafft ohne,vielleicht liegts an der generellen gcn architectur.
Nv wird imho auch die nächste pascal gen ohne hbm bringen mit gp102 als basis,sonst hätte man die neue titan schon damt gesehen.
Vega 10/11könnte man doch auch mit 384bit gdd-x bringen oder bei amd dann mit 512bit.
Aber wenn ich die 2-3 gens zurückblicke hatte amd immer mehr bandreite nötig um die power auf die strasse zu bringen,vielleicht sollten sie sich mit besserer compression beschäftigen.

robbitop
2016-08-31, 08:32:26
Der Bandbreitenbedarf hat mit der mArch (GCN) nichts zu tun. Eher mit Caching, Culling, Framebufferkomprimierung etc.Das macht NV einfach besser. AMD liegt hier noch auf Kepler Niveau.

Sunrise
2016-08-31, 10:03:11
@Setsul:
Sehr guter Beitrag, mehr davon!

...Aber wenn ich die 2-3 gens zurückblicke hatte amd immer mehr bandreite nötig um die power auf die strasse zu bringen,vielleicht sollten sie sich mit besserer compression beschäftigen.
Haben sie, ganz zuletzt jetzt mit Polaris, der deutlich besser mit der vorhandenen Bandbreite umgehen kann. Die Verbesserungen relativ zu Hawaii sind hier schon enorm, aber NV hat da nicht nur zeitlich noch einen Vorsprung. Eventuell kommt mit Vega nochmal eine Verbesserung nach.

Es ist auch einfach ein Leichtes zu sagen, dass "wenn man das und das hätte, dann könnte man", wenn eine Entwicklung eben den Faktor Zeit benötigt, der leider nicht beliebig verkürzt werden kann.

NV kommt auch genau deshalb ja aktuell mit GDDR5X mit 10Gbps aus, dadurch sparen sich sich ordentlich Komplexität an anderer Stelle und man muss auf HBM auch nicht zurückgreifen.

AMD jedoch hat bei Vega keine Wahl, im Prinzip also genau die gleiche Situation wie bei Fiji. Rein rechnerisch hatte AMD sich das natürlich auch durchgerechnet und Fiji wurde genau dann vorgestellt, als das Hawaii-Design nicht mehr weiter nach oben skalierbar war, bzw. nicht mehr in einem Rahmen, in welchem man diesen Chip hätte verkaufen können. Der restliche Chip war aber im Prinzip so stark limitiert, dass man aus HBM nur begrenzten Nutzen ziehen konnte, der AMD aber schon ausreichte, um einen Prototypen zur Serienreife und Massenproduktion zu bringen.

Polaris ist ein sehr guter Schritt nach vorne, aber NV hat mit ihrer G92-Strategie (9800 GT/GTX) bei sehr geringer Die-Size (~300mm²) schon damals Furore gemacht und bei Pascal merkt man eben, dass dieser Chip gemessen an der reinen Die-Size brachiale Leistung liefert, die ohne den Maxwell-Zwischenschieber sogar noch brachialer hätte ausfallen können.

AMD muss nun eben wieder mit HBM2 (teuer) und großer Die-Size dagegen steuern, und NV nutzt ihr R&D um immer mindestens einen Schritt vor AMD zu sein. Solange das so weitergeht (auf absehbare Zeit) ist es vollkommen nebensächlich was "AMD hätte theoretisch machen können", da sie in ihrer Fähigkeit, Geld in Bereiche zu stecken, die sie in eine bessere Position bringen leider stark limitiert sind.

Botcruscher
2016-08-31, 11:00:32
Alles in allem haben wir dann einen 10mm² kleineren Die, 30W mehr Vebrauch und mindestens 10% weniger Leistung, kann also nicht mal mehr mit dem beschnittenen GM200 konkurrieren.

Wunderbar, was will man jetzt damit anfangen?

Das machen was AMD am meisten fehlt: Gewinn machen. Insgesamt geht es eben nicht darum die schnellste Karte zu haben. Das Paket und die Lieferbarkeit muss stimmen. Gegen die Entscheidung für HBM sprechen zwei der entschiedenen Gründe: Preis und Lieferbarkeit. Das die Nano dann mit weitem Abstand die erfolgreichere Karte wurde, zeigt nur den Grad des Scheiterns. Die Achillesferse der Karte sind dann die lächerlichen 4GB. Von der tollen Bandbreite hab ich nur einen Test gesehen der gerade mal 380GB/s gezeigt hat. Dazu skaliert die Einseitenzahl einfach bescheiden.
Unter Strich wäre ein 8GB Hawaii 2 mit den Verbesserungen von Tonga die vermutlich deutlich erfolgreichere GPU gewesen. Von der theoretischen Leistung der Fury kommt schlicht viel zu wenig an.

Setsul
2016-08-31, 11:03:19
@ilibilly:
Ja, AMD frisst wesentlich mehr Bandbreite.
Wenn ich mich nicht irre hängt die RX 480 mit 256 GB/s recht stark am Speicher, während die GTX 1060 mit 192 GB/s recht zufrieden ist.

Um mal ein bisschen zu ergänzen was robbitop schon geschrieben hat, in umgekehrter Reihenfolge:
Komprimierung: http://techreport.com/r.x/gtx1070review/b3dbw.png
http://techreport.com/r.x/rx480review/b3d-bandwidth.png
Ich glaube ich habe irgendwo schonmal bessere Benchmarks bezüglich Komprimierung gesehen, finde die aber gerade nicht. Techreport hat auch keine GTX 1060 Review, aber die 1070 und 1080 sollten als Vergleich reichen.

EDIT: Gefunden! http://images.anandtech.com/graphs/graph10325/82902.png
Da steht auch die wunderbare Tabelle wie die Bandbreite/FLOP mit jeder neuen Architektur abnimmt.
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/8
GTX 1080 0.29 bits 8.87 TFLOPs 320GB/sec
GTX 980 0.36 bits 4.98 TFLOPs 224GB/sec
GTX 680 0.47 bits 3.25 TFLOPs 192GB/sec
GTX 580 0.97 bits 1.58 TFLOPs 192GB/sec

Zum Vergleich mal AMD, die größten Chips der 4 GCN Generationen und Tonga als GCN3 ohne HBM:
HD 7970 0.56 bits 3.79 TFLOPs 264 GB/sec
R9 290X 0.45 bits 5.63 TFLOPs 320 GB/sec
R9 380X 0.38 bits 3.97 TFLOPs 182 GB/sec
R9 Fury X 0.48 bits 8.60 TFLOPs 512 GB/sec
RX 480 0.40 bits 5.16 TFLOPs 256 GB/sec


Culling: Mit Tesselation funktioniert das bei AMD schon wunderbar, leider hat GCN aus anderen Gründen nicht gerade optimalen Durchsatz insgesamt.
http://www.hardware.fr/getgraphimg.php?id=334&n=1
Im Normalfall sieht es wesentlich schlechter aus
http://www.hardware.fr/getgraphimg.php?id=333&n=1

Und als Letztes, das ist jetzt nicht direkt Caching, hat aber damit zu tun.
http://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/
Das hat nVidia seit Maxwell, glaube ich.

Wenn man jetzt naiv vom worst case ausgeht, dass jeder Durchlauf die ältesten Daten vom Frame aus dem Cache wirft, bevor der Pass fertig ist, bedeutet das natürlich dass bei 10 Passes der full-screen renderer 10 mal den Cache füllen muss, während der tile-based renderer solange ein tile in den Cache passt mit einmal auskommt.
In Wirklichkeit ist es lange nicht so schlimm, aber es ist schon ein enormer Vorteil.

@Sunrise:
Danke.
Ich hab völlig vergessen zu erwähnen, dass MCM natürlich nur die billigere Option ist. Ich erwarte eigentlich einen Interposer. Bei HPC steckt genügend Geld dahinter und 16 Zen Kerne + Greenland/Vega 10 + 2 HBM Stacks dürften genau noch auf einen Interposer passen.
Um noch etwas zu spekulieren: Theoretisch könnte man einen minimal aktiven Interposer verwenden und fast alles was "Greenland" braucht aber Vega 10 nicht in den Interposer auslagern.

EDIT:
@Botcruscher:
Ich nehme mal an, dass AMD sich das mit der Lieferbarkeit nicht so vorgestellt hat. Noch ein Grund wäre natürlich das man HBM schon "hinter sich hat" wenn es an die größeren Veränderungen bei Vega geht.
Bandbreite sieht eigentlich normal aus: http://techreport.com/r.x/radeon-r9-fury-x/b3d-bandwidth.gif

Die Fury X sollte angeblich noch teurer werden, glaube ich. Wenn die Lieferbarkeit gut gewesen wäre und die Leistung so, wie AMD es wahrscheinlich erwartet hat, dann wäre der Aufwand gerechtfertigt gewesen.

Hinterher ist man immer schlauer, aber mit den Informationen die AMD zu der Zeit hatte, hätten wir wahrscheinlich alle die selben Entscheidungen getroffen.

Fakt ist natürlich, dass es nicht so funktioniert hat wie AMD sich das vorgestellt hat.

Ich glaube auch generell, dass das aufbohren der CU Gruppen von 3 auf 4 CUs bei Tonga und Fiji dazu beigetragen hat, dass beide hinter den Erwartungen zurückgeblieben sind.

MilesEdgeworth
2016-08-31, 11:06:33
Das machen was AMD am meisten fehlt: Gewinn machen. Insgesamt geht es eben nicht darum die schnellste Karte zu haben. Das Paket und die Lieferbarkeit muss stimmen. Gegen die Entscheidung für HBM sprechen zwei der entschiedenen Gründe: Preis und Lieferbarkeit. Das die Nano dann mit weitem Abstand die erfolgreichere Karte wurde, zeigt nur den Grad des Scheiterns. Die Achillesferse der Karte sind dann die lächerlichen 4GB. Von der tollen Bandbreite hab ich nur einen Test gesehen der gerade mal 380GB/s gezeigt hat. Dazu skaliert die Einseitenzahl einfach bescheiden.
Unter Strich wäre ein 8GB Hawaii 2 mit den Verbesserungen von Tonga die vermutlich deutlich erfolgreichere GPU gewesen.

Wäre Fiji nicht gewesen hätte man dafür sicher mehr Probleme bei Vega was HBM angeht. So konnte man wenigstens etwas Erfahrung mit der neuen Speichertechnologie und Interposern sammeln. Es ist sicherlich wirtschaftlicher ein Chipdesign wie Fiji - auch wenn es seine Problemzonen hat - auf den Markt zu werfen, als es in einer Schublade verrotten zu lassen.
Außerdem ist äußert fraglich was man an Hawaii noch hätte schrauben können ohne dass die Leistungsaufnahme völlig explodiert.

Botcruscher
2016-08-31, 11:16:49
Außerdem ist äußert fraglich was man an Hawaii noch hätte schrauben können ohne dass die Leistungsaufnahme völlig explodiert.

Hawaii läuft kaum langsamer auch mit 150W. Die großzügig 50W des HBM spart man eben bei den Einheiten die Fury eh nicht nutzen kann.

Ansonsten halte ich die Probleme mit dem HBM für überbewertet. NV hat das ganze wieder viel geschickter gemacht. Da wo es auf Volumen und Preissensitivität nicht ankommt.

MilesEdgeworth
2016-08-31, 11:45:37
Hawaii läuft kaum langsamer auch mit 150W. Die großzügig 50W des HBM spart man eben bei den Einheiten die Fury eh nicht nutzen kann.

Ansonsten halte ich die Probleme mit dem HBM für überbewertet. NV hat das ganze wieder viel geschickter gemacht. Da wo es auf Volumen und Preissensitivität nicht ankommt.

Das Hawaii weit oberhalb des Sweet-Spots betrieben wird ist mir auch klar. Aber was hat das mit dem Thema zu tun? An der Nano sieht man ja auch, dass die Furys viel zu hoch getaktet werden, um effizient zu sein.
Ob man nun bei der Neuauflage eines Chips in eine neue Speichertechnologie investiert oder bei bereits bekanntem bleibt und dafür ein zusätzliches Design heranzieht dürfte beim begrenzten R&D Budget auf seiten AMDs keine schwierige Entscheidung gewesen sein.

Agent117
2016-08-31, 11:52:58
Ich glaube auch generell, dass das aufbohren der CU Gruppen von 3 auf 4 CUs bei Tonga und Fiji dazu beigetragen hat, dass beide hinter den Erwartungen zurückgeblieben sind.

Sicher? Das waren doch seit Tahiti immer 4er Gruppen nur bei Polaris war das soweit ich weiß noch ungeklärt.
Aber du hast schon Recht, Tonga ist trotz besseren Frontend bei weniger CUs ineffizienter als Hawaii was Flops/CU betrifft und ich bezweifel auch dass Tongas geringere Speicherbandbreite der alleinige Grund ist.

Setsul
2016-08-31, 12:57:29
@botcruscher:
Siehe edit.
Überleg dir doch mal wie man Hawaii auf die Größe gebracht hätte.
Hawaii und Fiji haben beide 8 ACEs und 4 Shader Engines mit je 4 RBs á 4 ROPs.
An den 8 ACEs und 4 Shader Engines kann und wird man nichts ändern.

Der wesentliche Unterschied sind 16 (4x4) statt 11 (2x4 + 3) CUs pro SE.

Dann versuchen wir mal einen hypothetischen Hawaii 2 zu konstruieren.
Mit dem 512 bit SI passen 16 CUs definitv nicht rein, bestenfalls 14. Wunderbar, wir haben Fiji mit 2x4 + 2x3 CUs pro SE gebaut statt mit 4x4. Durch die vierte Gruppe bekommen wir die gleichen Auslastungsprobleme, wenn auch nicht ganz so schlimm.
Entweder takten wir den Speicher höher, dann kommt man selbst mit den Verbesserungen von Tonga definitiv nicht auf die gleichen Taktraten <300W, also mindestens 20% langsamer als Fiji oder wir takten nicht hoch, hängen dafür massiv am Speicher und sind auch nicht schneller.

768 bit SI ist nich möglich, 6 statt 4 RBs pro SE kann man auch vergessen, erstens glaube ich nicht dass GCN das kann und zweitens landet man dann bei nur noch 12 CUs (3x4 oder 4x3) pro SE und das Ganze bringt wieder nichts.


@Agent117:
AMD hatte schon immer die Möglichkeit 3 oder 4 CUs pro Gruppe zu verbauen. Und bei jedem Chip der 4er Gruppen hatte, hat man es gemerkt.

GCN1: Tahiti: 2 ACEs, 2 SEs mit je 4x4 CUs und 4 RBs.
Cap Verde: 2 ACEs, 1 SE mit 4 + 2x3 CUs und 4 RBs.

GCN2: Bonaire: 2 ACEs, 2 SE mit je 4+3 CUs und 2 RBs.
Hawaii: 8 ACEs, 4 SE mit je 2x4 + 3 CUs und 4 RBs.

GCN3: Tonga: 8 ACEs, 4 SE mit je 2x4 CUs und 2 RBs. (man beachte den Vergleich mit Tahiti)
Fiji: 8 ACEs, 4 SE mit je 4x4 CUs und 4 RBs. (man beachte Tonga)

GCN4: Polaris 10: 4 ACEs, 2 HWS, 4 SE mit je 3x3 CUs und 2 RBs.
https://www.techpowerup.com/reviews/AMD/RX_480/images/arch1.jpg
Polaris 11: 4 ACEs, 2 HWS, 2 SE mit je 2x4 CUs und 2 RBs.
http://media.bestofmicro.com/M/2/602138/original/block-diagram.png

Wunderschön flexibel verglichen mit nVidia aber von der Auslastung her wohl nicht so berauschend, gerade wenns hoch geht auf 3 oder sogar 4 Gruppen pro SE oder 4 CUs pro Gruppe (oder beides, siehe Fiji).

Nakai
2016-08-31, 13:32:15
Die CU-Gruppen teilen sich eben Daten und Steuerleitungen, als auch die Instruktion-Caches. Selbstverständlich haben kleinere CU-Gruppen dann mehr Ressourcen unterm Strich.

Pick
2016-08-31, 13:45:49
Fiji: 8 ACEs, 4 SE mit je 4x4 CUs und 4 RBs. (man beachte Tonga)

Fiji hat 2 HWS und 4ACEs
http://cdn.wccftech.com/wp-content/uploads/2015/08/AMD-Radeon-R9-Nano-Fiji-GPU-Block-Diagram.jpg

Nakai
2016-08-31, 14:01:30
Fiji hat 2 HWS und 4ACEs
http://cdn.wccftech.com/wp-content/uploads/2015/08/AMD-Radeon-R9-Nano-Fiji-GPU-Block-Diagram.jpg

Ein HWS sind praktisch zwei ACEs mit zusätzlicher Funktionalität.

Setsul
2016-08-31, 14:56:09
@Nakai
Ich sag auch nicht, dass es mich überrascht.
Aber man fragt sich schon ob 8 SEs mit je 2x3 CUs (48 insgesamt) nicht besser gewesen wäre, wenn sich das dann auch positiv auf die Taktraten auswirkt. Klar, es war keine Option, das erfordert zu große Veränderungen und Tonga als Testchip wäre auch nicht möglich gewesen, aber nett wäre es schon. Hätte man dann auch entsprechend ausbauen können für Vega (3 Gruppen und/oder 4 CUs pro Gruppe).
Es wird schon sinnvoll erschienen sein die größeren Änderungen erst mit Vega einzuführen.

Letztendlich war jetzt jahrelang Sparkurs bei den GPUs, in einem Jahr sollten wir wissen wie um AMD steht, allein dadurch wieviele Chips für Navi in 10nm in Vorbereitung sind. 2018 muss einfach das gesamte Portfolio neu aufgelegt werden, es ist einfach nichts da was man rebranden kann. P10 für Low End und Vega für Midrange dürften kaum gewinnbringend zu verkaufen sein.

@Pick: http://images.anandtech.com/doci/9390/FijiBlockDiagram.png
Anscheinend wollte AMD es einen Monat vorher noch nicht zugeben. Schon etwas komisch zum Release den Reviewern "falsche" Informationen zu geben, wenn man einen Monat später sowieso die Wahrheit präsentiert.

iuno
2016-08-31, 15:04:38
Anscheinend wollte AMD es einen Monat vorher noch nicht zugeben. Schon etwas komisch zum Release den Reviewern "falsche" Informationen zu geben, wenn man einen Monat später sowieso die Wahrheit präsentiert.

Das hat nichts mit nicht zugeben zu tun, man ist softwareseitig einfach nicht nachgekommen und was ans Marketing weitergegeben wird, ist halt auch nicht immer der aktuelle Status von dem, was machbar ist/wird.

Das Thema MEC, HWS/ACE hatten wir schon ganz oft hier, zuletzt z.B. im Kontext dieser Posts:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11113711#post11113711
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11127675#post11127675

Setsul
2016-08-31, 15:41:54
Geschrieben ist der Tonfall natürlich schwer zu erkennen.

Ich meinte nachdem klar war, dass man die HWS nächsten Monat anpreisen will, wäre es günstiger gewesen das auf die Folien für Reviewer schon draufzuschreiben.

Aber was weiß ich, was in den Köpfen der Marketingleute vor sich geht, oder wer denen wann was gesagt hat.

HOT
2016-09-01, 10:57:00
[...]

Ich würde eher auf das Gegenteil tippen.
AMD kann und wird momentan nur Chips produzieren die absolut nötig sind. Im Verhältnis zur Anzahl der Märkte die sie bedienen ist es eine extrem kleine Firma.
Alles wird wiederverwendet wo immer es geht.
Zen und K12 haben recht viel gemeinsam. Zen sollte klar sein und K12 auch wozu man die braucht.
Xbox One S SoC. Keine Ahnung ob P11 da mit drin steckt, bin da nicht auf dem neuesten Stand. 16nm, 12 CUs aktiv also wahrscheinlich wieder 14 CUs vorhanden, könnte also genauso gut nur ein Shrink mit minimalen Veränderungen sein.
P11 braucht man für Mobile und Apple.
P10 damit man eine 16/14nm GPU hat die die VR Minimalvoraussetzungen erfüllt und für die PS4 Neo.
Scorpio gibts dann auch noch.
Zu den Zen 8C CPUs kommen dann noch 4C APUs.

Kurze Zwischenbilanz:
3 Chips released: P11, P10, Xbox One S
3 in naher Zukunft: PS4 Neo, Zen 8C CPU, Vega 10
3 später im nächsten Jahr: Zen 4C APU, Vega 11, Xbox Scorpio

Wenn man das vergleicht mit nVidia, bei ähnlich vielen Mitarbeiter haben die:
4 released: GP100, GP102, GP104, GP106
3 noch auf dem Weg: GP107, GP108, Tegra X2
Keine Ahnung ob ich noch irgendwelche vergessen habe.

Wenn die Konzepte vom Profidesign und Consumerdesign so unterschiedlich sind, machen nur getrennte Chips Sinn. Ich glaube nicht, dass man V10 und Greenland als ein und denselben Chip auflegt, wenn das Produktionskosten des V10 in einem Risikomarkt (die Karten können auf 300€ abrutschen) unerträglich macht. Das wird so nix. Da kommen ja noch andere Späße hinzu, beispielsweise die zusätzlichen PCIe-Ports für SSD-Unterstützung bei Greenland. Ich denke das Anforderungsprofil ist so unterschiedlich, dass es für Greenland = V10 einfacht total unrentabel wird - genau wie bei GP100 vs. GP102
Und ja, du hast noch Chips vergessen: PS4Slim, K12-SoC
I.Ü. werden alle XBox/PS4-Chips exakt den gleichen IP-Level behalten. Sowohl Tiger/Cheetah sind Jaguar als auch die Grafikkerne sind zwar mehr CUs, aber gleiche IP (v7 extended).

Andere Überlegungen dazu: Zen ist nicht zum Spaß modular, das erleichtert schonmal die 4C APUs enorm. Es wäre also relativ einfach monolithische 16C und 32C Dies aufzulegen. Aber dafür sind einfach keine Ressourcen mehr verfügbar. Deshalb MCM.

Ich glaube, das liegt gar nicht mal so daran, dass man sowas nicht in monolithisch designen wollte oder könnte, sondern daran, dass die Kosten/Nutzenrechnung einfach nicht aufgeht. Wenn man es nicht schafft, Intel signifikant Marktanteile mit so einem Monster abzununehmen ist das ein Kostendesaster - mit einem MCM geht man jedoch kaum Risiko ein. Das ist pure Kalkulation, da man Intel genau da angreift, wo sie am stärksten sind. Das hat nun wirklich genau 0 mit Vega/Greenland zu tun.

Genauso wenn man sich die 400er Serie anschaut. Bei nVidia ist der nächste Chip meistens doppelt so groß, gibt auch nicht viele Möglichkeiten bei den GPCs. Normalerweise 1, 2, 4 und dann fürs High End 6 (GK110 50% größere GPC dafür nur 5). Entsprechend dann eher mal 3 Versionen pro Chip.
AMD bringt immer nur 2, dafür sind die Chips näher beieinander, so etwa Faktor 1,4-1,5. Einmal wars 2, zwischen Cap Verde und Pitcairn, aber die Lücke wurde dann mit Bonaire wieder geschlossen.
Jetzt schaut man sich mal P11 und P10 an. Faktor 2,25. Das gabs so nie. Und dann kommen von 16 CUs nur 14 CUs in der Desktop GPU Version an. Der Abstand zwischen dem kleinsten Desktop P10 und dem größten Desktop P11 ist größer als jeder Abstand zwischen full Chips bis jetzt.
Normalerweise wäre in der Lücke mindestens noch ein Chip. Im Mobile wird das notdürftig mit Tonga/Antigua gestopft aber das wars.
Niemand wird sagen die Lücke zwischen RX 460 und RX 470 ist gewollt und gut so.
P10 ist einfach ein Muss (VR und PS4 Neo), genauso wie P11 (Mobile / Low Power usw.), alles andere ist Luxus und den kann sich AMD momentan nicht leisten.

Das sind völlig andere Chips mit völlig anderen Architekturen. Das ist alles extended Hawaii-IP, das hat mit Polaris genau 0 zu tun. Da liegst du völlig falsch. Und die Lücke würd am besten ein Vega mit 56CUs füllen, ergänzt durch einen V11 mit 80CUs meiner Ansicht nacht.

Vega 11 wird auch gleichzeitig Profi / HPC Segment, generell eben DP, und gleichzeitig High End Gaming bedienen müssen, wieso sollte man also jetzt anfangen und Vega 10 und Greenland zu trennen? Wenn es für einen dritten Polaris Chip um 170mm² nicht mehr reicht wird man woll kaum zwei sehr ähnliche Chips mit an die 400mm² bringen.


Langer Rede kurzer Sinn, ich nehme deshalb an dass das Zen / Greenland APU Dings einfach aus Vega 10 und 2 Zen 8C dies als MCM zusammengebastelt wird (meinetwegen auch 16C wenn und falls es die bis dahin gibt). Klar wird V10 dann etwas größer aber bei dem Anteil den Entwicklungskosten bei 14nm haben sind die Kosten pro Die am Ende immernoch niedriger als bei zwei seperaten Chips.

EDIT: Es passt auch einfach perfekt zu V10 mit 2 HBM Stacks. http://www.fudzilla.com/media/k2/items/cache/bdff5e4df5710735d8a1ecdc5dd9efcf_XL.jpg

Vielleicht lehne ich mit dem Ganzen hier auch zu weit aus dem Fenster, aber sonst wäre es ja langweilig.

Greenland wird sicherlich mit 2 oder 4 Stacks möglich sein, 4 Stacks + SSD und/oder DRAM eben auf der Karte, nur 2 zusammen mit Zepplin-Dies. Wenn der auf dem gleichen Sockel wie die anderen MCMs laufen soll, braucht Greenland übrigens 256Bit DDR4. Ist das jedoch ein eigener Sockel, ist alles offen. Das Bild ist offensichtlich ziemlicher Fake-Mist übrigens. AFAIK hat auch jeder Zen-Modul 8MiB L3, allein das stimmt schon nicht.

Ich denke, dass das so aussehen wird:
V10 56CUs, 14LPP, max 1,35GHz, 225W, 2 HBM2-Stacks mit 512GB/sec, 320mm²
Greenland 64CUs, 8 zusätzliche PCIe-Lanes, evtl. DRAM-Ctrl., über PCIe laufendes HT wie bei Zepplin, 14LPP oder 16FF+, 250W, 2 oder 4 HBM2-Stacks, >550mm²
V11 80CUs, 14HP (oder LPP), 300W, 4 HBM2-Stacks, >500mm²

robbitop
2016-09-01, 11:07:05
Von K12 hat man AFAIK lange nichts mehr gehört. Ob der auch unter die Räder gekommen ist? Zen sollte eigentlich gut alle Märkte bedienen können. Außerhalb von mobile ist ARM AFAIK kein wirklicher Vorteil. Und aus mobile hält sich AMD vorerst heraus.

IMO hat NV sich mit GP100/102 schon einen fetten Luxus geleistet. Der Computemarkt ist noch immer relativ klein. Bei AMD ist es hinten und vorn offenbar knapp. Außerdem zeigte ja bereits Hawaii, dass man mit GCN doch vieles mit nicht all zu großem Ballast mitnehmen kann.

Ich sehe das wie Setsul, AMD wird versuchen, nur wenige - aber wichtige ASICs in die Produktion zu bringen.

Die Konsolen SoCs binden vermutlich schon einen guten Teil der Möglichkeiten. Die Shrinks der aktuellen Generation sind zwar nur Shrinks - aber von allein passiert es auch nicht.

Nakai
2016-09-01, 12:29:22
26-Aug-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO GRAPHIC CARD)P/N:102-D02702-00 (FOC) Canada Hyderabad Air Cargo NOS 3 287,599 95,866

Zwar schon 5 Tage alt. Aber Vega auf Zauba?

Ich sehe auf Zauba derzeit keinen weiteren Vega-Chip.

Setsul
2016-09-01, 20:55:00
@HOT:
SSG verwendet Fiji.
PS4 Slim hab ich vergessen.
Keine Ahnung wann der K12 geplant ist. Kommt wohl auch darauf an wie weit das ARM Server Ökosystem ist.

Was sind völlig andere Chips mit völlig anderen Architekturen?
Wie sollen ein 56 und 80 CU Vega die Lücke zwischen 16 und 36 CU Polaris schließen?

Wieso ist das Bild Fake Mist? Da steht 8M. Das steht für 8MB. Entweder übersiehst du die Kerne auf der anderen Seite oder du scheiterst gerade am bis vier zählen.

Gipsel
2016-09-01, 20:59:53
Ja, AMD frisst wesentlich mehr Bandbreite.
Wenn ich mich nicht irre hängt die RX 480 mit 256 GB/s recht stark am Speicher, während die GTX 1060 mit 192 GB/s recht zufrieden ist.

Um mal ein bisschen zu ergänzen was robbitop schon geschrieben hat, in umgekehrter Reihenfolge:
Komprimierung: http://techreport.com/r.x/gtx1070review/b3dbw.png
http://techreport.com/r.x/rx480review/b3d-bandwidth.png
Ich glaube ich habe irgendwo schonmal bessere Benchmarks bezüglich Komprimierung gesehen, finde die aber gerade nicht. Techreport hat auch keine GTX 1060 Review, aber die 1070 und 1080 sollten als Vergleich reichen.

EDIT: Gefunden! http://images.anandtech.com/graphs/graph10325/82902.png
Das ist ein extrem schlecht ausgewählter Bench von Anandtech, da die neueren AMD-GPUs alle eher weniger ROPs besitzen, das mit einem Datenformat mit nur 8Bit pro Komponente also meist überhaupt gar nicht bandbreiten- sondern ROP-limitiert ist. Sprich, der Durchsatz wird mit einer komplett schwarzen Textur deswegen nicht höher, weil man schon mit der (nicht komprimierbaren) zufälligen Textur im ROP-Limit hängt und noch genügend Speicherbandbreite für einen reinen Füllratentest hat (in dem AMD-GPUs traditionell 90+% der theoretischen Speicherbandbreite auch praktisch nutzen können). Einzig bei der RX480 messen die doch überhaupt eine merkliche Abweichung. Hier wäre ein 16Bit-Farbformat deutlich aussagekräftiger gewesen (wo allerdings nV bei Blending nur half-rate in den ROPs kann, wäre für die Bandbreitenanforderungen aber egal da doppelt so breit). Und mit 16 Bit Framebufferformat ist AMD ROP-technisch typischerweise besser aufgestellt als nV (die einzige Karte mit einer höheren FP16-ROP-Rate als Fury-X ist die TitanX mit so grob 10-15% Vorsprung, P10 liegt da auch vor der 1060), die Kompression funktioniert also, die wird dort in dem Bench von Anandtech bei AMD-Karten nur nicht getestet ;).

Oder um das mal mit Zahlen (wie im Anandtech-Test) für 4xINT8 => 4 Byte pro Pixel bzw. mit Blending 8 Byte pro Pixel erforderliche Bandbreite zu untermauern:

Tahiti: 32 ROPs @925MHz mit 264GB/s
32ROPs * 8Byte * 0,925GHz = 236,8GB/s benötigte Bandbreite => schafft man auch ohne Kompression (hat ja auch keine und Füllratentests zeigen Peak-Rate auch mit Blending). Hardware.fr messen bei der HD7970 eine Füllrate, die 232GB/s nutzt, mit der 280X 256GB/s genutzte Bandbreite. Paßt also.

R9-390X: 64 ROPs @ 1,05 GHz mit 384 GB/s, allerdings hat Hawaii schon die erste Generation der Framebufferkompression an Board (eingeführt mit Bonaire)
64 * 4 *1,05 = 268,8 GB/s Bandbreitenanforderung => paßt
Mit Blending ist es dann doppelt so viel (was man nicht hat) und das Anandtech keinen Unterschied mißt, sagt mir, daß die den Test wohl ohne Blending gemacht haben (wäre doppelter Fail), oder irgendwas in dem Bench die Benutzung verhindert. Denn z.B. in den Füllratentests von hardware.fr ist das Arbeiten der Kompression sichtbar (mit Blending nutzt eine R9-290X bei denen effektiv bis zu 563GB/s [Kompressionsfaktor > 1,46], würde ohne FB-Kompression gar nicht gehen).

Fury-X: 64 ROPs @ 1,05GHz mit 512GB/s
Bandbreitenanforderung siehe oben. Reicht also locker ohne Blending und mit 8Bit-Blending praktisch auch beinahe (da paßt theoretisch der 1,1 Faktor):
64*8*1,05 = 538 GB/s Bandbreite benötigt
Fiji hat ja schon die zweite Generation der Framebufferkompression (wie Tonga), kann sein, daß das also in dem Anandtech-Bench dann greift. Hardware.fr kommen übrigen in ihrem Test auf 54,6 GPixel/s mit fp-16-Blending (16Byte pro Pixel), also auf eine effektiv nutzbare Bandbreite von 874 GB/s. Kompression funktioniert also (Kompressionfaktor >1,7).
Bei Tonga (380X mit 182,4GB/s) messen die übrigens bis zu 416GB/s effektive Bandbreite (Kompressionsverhältnis von >2,28).

Und schließlich die RX480: 32ROPs@1,27GHz mit 256GB/s
32*8*1,27 = 325 GB/s benötigte Bandbreite
Und was sind jetzt 325/256? Vielleicht ungefähr der Faktor 1,3 Speedup mit der komprimierbaren Textur? :rolleyes:
Hardware.fr kommen übrigens auf maximal 555GB/s effektiv genutzte Bandbreite mit FP16, also ebenfalls einen Faktor ~2,2.

Um es kurz zu machen, der Anandtech-Test ist wenig geeignet, die maximale Kompression mit AMD-GPUs zu testen. Und selbst wenn man z.B. die aussagekräftigeren Zahlen von hardware.fr nimmt, gibt das immer noch nicht genügend Aussagen darüber, wie viel das mit echten Texturen in echten Spielen bringt. Denn da spielt z.B. auch noch rein, ob die TMUs das komprimierte Framebufferformat direkt lesen können (bei neueren nVs und zumindest bei Polaris geht es, Tonga/Fiji bin ich gerade nicht sicher).

======================================

Culling: Mit Tesselation funktioniert das bei AMD schon wunderbar, leider hat GCN aus anderen Gründen nicht gerade optimalen Durchsatz insgesamt.
http://www.hardware.fr/getgraphimg.php?id=334&n=1
Im Normalfall sieht es wesentlich schlechter aus
http://www.hardware.fr/getgraphimg.php?id=333&n=1Da verstehst Du den Benchmark falsch. Das sind die Durchsätze unter den zwei verschiedenen Bedingungen (verworfen oder tatsächlich gezeichnet). Die Balkenunterschiede geben nicht die Wirksamkeit des besseren Cullings auf dem Chip wieder. Insofern sieht es bei AMD mit Tesselation immer noch deutlich schlechter aus als ohne, nicht besser.
Und als Letztes, das ist jetzt nicht direkt Caching, hat aber damit zu tun.
http://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/
Das hat nVidia seit Maxwell, glaube ich.Und ist der Hauptgrund für die unterschiedlichen Bandbreitenbedürfnisse (und nicht Unterschiede bei der Framebufferkompression).

Setsul
2016-09-01, 22:11:30
@Gipsel
Das erklärts natürlich, ich hab mich noch gefragt wieso die Bandbreiten so niedrig sind.
Wer lesen kann ist einfach klar im Vorteil.

Culling hab ich aus dem Gedächtnis gemacht und nur Bilder gesucht, die irgendwie sich darauf beziehen
Dann erinnere ich mich wahrscheinlich falsch, ich hatte nur noch irgendwas im Hinterkopf von wegen Culling bringt bei AMD mit Tesselation mehr (Gesamtleistung ist natürlich niedriger).

Ich sollte sowas nicht mehr zwischen Tür und Angel schreiben.

iuno
2016-09-02, 14:37:07
Alienware verbaut P10 Pro im Notebook:
http://radeon.com/en-us/alienware-unveils-new-generation-of-radeon-rx-470-laptops/
Chip ist identisch zur 470, 8 GiB Speicher.

robbitop
2016-09-02, 17:20:19
Gipsel,

wie groß ist schätzungsweise der Eingriff in das Design um Tile Based Rasterisation zu betreiben? Meinst du, dass es realistisch ist, dass AMD das zu Vega oder Navi auch implementieren kann?

Ich wundere mich, dass man erst so spät darauf kam, das umzusetzen, obwohl die ULPs das schon seit vielen Jahren tun.

Schaffe89
2016-09-02, 17:38:35
Könnte das eventuell der alleinige Grund für Nvidias Effizienzvorsprung sein, bzw der Grund dass man die Flops nicht in Nvidia-like-Leistung ummünzen kann?

Loeschzwerg
2016-09-02, 18:02:49
Alienware verbaut P10 Pro im Notebook:
http://radeon.com/en-us/alienware-unveils-new-generation-of-radeon-rx-470-laptops/
Chip ist identisch zur 470, 8 GiB Speicher.

Und RX 460 ist ebenfalls nur Baffin Pro. Also landen da wohl wirklich die XT bei Apple?

Ailuros
2016-09-02, 20:06:59
Könnte das eventuell der alleinige Grund für Nvidias Effizienzvorsprung sein, bzw der Grund dass man die Flops nicht in Nvidia-like-Leistung ummünzen kann?

Bei weitem nicht; ich wage sogar zu behaupten dass der Beitrag vom angeblichen tile based-whatever nur sehr begrenzt beitraegt weil es nur fuer eine relativ kleine Menge an Geometrie bestimmt sein duerfte.

Nimmt man die boost Frequenzen zwischen einer RX480 gegen die einer 1060/6GB, hat die letztere eine um 35% hoehere Frequenz und das duerfte IMO eines der groessten Faktoren sein die zur Effizienz eines GP106 beitragen; und selbst dass koennte falsch verstanden werden. Hat man als Beispiel 5% von A, 5% von B, 10% von C ist in der insgesamten Sammlung von Faktoren Frequenz das groesste Prozentual.

Der_Korken
2016-09-02, 20:41:32
Nimmt man die boost Frequenzen zwischen einer RX480 gegen die einer 1060/6GB, hat die letztere eine um 35% hoehere Frequenz und das duerfte IMO eines der groessten Faktoren sein die zur Effizienz eines GP106 beitragen;

Das finde ich nicht sehr einleuchtend. Höhere Frequenzen sind für die Effizienz eigentlich erstmal schlecht, weil man dafür i.A. höhere Spannungen braucht. Ich weiß, dass es bei Pascal im Vergleich zu Polaris nicht so ist. Das macht es für mich umso erstaunlicher, dass Pascal trotzdem so effizient ist. Die Packdichte ist jetzt auch nicht so viel kleiner als bei Polaris.

robbitop
2016-09-02, 22:26:06
Bei weitem nicht; ich wage sogar zu behaupten dass der Beitrag vom angeblichen tile based-whatever nur sehr begrenzt beitraegt weil es nur fuer eine relativ kleine Menge an Geometrie bestimmt sein duerfte.

Nimmt man die boost Frequenzen zwischen einer RX480 gegen die einer 1060/6GB, hat die letztere eine um 35% hoehere Frequenz und das duerfte IMO eines der groessten Faktoren sein die zur Effizienz eines GP106 beitragen; und selbst dass koennte falsch verstanden werden. Hat man als Beispiel 5% von A, 5% von B, 10% von C ist in der insgesamten Sammlung von Faktoren Frequenz das groesste Prozentual.

TBR spart zumindest enorm Bandbreite, weil die Zugriffe im Chipinternen Tilecache laufen.

Für die höheren Taktraten und die höhere Auslastung der ALUs bezahlt NV mit mehr Transistoren pro Ausführungseinheit. Die Gesamtbilanz ist am Ende trotzdem besser.

reaperrr
2016-09-03, 21:03:54
Ist eigentlich sonst noch jemandem aufgefallen, wie erstaunlich stark die 460 ggü. der 360 skaliert?

Mit nur 32% mehr Rohleistung und 16,67% mehr nomineller Bandbreite fast immer wenigstens 40%, teilweise auch mal über 50% schneller, und zwar nicht in unspielbaren Settings in neuesten Spielen, sondern in weniger fordernden MMO-Titeln (laut CB-Review). Mit 16 CUs wären es im Mittel vermutlich nochmal ca. 10 %-Punkte mehr.
Ein nicht unwesentlicher Teil der guten Skalierung wird sicher durch die um 2 Generationen weitere DCC und den doppelten L2 zustande kommen, trotzdem besser, als ich erwartet hätte.

iuno
2016-09-04, 01:35:07
Ja, es liegen halt 2 GCN Iterationen dazwischen.
CB hat sich das bei P10 auch angeschaut: https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/
Es sind also doch klare Zuwaechse da, das sieht auch bei P10

Schaffe89
2016-09-04, 05:06:03
Umso absurder warum sich AMD ihr eigenes Produkt die rx460 mit einem beschnitten Chip kaputtmacht.
Takt 10% nach unten + 10% mehr Einheiten, enges max 65 Watt Korsett (voll auf Effizienz), etwas später eine 80 Watt Version nachgelegt und die GTX 960 eingeholt.
Wenn man wieder 1 Jahr auf den Vollausbau warten muss, dann darf man ein gutes AMD Management anzweifeln und auch ob Lisa Su und Koduri gut für AMD sind.
Auf der Zielgeraden wirds auch unter der Führung von denen hart vergeigt. Hoffen wir mal dass sie sich für Zen genug Zeit lassen.

ilibilly
2016-09-04, 08:18:21
Gibts eigentlich infos wie man ramgrößen bei hdm2 verbauen kann
Ich denk kleinvega darf ja kaum weniger als 8gb haben und der grosse kann 12,14,oder muss er 16gb haben?
Und wie verhält sich da die bandbreite,skaliert sie da auch 1:1 oder ist das erstmal irrelevant von der ramgröße?

robbitop
2016-09-04, 08:45:01
Umso absurder warum sich AMD ihr eigenes Produkt die rx460 mit einem beschnitten Chip kaputtmacht.
Takt 10% nach unten + 10% mehr Einheiten, enges max 65 Watt Korsett (voll auf Effizienz), etwas später eine 80 Watt Version nachgelegt und die GTX 960 eingeholt.
Wenn man wieder 1 Jahr auf den Vollausbau warten muss, dann darf man ein gutes AMD Management anzweifeln und auch ob Lisa Su und Koduri gut für AMD sind.
Auf der Zielgeraden wirds auch unter der Führung von denen hart vergeigt. Hoffen wir mal dass sie sich für Zen genug Zeit lassen.
Wahrscheinlich binnen sie P11 GPUs für den deutlich gewinnträchtigeren mobile Markt. Das ergäbe jedenfalls Sinn.

Locuza
2016-09-04, 09:38:25
Gibts eigentlich infos wie man ramgrößen bei hdm2 verbauen kann
Ich denk kleinvega darf ja kaum weniger als 8gb haben und der grosse kann 12,14,oder muss er 16gb haben?
Und wie verhält sich da die bandbreite,skaliert sie da auch 1:1 oder ist das erstmal irrelevant von der ramgröße?
Aktuell skaliert man HBM2 immer in 1024-Bit Schritten, da ein Stack immer mit 1024-Bit angeschlossen wird.
(Samsung hat neulich die Idee bezüglich einer low-cost Variante mit 512-Bit präsentiert, aber das ist aktuell nur noch ein Gedanke)
Die Speichergröße pro DRAM-Layer beträgt bei den ersten HBM2 Angeboten 1 GB.
Es wird Stacks mit 4-Layern geben (4GB) und Stacks mit 8-Layern (8 GB).
Die Geschwindigkeit ist in dem Zusammenhang identisch, egal ob 4- oder 8-Layer, da immer durch 1024-Bit geführt wird.
Wie viel GB die GPUs dann haben kommt auf die Interfacebreite an und wie hoch der Stack ausfällt.
Verwendet der kleine Vega ein 2048-Bit Interface können es 8 oder 16 GB sein.
Bei 3072-Bit schließt man nur drei Stacks an und erhält entsprechend 12/24 GB und bei 4096-Bit 16/32 GB.
Je nach Chip könnte man auch teildeaktivierte Produkte verkaufen mit nur 1024-Bit oder 3072-Bit, je nachdem was Sinn ergibt.

Sunrise
2016-09-04, 14:41:31
Wahrscheinlich binnen sie P11 GPUs für den deutlich gewinnträchtigeren mobile Markt. Das ergäbe jedenfalls Sinn.
Da immer mehr Notebooks mit dem vollen P11 vorgestellt werden scheint es auch so zu sein.

Loeschzwerg
2016-09-05, 06:58:56
Da immer mehr Notebooks mit dem vollen P11 vorgestellt werden scheint es auch so zu sein.

Wo? Also bei dem angekündigten Alienware kommt ebenfalls nur Baffin Pro zum Einsatz.

HOT
2016-09-05, 08:38:26
Die XTs gehen sicher erstmal wieder alle nach Apple. Und im Alienware arbeitet ein RX470, nicht 460.

iuno
2016-09-05, 08:46:38
im Alienware arbeitet ein RX470, nicht 460.

Das mittlere gibt es maximal mit 460 oder 1070, das große mit 470 oder 1080.

http://www.golem.de/news/13-15-r3-und-17-r4-alienware-packt-amds-radeon-rx-in-seine-spiele-notebooks-1609-123069.html

Übrigens offenbar auch nur g-, kein freesync. Ich bin mal auf die Preisunterschiede gespannt, die AMD Varianten scheinen aber relativ unattraktiv zu werden.

HOT
2016-09-05, 08:48:29
Ja gut, dass sind aber auch so Desktop-für-Mobile-Geschichten. Die "richtigen" P11-Notebook-Chips schimpfen sich offenbar R9 M480/5.

Ailuros
2016-09-07, 12:49:49
TBR spart zumindest enorm Bandbreite, weil die Zugriffe im Chipinternen Tilecache laufen.

Für die höheren Taktraten und die höhere Auslastung der ALUs bezahlt NV mit mehr Transistoren pro Ausführungseinheit. Die Gesamtbilanz ist am Ende trotzdem besser.

Hier hast Du Deine reale Antwort zum Thema:

https://forum.beyond3d.com/posts/1941250/

If you really want to know - Nvidia and AMD utilize the ROPs differently.

Nvidia, thanks to the geometry buckets / tiling approach featured in Maxwell and Pascal, needs a sufficient number of ROPs to hold a full tile inside the ROPs at a time. That way, any write to the ROPs is essentially guaranteed not to hit the RAM while the same tile is active.

The whole GCN family doesn't have such tiling system yet, so the ROPs are mostly write-through with a comparably low cache hit rate. This means, that there is always a huge chance that any blend operation is actually going to cause a RAM access. This unfortunately means that most ROP activity is also utilizing the RAM system, which increases the power consumption significantly. The increased memory bandwidth is actually utilized despite the lower number of ROPs, except that the favorable solution would have been not to require the bandwidth during that part of the pipeline in the first place.

Es gibt so viele verschiedene tile based Methoden, dass die Vereinfachung dass jegliches tiling automatisch "viel" Bandbreite spart einfach zur Falle wird. Wendet man naives tiling an kann es mehr Bandbreite verdonnern als ohne.

Insgesamt geht es nicht ums tiling in keinem dieser Faelle. Es geht darum dass NV's neueste Architekturen seit Maxwell einfach mehr Grenzfaelle besser bewaeltigen koennen und dafuer spielen eine Unmenge von Faktoren mit.

tm0975
2016-09-13, 08:29:06
BF1 liegt (teilweise) den Polaris bei.

http://www.mindfactory.de/product_info.php/4096MB-Sapphire-Radeon-RX-480-Nitro--Aktiv-PCIe-3-0-x16--Lite-Retail-_1114532.html

wird wohl doch nichts mit vega zum bf1-start, wie es manche gehofft hatten.

maximus_hertus
2016-09-13, 08:59:51
BF1 liegt (teilweise) den Polaris bei.

http://www.mindfactory.de/product_info.php/4096MB-Sapphire-Radeon-RX-480-Nitro--Aktiv-PCIe-3-0-x16--Lite-Retail-_1114532.html

wird wohl doch nichts mit vega zum bf1-start, wie es manche gehofft hatten.

Wenn ich das richtig sehe, ist das nur ein 20 Euro Rabatt Code für die Deluxe Edition.

tm0975
2016-09-13, 12:20:21
hast recht, habs überlesen.

Sunrise
2016-09-14, 10:37:00
Neues zu Vega:
Quelle: http://seekingalpha.com/article/4005975-advanced-micro-devices-amd-management-presents-deutsche-bank-2016-technology-conference


Mark Papermaster

...VEGA is on track as we said for first half of '17 to attack in that high-end of the market, in that highly performance enthusiast end of the market.

Ross Seymore

Is that a completely new architecture, somewhat analogous to Zen or it is in more of an iteration on players?

Mark Papermaster

No you'll see yet again significant performance per watt changers of improvement, now that's what we will have, we have shown a long range of roadmap for our Radeon graphics products and at each generation we will significantly improve the performance per watt. That's what the workloads demand across -- not only gaming but these are emerging opportunities I described a moment ago and that's what we'll provide with the roadmap.

tm0975
2016-09-14, 10:48:12
Das klingt nach nem Plan :biggrin:

wenn es so kommt, wird es wohl bei einer gewissen lücke von der 480 zu vega geben. evtl sehen wir aber zeitgleich zu vega eine 580 mit etwas geringeren spannungen und etwas höherem takt und evtl etwas schnellerem speicher.

Schaffe89
2016-09-14, 10:54:56
Na hoffentlich sind es wirklich significant Improvements, denn die Nano steht immernoch als effizienteste Karte da.
Außerdem hat man, wenn man kein Portfolio mit dem gleichen IP Stand mehr herausbringt auch ein unrundes Angebot vom Einstiegsbereich bis in den High End Bereich.

Palpatin
2016-09-14, 11:10:57
Das klingt nach nem Plan :biggrin:

wenn es so kommt, wird es wohl bei einer gewissen lücke von der 480 zu vega geben. evtl sehen wir aber zeitgleich zu vega eine 580 mit etwas geringeren spannungen und etwas höherem takt und evtl etwas schnellerem speicher.
Rechne eher damit das ein kastrierter kleiner Vega die Preislücke und ein auf Effizenz getrimmter Vega die Leistungslücke zur 480 schließen wird. Beide etwa auf 1070+- Niveau. Der normale klein Vega dann 1080 Niveau und der große Vega dementsprechend 1080ti bzw Titan.

iuno
2016-09-14, 13:42:55
Eigentlich sind das keine neuen Infos, aber "not only gaming" - dazu gab es zuletzt ja Gespraechsstoff weil auf den Slides Vega nur fuer Enthusiasten Gaming Produkt genannt wurde.
Dass Perf/W steigen soll, wurde schon lange gesagt. Das erreicht man aber auch alleine schon durch HBM.

Sunrise
2016-09-14, 13:57:47
Eigentlich sind das keine neuen Infos, aber "not only gaming" - dazu gab es zuletzt ja Gespraechsstoff weil auf den Slides Vega nur fuer Enthusiasten Gaming Produkt genannt wurde.
Dass Perf/W steigen soll, wurde schon lange gesagt. Das erreicht man aber auch alleine schon durch HBM.
Er spricht von "signifikant" und auch von Enthuasiast-Klasse, das sind schon recht deutliche Aussagen. Fragt sich, ob das eher Marketing-Gewäsch ist oder ob das Schlüsse auf die Einordnung (Enthusiast -> ganz klar eine fette GPU) wirklich zulässt. Ebenso kann signifikant nicht nur durch HBM2 kommen, denn er redet ja mehr oder weniger über die Vega-Architektur, da wird noch anders geschraubt werden müssen.

Ich glaube jedoch nichts, bevor es hier nicht noch ein paar mehr Infos gibt.

iuno
2016-09-14, 14:54:35
Natuerlich ist das Marketing Gewaesch. Der letzte Satz bringt es auf den Punkt ;)

iuno
2016-09-14, 15:19:45
Verstehe die Aussage im Bezug auf das Zitat nicht.
Davon ab ist Polaris auch in 14nm.

Schaffe89
2016-09-14, 16:33:45
Fragt sich, ob das eher Marketing-Gewäsch ist oder ob das Schlüsse auf die Einordnung (Enthusiast -> ganz klar eine fette GPU) wirklich zulässt.

Sämtliche Aussagen zur letzten GPU "Polaris" war alles Marketinggewäsch, angefangen mit dem Getrolle gegenüber Nvidia man sei deutlich früher am Markt, weiter mit very Low Power und less than 150 Watt, der VR to the masses Geschichte und der Umgang mit dem PCie Problem.

Also ziemlich sicher Marketinggewäsch. Problem ist hierbei wieder dass AMD wohl diesmal den erheblich größeren Chip benötigen wird um Nvidia in die Parade fahren zu können. Die sind ziemlich unter Druck.

Complicated
2016-09-14, 16:55:00
Wo liegt das Problem wenn AMD einen größeren Chip als Nvidia benötigt?

Raff
2016-09-14, 17:05:35
Wenn sie so einen haben: Kann uns Kunden egal sein, es schmälert nur Marge und Preisspielraum.

MfG,
Raff

dargo
2016-09-14, 17:24:26
Problem ist hierbei wieder dass AMD wohl diesmal den erheblich größeren Chip benötigen wird um Nvidia in die Parade fahren zu können. Die sind ziemlich unter Druck.
Welches Problem soll das sein wenn der kleine Vega etwas schneller als GP104 sein wird? Vor allem unter dem Aspekt falls 14nm tatsächlich etwas günstiger als 16nm ist?

N0Thing
2016-09-14, 17:29:58
Steht ja noch in den Sternen, ob der kleine Vega schneller als GP104 werden wird. Sollte HBM zum Einsatz kommen, steigen zudem die Produktionskosten durch die zusätzlichen Arbeitsschritte.

dargo
2016-09-14, 17:31:17
Er spricht aber explizit von der Die-Size. :wink:

iuno
2016-09-14, 17:32:16
Ist doch OK, wenn der Chip gross wird gibt es wenigstens ordentliche Kuehler, wie bei Fiji gesehen :P
Natuerlich sind die Kosten dann auch hoeher, aber von Nvidias Margen kann AMD eh nur traeumen :ugly:
Im Uebrigen hat AMD dafuer nicht die Kosten, zwei verschiedene Chips fuer HPC und Gaming auflegen zu muessen. Gerade wenn die Stueckzahl auch niedriger ist, koennte das schon auch wirtschaftlich Sinn machen. Aber was weiss ich wie hoch die Kosten jeweils genau sind :D

N0Thing
2016-09-14, 17:43:11
Er spricht aber explizit von der Die-Size. :wink:

Wenn HBM zum Einsatz kommt, sollte man das schon mitberücksichtigen, sonst hätte man nur Elektroschrott. Dabei jetzt kleinlich zu sein, bringt am Ende ja doch nichts.

Nakai
2016-09-14, 18:19:45
Es kommt auf die Packdichte von V10 an. Mit 24,5 MioTransen/mm² wie P10 es hat, landet man ungefähr bei 400mm² mit V10.
V10 wird etwas zwischen 9 und 10 Milliarden Transistoren haben. Womöglich kann man mit den HBM-PHYs die Packdichte etwas steigern und kommt bei 26 MioTransen/mm² raus. Dann wäre man eher bei ~365mm².

HBM2 macht auch das PCB deutlich kleiner und man kann kleinere Karten liefern. Das spart auch etwas Money, da das PCB deutlich weniger Footprint für Speicher, Routing und Stromversorgung hat. Performancemäßig muss V10 aber dann liefern. 100% auf P10 sollten möglich sein, wenn man gut skaliert.

Oromis16
2016-09-14, 19:20:19
Die Skalierung sollte durch HBM auch verbessert werden, afaik ist P10 ja nicht zu knapp durch die Speicherbandbreite limitiert.

Complicated
2016-09-15, 01:25:34
Natuerlich sind die Kosten dann auch hoeher, aber von Nvidias Margen kann AMD eh nur traeumen :ugly:
Das ist wohl eher nicht der Fall. Selbst ein größerer Chip würde AMD in 14nm weniger kosten als Nvidia in 16nm. Das WSA zwischen GF und AMD ist nun mal ein Vorteil bei den Kosten den Nvidia nicht hat.

N0Thing
2016-09-15, 01:44:52
Kennt denn jemand die Preise, die Nvidia bei TSMC und AMD bei GloFo bezahlen müssen? Mal ganz abgesehen davon, dass die Marge ja auch vom Verkaufspreis abhängt.

Complicated
2016-09-15, 02:16:21
Die kleinen GP107 und GP108 werden von Nvidia ebenfalls in 14nm bei Samsung gefertigt. Dies wäre nicht der Fall würde es sich aus Kostengründen nicht rentieren. Dazu hat AMD einen 5-Jahres Vertrag über Waferabnahmen mit GF, was nochmals zu Preisnachlässen führt. Also auch wenn man die absoluten Preis nun nicht kennt, so sind die Anzeichen auf große Kostenunterschiede ausreichend wenn man innerhalb der selben Generation die GPUs für die Masse lieber in 14nm anstatt in 16nm produziert.

iuno
2016-09-15, 02:52:51
Ersparnis ist zwar naheliegend, aber kann es nicht mit oder sogar genauso an der Kapazität liegen? Zu einem Zeitpunkt wo Apple wieder Millionen neue SoCs braucht, musste NV womöglich auch da Kompromisse eingehen.

Complicated
2016-09-15, 07:17:47
Mangelnde Kapazität bei TSMC würde ja den Kostenpunkt noch weiter hoch treiben. Mit dem Apple-Deal ist das natürlich ebenfalls ein Faktor.

HOT
2016-09-15, 08:15:57
Bei TSMC rollen jetzt auch noch 3 neue Konsolen-SoCs vom Band.

Elkinator
2016-09-15, 09:50:08
Wo? Also bei dem angekündigten Alienware kommt ebenfalls nur Baffin Pro zum Einsatz.
Apple wird zb. einige Millionen P11 abnehmen.


wenn es so kommt, wird es wohl bei einer gewissen lücke von der 480 zu vega geben.
Oder es kommt eine RX 485, also eine neue Revision von der P10 GPU.
Das Namensschema lässt dafür ja sicher bewusst Platz!

14HP würde sich dafür anbieten, die Yield könnte höher liegen weil FinFET auf SOI etwas einfach zu fertigen ist als auf Bulk.
Die Masken sidn auch um einige Millionen günstiger, weil man weniger braucht.

Schaffe89
2016-09-15, 12:28:57
Wo liegt das Problem wenn AMD einen größeren Chip als Nvidia benötigt?

AMD generiert weniger Margen, macht weniger Gewinn und verliert ihre Konkurrenzfähigkeit auf mittellange Sicht. Das erhöht die Wahrscheinlichkeit eines Monopols oder eines ausgereizten Oligopols und schadet den Kunden, man kann also AMD eigentlich nur das beste wünschen, doch Wunsch und Realität stehen weit auseinander, denn es ist sogut wie ausgeschlossen, dass AMD die GTX 1080 leistungsmäßig mit dem kleinen V10 überholen kann.

~78% mehr Shader als ein P10 und mit Sicherheit kein höherer Takt, benötigen eine fast perfekte Skalierung nach oben, das ist definitiv ausgeschlossen, man wird wohl den großen Vega benötigen um sich da etwas absetzen zu können.

Bei Computerbase liegt eine GTX 1080 81% in WHQD vor einer Stock rx480 und so große Abstände zwischen den einzelnen Chips kann AMD auf dem Reisbrett auch definitiv nicht geplant haben, ergo wird Vega 10 vielleicht 50% auf Polaris drauflegen, damit man 10 bis 15% über der Fury X herauskommt, damit kann man dann unter Directx12 eine GTX 1070 schlagen und an ner GTX 1080 kratzen, ob es im Schnitt reichen wird, ist fraglich.

Der große Vega dürfte dann nochmal 30% schneller sein, die Frage ist nur ob da nicht schon der Refresh der 1080 kommt, mit etwas mehr Takt (2ghz) und vielleicht schnellerem GDDR5x.

Sieht für mich danach aus, als müsste AMD mit einem ~600mm² Chip gegen einen Mittelklassechip von Nvidia mit 314m² antreten, zumindest mit dem salvage SKU. Und das soll kein Problem sein?:confused:

AMD steht im GPU Bereich aktuell seit der 2900xt wieder am allerschlechtesten da und wird massiv in den nächsten Monaten Marktanteile abgeben müssen. Meine Prognose ist etwa im dedizierten Grafikbereich bei deutlich unter 20%.

Das ist wohl eher nicht der Fall. Selbst ein größerer Chip würde AMD in 14nm weniger kosten als Nvidia in 16nm. Das WSA zwischen GF und AMD ist nun mal ein Vorteil bei den Kosten den Nvidia nicht hat.

Wissen wir nicht, viel wahrscheinlicher ist es dass bei TSMC die Kapazitäten irgendwann ein Ende haben und Nvidia aus diesen Gründen in 14nm bei Samsung fertigen lässt.
Und dann wird man denke ich sehen ob es von AMD ein guter Schachzug war diesen Prozess für all ihre GPU´s auszuwählen, denn es war eigentlich schon vorher klar, dass Globalfoundries nicht die Qualität liefern kann wie TSMC. Warum sich AMD erneut daran bindet und schon wieder 100 000 000 Strafzahlungen in Kauf nimmt, weiß nur Gott.
Entweder sie haben schlecht verhandelt oder die Araber haben da wiedermal die Finger im Spiel.

Oromis16
2016-09-15, 12:37:36
Wenn AMD sich bei GF keine Sonderpreise nach dem Verkauf/bzw. der Ausgliederung gesichert hätte, dann hätten sie die FAB ja auch gleich abreißen können anstatt ein derart langfristiges WSA zu unterzeichnen.

BTW, mal ein paar Größen:
GP104: 314mm
Polaris 10: 232mm
GP102: 478mm², 40% mehr Shader als GP104

232*1,81 = 420mm. Wenn man den Chip mit GDDR5 einfach so hochziehen würde, dann wäre er also in der Tat deutlich größer als GP104. Aber erstens spart man sich das entsprechende Interface und somit Platz, zweitens serviert HBM2 eine deutlich höhere Bandbreite und verbessert damit die Skalierung, und drittens ist Vega nicht die gleiche Architektur wie Polaris, sondern eine verbesserte.

[BTW, für GP102 kommt man laut Milchmädchenrechnung dann auf 588 Shader, wenn man den Takt bei der Größe - wie NV - absenken muss.

ilibilly
2016-09-15, 12:41:53
Naja mit " fury x done right" versteh ich mehr als nur 10-15% nach 1,5 oder gar 2 jahren.
Mitte 17 dürfte imho gp102 neue 70/80er karten generieren,da brauchts dann schon 40-50% auf fury x und der große richtung 80-90%
Ich sitz hier auf ner fury x und werde doch nicht zu vega switchen wegen 10-15%?
AMD redet von enthusiast dann sollen sie auch in die Vollen gehn.
Naja schaumer mal....

robbitop
2016-09-15, 12:49:57
Bei linearer Skalierung würde eine aus P10 extrapolierte GPU mit 414 mm² das Niveau von GP104 erreichen. Ggf. weniger, da nicht alles linear mitskaliert werden muss und da Polaris IIRC auch ein Stück weit an der Bandbreite hängt. Vega sollte dank HBM das Bandbreitenlimit herausnehmen.
Die Frage ist, ob Vega signifikante Verbesserungen der mArch hat.

Es scheint auch aktuell so zu sein, dass der Shadercompiler noch größere Reserven zur Auslastung der Ausführungseinheiten hat. Immerhin erreichte man in Doom über den direkten Zugriff eine deutliche Steigerung der Auslastung. Die Frage ist, wie viel von diesem Potenzial automatisierbar zu heben ist.

Ggf. sind dank 16FF+ nochmal 10-15 % höhere Taktraten möglich, was den Abstand weiter eindampft.

Schaffe89
2016-09-15, 13:05:54
232*1,81 = 420mm. Wenn man den Chip mit GDDR5 einfach so hochziehen würde, dann wäre er also in der Tat deutlich größer als GP104.

Was spart denn HBM ein? 40 mm² in dem Fall? Mehr können das nicht sein.
Das ganze macht den Chip erheblich teurer als GDDR5x, AMD´s Strategie hierbei auf HBM zu setzen, ist ganz klar falsch.

Wieso man nicht HBM nur für den Großen Vega eingesetzt hat, dort wo man es vermutlich eher benötigen wird, ist auch wieder so eine Frage.

eine deutlich höhere Bandbreite und verbessert damit die Skalierung,

Eine Bandbreite die damals bei Fijii schon völlig unnötig war und in der Praxis sowieso nicht das angegebene Maximum lieferte, sondern ~30% darunter lag.

Vega nicht die gleiche Architektur wie Polaris, sondern eine verbesserte.

Ist Polaris gegenüber Hawai auch, trotzdem riss man pro Shader nichts heraus, eher leistet man weniger. Mit 2304 Shader und lediglich~ 1000mhz wäre man einer 390 ca 20% unterlegen.
AMD macht nur noch inkrementielle Verbesserungen, für mehr fehlt doch schon lange das Geld imho.

Schaffe89
2016-09-15, 13:19:48
Ich sitz hier auf ner fury x und werde doch nicht zu vega switchen wegen 10-15%?

Aber zwischen Polaris 10 und Vega 10 ist doch gar kein weiterer Chip geplant, wie zur Hölle will man diese Lücke füllen wenn Vega 10 so schnell werden soll? Will man Nvidia diesen Performancebereich komplett überlassen? Das ist doch sehr unwahrscheinlich.
Man wird die Leistung irgendwie halbwegs vernünftig einteilen müssen und dann wird man sicher den Vega 10 einmal zwischen rx480 und GTX 1070 und den Vollausbau dann zwischen GTX 1070 und GTX 1080 platzieren.

Zero-11
2016-09-15, 13:20:31
[QUOTE=Schaffe89;11158342]
~78% mehr Shader als ein P10 und mit Sicherheit kein höherer Takt, benötigen eine fast perfekte Skalierung nach oben, das ist definitiv ausgeschlossen, man wird wohl den großen Vega benötigen um sich da etwas absetzen zu können.
/QUOTE]

Der Computerbase Test der GCN Iterationen hat doch gezeigt das es P10 an Bandbreite mangelt und Vega sollte das mit HBM easy aushebeln können.

Schaffe89
2016-09-15, 13:24:16
Ich bin nicht ganz überzeugt, dass da soviel Bandbreite fehlen soll, ich finde eher das ist im üblichen Rahmen für solche Karten, ähnlich zur GTX 1060/GTX 970 usw.
Hawai skalierte auch mit mehr Bandbreite nach oben, Fijii riss trotz deutlich mehr theoretischer Bandbreite nix heraus.

Oromis16
2016-09-15, 13:33:35
Zu deiner Kritik lässt sich mMn folgendes ganz gut sagen: Kleinvieh macht auch Mist

Weniger DIE-Verbrauch durch HBM, eine deutlich höhere Bandbreite (Zero-11 hat das ja gerade erwähnt) und eine neue Architektur mögen alle für sich gesehen kein großer Wurf sein, aber die Summe machts.

Ist imho auf jeden Fall realistischer als Polaris (fast) mit Vega gleichzusetzen.

Sunrise
2016-09-15, 13:33:37
Ist Polaris gegenüber Hawai auch, trotzdem riss man pro Shader nichts heraus, eher leistet man weniger.
Nein, man leistet nicht weniger (pro CU ist man schneller, aber P10 ist BW-limitiert), weil P10 und Hawaii einfach nichts miteinander zu tun haben, denn beide Chips sind für vollkommen andere Segmente gebaut worden. AMD hätte auch mit Polaris-Architektur einen Hawaii-Aufbau liefern können, nur war das nicht ihr Ziel.

Du stellst das immer so da, als hättest du schon vor 2-3 Jahren gewusst, dass GDDR5X auf den Markt kommt (die Zeit, als Vega entworfen wurde), wenn in Wirklichkeit so ziemlich jeder davon überrascht wurde.

Auch weißt du nicht, ob Micron aktuell nicht ausschließlich an NV liefert, weil sie nicht mehr Chips produzieren (können).

Insofern ist HBM für AMD der einzige richtige Weg gewesen, damit man sowohl HPC als auch Enthusiast-Desktop (High-End) bedienen kann, und das waren Designs ausgehend von vor ein paar Jahren. Denn den Luxus, wie NV zig Designs zu bauen hat AMD nicht.

NV hat zudem eine ganz andere Architektur, hat viel besseres DCC, was den Bandbreiten-Bedarf drastisch reduziert, du wirfst da viel zuviel in einen Topf. Nur weil NV sich für GDDR5X entschieden hat, muss das nicht gleichzeitig auch für AMD der richtige Weg sein, denn das hängt davon ab, wie AMD mit ihren Ressourcen und Möglichkeiten das Maximum herausholen kann.

Nakai
2016-09-15, 14:41:37
Man braucht HBM2 um HPC APUs bauen zu können.

Vega 10 hat neue CUs mit neuer ISA. Da kann sich einiges geändert haben. Vor allem wenn man Papers von AMD liest, bekommt man eine Vorstellung in welchen Richtung es gehen kann. Verschieden große SIMDs wären ziemlich brutal, auch reinher von der Energieeffizienz.

iuno
2016-09-15, 14:51:53
Was soll das, Schaffe? :confused:
Hast du ueberhaupt annaehernd Interesse an den Chips von AMD geschweige denn potentielles Kaufinteresse?
Falls ja, lies dich ein und verbreite nicht immer noch denselben Unsinn.
Ansonsten lass es einfach und bleib ganz weg.
Und an die anderen: geht doch nicht immer auf das offensichtliche Getrolle ein :rolleyes:
Es ist so ermuedend, wenn es immer zig neue Posts gibt ohne jeglichen Inhalt. Das hat weder mit handfesten Infos zu kommenden Produkten noch mit Spekulation zu tun.

dargo
2016-09-15, 14:59:57
~78% mehr Shader als ein P10 und mit Sicherheit kein höherer Takt, benötigen eine fast perfekte Skalierung nach oben, das ist definitiv ausgeschlossen, man wird wohl den großen Vega benötigen um sich da etwas absetzen zu können.

So langsam könntest du dir auf die Stirn schreiben wenn du es nicht behalten kannst. Vega ist kein aufgeblasener P10!


Ist Polaris gegenüber Hawai auch, trotzdem riss man pro Shader nichts heraus, eher leistet man weniger. Mit 2304 Shader und lediglich~ 1000mhz wäre man einer 390 ca 20% unterlegen.
AMD macht nur noch inkrementielle Verbesserungen, für mehr fehlt doch schon lange das Geld imho.
Was reisst denn die GTX1060 gegenüber der GTX970/980 großartig raus? :rolleyes:

Aber zwischen Polaris 10 und Vega 10 ist doch gar kein weiterer Chip geplant, wie zur Hölle will man diese Lücke füllen wenn Vega 10 so schnell werden soll?
Von einem Chip gibt es immer auch einen Salvage.

reaperrr
2016-09-15, 15:35:51
Was spart denn HBM ein? 40 mm² in dem Fall? Mehr können das nicht sein.
Das ganze macht den Chip erheblich teurer als GDDR5x, AMD´s Strategie hierbei auf HBM zu setzen, ist ganz klar falsch.
Man bräuchte mindestens ein 384-bit SI, um mit G5X auf ähnliche Bandbreite wie zwei HBM2-Stacks zu kommen.
Da liegen die Einsparungen schon höher, zumal sich - wenn man GP100 als Anhaltspunkt nimmt - ein HBM-SI im Gegensatz zu einem GDDR-SI offenbar noch mit dem Prozess shrinken lässt.

Außerdem ziehen GDDR-SIs viel mehr Saft, AMD konnte Fiji trotz 160mm² mehr Fläche und gleichem Takt auf etwa 30W weniger Verbrauch trimmen als Hawaii.


Eine Bandbreite die damals bei Fijii schon völlig unnötig war und in der Praxis sowieso nicht das angegebene Maximum lieferte, sondern ~30% darunter lag.

Wenn sie unnötig gewesen wäre, hätte Fiji nicht so gut mit Erhöhung des HBM-Takt skaliert.

Ist Polaris gegenüber Hawai auch, trotzdem riss man pro Shader nichts heraus, eher leistet man weniger. Mit 2304 Shader und lediglich~ 1000mhz wäre man einer 390 ca 20% unterlegen.
Das liegt in erster Linie an der viel niedrigeren Bandbreite und in zweiter Linie an nur halb so vielen ROPs, die in manchen Spielen durchaus noch für die Performance relevant sind.
P10 ist - hauptsächlich wohl aus Kosten- und Layout-Gründen - einfach nicht so ausbalanciert wie Hawaii und mehr als "Tonga-Shrink on steroids" zu sehen, nicht als Hawaii-Nachfolger.

Die 460 rennt selbst in der 2GB-Ausführung Kreise um die 360 (immer mindestens 40%, teilweise bis zu 55% schneller) trotz nur 32% mehr Shader-/TMU-Roh-Leistung, 13,2% mehr ROP-Durchsatz (durch Takt) und 16,67% mehr nomineller Bandbreite.
Und man sollte an dieser Stelle erwähnen, dass die grobe Faustregel bei GCN bisher immer war, dass die Performance nur zu 75-80% mit höherem Chiptakt und 65-70% mit zusätzlichen CUs skaliert, also z.B. 10% mehr CUs nur 6-7% mehr Performance bedeuten.

Gibt leider noch keine Vergleiche zwischen 260X-2GB und 460-2GB auf gleichem Takt, bin mir aber sicher, dass da im Durchschnitt deutlich über 10% Vorteil für die 460 rauskämen.

dargo
2016-09-15, 15:46:32
Ich bin nicht ganz überzeugt, dass da soviel Bandbreite fehlen soll, ich finde eher das ist im üblichen Rahmen für solche Karten, ähnlich zur GTX 1060/GTX 970 usw.
Hawai skalierte auch mit mehr Bandbreite nach oben, Fijii riss trotz deutlich mehr theoretischer Bandbreite nix heraus.
Deutlich mehr Bandbreite? Fiji hat gerade mal 33% mehr Bandbreite als Grenada bei 45% mehr Aluleistung.

N0Thing
2016-09-15, 16:20:44
Die kleinen GP107 und GP108 werden von Nvidia ebenfalls in 14nm bei Samsung gefertigt. Dies wäre nicht der Fall würde es sich aus Kostengründen nicht rentieren. Dazu hat AMD einen 5-Jahres Vertrag über Waferabnahmen mit GF, was nochmals zu Preisnachlässen führt. Also auch wenn man die absoluten Preis nun nicht kennt, so sind die Anzeichen auf große Kostenunterschiede ausreichend wenn man innerhalb der selben Generation die GPUs für die Masse lieber in 14nm anstatt in 16nm produziert.

Die Preise sind ja nicht fix, sondern werden von Foundry und Auftraggeber ausgehandelt und da spielen auch Dinge wie die Menge eine Rolle. Es ist nicht unrealistisch anzunehmen, dass Nvidia auch im low cost Bereich deutlich mehr Chips verkaufen kann als AMD und deshalb auch pro Chip am Ende deutliche Rabatte bekommt.
Langer Text, kurzer Sinn: Ohne exakte Daten aus den Verträgen weiß niemand wer wie viel pro Chip bezahlen muss und wer mehr oder weniger bezahlt.



Ist Polaris gegenüber Hawai auch, trotzdem riss man pro Shader nichts heraus, eher leistet man weniger. Mit 2304 Shader und lediglich~ 1000mhz wäre man einer 390 ca 20% unterlegen.
AMD macht nur noch inkrementielle Verbesserungen, für mehr fehlt doch schon lange das Geld imho.

Die Tests von Computerbase (oder war es eine andere Seite?) haben ein Performanceplus pro CU bei gleichem Takt ergeben. Und zwar bei jeder getesteten GCN-Version gegenüber der vorherigen Generation.

Complicated
2016-09-15, 16:34:43
AMD zahlt weniger bei GF als Nvidia bei Samsung - das halte ich für sehr sicher aufgrund der Historie von AMD und GF, wo AMD sich von 2009 bis 2024 verpflichtet hat Wafer abzunehmen. Das ist ein Mengenrabatt den Nvidia nicht hin bekommt mit Lowend-GPUs, die zwar hohe Stückzahlen haben, aber deswegen nicht automatisch mehr Wafer als die großen Chips benötigen (deshalb sind die billig und man verdient trotzdem etwas ;) ). AMD kauft die selben Wafer für CPUs, APUs und GPUs ein. Das WSA gibt es ja nicht aus Jux und Dollerei.

Palpatin
2016-09-15, 16:38:11
Aber zwischen Polaris 10 und Vega 10 ist doch gar kein weiterer Chip geplant, wie zur Hölle will man diese Lücke füllen wenn Vega 10 so schnell werden soll? Will man Nvidia diesen Performancebereich komplett überlassen? Das ist doch sehr unwahrscheinlich.
Man wird die Leistung irgendwie halbwegs vernünftig einteilen müssen und dann wird man sicher den Vega 10 einmal zwischen rx480 und GTX 1070 und den Vollausbau dann zwischen GTX 1070 und GTX 1080 platzieren.
Polaris 10 Salvage ~ GTX 1060 3GB
Polaris 10 ~ GTX 1060 8GB
Vega 10 Salvage ~ GTX 1070
Vega 10 Full ~ GTX 1080
Vega 11 Salvage ~ GTX 1080ti
Vega 11 Full ~ Titan X
Alles andere wäre 2017 einfach nicht Zeit gemäß und würde auch den Einsatz von HBM nicht rechtfertigen.
Da hätte man dann auch einfach 2016 noch einen mit GDDR5x und 50% mehr Shader und CUs aufgebohrten Polaris bringen können.

N0Thing
2016-09-15, 16:58:10
Das WSA gibt es ja nicht aus Jux und Dollerei.

Ich bin bisher davon ausgegangen, dass es das Abkommen gibt, weil es eine Bedingung dafür war, dass die Investoren GlobalFoundries von AMD abkaufen. :freak:

reaperrr
2016-09-15, 17:34:09
Ich bin bisher davon ausgegangen, dass es das Abkommen gibt, weil es eine Bedingung dafür war, dass die Investoren GlobalFoundries von AMD abkaufen. :freak:
Richtig.

Die bei GloFo wissen aber auch, wenn AMD als Kunde verloren geht weil sie aufgrund zu hoher Wafer-Preise Pleite gegangen sind, ist GloFo's eigene Existenz ebenfalls in Gefahr.
Deshalb wäre es logisch, wenn GloFo lieber niedrigere Preise pro Wafer in Kauf nimmt und AMD dafür entsprechend mehr Wafer abnehmen und trotz mäßiger Produkte akzeptable Margen erzielen kann.
Das dürfte auch der Hauptgrund dafür sein, dass die Konditionen - allein schon in Hinblick auf Strafzahlungen für nicht abgenommene Wafer - sich in den letzten Jahren doch merklich zugunsten von AMD entwickelt zu haben scheinen.

Oromis16
2016-09-15, 17:58:36
Man muss auch im Hinterkopf behalten, dass der GloFo-Besitzer Mubdala auch AMDs größter Anteilhaber ist (15,9%, 2. Platz hat 7,2%)
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-ownershipsummary

HOT
2016-09-15, 18:33:37
Durch den neuen Fertigungs-Vertrag mit GloFo erhöht Mubdala dem Anteil an AMD suksessive auf 19,99 %.

Complicated
2016-09-15, 18:51:59
Nicht suksessive. Sie müssten die Optionen auf einmal ziehen und damit zunächst mal suksessive Anteile verkaufen, damit sie dann bis 2020 die Option ziehen dürfen um 19,99% anteil nciht zu überschreiten. Dies wird bald geschehen, da es einige Zeit dauert und die Anteile Stück für Stück bei etwas über dem Optionspreis von 5.98 $ verkauft werden um den eigenen Anteilsbestand nicht vom Wert her zu ruinieren. Ebenso möglich ist es, dass die Optionen gar nicht gezogen werden und einfach verfallen gelassen werden. Man wird sehen ob AMD 2020 die Finanzspritze braucht oder nicht. Die Strategie würde sehr wahrscheinlich werden, wenn nun kein Verkäufe durch Mubadala zu beobachten wären in den nächsten Monaten.

Bei dem Verhältnis zwischen den beiden könnte es auch zu einem ganz absonderlichen Zustand kommen, dass die AMD Aktie bei 4$ steht und Mubadala trotzdem die Optionen für 5.98 $ einlöst um AMD Geld zukommen zu lassen. Vielleicht ist es sogar von Anfang an so angedacht als Rettungsschirm wegen dem Risiko das sie eingehen mit der gemeinsamen Entwicklung auf dem 7nm Prozess mit GF und dem fokusieren darauf.

Hübie
2016-09-16, 00:31:04
Ich machs mal kurz und schmerzlos: Wer AMDs Geschäftsberichte durchgeht und die Eigenkapitalquote ansieht kann sich ja mal fragen, wer da wieviel Entscheidungsgewalt bzgl. Fab-Auswahl und Produktportfolio hat.
Das die Marge stabil ist bezweifel ich. Es gibt immerhin Unterschiede zwischen den Arten des Accounting.
Unabhängig davon ist AMD momentan auf einem aufstrebendem Ast. Das gefällt mir.
(Neue) Prognosen zu Vega kann man aktuell nur schwer treffen, da eigentlich schon alles mal gesagt wurde und seit dem nix neues mehr kam.
Es wäre wünschenswert die K12-Diskussion zu verlagern, da diese ja offenbar immer wieder reingrätscht.

Gipsel
2016-09-16, 01:44:43
Die K12-Diskussion kann gerne im passenden Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11158960#post11158960) weitergeführt werden.

Armaq
2016-09-16, 11:35:10
Nicht suksessive. Sie müssten die Optionen auf einmal ziehen und damit zunächst mal suksessive Anteile verkaufen, damit sie dann bis 2020 die Option ziehen dürfen um 19,99% anteil nciht zu überschreiten. Dies wird bald geschehen, da es einige Zeit dauert und die Anteile Stück für Stück bei etwas über dem Optionspreis von 5.98 $ verkauft werden um den eigenen Anteilsbestand nicht vom Wert her zu ruinieren. Ebenso möglich ist es, dass die Optionen gar nicht gezogen werden und einfach verfallen gelassen werden. Man wird sehen ob AMD 2020 die Finanzspritze braucht oder nicht. Die Strategie würde sehr wahrscheinlich werden, wenn nun kein Verkäufe durch Mubadala zu beobachten wären in den nächsten Monaten.

Bei dem Verhältnis zwischen den beiden könnte es auch zu einem ganz absonderlichen Zustand kommen, dass die AMD Aktie bei 4$ steht und Mubadala trotzdem die Optionen für 5.98 $ einlöst um AMD Geld zukommen zu lassen. Vielleicht ist es sogar von Anfang an so angedacht als Rettungsschirm wegen dem Risiko das sie eingehen mit der gemeinsamen Entwicklung auf dem 7nm Prozess mit GF und dem fokusieren darauf.
Warum bekommt AMD Geld, wenn jmd. Anteile am Unternehmen kauft? Gehandelte Aktien bringen dem Unternehmen kein Cash.

Elkinator
2016-09-16, 11:43:51
Natürlich bringen gehandelte Aktien dem Unternehmen Geld, wenn es NEUE Aktienanteile sind.

Oromis16
2016-09-16, 12:01:53
Jup, das Geld bekommt der Verkäufer - und das ist in dem Fall AMD selbst.
Die sollten ja auch kürzlich einen hohen neunstelligen Betrag durch den Druck und Verkauf neuer Aktien erhalten haben - deswegen ist der Kurs die letzten Tage auch so stark eingebrochen.

Geht in dem Fall in den Schuldenabbau der dadurch ganz gewaltig vorangetrieben wird - und um zurück zum Thema zu kommen: (Deutlich) niedrigere Schulden = Höhere Kreditwürdigkeit und damit mehr finanzieller Spielraum für zukünftige Architekturen.

Elkinator
2016-09-16, 12:46:43
Das Rating von AMD hat sich eh schon leicht verbessert, von Caa2 auf Caa1.

cypeak
2016-09-17, 11:01:25
Polaris 10 Salvage ~ GTX 1060 3GB
Polaris 10 ~ GTX 1060 8GB
Vega 10 Salvage ~ GTX 1070
Vega 10 Full ~ GTX 1080
Vega 11 Salvage ~ GTX 1080ti
Vega 11 Full ~ Titan X
Alles andere wäre 2017 einfach nicht Zeit gemäß und würde auch den Einsatz von HBM nicht rechtfertigen.
Da hätte man dann auch einfach 2016 noch einen mit GDDR5x und 50% mehr Shader und CUs aufgebohrten Polaris bringen können.

auch an @Schaffe89:

das ist aktuell auch gegenstand meiner spekulationen - vor allem der "vega 10 salvage".
ich gehe davon aus dass der vega 10 mit hbm die preislatte (unabhängig von der genauen leistung) recht hoch hieven wird.
aber am interessantesten ist für mich der performance und preisbereich zw. der rx480 und der gtx1080 - also aktuell ein gegenpart zur gtx1070.
und genau da kann ich mir kaum einen preislichen konkurenten von amd vorstellen der mit hbm daherkommt - es sei den amd zaubert eine vega10 salvage ddr5/ddr5x variante aus dem hut...

für mich persönlich hängt daran auch die monitor entscheidung in richtung g-sync oder freesync...insofern ist der einzige grund für die warterei die frage nach dem vega10.
aber ehrlichgesagt befürchte ich dass mein jetziger monitor kein halbes jahr mehr überleben wird oder anders: amd ist mit vega arg spät dran!

Botcruscher
2016-09-17, 11:10:53
Wir kennen den Preis für den Interposer und die zwei Speicherstapel nur nicht.

Elkinator
2016-09-17, 11:33:14
V10 wird wohl über der GTX 1070 ansetzen.

P10 wird eine neue Revision bekommen, also eine RX 475/485 in 14LPP+.

Civtam
2016-09-17, 12:48:29
V10 wird wohl über der GTX 1070 ansetzen.

Das denke ich auch, zumikdest in 4k! Fiji Salvage hat ne UHD 3Dcenter Index von 91, Fiji full 100.
V10 hat ja dieselben Shader. Sollte AMD den Salvage nicht deutlicher beschneiden, wird der voraussichtlich bei 115-120% liegen (mehr Takt, verbesserte Architektur). Der Full dann dementsprechend bei ~135%. Unter FHD mag der Chip dann evtl eine schlechter Performance zeigen als die Nvideapendants.
Die Energieaufnahme sollte mit HBM nicht ganz so hoch ausfallen, sonst ist ja auch zuwenig Platz für den großen Vega.
Bin ges

dargo
2016-09-17, 12:48:38
Wir kennen den Preis für den Interposer und die zwei Speicherstapel nur nicht.
Ich vergesse auch immer wieder diesen wichtigen Punkt. Fiji hat ja einen 4x Speichercontroller, V10 nur einen 2x. Das sollte die Kosten schon senken. Und natürlich wird V10 deutlich kleiner als Fiji. So gesehen ist vielleicht doch der Salvage V10 für 350-400€ im halben Jahr drin.

Elkinator
2016-09-17, 12:58:29
Der PHY ist bei HBM so klein, der fällt bei der GPU nicht ins Gewicht.

Vega 11 könnte auch 6144bit bekommen, Radeon bekommt dann 4 Stacks udn Radeon Pro bis zu 6 Stacks.

iuno
2016-09-17, 13:13:28
P10 wird eine neue Revision bekommen, also eine RX 475/485 in 14LPP+.
Was ist ueber 14lpp+ bekannt?

Der PHY ist bei HBM so klein, der fällt bei der GPU nicht ins Gewicht.
Ein 1024b HBM PHY von Fiji ist etwas groesser als 64b GDDR5 PHY derselben Generation:

http://cdn.wccftech.com/wp-content/uploads/2015/11/AMD-Fiji-Tonga-Die-shots.jpg

Warum sollte man das also bei einem Chip in der Klasse nicht bemerken? Du wirst sicher auch nicht sagen, dass man GP104 mit 384 Bit ausstatten koennte, ohne dass es ins Gewicht faellt.

Vega 11 könnte auch 6144bit bekommen, Radeon bekommt dann 4 Stacks udn Radeon Pro bis zu 6 Stacks.
Sofern man das auf einem Interposer unterbringt. Nicht vergessen, dass die stacks auch deutlich groesser geworden sind. 92 statt 40 mm². 6 Stacks kommen auf 552mm² + ein Chip mit >500mm²? :uponder:

Botcruscher
2016-09-17, 14:46:48
Was ist ueber 14lpp+ bekannt?


Aus den Werbeunterlagen von Samsung irgendwo 15% mehr Leistung bei und/oder 15% weniger Verbrauch. Insgesamt also nichts bedeutendes. Deswegen wüsste ich auch nicht was eine neue Revision des P10 bringen sollte. Da wäre insgesamt schon ein neuer Chip fällig.
Vega 11 könnte auch 6144bit bekommen, Radeon bekommt dann 4 Stacks udn Radeon Pro bis zu 6 Stacks.
Mit 4 ist nun wirklich genug Bandbreite da.

cypeak
2016-09-17, 14:55:27
Aus den Werbeunterlagen von Samsung irgendwo 15% mehr Leistung bei und/oder 15% weniger Verbrauch. Insgesamt also nichts bedeutendes. Deswegen wüsste ich auch nicht was eine neue Revision des P10 bringen sollte. Da wäre insgesamt schon ein neuer Chip fällig.


naja...schon 10% mehr leistung bei 10% weniger verbrauch sind alles andere als "nichts bedeutendes"..:wink:

Elkinator
2016-09-17, 15:01:09
Eine neue Revision ist doch ein neuer Chip...

14HP könnte man dafür auch nutzen, wobei es mit 14LPP+ sicher günstiger für AMD wird.

Unicous
2016-09-17, 15:15:45
@iuno

Über 14LPP+ ist nichts bekannt... außer dass er bei GF in Entwicklung ist... bzw. es gibt entsprechende Einträge von GF-Mitarbeitern bei Linkedin.

Ich hoffe mal, dass sie an der Leakage arbeiten, denn es wird ja gemunkelt, dass man da im Vergleich zu TSMC nicht sehr gut dasteht.

reaperrr
2016-09-17, 15:16:57
Ein 1024b HBM PHY von Fiji ist etwas groesser als 64b GDDR5 PHY derselben Generation:

Aber ein 1024b HBM2 PHY von GP100 ist deutlich kleiner als das von Fiji, HBM-PHYs lassen sich also offenbar im Gegensatz zu GDDR-PHYs aktuell noch vernünftig shrinken.

Ich halte alles über 4096b zwar auch für Overkill in 14LPP/16FF+, weil ich bezweifle, dass AMD bei 1:2 DP mehr als 50% ALUs ggü. Fiji draufpacken kann und deshalb die doppelte Bandbreite gegenüber Fiji locker reichen sollte.

Aber ein hypothetisches 6144b HBM-SI wäre in 14LPP kleiner als ein 384b GDDR5-SI, also flächenmäßig absolut machbar. Da wären dann eher der Interposer und die HBM2-Chips das Problem.

Elkinator
2016-09-17, 15:34:16
ES geht dabei doch nicht um den Datendurchsatz, es geht um sie Speichermenge!

Mit 4 Stacks sind 32GB möglich, wenn mal die 8GB Stacks verfügbar sind.
Mit 6 Stacks sind es 48GB.

Der_Korken
2016-09-17, 16:03:16
Gibt es konkrete Hinweise auf einen "P10b" oder ist das nur Spekulatius?

Elkinator
2016-09-17, 16:15:10
Es gibt das neue Namensschema (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-400-Namensschema-erklaert-1200212/), dort ist für jede Karte Platz für eine neue Revision.

Radeon = Kein Premium VR
Radeon RX = Premium VR
4XX = GCN4
X4X = 64bit PHY
X5X = 128bit PHY
X6X = 128bit PHY
X7X = 256bit PHY
X8X = 256bit PHY
X9X = >256bit PHX (Also kommt wohl keine RX 490!)
XX0 = 1. Revision
XX5 = 2. Revision

Die RX 490, die mal in einer Liste aufgetaucht ist war offensichtlich ein Fehler.
Daraus wurde eine R9 490, wird wohl eine reine OEM-Karte!

reaperrr
2016-09-17, 16:50:34
Gibt es konkrete Hinweise auf einen "P10b" oder ist das nur Spekulatius?
Die RX480 ist mit Chip-Revision C7 rausgekommen, die RX470 Nitro+, die ich kurzzeitig hatte, hatte Revision CF und war werkseitig auf nur 1056 mV für 1260 MHz eingestellt.

AMD scheint also nach der Launch-Revision bereits mindestens eine Überarbeitung vorgenommen zu haben. Kann gut sein, dass es noch mindestens eine weitere gibt/geben wird.

HOT
2016-09-17, 16:51:57
@iuno

Über 14LPP+ ist nichts bekannt... außer dass er bei GF in Entwicklung ist... bzw. es gibt entsprechende Einträge von GF-Mitarbeitern bei Linkedin.

Ich hoffe mal, dass sie an der Leakage arbeiten, denn es wird ja gemunkelt, dass man da im Vergleich zu TSMC nicht sehr gut dasteht.
Das soll analog zu Samsung 14LPC eher die Produktionskosten verbilligen, das wird wohl kaum dabei helfen, P10 effizienter zu machen. Eher im Gegenteil.



Über mir, der hat nicht Rev.C7, das ist ein Auslesefehler. Der hat A0 afaik. Und dass theoretisch eine 485 möglich ist heißt noch lange nicht, dass da eine kommt.

StefanV
2016-09-17, 17:54:18
Die RX480 ist mit Chip-Revision C7 rausgekommen,
Nein, das ist 'nen Teil von der PCI ID vom Chip...

Unicous
2016-09-17, 19:00:35
Das soll analog zu Samsung 14LPC eher die Produktionskosten verbilligen, das wird wohl kaum dabei helfen, P10 effizienter zu machen. Eher im Gegenteil.


Quelle? :rolleyes:

Oder ist das wieder einer deiner "So wird es bestimmt sein, also schreibe ich es einfach hin"-Sätze?


Edit: Iirc hat AMD Polaris 10 mit A1 gelaunched nicht mit A0.

Rabiata
2016-09-17, 19:41:01
Es gibt das neue Namensschema (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-400-Namensschema-erklaert-1200212/), dort ist für jede Karte Platz für eine neue Revision.

Radeon = Kein Premium VR
Radeon RX = Premium VR
4XX = GCN4
X4X = 64bit PHY
X5X = 128bit PHY
X6X = 128bit PHY
X7X = 256bit PHY
X8X = 256bit PHY
X9X = >256bit PHX (Also kommt wohl keine RX 490!)
XX0 = 1. Revision
XX5 = 2. Revision

Die RX 490, die mal in einer Liste aufgetaucht ist war offensichtlich ein Fehler.
Daraus wurde eine R9 490, wird wohl eine reine OEM-Karte!
Streng nach dem Schema könnte Vega eine RX 490 sein, weil deutlich >256bit Speicherinterface und Ultra HD (2160p) wird Vega hoffentlich auch können :wink:.

Dagegen spricht allerdings, daß das Namensschema so keinen Platz zur Differenzierung diverser Vega-Versionen ließe. Von daher wird wohl eher ein neuer Name kommen, vielleicht Fury2 oder so...

Edit:
Habe gerade bei PC Games Hardware (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Promo-Seite-R9-490-1206664/) den Artikel endeckt, nach dem erneut eine Radeon R9 490 gelistet wurde. Der Artikel verweist auch ausdrücklich auf die Listung einer RX 490 Ende Juni als Fehler, so daß es sich offenbar nicht um dieselbe Listung handelt. Das ist wohl der Fehler auf den sich Elkinator bezieht.

Achim_Anders
2016-09-17, 19:48:48
Ich nehme eher an das das Namensschema geändert wird und auf die neue Werbekampagne "Rebellion" angelehnt sein wird.

Elkinator
2016-09-17, 19:59:39
Was soll da geändert werden und wie will man ein Namensschema auf die Rebellion anlehnen?

Achim_Anders
2016-09-17, 20:18:45
Naja: Vega 10 wird einen Eigennamen bekommen und Vega 11 dann auch. Namen die zur Werbekampagne passen gibt es massig. Ist aber auch einfach nur ins blaue geraten ;)

Anders ausgedrückt: Ich glaube irgendwie nicht, dass Vega 10 RX 490 oder ähnlich benannt werden wird.

AlphaNUSS
2016-09-17, 20:24:39
Warum nicht wie bisher Vega 10 als 490 und Vega 11 als Fury2?

Elkinator
2016-09-17, 20:36:25
Ich glaube irgendwie nicht, dass Vega 10 RX 490 oder ähnlich benannt werden wird.
RX 490 eh nicht, weil Vega nicht GCN4 ist.


Warum nicht wie bisher Vega 10 als 490
490 geht mit GCN5 nicht...

Raff
2016-09-17, 20:39:18
Naja: Vega 10 wird einen Eigennamen bekommen und Vega 11 dann auch. Namen die zur Werbekampagne passen gibt es massig. Ist aber auch einfach nur ins blaue geraten ;)

Anders ausgedrückt: Ich glaube irgendwie nicht, dass Vega 10 RX 490 oder ähnlich benannt werden wird.

AMD Riot und Riot X? :uup:

MfG,
Raff

victore99
2016-09-17, 20:53:55
Die Herstellungskosten von dem ganzen HBM-Krams scheinen ja nicht sooo immens zu sein. Gibt ja Fiji Cut ab 300, Fiji Full ab 400...

Elkinator
2016-09-17, 21:01:11
Das ist ein abverkauf, Gewinn macht man da keinen mehr.

Eine Karte mit HBM ist einfach teuer, AMD kann Vega nicht so billig verschleudern.

Grenzgänger
2016-09-18, 08:35:36
AMD Riot und Riot X? :uup:

MfG,
Raff

Wenn, dann doch bitte AMD Quiet Riot (https://www.youtube.com/watch?v=ZxgMGk9JPVA) :biggrin:

In diesem Sinne ein fröhliches Hallo und Guten Morgen in die Runde

Leonidas
2016-09-19, 05:29:04
Guten Morgen & Willkommen.


Ein Vega-10-Salvage wäre als RX 490 durchaus denkbar.

Gut möglich aber auch, das AMD nächstes Jahr einfach die RX 500 Serie heraushaut. Eigentlich soll es pro Jahr eine neue Serie geben - egal ob man dafür Chips hat oder nicht. Bisher hatte man auch immer mindestens einen neuen Spitzenchip dabei. Dies wäre mit Vega 10/11 erfüllt.

Ergo nächstes Jahr Rebrandings von Polaris 10/11 als Radeon RX 500?

tm0975
2016-09-19, 08:35:54
Ergo nächstes Jahr Rebrandings von Polaris 10/11 als Radeon RX 500?

das halte ich für sehr wahrscheinlich. dann p11 full als 550, 470 als 560, 480 als 570 und den kleinen vega abgespeckt als 480 und den kompletten chip als 490. der große vega kommt dann als fury 2 oder so.

victore99
2016-09-19, 09:23:49
das halte ich für sehr wahrscheinlich. dann p11 full als 550, 470 als 560, 480 als 570 und den kleinen vega abgespeckt als 480 und den kompletten chip als 490. der große vega kommt dann als fury 2 oder so.

Das ist an sich recht wahrscheinlich. Nur die Nomenklatur nicht..

Elkinator
2016-09-19, 09:32:44
Ein Vega-10-Salvage wäre als RX 490 durchaus denkbar.
Vega ≠ GCN4!

Dino-Fossil
2016-09-19, 09:40:28
Bezüglich des Namensschemas sollte man bedenken, dass AMD das durchaus gerne mal über Bord wirft (z.B. wenn dem Marketing gerade mal wieder langweilig ist?).

Allerdings bezweifle ich, dass sie das abseits von OEM-Produkten schon für die 4XX Serie machen.

HOT
2016-09-19, 09:44:22
Guten Morgen & Willkommen.


Ein Vega-10-Salvage wäre als RX 490 durchaus denkbar.

Gut möglich aber auch, das AMD nächstes Jahr einfach die RX 500 Serie heraushaut. Eigentlich soll es pro Jahr eine neue Serie geben - egal ob man dafür Chips hat oder nicht. Bisher hatte man auch immer mindestens einen neuen Spitzenchip dabei. Dies wäre mit Vega 10/11 erfüllt.

Ergo nächstes Jahr Rebrandings von Polaris 10/11 als Radeon RX 500?
Jetzt, da die Mainsteamserie klar mit einem eigenen Namensschema definiert ist, wird da Vega sicher nicht eingeordnet. Ne RX490 gibts halt nicht, weil es keinen entsprechenden Chip mit 384Bit gibt. Ich denke, eher wird bei Navi das Namensschema wieder über bord geworfen, wenn es nicht mehr passt.