Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
Der grosse Vega sollte definitiv mit mind. 4 Stacks kommen, also auch mind. 16 GiB mit 4Hi Stacks, wenn das Teil irgendwie gegen GP100 und KNL antreten soll. Eigentlich braeuchte es sogar 32 GiB sobald 8Hi Stacks verfuegbar sind um endlich Hawaii abloesen zu koennen. Das ist auch mit der wichtigste Grund, warum ich an die Theorie V10=klein (64CUs, 2 Stacks), V11=gross(mehr CUs, 4 Stacks) glaube.
Elkinator
2016-06-04, 14:24:35
Ohne die Angaben mal zu bezweifeln (wo kommen die her?)
SemiAccurate, aber leider nicht ohne Abo zu lesen.
Should you use GDDR5 instead of HBM2? (http://semiaccurate.com/2016/03/23/38372/)
Das ist immer dieser Klang als wenn async compute nur wichtig ist wenn der Chip hätte besser sein können (womit häufig gemeint zu sein scheint, dass Nvidia dies ja nicht braucht...).
Das ist NVIDIA-Fanboy Dummgeschwätz, die versuchen sich fehlendes AC schon zu reden!
SemiAccurate, aber leider nicht ohne Abo zu lesen.
Should you use GDDR5 instead of HBM2? (http://semiaccurate.com/2016/03/23/38372/)
While SemiAccurate does not have hard numbers on this front, we do have one interesting data point
Und Charlie erwartet ernsthaft, dass jemand fuer sowas blecht? :ulol:
MadPenguin
2016-06-04, 14:37:07
Interessante Ansichtspunkte von einem Finanzanalysten
http://iknowfirst.com/amd-stock-outlook-brilliant-move-for-amd-to-sell-the-radeon-rx-480-for-just-199
Menace
2016-06-04, 14:49:44
/ot: Ist AC nicht vor allem auch eine Möglichkeit, schwächere CPUs besser auszulasten oder verwechsle ich das jetzt einfach mit mantle und DX12? :confused:
Elkinator
2016-06-04, 14:50:51
Er beschwert sich ja nicht über Dich, sondern SA.
Dann soll er denen eine Mail schicken, wenn ihn das so stört.
Die Zahlen werden nicht so extrem falsch sein, ob HBM doch nicht ganz so viel teurer ist spielt doch keien Rolle, durch das teurere Packaging ist eine Karte mit GDDR5 nochimmer viel günstiger.
MadPenguin
2016-06-04, 14:52:46
Da VR mit Rx480 für alle erschwinglich wird, würde ich überaus gerne eine virtuelle Nvidia vs. AMD Fanboy Schlacht erleben, wo ihr euch gegenseitig (virtuell) die Köpfe einschlagt :D
Kann die RX480 eigentlich kaum erwarten. Ich spiele auf meinem 46 Zoll FullHD Fernseher und die Leistung zu dem Preis (hoffentlich durch unabhängige Tests bestätigt) sucht ihresgleichen mMn.
illidan
2016-06-04, 14:56:35
/ot: Ist AC nicht vor allem auch eine Möglichkeit, schwächere CPUs besser auszulasten oder verwechsle ich das jetzt einfach mit mantle und DX12? :confused:
Da verwechselst du gerade ganz gewaltig Async Compute mit geringerem CPU-Overhead.
-/\-CruNcher-/\-
2016-06-04, 15:42:38
SemiAccurate, aber leider nicht ohne Abo zu lesen.
Should you use GDDR5 instead of HBM2? (http://semiaccurate.com/2016/03/23/38372/)
Das ist NVIDIA-Fanboy Dummgeschwätz, die versuchen sich fehlendes AC schon zu reden!
Sie können auch nicht anders als AMD auf Superscalar und GCN umgestellt hat hatten sie Fusion schon voll in ihrem Auge, und haben das gemacht was Nvidia verpasst hat bzw was zu ihrer Zeit noch keine große Rolle spielte, ;)
Nvidia flickt an ihrer Architektur rum und die einzige Antwort die sie haben ist höheren Takt momentan, der Grundsatz wird wiederum auch immer schön in den Kopf ihrer Zielgruppe gehämert, weil daraus ja ausschlieslich die Performance entsteht ;)
AMD flickt aber nicht an ihrer Architektur rum sondern Arbeitet konsequent seit Fusion auf ein bestimmtes Ziel hin,daraus entstand Mantle daraus entstanden die Konsolen daraus entstand HBM.
mboeller
2016-06-04, 16:03:12
mal eine schüchterne Zwischenfrage in dem ganze Fanboy-Getöse:
hat jemand was vom Polaris 11 gehört?
Eigentlich wurden doch zur Computex jede Menge Notebooks mit Polaris11 GPUs erwartet nachdem die GPU schon im Dezember vorgestellt wurde. Was ist daraus geworden?
Elkinator
2016-06-04, 16:10:24
hat jemand was vom Polaris 11 gehört?
Wird zuerst wahrschienlich in den OEM Markt wandern, Apple braucht zb. einiges davon.
Eigentlich wurden doch zur Computex jede Menge Notebooks mit Polaris11 GPUs erwartet nachdem die GPU schon im Dezember vorgestellt wurde.
P11 wurde im Dezember vorgestellt?
Ravenhearth
2016-06-04, 16:25:05
Er meint wohl die Demonstration von Polaris11 mit Battlefront.
/ot: Ist AC nicht vor allem auch eine Möglichkeit, schwächere CPUs besser auszulasten oder verwechsle ich das jetzt einfach mit mantle und DX12? :confused:
Da verwechselst du gerade ganz gewaltig Async Compute mit geringerem CPU-Overhead.
In der Theorie koennen durch AC brachliegende Ressourcen genutzt werden und so beispielsweise mehr/aufwendigere Compute Shader genutzt werden, also auch mehr Aufgaben von der CPU in die GPU wandern.
Nur macht das heute noch keiner so. Das hinzubekommen stelle ich mir aber sehr kritisch vor, weil es so viele unterschiedliche Konfigurationen aus CPUs und GPUs gibt. Solange die Situation so ist, dass nur die Produkte eines GPU Herstellers quasi teilweise noch massiv Luft nach oben haben und die anderen eben nicht, sehe ich auch nicht dass sich da viel tut.
Menace
2016-06-04, 16:52:55
Da verwechselst du gerade ganz gewaltig Async Compute mit geringerem CPU-Overhead.
Das meinte ich, der durch AC auch mit vermindert wird.
In der Theorie koennen durch AC brachliegende Ressourcen genutzt werden und so beispielsweise mehr/aufwendigere Compute Shader genutzt werden, also auch mehr Aufgaben von der CPU in die GPU wandern.
Nur macht das heute noch keiner so. Das hinzubekommen stelle ich mir aber sehr kritisch vor, weil es so viele unterschiedliche Konfigurationen aus CPUs und GPUs gibt. Solange die Situation so ist, dass nur die Produkte eines GPU Herstellers quasi teilweise noch massiv Luft nach oben haben und die anderen eben nicht, sehe ich auch nicht dass sich da viel tut.
Ich danke Dir, für Deine Erklärung. :smile:
Overhead wird durch AC nicht vermindert, das stimmt schon. Die Last an sich koennte theoretisch aber verringert werden.
Rabiata
2016-06-04, 17:12:01
Na ja, man sollte da zwischen einem potentiellen Wunsch von MS und der Realität unterscheiden. Warum sollten die Publisher auf Windows Store only schwenken? Den Publishern ist das OS ziemlich wurscht, sie wollen nur mit wenig Aufwand möglichst viele potentielle Kunden erreichen können.
Ich sehe auch in Zukunft nicht, dass sich die Visionen vom geldgeilen Gabe bewahrheiten. Selbst wenn es massenweise UWPs gibt - der Entwickler kann sie auch OHNE Store veröffentlichen.
Ich denke, es wird darauf ankommen was für Angebote Microsoft den Publishern macht, und wie sehr diese befürchten erpreßbar zu werden.
Valve versucht ja schon mit Steam OS gegenzusteuern. Ich bin ein wenig skeptisch eine eigene Distribution die richtige Strategie ist, aber immerhin versuchen sie der Windows-Vormacht etwas entgegenzusetzen.
Sunrise
2016-06-04, 17:59:32
Dafür ist bei HBM das Packaging sehr teuer und HBM(1) kostet pro GB das vierfache von GDDR5.
Quelle dazu?
Die eigentliche Anstrengung ist ja den Client und Spiele überhaupt auf Linux laufen zu lassen. Die Distribution ist nur Beiwerk die das Aufsetzen vereinfacht. Das ist imho schon die richtige Strategie die sie fahren nur könnte noch etwas mehr Druck dahinter kommen. Sofern man aber nicht wenigstens die Treibersituation bei steamos anspricht ist das aber OT hier ;)
mboeller
2016-06-04, 18:29:52
Wird zuerst wahrschienlich in den OEM Markt wandern, Apple braucht zb. einiges davon.
P11 wurde im Dezember vorgestellt?
Wie Ravenhearth schon schrieb war die Demo gemeint.
Apple scheint als Kunde ja unwahrscheinlich zu sein. Und die anderen OEMs stellen häufig auf der Computex ihre neuen Notebooks etc. vor.
Apple:
http://www.computerbase.de/2016-06/apple-neue-hardware-zur-wwdc-unwahrscheinlich/
Anscheinend kommen keine neuen Notebooks und andere neue Hardware.
Deshalb habe ich eben mal nachgefragt... wo (zum Teufel) bleiben die Polaris11 GPUs? Sowohl Desktop als auch Notebook-Modelle sind IMHO momentan missing in action ;)
Elkinator
2016-06-04, 18:36:30
Apple scheint als Kunde ja unwahrscheinlich zu sein
Warum?
Davon steht bei Computerbase ziemlich genau NIX!
mboeller
2016-06-04, 18:38:25
Warum?
Davon steht bei Computerbase ziemlich genau NIX!
Ohne neue Notebook-Modelle gibt es logischerweise auch keine neuen NotebookGPUs oder?
Elkinator
2016-06-04, 18:51:08
Warum sollte Apple auf der WWDC Hardware zeigen?
Die Veranstaltung ist für Softwareentwickler!
Du glaubst also, die Geräte würden über Nacht schnell zusammengebaut?
Weil anders kann ich mir dein Posting jetzt echt nicht erklären:\
Apple wird MONATE bevor neue Geräte kommen beliefert, deswegen bekommen sie auch jetzt schon P11...
TheGood
2016-06-04, 20:52:51
Dass noch keiner wirklich neben der "better performance" auf die "better efficiency" der zwei RX 480 eigegangen ist. Würde ja bedeuten, dass sie zumindest in dem Fall nicht mehr als 180 Watt zusammen verbraucht haben.
</= 90 Watt pro Karte erscheint mir schon arg wenig. Würde aber auf der anderen Seite zu der geringen Auslastung passen.
ICH WILL INFOOOOOOOOOOOOOOOOOOOOOS :freak::freak::freak:
Weil das ARgument nur zählt wenn es um Nvidia geht, das ist ja das schizophrene :) Aber vielelicht ändert es sich ja mit der RX 480. Andererseits sieht die Effizienz nicht dramatsich besser aus wie bei Nvidia. Ich vermute insgesamt dass sie immer noch hinter Nvidia liegen werden, aber irgendwas zwischen 10 und 20 Watt. Und darauf kann man echt furzen...
Dino-Fossil
2016-06-04, 23:36:52
Obwohl man ja auch sagen muss, dass AMD dazu auch nicht viel gesagt hat.
Wird ein langer Monat. :D
Linmoum
2016-06-04, 23:43:26
Obwohl man ja auch sagen muss, dass AMD dazu auch nicht viel gesagt hat.
Wird ein langer Monat. :D
Warum Monat? Bis zur E3 und der PC Gaming Show sind's nicht mal mehr 10 Tage. :tongue:
OBrian
2016-06-05, 00:24:16
Dafür ist bei HBM das Packaging sehr teuer und HBM(1) kostet pro GB das vierfache von GDDR5.ich wäre vorsichtig, das miteinander zu vergleichen. Wer das kleinreden möchte oder wer die Kosten besonders groß darstellen will, kann das so oder so hinbiegen, je nachdem, was man wie mitrechnet.
GDDR kommt ins Package, fertig ist das Produkt. Das Verlöten usw. muß jemand anders finanzieren, das kommt in der Rechnung nicht vor. HBM dagegen kommt gar nicht in ein Package, sondern wird nackt ausgeliefert, dann bei wem anders auf den Interposer gebaut, wo auch die Logik draufkommt, und dann der Interposer gepackaged.
Also kann man entweder sagen "HBM-Package-Kosten sind Null" oder man rechnet komplett alles drauf an, was z.B. ein Fiji ohne den GPU-Die kostet. Aber beides wäre eben falsch gerechnet. Auch eine anteilige Rechnung hilft wohl nicht so wirklich weiter. Man muß die Gesamtrechnung betrachten, z.B. ist ja auch das PCB billiger und die Kühlung einfacher und das ganze Produkt attraktiver, sprich läßt sich teurer verkaufen als wenn es 50W extra für GDDR5 verbrät.
Da wir aber keinen Einblick in das alles haben, ist es eigentlich nur irreführend, solche Teilaspekte mit einem schwammigen "ist viermal so teuer" rauszugreifen, ohne absolute Zahlen zu haben. Wenn es satte 4 Cent kostet statt 1, dann ist das bei einer 500-€-Karte wohl gerade noch vernachlässigbar, aber wenn es 40 € sind statt 10, wird es natürlich schon langsam ein Kostenfaktor.
Da stelle ich mich lieber ehrlich hin und sage "ich habe absolut keine Ahnung", ähnliche Zurückhaltung würde ich mir von einigen anderen auch wünschen, die keinen Einblick in die Bücher von AMD haben.
-/\-CruNcher-/\-
2016-06-05, 00:39:18
Weil das ARgument nur zählt wenn es um Nvidia geht, das ist ja das schizophrene :) Aber vielelicht ändert es sich ja mit der RX 480. Andererseits sieht die Effizienz nicht dramatsich besser aus wie bei Nvidia. Ich vermute insgesamt dass sie immer noch hinter Nvidia liegen werden, aber irgendwas zwischen 10 und 20 Watt. Und darauf kann man echt furzen...
Dafür must du kein Aufwendiges Optix Raytracing für Audio auf den Shadern durchführen für VR und Compute läuft wirklich synchron, das sind schon Entlasstungen es kommt aber auf die Balance an ;)
Bei Nvidia frist dir das Optix Raytracing und der TimeWarp beides die CUDA Compute Resourcen und das in einem haarigen preemption model.
Alles hat immer seine vor und Nachteile ;)
Dino-Fossil
2016-06-05, 00:44:44
Warum Monat? Bis zur E3 und der PC Gaming Show sind's nicht mal mehr 10 Tage. :tongue:
Weil unabhängige Tests nicht vor Ende Juni, Anfang Juli zu erwarten sind.
Wieviel brauchbare Infos E3 und Gaming Show liefern kann ich nicht abschätzen, aber vielleicht haben wir ja Glück.
Langlay
2016-06-05, 00:52:02
Weil unabhängige Tests nicht vor Ende Juni, Anfang Juli zu erwarten sind.
Wieviel brauchbare Infos E3 und Gaming Show liefern kann ich nicht abschätzen, aber vielleicht haben wir ja Glück.
Anfang Juli ?
Die Karte soll ab 29.06 im Laden stehen. Die Tests sollten spätestens dann verfügbar sein.
Elkinator
2016-06-05, 01:29:41
Im Artikel ist eine Aufschlüsselung enthalten, aber ich kann hier den Artikel wohl schlecht reinkopieren.
mboeller
2016-06-05, 08:55:56
Warum sollte Apple auf der WWDC Hardware zeigen?
Die Veranstaltung ist für Softwareentwickler!
Du glaubst also, die Geräte würden über Nacht schnell zusammengebaut?
Weil anders kann ich mir dein Posting jetzt echt nicht erklären:\
Apple wird MONATE bevor neue Geräte kommen beliefert, deswegen bekommen sie auch jetzt schon P11...
IMHO die nächste Chance auf P11 GPUs von Apple haben wir damit wieder Ende Sept/Anfang Okt. Zumindest sollte dann der nächste Event von Apple sein. IMHO ziemlich spät. Hängt ja vielleicht damit zusammen:
http://www.heise.de/newsticker/meldung/Intel-Geruechte-Neue-Roadmap-neue-Workstation-Technik-3225495.html
Kaby-Lake scheint sich ja zu verspäten weil, soweit ich weiß bisher nur ASUS das Transformer3 mit Kaby-Lake vorgestellt hat.
Elkinator
2016-06-05, 09:09:49
IMHO die nächste Chance auf P11 GPUs von Apple haben wir damit wieder Ende Sept/Anfang Okt.
Um das zu schaffen muß Apple schon lange funktionsfähige P11 GPUs beziehen.
fondness
2016-06-05, 10:14:13
Ich bin ja wirklich auf Details gespannt, aktuell bin ich aber eher enttäuscht. Die RX480 scheint die 390X nicht zu erreichen, wenn man nach den Ashes Werten geht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11056324&postcount=1821
Wenn sich die Werte bestätigen, wäre das maximal 390 nonX Leistung.
TDP von 150W ist gleichauf mit der deutlich schnelleren GTX1070. Das einzig positive ist der niedrigere Preis, aber der ist wohl eher eine Folge der mangelden Konkurrenzfähigkeit. Hoffentlich liefert Vega wirklich die +40% Perf/Watt, sonst wird das voraussichtlich auch bei den großen Chips nicht reichen um Nvidia ernsthaft zu gefährden.
M4xw0lf
2016-06-05, 10:22:47
Ich bin ja wirklich auf Details gespannt, aktuell bin ich aber eher enttäuscht. Die RX480 scheint die 390X nicht zu erreichen, wenn man nach den Ashes Werten geht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11056324&postcount=1821
TDP von 150W ist gleichauf mit der deutlich schnelleren GTX1070. Das einzig positive ist der niedrigere Preis, aber der ist wohl eher eine Folge der mangelden Konkurrenzfähigkeit. Hoffentlich liefert Vega wirklich die +40% Perf/Watt, sonst wird das voraussichtlich auch bei den großen Chips nicht reichen um Nvidia ernsthaft zu gefährden.
Denke auch, dass es knapp wird mit der 390X. Bei der Leistungsaufnahme ist allerdings noch nichts geklärt, die 150W können auch die spezifzierte Boardpower aus 75W PCIe und 75W 6-Pin Stecker sein. Falls die tatsächliche Leistungsaufnahme beim Spielen so ausfällt, wärs allerdings wieder unsexy.
fondness
2016-06-05, 10:24:50
Denke auch, dass es knapp wird mit der 390X. Bei der Leistungsaufnahme ist allerdings noch nichts geklärt, die 150W können auch die spezifzierte Boardpower aus 75W PCIe und 75W 6-Pin Stecker sein. Falls die tatsächliche Leistungsaufnahme beim Spielen so ausfällt, wärs allerdings wieder unsexy.
Trotzdem, es wurde eine höhere Auslastung, als Leistung pro SP versprochen. Mit 2304 SPs @ 1266Mhz hat das Ding fast genau so viel Rechenleistung wie eine 390X. Da hätte ich mindestens dieselbe Leistung erwartet.
Kann es mir höchstens so erklären, dass die RX480 ähnlich wie eine Nano ihre maximalen Takt nie erreicht. Die Bandbreite sollte auch nicht das große Problem sein, eine 290X hat zB nicht viel mehr und da fehlt eine Delta Color Compression noch völlig.
StefanV
2016-06-05, 10:26:39
Erst mal abwarten und Tee rauchen.
Wir wissen ja noch nicht, ob das der volle oder der Salvage Part war.
Wir wissen auch noch nicht, wie das mit der Taktfrequenz ausschaut...
Eigentlich wissen wir gar nix...
Trotzdem, es wurde eine höhere Auslastung, als Leistung pro SP versprochen.
Wenn du darauf schaust, ist AotS ja gerade das Spiel das sich am schlechtesten für einen Vergleich eignet. Es kann ja immer noch sein, dass in dem spielen, die nicht so regen Gebrauch von AC machen (also allen aktuell erhältlichen) die Leistung in Relation zu Hawaii besser wird als dort.
Einfach mal abwarten, womöglich stapeln sie bewusst tief oder aber es soll halt nicht sein. Dann Frage ich mich aber wie das gehen soll. Hawaii ohne computing Kompromisse und dann "billig" geshrinkt sollte ja theoretisch schon die Effizienz verdoppeln :ugly:
Es ist auch weiterhin unklar, wie viel sonst an Bord ist (rops, tmus) und inwieweit die Einheiten verbessert wurden. Wenn man da ggue. Hawaii nicht irgendwo deutlich abgebaut hat, wird die Karte gut. Dass die Shader limitieren, wie offenbar in AotS, ist ja absolut selten der Fall.
AffenJack
2016-06-05, 11:23:35
Trotzdem, es wurde eine höhere Auslastung, als Leistung pro SP versprochen. Mit 2304 SPs @ 1266Mhz hat das Ding fast genau so viel Rechenleistung wie eine 390X. Da hätte ich mindestens dieselbe Leistung erwartet.
Kann es mir höchstens so erklären, dass die RX480 ähnlich wie eine Nano ihre maximalen Takt nie erreicht. Die Bandbreite sollte auch nicht das große Problem sein, eine 290X hat zB nicht viel mehr und da fehlt eine Delta Color Compression noch völlig.
Ich glaube nicht, dass die RX480 ihren takt nicht halten kann. Ich denke da wird es weniger Probleme geben und die 150W kannst mit der 1070 ja nicht vergleichen, da die wirklich dran klebt. Da aber nur 1x 6pin vorhanden ist, wird es wohl eher ~120W sein.
Auch weiß man zu wenig zu den Spezifikationen, was wenn das Ding nur 32 ROPs hat zb? Das könnte ich mir bei einem günstigen 256Bit Design vorstellen.
Zur höheren Auslastung die du erwähnst, AOTS benutzt nunmal Async, das mag Hawaii schon verdammt gut auslasten, dass es da nicht viel Luft nach oben gibt. Aber vielleicht wird man gerade in DX11 spielen ohne Async nun eine bessere Auslastung haben können. Man weiß da noch viel zu wenig.
stinki
2016-06-05, 11:32:10
Könnte es vielleicht sein, dass Die RX480 sich ähnlich verhält wie die Nano.
Also der maximale Takt ist 1266MHz aber die TBP der Karte ist so niedrig festgelegt, dass sie real in Spielen eher Richtung 1100MHz taktet. Das würde zu den >5T Flops auf der Folie passen.
Wie niedrig die TBP von AMD angesetzt wird ist dann halt die Frage. Und um wieviel man die Board-Power anheben kann um dann maximal auf die 150Watt zu kommen die das Board zulässt (75W PCI-E + 75W Stecker).
Edit: sehe gerade fondness hatte schon den gleichen Gedanken...
Edit2: Vielleicht ist die TBP ja nur 100Watt und man kann 50% Overdrive oben drauf geben... :-)
Edit3: Vielleicht kann man 25% Power dazu geben, dann käme man halt auf die oftmals angesprochenen 120W TBP...
stinki
2016-06-05, 11:37:26
Ich könnte mir auch vorstellen, dass die Karte nur 32 ROPs hat.
64 ROPs an einem 256Bit Interface gehen zwar auch, siehe Nvidia, aber ich halte 32 momentan für wahrscheinlicher. Aber klar 64 könnten es natürlich auch werden.
Edit: Wobei Pitcairn schon 32ROPs hatte, dann bekommt Polaris 10 mit ziemlicher Sicherheit 64...
Mancko
2016-06-05, 11:53:59
Ich bin ja wirklich auf Details gespannt, aktuell bin ich aber eher enttäuscht. Die RX480 scheint die 390X nicht zu erreichen, wenn man nach den Ashes Werten geht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11056324&postcount=1821
Wenn sich die Werte bestätigen, wäre das maximal 390 nonX Leistung.
TDP von 150W ist gleichauf mit der deutlich schnelleren GTX1070. Das einzig positive ist der niedrigere Preis, aber der ist wohl eher eine Folge der mangelden Konkurrenzfähigkeit. Hoffentlich liefert Vega wirklich die +40% Perf/Watt, sonst wird das voraussichtlich auch bei den großen Chips nicht reichen um Nvidia ernsthaft zu gefährden.
Nanu da bin ich ja mal positiv überrascht von Dir. Mich stimmen an sich genau zwei Punkte nachdenklich:
1) angegebene TDP zur Leistung
2) Niedriger Preis
Aktuell schätze ich die Wahrscheinlichkeit dass der niedrige Preis ein Zwang ist höher ein als das dies bewusst von Anfang an der Plan war. Ich mag zwar Kyle nicht besonders und HardOCP ist jetzt nicht gerade die Seite die ich oft aufsuche, aber hier könnte er Recht haben. Besonders überzeugend ist das im Augenblick nicht. Bleibt noch die Restwahrscheinlichkeit, dass AMD bewusst tief gestapelt hat. Das werden wir dann am 29. Juni erfahren.
stinki
2016-06-05, 12:05:56
Angenommen RX480 kommt auf den gleichen 4K Index wie 390X mit 80% bei einer TBP von 120Watt dann haben wir 80/120=0,6667.
1080 hat einen 4K Index von 132% bei einer TBP von ca. 180W, das macht 132/180=0,7333.
Dann hätte AMD den Effizienz-Abstand schon ganz gut verkürzt, aber Nvidia wäre immer noch vorne.
Und meine obige Rechnung ist meiner Ansicht nach best-case Annahme für RX480 momentan...
StefanV
2016-06-05, 12:14:10
Da aber nur 1x 6pin vorhanden ist, wird es wohl eher ~120W sein.
Ja, das denke ich auch, dass man sich hier an den alten X19x0ern orientieren kann, die auch nur einen 6pin Anschluss hatten und bei um die 120W lagen, maximal.
Auch hat Igor doch letztens mal geschätzt, dass AMD nicht die PEG Spezifikation ausnutzt sondern nur die normale PCIe Spezifikation, ergo nur 25W über den Slot ziehen...
dargo
2016-06-05, 12:17:56
Ich bin ja wirklich auf Details gespannt, aktuell bin ich aber eher enttäuscht. Die RX480 scheint die 390X nicht zu erreichen, wenn man nach den Ashes Werten geht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11056324&postcount=1821
Wenn sich die Werte bestätigen, wäre das maximal 390 nonX Leistung.
Was ich mich bei der ganzen Sache frage... muss AotS nicht erst auf die neue GPU per Patch angepasst werden? Ich kenne das so von low level @Mantle. Tonga fiel da auch in den sogenannten Fallback-Modus bei Mantle in BF4 damals als der rauskam und war langsamer als DX11. Um das Maximum aus der neuen GPU rauszuholen müsste eigentlich der Entwickler paar Anpassungen bringen. Gleiches gilt dann natürlich auch für GP104 in AotS. Ich kann mir wirklich nicht vorstellen, dass die RX480 bei 150W (realer Verbrauch noch offen) nur eine R9 390 non X erreichen soll. Meine HiS R9 390 verbraucht knapp über 200W, und das in 28nm. Liegt zwar dann ohne Undervolting bei ca. 950Mhz avg, das macht den Braten aber auch nicht fett. Wo wäre da der Fortschritt mit 14nm + Architekturverbesserungen? Meine R9 390 hat zwar 11% mehr SPs, dafür aber nur 75% Takt ausgehend von den 1266Mhz.
PS: womit werden die Leaks vom RX480 eigentlich gebencht? Mit dem Crimson 16.5.3? Der ist auch erstmal unwichtig. Interessant wirds erst mit der Build 16.30... wenn ich die Andeutungen von d2kx richtig interpretiere.
Dino-Fossil
2016-06-05, 12:18:53
Trotzdem, es wurde eine höhere Auslastung, als Leistung pro SP versprochen. Mit 2304 SPs @ 1266Mhz hat das Ding fast genau so viel Rechenleistung wie eine 390X. Da hätte ich mindestens dieselbe Leistung erwartet.
Momentan haben wir einen einzigen "offiziellen" Benchmark-Wert, über dessen Aussage-Kraft man sich streiten kann (Zwei Karten statt einer, Treiberfragen, ein Datenpunkt ist generell zu wenig um einen Trend zu erkennen).
Wenn man versucht, die Aussagen bzgl. Polaris von AMD mit den veröffentlichten Daten in Einklang zu bringen, hakt es immer irgendwo:
150W wären bestenfalls das Resultat eines Die-Shrinks alleine (von AMD mit 1,7x beziffert, während AMD von 2,8x Effizienz durch weitere Verbesserungen spricht)
36CU bei ähnlichen oder leicht höheren Taktraten wären inklusive beworbener Verbesserungen leistungsmäßig in der Tat besser zu erwarten als der gezeigte Wert
Da gibt es dann wohl die folgenden Auflösungen:
1. AMDs Präsentation enthält zu wenige (zudem unklare) Informationen, die zusammen mit der Erwartungshaltung Probleme machen. Im Mittel über viele Spiele wird die Karte sich von der Leistung zw 390 und 390X einfinden, teils auch mal schneller. Spieleverbrauch bleibt deutlich unter der max. TDP von 150W. Evtl. benötigen die Treiber auch noch ein wenig Arbeit, so dass aktuelle Werte noch mit Vorsicht zu genießen sind.
2. Kyle Bennet hatte recht, der neue Chip ist ein Rohrkrepierer. AMD hat's verbockt und alle Anstrengungen gingen nach hinten los. Jetzt muss der Preis es richten. AMDs sonstige Aussagen wären reines Marketing und treffen nur in nicht oder wenig relevanten Fällen so ein (z.B. wenig Auslastung dank FTC, einige wenige Funktionen verbessert, der Rest gleich oder schlechter).
3. AMD stapelt bewusst tief um nVidia's 1060 nicht zu viel Angriffsfläche zu bieten, bis P10 im Regal steht. Der Chip überflügelt locker die 390X und nähert sich teils Fury an.
Persönlich tendiere ich zu Auflösung 1.
Auflösung 2 halte ich für unwahrscheinlich, da zum einen der Artikel von KB einige Denkfehler enthielt und zum anderen so ein Totalversagen frühzeitig hätte auffallen müssen. In dem Fall wäre sogar ein reiner Die-Shrink besser gewesen, als GCN4.
Auflösung 3 wiederum enthält mMn zu viel Wunschdenken. Wäre zwar toll, aber man sollte auf dem Boden bleiben.
Ich hoffe, dass es mit Versand der Karten an die Tester in den nächsten Wochen ein paar Leaks gibt, die vielleicht Klarheit bringen.
Ansonsten müssen wir uns halt noch bis Ende Juli gedulden.
Tamagothi
2016-06-05, 12:25:39
TDP von 150W ist gleichauf mit der deutlich schnelleren GTX1070.
Ich verstehe nicht warum jetzt jeder denkt das die RX480 150 Watt verbraucht?
Wenn man den vergleich mit der GTX 1080 und Ashes nimmt kommt man auf 100-110 Watt verbraucht und das hätte ich auch geschätzt.
P11 soll ja <60 Watt haben dann kann ein Chip der die doppelten SP's hat nicht das 3-fache verbrauchen.
dildo4u
2016-06-05, 12:26:29
Ich sehe nicht wie ein Sprung von 1.3 auf 1.4 große IPC Verbesserungen verspricht,bis jetzt gibt es kaum Unterschiede zwischen den GCN Generationen.
Ich denke eher das es wie bei Pascal ist minimale Veränderungen um dem umsteigt auf 16 bzw 14nm nicht unnötig zu verkomplizieren. Nicht vergessen sie müssen vielleicht wieder ewig warten bis der nästen Node für große GPU's reif ist,sie müssen also aus 14nm ein paar Generationen rausholen.
dargo
2016-06-05, 12:29:21
Könnte es vielleicht sein, dass Die RX480 sich ähnlich verhält wie die Nano.
Also der maximale Takt ist 1266MHz aber die TBP der Karte ist so niedrig festgelegt, dass sie real in Spielen eher Richtung 1100MHz taktet.
Das ergibt für mich keinen Sinn.
AMD gibt die TFLOPs immer passend zum Maximaltakt an. Ist schon bei Hawaii so gewesen, bei Fiji auch. Selbst die Nano ist mit 8,2TFLOPs angegeben obwohl es "up to" 1000Mhz heißt und diese praktisch nie (außer in hohen CPUs Limits vielleicht) gehalten werden.
fondness
2016-06-05, 12:33:30
AMD hat die TFLOps aber nur mit >5 angebenen.
http://s33.postimg.org/otaschlfj/AMD_Radeon_RX480_Spezifikationen.jpg (http://postimage.org/)
dildo4u
2016-06-05, 12:39:10
AMD wäre dumm wenn sie kein Trotteln einbauen,wenn jede GPU unter jeder Last 1.266 schaffen muss,können vermutlich massig Chip's keine 480 werden.Beim Preis von 199 müssen sie aber massig taugliche Chips liefern.
dargo
2016-06-05, 12:40:04
AMD hat die TFLOps aber nur mit >5 angebenen.
http://s33.postimg.org/otaschlfj/AMD_Radeon_RX480_Spezifikationen.jpg (http://postimage.org/)
Ja... das finde ich merkwürdig. Als ob der finale Takt noch nicht feststehen würde. Dann ergeben aber diese geleakten 1266Mhz keinen Sinn. Oder es war Fake.
Dino-Fossil
2016-06-05, 12:42:04
Ich sehe nicht wie ein Sprung von 1.3 auf 1.4 große IPC Verbesserungen verspricht,bis jetzt gibt es kaum Unterschiede zwischen den GCN Generationen.
AMD hat aber auf ihren Folien von Teils deutlichen Änderungen mit GCN4 gesprochen, von daher könnte man da durchaus größere Verbesserungen erwarten.
Wie sie dann in der Realität ausfallen bleibt natürlich abzuwarten.
[MK2]Mythos
2016-06-05, 12:55:54
Was die TDP angeht:
Vergesst nicht dass wir hier von 8 GB GDDR5 reden, der prozentual einfach viel mehr Watt verbrät als bei allen anderen bisherigen Grafikkarten. Da wird der TDP Bereich, den die GPU einsparen kann, halt immer kleiner.
dargo
2016-06-05, 13:03:57
Mythos;11057291']Was die TDP angeht:
Vergesst nicht dass wir hier von 8 GB GDDR5 reden, der prozentual einfach viel mehr Watt verbrät als bei allen anderen bisherigen Grafikkarten. Da wird der TDP Bereich, den die GPU einsparen kann, halt immer kleiner.
Da wird sich kaum was tun, die Anzahl der Chips bleibt gleich nur die Kapazität ändert sich.
Achill
2016-06-05, 13:07:10
Ich bin ja wirklich auf Details gespannt, aktuell bin ich aber eher enttäuscht. Die RX480 scheint die 390X nicht zu erreichen, wenn man nach den Ashes Werten geht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11056324&postcount=1821
Wenn sich die Werte bestätigen, wäre das maximal 390 nonX Leistung.
TDP von 150W ist gleichauf mit der deutlich schnelleren GTX1070. Das einzig positive ist der niedrigere Preis, aber der ist wohl eher eine Folge der mangelden Konkurrenzfähigkeit. Hoffentlich liefert Vega wirklich die +40% Perf/Watt, sonst wird das voraussichtlich auch bei den großen Chips nicht reichen um Nvidia ernsthaft zu gefährden.
Man sollte bedenken, dass AotS ein Best-Case für CGN 1.1 & 1.2 Karten ist. Ich stimme Dargo zu, dass man erst einmal auf den Release mit dann auch abgestimmten Treibern warten sollte.
Der Hawaii und auch Fiji sind gute Architekturen, im Vergleich zur letzten NV Generation gab es aber die Schwächen bei:
- Verbrauch
- Tessellation
- FP16 Rendertarget
- Pixelfüllrate
- (und wahrscheinlich noch anderes wo ich mich aber nicht gut auskenne)
Wenn dass angegangen ist, dann kann die 470/480 Reihe ein guter (und nötiger) Ersatz für die Hawaii GPUs werden. Ich denke das ist da Ziel von Polaris, bei einen sehr attraktiven Preispunkt und sehr genügsamen Verbrauch (wichtig bei OEMs).
GPUs wie Fury, 980TI, TX, 1070/80 machen evtl. 10% des GPU-Marktes aus (Bauch-Wert) - die Masse (der Menschheit) kauf günstiger. Ich denke der Schmelzbereich ist bei vielen 250$ ... (Most Americans can't handle a $500 surprise bill (http://www.cbsnews.com/news/most-americans-cant-handle-a-500-surprise-bill/))
Momentan haben wir einen einzigen "offiziellen" Benchmark-Wert, über dessen Aussage-Kraft man sich streiten kann (Zwei Karten statt einer, Treiberfragen, ein Datenpunkt ist generell zu wenig um einen Trend zu erkennen).
Wenn man versucht, die Aussagen bzgl. Polaris von AMD mit den veröffentlichten Daten in Einklang zu bringen, hakt es immer irgendwo:
150W wären bestenfalls das Resultat eines Die-Shrinks alleine (von AMD mit 1,7x beziffert, während AMD von 2,8x Effizienz durch weitere Verbesserungen spricht)
36CU bei ähnlichen oder leicht höheren Taktraten wären inklusive beworbener Verbesserungen leistungsmäßig in der Tat besser zu erwarten als der gezeigte Wert
Da gibt es dann wohl die folgenden Auflösungen:
[..]
Ich könnte mir auch vorstellen (hoffen), dass bestimmte Schwächen behoben wurden die besonders in NV-Lastigen Spielen/Benchs die FFPs gedrückt haben.
Als ob der finale Takt noch nicht feststehen würde.
Das sieht so aus. AMD hat sich wohl noch einen Monat Zeit gegeben um die finalen Taktfrequenzen festzulegen. Eventuell analysiert man erst einmal die Reaktionen auf die Präsentation, oder wartet auf die Reaktion Nvidias.
Bei Tahiti hat man auch damals auch sehr konservativ getaktet(925Mhz & 800Mhz), wo Kepler dann durch den Boost davongezogen ist.
Schnoesel
2016-06-05, 14:08:34
AMD selbst spricht von less than 150W. Zumindest tut das Raja Koduri in Interviews. Ich könnte mir z.B. vorstellen, dass man einfach den Boardpartner freien Lauf gibt und die dann mit OC Versionen auf die 150 kommen.
Ja... das finde ich merkwürdig. Als ob der finale Takt noch nicht feststehen würde. Dann ergeben aber diese geleakten 1266Mhz keinen Sinn. Oder es war Fake.
Es muss nicht immer gleich alles ein Fake sein. Dieser "Leak" hat doch ueberhaupt keine Aussagekraft dafuer, wie die finalen Taktraten ausfallen, lediglich dass eine GPU vor Ort mit eben diesem Takt lief.
Es ist aber voellig offensichtlich, dass die Takte noch nicht final sind, sonst haetten sie nicht >5 TF drauf geschrieben.
Ich koennte es mir durchaus vorstellen, dass sie einen aehnlichen Weg gehen wie NV mit ihrem Boost. Mit Powergating pro CU koennte das auch eine aehnliche Wirkung erreichen wie (Achtung grober Quervergleich :crazy: ) Intel CPUs mit Turbo - sprich hoeherer Takt bei "single threaded"/wenig Shaderlast, niedrigerer Takt bei voller Auslastung.
AMD selbst spricht von less than 150W. Zumindest tut das Raja Koduri in Interviews.
Jaja, Raja. Auf dessen Geschwaetz kann man ueberhaupt nichts geben, der behauptet ja auch allen Ernstes zwei 480@50% Last seien so schnell wie eine 1080 :rolleyes:
Da wird sich kaum was tun, die Anzahl der Chips bleibt gleich nur die Kapazität ändert sich.
Ich denke, er meinte 8 Gbps und damit haette er voellig Recht. Die laufen iirc auch mit etwas hoeherer Spannung, 1,55 oder sogar 1,65?V, waehrend 1,5 "normal" sind, "normal" taktende Chips aber inzwischen mit 1,35 V verfuegbar sind.
Sunrise
2016-06-05, 14:23:11
Ja... das finde ich merkwürdig. Als ob der finale Takt noch nicht feststehen würde. Dann ergeben aber diese geleakten 1266Mhz keinen Sinn. Oder es war Fake.
Der finale Takt ist so ziemlich das Letzte, was ein IHV festlegt. Erstens weil der IHV erstmal genügend Chips von den Wafern binnen muss, und zweitens weil das auch andere Auswirkungen hat.
AMD wird bei gerademal $199 US eine immense Nachfrage bekommen, die sie auch decken müssen. Das bedeutet, dass man erstmal konservative Takte angeben muss, damit alle Karten die auch erreichen, ebenso wie die Anzahl der funktionsfähigen Einheiten.
Danach kann erst selektiert werden, wenn genug Dies vom Wafer gelaufen sind. Daher besteht immer die Möglichkeit für AMD da nochmal "nachzutreten".
Lasst AMD doch einfach mal etwas Zeit jetzt, wir haben jetzt mehrere Monate ohne Infos gelebt, die paar Tage werden wir noch aushalten. AMD hält sich bewusst so bedeckt wie möglich, evtl. auch aufgrund NV.
maximus_hertus
2016-06-05, 14:28:14
Zu den 150W - ist es nicht so, dass über den PCIe Slot max. 60W "geschubst" werden? Mit nur einem 6 Pin Anschluss würde man doch auf 135W kommen? Natürlich ist die Ansage, 6 Pin = 75W, auch mehr oder weniger überholt, aber wenn man per Milchmädchen kalkuliert, dann käme man doch auf max. 135W?
Die GTX 1070 verbraucht ja 150W bei einem Index von "800%". Schafft die RX 480 "600%" Indexwert, dann müsste sie bei rund 115W raus kommen, um bei der Energieeffizienz gleich zu ziehen.
Ich spekuliere mal auf 130W, also leicht schlechter als die GTX 1070, aber auf einem guten Niveau, die keine wirkliche Kritik bedarf.
Ich hoffe ja, dass wir in gut einer Woche zur E3 vielleicht das ein oder andere mehr erfahren werden. Man darf gespannt sein ;)
Die Spezifikation erlaubt 75 W ueber den Slot selber
fondness
2016-06-05, 14:41:12
Ja, wobei keine moderne PCIe-Karte noch die 3,3V Leitung nutzt, von daher sind 60W über PCIe deutlich realistischer.
Leonidas
2016-06-05, 14:46:33
Dafür kann man problemlos auch mehr aus den 6pol. und 8pol. Steckern nehmen, als es die Specs sagt. Wenn man will, sehr viel mehr.
fondness
2016-06-05, 14:48:57
Ja, nur welchen Sinn würde das machen? Nachdem man bei der Radeon PRO DUO gleich 3x8 Pin verbaut hat, wird man bei der RX480 hoffentlich nicht an den zwei zusätzlichen Pins für eine 8-Pin PCIe-Stecker sparen.
Wen man Eindruck machen bzw. ggue. der 1070 nicht so schlecht dastehen will schon ;)
Ich glaube aber auch an <150 W Verbrauch
iuno: Ich denke es wird 3 Modis geben - statische (2D Mode im Desktop), die bisherige dynamische je nach PT / Temp und eine neue dritte die du im Vergleich bringst. btw. in den Linux Treibern tauchen neben den bekannten Power Gating Sachen nun auch neue Clock Gating Sachen auf -> Variante 3 als große Überraschung?
Die 2,8x fache Effizienzsteigerung wird sicherlich ggü. einer Hawaii(oder R390X im Worst Case) gerechnet sein. Ggü. einer Nano nur ca. 20%. Ich schätze die Karte war auf 110-120W geplant und wird nun etwas angehoben, damit die Lücke nicht zu groß wird.
Mal angenommen, Polaris 10 ist gut geworden und man kann super takten, nur würde die Bandbreite nicht ausgehen? Wo lege ein Limit, ab dem Punkt der Takt verpufft?
Dino-Fossil
2016-06-05, 15:03:55
Ich vermute auch, dass man den Board-Partnern relativ freie Hand lassen wird und man am Ende sparsame (Referenz?) Modelle bei 120-130W sehen wird, die evtl. nicht weit über 5 TFlops liegen, aber auch höher getaktete OC Modelle, die dann in Richtung 6TFlops gehen, dafür aber auch deutlich mehr verbrauchen.
TheGood
2016-06-05, 15:12:33
Bisher hält sich AMD arg zurück was genaue Informationen betrifft. Es werden immer nur wischi waschi angaben gemacht. Das kann zwei Gründe haben: 1. Sie wollen jetzt nicht schon alles preisgeben, auch wenn Sie es könnten, um auch Nvidia noch ein wenig im Unklaren zu lassen. 2. KÖnnte es heissen, da sie ja den Boardpartner freie Hand geben, dass sie nur minimaldaten ausgeben. GGf. ist das referenzdesing auch nur konservativ ausgelegt und wir werden auch gleich Custom designs zum start am 29. Juni sehen.
Irgendwie ist akuelle alles möglich, aber ich habe bei dieses Mal ein gutes GEfühl, dass alles gut wird und auch die Performance stimmt. Irgendwie wäre es schon sehr seltsam wenn sie mit ähnlichen Rohwerten wie 390X diese nicht erreicht oder überflügelt...
Egal gekauft ist sie für den Preis sowieso.
maximus_hertus
2016-06-05, 15:19:43
Dafür kann man problemlos auch mehr aus den 6pol. und 8pol. Steckern nehmen, als es die Specs sagt. Wenn man will, sehr viel mehr.
Ja, aber bisher ist das doch nur bei den Enthusiast-Karten passiert?
Es ist ja bezeichnend, dass die GTX 750 TI bei 60W "abgeriegelt" hat und ohne 6-Pin ausgekommen ist. Dann hatten bisher alle Karten mit 140-150W Verbrauch immer mindestens 2 x 6 Pin oder 1 x 8 Pin. Ich würde jetzt nicht darauf wetten, dass AMD 140+ Watt raus haut und nur 1 x 6 Pin verbaut. Das macht irgendwie nicht viel Sinn.
Wie schon geschrieben, halte ich rund 130W für die wahrscheinlichste Auflösung. Bei einer "Referenz / Launchkarte" vielleicht sogar nur 120W und die 150W +- für Custom OC Karten (mit dann 2 x 6 Pin bzw. 1 x 8 Pin).
victore99
2016-06-05, 15:48:36
Wir wissen ja von der 295X2, dass 2x8 durchaus 500W ohne grobe Probleme stemmen.
Macht: 10x Erdung / 6x 12V reichen für 500W.
Michmädchenrechnung:
Pro Ader fließen somit rund 7A, das scheint zu gehen.
Und da 6pin ja 3x Erdung und 3x 12V hat, gehen da theoretisch 21A sicher durch. Und das sind rund 250W, die durch einen 6-Pin gehen.
Da ist schon wichtiger, dass bei der 1080 FE nur 250A für Core @0,9V bereitstehen.
Wv Stromanschlüsse ist nahezu egal.
Btw.. Kommts mir nur so vor oder ist finFET deutlich stromhungriger pro Diesize? Denn die Architektur von 1080 und 980 ist ja gut vergleichbar und die GPU 1080 ist rund 20% kleiner, die Karte frisst aber 10% mehr Strom.
Es ist ja bezeichnend, dass die GTX 750 TI bei 60W "abgeriegelt" hat und ohne 6-Pin ausgekommen ist.
Gab es von der ueberhaupt eine Referenz? 750 Ti customs hatten mitunter durchaus 6 Pins dran und auch mehr als 75 W gezogen?!
Btw.. Kommts mir nur so vor oder ist finFET deutlich stromhungriger pro Diesize? Denn die Architektur von 1080 und 980 ist ja gut vergleichbar und die GPU 1080 ist rund 20% kleiner, die Karte frisst aber 10% mehr Strom.
Die 1080 ist schlicht und ergreifend weiter vom Sweetspot weg. Man hat den Referenztakt etwas hoeher gewaehlt, damit man GM200 gut und konstant schlagen kann.
Elkinator
2016-06-05, 16:00:39
TDP von 150W ist gleichauf mit der deutlich schnelleren GTX1070.
AMD hat bei GPUs noch nie eine TDP angegeben, weil das da keinen Sinn macht.
Was du meinst ist die TBP, aber auch die haben sie nicht angegeben.
Sie haben da nur das theoretische Maximum der Stromversorgung angegeben.
PEG: 75W
6Pin: 75W
AMD wäre dumm wenn sie kein Trotteln einbauen
Mit Trottel hat das eigentlich nichts zutun!
Was du meinst nennt man Throttlin
Zu den 150W - ist es nicht so, dass über den PCIe Slot max. 60W "geschubst" werden?
PCIe = 25W
PEG = 75W
6Pin = 75W
8Pin = 150W
Screemer
2016-06-05, 16:09:49
Igor meinte vor Tagen mal, dass keine Karte mehr die peg spec ausreizt. wie fondness schon schrieb wird 3,3v nicht mehr wirklich genutzt. Igor sollte es wissen.
Der_Korken
2016-06-05, 16:14:51
Es wäre schon sehr merkwürdig, wenn AMD eine Referenzkarte so auf Kante näht, dass alle Spezifikationen für die Stromversorgung voll ausgereizt werden müssen, damit sie läuft. Wer in der Preisklasse einkauft, hat nicht unbedingt das neueste und beste Netzteil verbaut, sodass man sich lieber nicht drauf verlassen sollte, dass der 6pin-Stecker im Ernstfall auch mal 100W mitmacht. Vielleicht sind die Befürchtungen auch übertrieben, aber bevor ich als Hersteller so ein Risiko eingehe, mach ich ans Topmodell einen 8pin-Stecker dran und fertig.
Elkinator
2016-06-05, 16:31:35
Igor meinte vor Tagen mal, dass keine Karte mehr die peg spec ausreizt. wie fondness schon schrieb wird 3,3v nicht mehr wirklich genutzt. Igor sollte es wissen.
Ob sie es nutzt ist egal, es geht ja nur um die Theorie.
Und theoretisch kann sie es nutzen.
Laut AMD waren die 2 RX 480 effizienter als die GTX 1080.
Eigentlich müßte man jetzt nur testen was die GTX 1080 bei dem Test verbraucht und den Wert halbieren.
Eine RX 480 hat laut AMD weniger als das verbraucht!
Rabiata
2016-06-05, 16:46:11
Es wäre schon sehr merkwürdig, wenn AMD eine Referenzkarte so auf Kante näht, dass alle Spezifikationen für die Stromversorgung voll ausgereizt werden müssen, damit sie läuft. Wer in der Preisklasse einkauft, hat nicht unbedingt das neueste und beste Netzteil verbaut, sodass man sich lieber nicht drauf verlassen sollte, dass der 6pin-Stecker im Ernstfall auch mal 100W mitmacht. Vielleicht sind die Befürchtungen auch übertrieben, aber bevor ich als Hersteller so ein Risiko eingehe, mach ich ans Topmodell einen 8pin-Stecker dran und fertig.
Der Stecker könnte auch mehr. Es ist ein Mini-Fit Jr. Steckverbinder von Molex. Die Molex-Webseite sagt
Mini-Fit Jr.™-Steckverbinder sind auf bis zu 9,0 A ausgelegt
Das würde bei 3 x 12V und 3xMasse für insgesamt 27 A reichen. Bei 12V wären das 12V x 27A = 324W für einen 6pin-Stecker.
Offenbar wurde in der Spec auf andere Teile Rücksicht genommen, vielleicht die Leiterbahnen auf den Platinen.
victore99
2016-06-05, 16:58:41
Der Stecker könnte auch mehr. Es ist ein Mini-Fit Jr. Steckverbinder von Molex. Die Molex-Webseite sagt
Das würde bei 3 x 12V und 3xMasse für insgesamt 27 A reichen. Bei 12V wären das 12V x 27A = 324W für einen 6pin-Stecker.
Offenbar wurde in der Spec auf andere Teile Rücksicht genommen, vielleicht die Leiterbahnen auf den Platinen.
wenn AMD sagt, wir ziehen durch den 6pin mehr als erlaubt, können sie auch ihre Platinen darauf auslegen. und ich glaube nicht, dass da irgendein gutes NT Probleme macht.
Screemer
2016-06-05, 17:31:53
Offenbar wurde in der Spec auf andere Teile Rücksicht genommen, vielleicht die Leiterbahnen auf den Platinen.
Nur mal als hint:
http://media.bestofmicro.com/4/5/505589/original/Front.jpg
-> http://www.tomshardware.de/inno3d-gtx-980-ti-ichill-airboss-grafikkarte,testberichte-241842-4.html
Lass da mal 320w über einen Stecker laufen und dir schmilzt das pcb.
Rabiata
2016-06-05, 17:32:06
wenn AMD sagt, wir ziehen durch den 6pin mehr als erlaubt, können sie auch ihre Platinen darauf auslegen. und ich glaube nicht, dass da irgendein gutes NT Probleme macht.
Sicher, der Entwickler der GraKa kann die Platine passend machen. Leider gibt es nicht nur gute Netzteile :freak:.
Und Specs einfach zu ignorieren gilt unter Ingenieuren als uncool :wink:.
cobra38
2016-06-05, 18:03:34
Lass da mal 320w über einen Stecker laufen und dir schmilzt das pcb.
Die hohe Wärmeentwicklung liegt aber nicht an den Steckern, sondern an der mangelhaften Kühlung der Spannungswandler. Wir im Test auch beschrieben.
Dino-Fossil
2016-06-05, 18:08:32
Dann sollte man aber auch bedenken, dass bei einem angepeilten Preis ab 200$ die Karten sicherlich nicht die allerbesten Qualitätskomponenten verbaut haben werden.
Man würde also nicht unbedingt erwarten, dass die Spezifikationen groß überschritten werden. :wink:
Complicated
2016-06-05, 18:10:36
Dann sollte man aber auch bedenken, dass bei einem angepeilten Preis ab 200$ die Karten sicherlich nicht die allerbesten Qualitätskomponenten verbaut haben werden.
Man würde also nicht unbedingt erwarten, dass die Spezifikationen groß überschritten werden. :wink:
FUD.
Elkinator
2016-06-05, 18:12:59
Dann sollte man aber auch bedenken, dass bei einem angepeilten Preis ab 200$ die Karten sicherlich nicht die allerbesten Qualitätskomponenten verbaut haben werden.
Da spricht wieder der Hateboy...
Ravenhearth
2016-06-05, 18:15:42
Wieso? Das ist eine realistische Erwartung.
Kriton
2016-06-05, 18:16:02
Eigentlich sagt er, dass er nicht an die (über) 150 Watt glaubt (was prinzipiell eine positive Aussage ist). Also packt Eure Forken ein und entspannt Euch...
maguumo
2016-06-05, 18:22:49
Lass da mal 320w über einen Stecker laufen und dir schmilzt das pcb.
Ich meine bei der 295X2 waren die Stecker völlig problemlos. Die wurden zwar recht warm, aber das lag an den VRMs die das PCB aufheizen. Denke bei deinem Beispiel wird es ähnlich sein.
Edit: Zu spät dran :D
StefanV
2016-06-05, 18:24:23
Bei Tahiti hat man auch damals auch sehr konservativ getaktet(925Mhz & 800Mhz), wo Kepler dann durch den Boost davongezogen ist.
...und dann gabs Partner Karten, die mal eben 75MHz mehr Coretakt brachten.
Speichertakt bei der ersten war AFAIR 1375MHz...
Mit der 'GHz Edition' hat man dann mal eben 175MHz auf den Core drauf packen können und 125MHz beim RAM - das ist jetzt nicht soo wenig...
StefanV
2016-06-05, 18:25:34
Ja, nur welchen Sinn würde das machen?
Die Boards zu schonen, so dass dir auch bei 2 und 3 Karten nix abfackelt...
fondness
2016-06-05, 18:27:13
Eine Möglichkeit bei den Ashes-Test von AMD wäre natürlich, dass AMD die TDP der zwei RX480 auf jeweils 90W begrenzt hätte. Das würde zum einen die relativ geringe Leistung erklären und zum anderen würde dann auch die Aussage mit der höheren Effizienz Sinn machen, da man dann bei derselben TDP wie eine GTX1080 mehr fps erreicht. Naja abwarten.
Ravenhearth
2016-06-05, 18:29:47
Das hätte aber keine Aussagekraft für den Praxisbetrieb. Warum nicht bei ~110W belassen und dafür 20% mehr Performance? Effizienter wäre man immer noch, zudem schneller.
Oder die RX 480 erreicht tatsächlich nur 390-Niveau, verbraucht aber auch nur 90W. :freak:
fondness
2016-06-05, 18:30:39
Vielleicht wollte man bewusst noch keine Aussage treffen für den Praxisbetrieb, also die Karten noch nicht aufdecken? Jedenfalls weiß ich nicht, wie man sonst auf "better efficiency" kommen sollte bei den Werten.
Dino-Fossil
2016-06-05, 18:31:39
Well, that escalated quickly. :D
Kriton hat völlig recht, wenn er sagt das ich nicht an >150W bei P10 glaube, außer vielleicht bei OC-Karten, die dann entsprechend ausgelegt sind und vermutlich auch mehr kosten.*
Wäre der Verbrauch höher, hätte man mMn keinen 1x6pin Anschluss gewählt.
*Es ist nunmal so, dass die Industrie üblicherweise spart wo es geht, da sind GPUs sicherlich keine Ausnahme. Da geht es manchmal um Cent-Beträge selbst bei Produkten die Tausende € kosten. Wenn also nicht zwingend zum funktionieren nötig, wird eine Karte bei 150W TDP/TBP/was auch immer, die ab 200$ antritt, günstigere Komponenten verwenden als eine Karte bei 250W TDP/TBP für 500$.
Da ist doch nVidia nicht anders als AMD, also spart euch die Rot-gegen-Grün-Unterstellungen.
StefanV
2016-06-05, 18:33:51
Eine Möglichkeit bei den Ashes-Test von AMD wäre natürlich, dass AMD die TDP der zwei RX480 auf jeweils 90W begrenzt hätte. Das würde zum einen die relativ geringe Leistung erklären und zum anderen würde dann auch die Aussage mit der höheren Effizienz Sinn machen, da man dann bei derselben TDP wie eine GTX1080 mehr fps erreicht. Naja abwarten.
Eine Möglichkeit wäre, dass AMD einfach 'den anderen' keinerlei Möglichkeit geben möchte, auf ihre Karten zu reagieren und sie eventuell auch ganz blöd aus der Wäsche schauen zu lassen und hier einfach ein Versteckspiel spielen...
Eben um den Jensen mal richtig schön abgehen zu lassen, wenn die GTX 1070 ausgeliefert wird und die eventuell von Polaris gebügelt wird...
In dem Bench von AOTS gings wohl voranglich um 2 Dinge:
a) eine höhere Effizienz denn der große Gegner hin zu bekommen, bei möglichst gleicher Leistung
b) den Gegner mal dezent anzukacken, ohne das zu erwähnen.
nVidia hat ja schon mla die Details drastisch reduziert - als sie selbst hinten dran waren und von ATi einfach mal weggewischt wurden...
Dann sollte man aber auch bedenken, dass bei einem angepeilten Preis ab 200$ die Karten sicherlich nicht die allerbesten Qualitätskomponenten verbaut haben werden.
Man würde also nicht unbedingt erwarten, dass die Spezifikationen groß überschritten werden. :wink:
Boh, lass deine Verschwörungen besser.
Das eine hat mit dem anderen mal überhaupt NICHTS zu tun...
Das sind zwei Verschiedene Paar Schuhe...
Und wenn man ganz böse ist, behauptet man jetzt, dass das auch bei 800€ Karten nicht der Fall ist...
Die Komponenten auf der Karte selbst dürften kaum ins Gewicht fallen, vom Preis her.
Außerdem kann man durch die Spannungsregler auch einiges wieder gut machen!!
Ob die jetzt eine Effizienz von 75% oder 95% haben, macht bei 'nur' 100W schon einiges aus...
Das wäre nämlich alleine eine Differenz von etwa 28W!
Daher darf man auch nicht davon ausgehen, dass hier "billigste Komponenten", wie du es behauptest, eingesetzt werden. Ganz im Gegenteil...
Ravenhearth
2016-06-05, 18:36:38
Daher darf man auch nicht davon ausgehen, dass hier "billigste Komponenten", wie du es behauptest, eingesetzt werden. Ganz im Gegenteil...
Das hat er auch nicht gesagt. Wie wird aus "nicht die allerbesten" denn "billgste"?
LordCama
2016-06-05, 18:41:56
So billig wie möglich, so teuer wie nötig.
Oder es hätte sich in der Wirtschaft einiges geändert.
dargo
2016-06-05, 18:42:01
Eine Möglichkeit bei den Ashes-Test von AMD wäre natürlich, dass AMD die TDP der zwei RX480 auf jeweils 90W begrenzt hätte. Das würde zum einen die relativ geringe Leistung erklären und zum anderen würde dann auch die Aussage mit der höheren Effizienz Sinn machen, da man dann bei derselben TDP wie eine GTX1080 mehr fps erreicht. Naja abwarten.
Lol... das wäre dreist, aber irgendwo auch lustig. :D Powertarget im Treiber soweit in den negativen Bereich ziehen, dass 2x RX480 knapp eine einzige GTX1080 schlagen und noch effizienter sind. ;D Damit würde man Nvidia schön verkackeiern. :D
AMD pfeift jetzt auch auf das NDA.
Riecht außerdem irgendwie nach einem Hardlaunch.
http://i.imgur.com/hCLDfJu.png
Quelle (https://www.facebook.com/AMDDeutschland/photos/a.620986211295242.1073741828.610670625660134/1156661304394394/?type=3&theater)
w0mbat
2016-06-05, 19:18:26
Eine Möglichkeit bei den Ashes-Test von AMD wäre natürlich, dass AMD die TDP der zwei RX480 auf jeweils 90W begrenzt hätte. Das würde zum einen die relativ geringe Leistung erklären und zum anderen würde dann auch die Aussage mit der höheren Effizienz Sinn machen, da man dann bei derselben TDP wie eine GTX1080 mehr fps erreicht. Naja abwarten.
Wieso 90W? AMD redet von Effizienz, aber Effizienz alleine ist ja kein Maßstab, da muss es einen Vergleichpunkt geben: die Performance. Wenn beide Systeme, also die 1080 und die beiden RX 480 die gleiche Leistung erbracht hätten, also die gleichen FPS, dann wäre das bei einer besseren Effizienz tatsächlich <90W für eine RX 480 gewesen. Da die zwei aber mehr FPS erbracht haben, wäre auch ein Verbraucht von insg. >180W, also mehr als 90W pro Karte, möglich und man könnte trozdem noch von einer besseren Effizienz sprechen. Wenn die 1080 dazu noch in dem Bench etwas über 180W zieht, ist noch mehr denkbar.
Nur so als Gedanke.
fondness
2016-06-05, 19:21:31
Wieso 90W? AMD redet von Effizienz, aber Effizienz alleine ist ja kein Maßstab, da muss es einen Vergleichpunkt geben: die Performance. Wenn beide Systeme, also die 1080 und die beiden RX 480 die gleiche Leistung erbracht hätten, also die gleichen FPS, dann wäre das bei einer besseren Effizienz tatsächlich <90W für eine RX 480 gewesen. Da die zwei aber mehr FPS erbracht haben, wäre auch ein Verbraucht von insg. >180W, also mehr als 90W pro Karte, möglich und man könnte trozdem noch von einer besseren Effizienz sprechen. Wenn die 1080 dazu noch in dem Bench etwas über 180W zieht, ist noch mehr denkbar.
Nur so als Gedanke.
Naja, die Leistung liegt schon sehr nah beieinander und die 1080 riegelt normalerweise bei 180W ab. Viel Spielraum sehe ich da nicht. Zumal AMD ja von besserer Effizienz spricht - schon 95W pro GPU wären da zu viel um das bei nur 6% mehr Performance zu erreichen.
dargo
2016-06-05, 19:44:04
@w0mbat
Wir reden hier gerade mal von 6% Unterschied. :freak:
http://www.roadtovr.com/wp-content/uploads/2016/05/amd-rx-480-polaris-3.jpg
-/\-CruNcher-/\-
2016-06-05, 19:59:32
Also mein gefühl für den VP9 Full Hardware decode support wird schlechter wenn der selbe UVD wie bei Bristol Ridge zum Einsatz kommt ist es schon so gut wie klar das es über OpenCL acceleration laufen wird.
Und wenn man logisch an die Sache rangeht kann die Zeit nicht gereicht haben jedenfalls nicht für Polaris 10 und 11 oder aber AMD war diesmal wirklich fix (noch mehr hoff) :(
spätestens mit Vega wirds aber dann kommen.
http://images.anandtech.com/galleries/4890/6%20-%20A12_575px.jpg
Unicous
2016-06-05, 20:03:38
Bristol Ridge hat den gleichen UVD wie Carrizo... weil es der selbe Chip ist. :facepalm:
Stoney Ridge ist ein neuer Chip und hat aller Voraussicht nach Hardware Decoding für VP9.
http://scr3.golem.de/screenshots/1606/Bristol-Stoney-Ridge-Computex-2016/Bristol-Stoney-Ridge-Computex-2016-03.png
Elkinator
2016-06-05, 20:07:45
Also mein gefühl für den VP9 Full Hardware decode support wird schlechter wenn der selbe UVD wie bei Bristol Ridge zum Einsatz kommt ist es schon so gut wie klar das es über OpenCL acceleration laufen wird.
BR ist ja auch nur eine Neuauflage von CZ, da wird man UVD kaum aktualisieren.
-/\-CruNcher-/\-
2016-06-05, 20:11:40
Bristol Ridge hat den gleichen UVD wie Carrizo... weil es der selbe Chip ist. :facepalm:
Stoney Ridge ist ein neuer Chip und hat aller Voraussicht nach Hardware Decoding für VP9.
http://scr3.golem.de/screenshots/1606/Bristol-Stoney-Ridge-Computex-2016/Bristol-Stoney-Ridge-Computex-2016-03.png
Die Frage ist doch ob Stoney Ridge für Polaris ready war und die Zeit da war um die UVD Logik in Polaris auf den selben Stand zu bringen und ich befürchte die Zeit war nicht da.
Nvidia hatte ja alles mit der Shield Konsole sprich Tegra X1 schon fertig das ging ja ratz fatz wie eigentlich immer mit VPx.
Unicous
2016-06-05, 20:13:50
Der UVD (wie auch der VCE) hat rein gar nichts mit Polaris zu tun, denn es ist eine Fixed Function Unit die AMD unabhängig von den CUs aktualisiert.
-/\-CruNcher-/\-
2016-06-05, 20:20:36
Es geht um den zeitlichen Ablauf innerhalb der R&D wenn du das nicht verstanden hast und scheinbar hast du es nicht.
Fehlender Full Hardware Decode ist nicht wirklich schlimm für AVG user vor allem aber doch schon schade wenn es so sein sollte aber es tut natürlich das gesamtprodukt keinesfalls wirklich beinflussen, da es ja noch fallbacks gibt nur für Mobile wird vor allem Nvidia das als ein - punkt für Polaris heranziehen (wenn sie da auch keine Zeit hatten) so wie AMD Intel fertig gemacht hat mit Carrizo bei der Presse mit 10 Bit Decoding nur bei Intel war es eben Zeitlich schon alles festgelegt wann es sich überhaupt lohnt damit zu starten, bei Nvidia ist das meistens auch so nur Aufgrund der wichtigkeit bei der Shield Konsole waren sie Ultraschnell dabei alles Supporten zu wollen und das haben sie so schnell wie ging mitgenommen. ;)
Und leider sind sehr viele sehr einfach zu Manipulieren bei sowas weil sie einfach keine Ahnung haben in welchem Use case das nun wo eine Rolle spielt und wieso und ob überhaupt eine große oder kleine der Presse wird nur etwas gedemoed und die Kaufen das alle ;)
cobra38
2016-06-05, 20:25:34
Nun, wenn ein Hersteller mit gefühlt einem halben zusammen getackerten Sample unbedingt Tests vor AMDs Pressekonferenz online haben will, wohl wissend, dass sehr viele Reviewer auf der Computex sind, der hat entweder ein dickes Ego oder möchte eben noch flott abgreifen, was da ist.
Diese Aussage kam nach dem Polaris Tech Day.
Deshalb bin ich der Meinung, dass AMD mit der RX 480 ein wirklich gutes Produkt in den Markt bringt.
Unicous
2016-06-05, 20:30:13
Oh man vergiss es einfach es geht um den zeitlichen Ablauf innerhalb der R&D wenn du das nicht verstanden hast und scheinbar hast du es nicht.
Fehlender Full Hardware Decode ist nicht wirklich schlimm für AVG user vor allem aber doch schon schade wenn es so sein sollte aber es tut natürlich das gesamtprodukt keinesfalls wirklich beinflussen.
Du nimmst die Folie von (Carrizo/)Bristol Ridge, einem Design, das seit einem Jahr auf dem Markt ist (und vor wahrscheinlich 4 Jahren in die Designphase gegangen ist) und stellst Vermutungen über Polaris an. Wie beschränkt kann man denn sein?:facepalm:
Wie gesagt, deinen Platz auf ignore-Liste bestätigst du immer wieder.
-/\-CruNcher-/\-
2016-06-05, 20:40:32
Weil da mehr Daten eine Rolle spielen als über die du scheinbar verfügst.
Wie gesagt es ist knapp ich bin selbst gespannt ob sie es gepackt haben für den Polaris 10/11 Cycle.
Vega,Stoney Ridge, und Zen ist klar das sie es haben sieht man ja auch in den vorhandenen Daten :)
Elkinator
2016-06-05, 20:47:44
Weil da mehr Daten eine Rolle spielen als über die du scheinbar verfügst.
Du hast davon aber offensichtlich noch weniger Ahnung!
Wie gesagt es ist knapp
Kannst du nicht beurteilen, Polaris wurde JAHRE nach Carrizo entwickelt!
-/\-CruNcher-/\-
2016-06-05, 20:54:51
Naja Persönlich interessiert mich weder Nvidias noch AMDs solution so viel Ahnung hab ich wenigstens, sind ein nettes Gimmick für die Streamer man kann Shadowplay, Nvidia Grid und VCA gut an den man bringen bei Nvidia geht er garantiert nicht mehr raus zu groß schon das Ökosystem drum herum ;)
Wobei AMDs doch schon langsam etwas interessanter wird, bis auf diesen Punkt könnte die Logik einfach aus den Discrete GPUs raus platz machen und weiter wege verkürzen ;)
woodsdog
2016-06-05, 21:42:33
könnt ihr bitte aufhören diesen Insassen ohne Spoiler zu quoten? ignore list und so.
Tamagothi
2016-06-05, 22:01:20
Naja, die Leistung liegt schon sehr nah beieinander und die 1080 riegelt normalerweise bei 180W ab. Viel Spielraum sehe ich da nicht. Zumal AMD ja von besserer Effizienz spricht - schon 95W pro GPU wären da zu viel um das bei nur 6% mehr Performance zu erreichen.
Theoretisch wären es ca.100 Watt.
Wenn dieses CU abschalten funktioniert ( fällt der Name nicht ein ) wären das bei 183% Crossfire Skalierung
180 Watt / 1,83 = 98,36 Watt verbrauch für Karte 1 und 81,63 für Karte 2 :biggrin:
Also mein gefühl für den VP9 Full Hardware decode support wird schlechter wenn der selbe UVD wie bei Bristol Ridge zum Einsatz kommt ist es schon so gut wie klar das es über OpenCL acceleration laufen wird.
Und wenn man logisch an die Sache rangeht kann die Zeit nicht gereicht haben jedenfalls nicht für Polaris 10 und 11 oder aber AMD war diesmal wirklich fix (noch mehr hoff) :(
Die Frage ist doch ob Stoney Ridge für Polaris ready war und die Zeit da war um die UVD Logik in Polaris auf den selben Stand zu bringen und ich befürchte die Zeit war nicht da.
Was soll BR bitte mit Polaris zu tun haben? Carrizo ist "uralt", genauso wie die Info, dass Polaris einen neuen UVD bekommt.
|UVD|VCE
Tonga|5.0|3.0
Fiji|6.0|3.0
Carrizo|6.0|3.0
Polaris|6.3|3.4
Stoney Ridge ist ein neuer Chip und hat aller Voraussicht nach Hardware Decoding für VP9.
Ehrlich gesagt, sieht das fuer mich nicht so aus als haette Stoney VP9 in Hardware. Bei H.264 steht extra "hardware decode" dran.
Was haltet ihr von der These, dass AMD den Aots-Bench mit einem PT-Preset von 60% gefahren hat? Ergebnis: Längerer Balken als eine 1080 und dabei geringerer Verbrauch.
Dino-Fossil
2016-06-05, 22:40:37
Möglich ist es, aber erstens nicht nachzuprüfen und zweitens bringt es nicht viel, wenn man auf den Verbrauch direkt kaum eingeht (sonder nur über die nebulöse "Effizienz"-Randnotiz).
Hätte man sicher besser vermarkten könne.
Elkinator
2016-06-05, 22:49:37
Was haltet ihr von der These, dass AMD den Aots-Bench mit einem PT-Preset von 60% gefahren hat?
Nichts, weil es keinen Sinn macht darüber zu spekulieren.
AMD will einfach noch nichts verraten:\
Vielleicht erfahren wir es in 8 Tagen, da sollte auch Vega vorgestellt werden.
Was weiß man denn jetzt gesichert? Eine Rechenleistung von mehr als 5Tflops, eine Variante hat 2304SPs, 256Bit-Si, eine Variante hat 8GB Ram mit 8G effektiver Bandbreite und für alle Varianten gilt ein Preis ab 199$.
Was ich für mich zudem als gesichert sehe ist einen 3Dk11-Wert = Fury non X und einen 3Dk13 Ultra Wert = Fury X.
Und zudem weiß ich jetzt was besser aussieht: 91fps bei 260W oder aber 63fps bei 170W
@Elkinator
Vega? Ein bisschen früh würde ich meinen, zumal - wo ist HBM2? An GDDR5X glaube ich bei Vega nicht, da ich glaube dass das Teil vorab bereits für HBM konzipiert wurde. Da glaube ich noch eher an einen vermeintlichen Full-Polaris mit 40CUs 2560SPs und GDDR5X, welcher sich zwischen 1070 und 1080 schieben sollte.
deekey777
2016-06-05, 23:04:09
Was soll BR bitte mit Polaris zu tun haben? Carrizo ist "uralt", genauso wie die Info, dass Polaris einen neuen UVD bekommt.
|UVD|VCE
Tonga|5.0|3.0
Fiji|6.0|3.0
Carrizo|6.0|3.0
Polaris|6.3|3.4
.
Ich finde es sehr dumm von AMD, dass HEVC-Encoding in Hardware nicht angeboten wird. Das ist nicht unwichtiges Papierfeature, das Intel bereits bietet.
-/\-CruNcher-/\-
2016-06-05, 23:04:43
Was soll BR bitte mit Polaris zu tun haben? Carrizo ist "uralt", genauso wie die Info, dass Polaris einen neuen UVD bekommt.
|UVD|VCE
Tonga|5.0|3.0
Fiji|6.0|3.0
Carrizo|6.0|3.0
Polaris|6.3|3.4
Ehrlich gesagt, sieht das fuer mich nicht so aus als haette Stoney VP9 in Hardware. Bei H.264 steht extra "hardware decode" dran.
Demnach müsste dann ja Stoney auch noch 6.0 sein und sie plannen den support erst mit Zen oder aber Stoney bekommt irgend ein zwischending 6.1/6.2 das wär irgendwo absolut quer,
Wie gesagt sehr gespannt ob nur die Mobile Parts full support bekommen so ist die ganze Verteilung ja schon sehr oft bei Nvidia gelaufen Mobile und Entry first dann der rest ;)
Standen die Daten im Linux Treiber ?
Ravenhearth
2016-06-05, 23:10:07
Bristol Ridge hat den gleichen UVD wie Carrizo... weil es der selbe Chip ist. :facepalm:
Laut dieser Folie unterstützen ALLE 7th generation APUs 4k HEVC und 1080p VP9:
http://images.anandtech.com/galleries/4890/4%20-%20VP9%20HEVC_575px.jpg
-/\-CruNcher-/\-
2016-06-05, 23:24:23
Da steht aber nicht wie darum geht es doch.
Elkinator
2016-06-05, 23:26:08
@Elkinator
Vega? Ein bisschen früh würde ich meinen, zumal - wo ist HBM2? An GDDR5X glaube ich bei Vega nicht, da ich glaube dass das Teil vorab bereits für HBM konzipiert wurde. Da glaube ich noch eher an einen vermeintlichen Full-Polaris mit 40CUs 2560SPs und GDDR5X, welcher sich zwischen 1070 und 1080 schieben sollte.
https://www.youtube.com/watch?v=P9GTWuhsd_Q&feature=youtu.be&t=40
"...really big videocards..." hört sich sehr nach Vega an.
uweskw
2016-06-05, 23:26:53
Bisher hält sich AMD arg zurück was genaue Informationen betrifft. Es werden immer nur wischi waschi angaben gemacht. Das kann zwei Gründe haben: 1. Sie wollen jetzt nicht schon alles preisgeben, auch wenn Sie es könnten, um auch Nvidia noch ein wenig im Unklaren zu lassen. 2. KÖnnte es heissen, da sie ja den Boardpartner freie Hand geben, dass sie nur minimaldaten ausgeben. GGf. ist das referenzdesing auch nur konservativ ausgelegt und wir werden auch gleich Custom designs zum start am 29. Juni sehen.......
.........
Ich glaube eher, dass die bei AMD keinen haben der sich in Sachen Marketing auch nur halb so nen Kopf macht. Sollten die mal Outsourcen. :freak:
SCNR
greetz
US
-/\-CruNcher-/\-
2016-06-05, 23:29:57
https://www.youtube.com/watch?v=P9GTWuhsd_Q&feature=youtu.be&t=40
"...really big videocards..." hört sich sehr nach Vega an.
Da grüßt the Thief ;)
Könnten ja auch Nvidia 1080 Zeigen oder nicht oder wie hmm ;)
übrigens glaub ich sagt er "a really big videocards" vielleicht ist ihm das s nur so rausgerutscht oder das nd verschluckt ;)
Ich finde es sehr dumm von AMD, dass HEVC-Encoding in Hardware nicht angeboten wird. Das ist nicht unwichtiges Papierfeature, das Intel bereits bietet.
Wer sagt das?
Carrizo, Fiji koennen doch schon hevc in Hardware, Polaris daher mit Sicherheit auch
Elkinator
2016-06-05, 23:37:26
Genau, Leute in Foren haben natürlich mehr Ahnung von Marketing!!!!1
-/\-CruNcher-/\-
2016-06-05, 23:38:32
Will ich persönlich garnicht das was ich davon immer sehe reicht mir ;)
Aber die Sprache ist relativ einfach zu verstehen ja schon gigantisch simple heutzutage ;)
AngelDust 32
2016-06-05, 23:45:35
Da grüßt the Thief ;)
Könnten ja auch Nvidia 1080 Zeigen oder nicht oder wie hmm ;)
übrigens glaub ich sagt er "a really big videocards" vielleicht ist ihm das s nur so rausgerutscht oder das nd verschluckt ;)
0:42 Das ist ein Sapphire Kühler
Sagt aber immer noch nichts aus
Narolf
2016-06-05, 23:51:50
Ich finde es sehr dumm von AMD, dass HEVC-Encoding in Hardware nicht angeboten wird. Das ist nicht unwichtiges Papierfeature, das Intel bereits bietet.
Verguckt? Bieten sie doch seit Carrizo/Fiji Feature-Level an!
-/\-CruNcher-/\-
2016-06-06, 00:09:10
0:42 Das ist ein Sapphire Kühler
Sagt aber immer noch nichts aus
Ja und das ist irgendeine archiv Aufnahme es geht aber um das was gesagt wird nicht um das was du siehst ;)
OBrian
2016-06-06, 00:20:36
kann aber trotzdem alles mögliche sein, z.B. ein Customkühler auf einer Pro Duo oder einer 1080 oder sowas. Warum muß man unbedingt Vega vermuten? Auf der Roadmap steht 2017 und sonst weiß man gar nichts. Ich meine, ich hätte auch nichts gegen eine Vega-Karte, die ab morgen früh im Handel ist, aber reines Wunschdenken wird leider nicht wahrer, wenn ganz viele es oft genug wiederholen.
-/\-CruNcher-/\-
2016-06-06, 00:25:30
Naja 1080 kann es nicht sein das event wird von AMD Gesponsert, das war oben nur ein Scherz du hast aber recht diese Pro Duo ist ja auch eine Gamer Karte wobei sie ja eigentlich so ein Prosumer ding ist das als Gamer Karte teil vermarktet wird ;)
dargo
2016-06-06, 07:23:43
Vega? Ein bisschen früh würde ich meinen, zumal - wo ist HBM2?
Da.
http://www.nvidia.de/object/tesla-p100-de.html
Genau, Leute in Foren haben natürlich mehr Ahnung von Marketing!!!!1
Jo... vorallem die Einzelnen hier die die Füsse nicht stillhalten können. ;D
deekey777
2016-06-06, 09:01:17
Wer sagt das?
Carrizo, Fiji koennen doch schon hevc in Hardware, Polaris daher mit Sicherheit auch
Verguckt? Bieten sie doch seit Carrizo/Fiji Feature-Level an!
Mir ging's um Bristol Ridge, dort (wie auch bei Carrizo) wird HEVC-Encoding per VCE nirgendwo erwähnt. Nur Polaris scheint HEVC-Encoding per VCE zu beherrschen.
Diese Aussage kam nach dem Polaris Tech Day.
Deshalb bin ich der Meinung, dass AMD mit der RX 480 ein wirklich gutes Produkt in den Markt bringt.
Weiß nicht, die 1070 und 1080 wirken wenn man die Reviews anschaut alles andere als zusammengetackert, vielmehr sogar sehr gut. Sie liegen bei den Reviewern und sind auf dem Weg in die Läden. Insofern hat besagter Post meine Zweifel bzgl. Polaris eher gefördert.
MadPenguin
2016-06-06, 12:36:06
Weiß nicht, die 1070 und 1080 wirken wenn man die Reviews anschaut alles andere als zusammengetackert, vielmehr sogar sehr gut. Sie liegen bei den Reviewern und sind auf dem Weg in die Läden. Insofern hat besagter Post meine Zweifel bzgl. Polaris eher gefördert.
Hmmm. Die 1080 kann in der FE kaum den Boost Takt halten und ist nach ca. 30 min langsamer, soweit richtig verstanden. Vom Preis und DX12 "Schwäche" der 2 mal abgesehen. Die 1070 ist gut. Wenn die RX480 jedoch um den halben Preis auch nur in die Nähe kommt in DX12 (oder DX11 Leistung stark verbessert), dann muss Nvidia die Preise senken. Hmm, vielleicht auch nicht. Nvidia Jünger sind komisch :)
deekey777
2016-06-06, 12:40:39
Hmmm. Die 1080 kann in der FE kaum den Boost Takt halten und ist nach ca. 30 min langsamer, soweit richtig verstanden. Vom Preis und DX12 "Schwäche" der 2 mal abgesehen. Die 1070 ist gut. Wenn die RX480 jedoch um den halben Preis auch nur in die Nähe kommt in DX12 (oder DX11 Leistung stark verbessert), dann muss Nvidia die Preise senken. Hmm, vielleicht auch nicht. Nvidia Jünger sind komisch :)
3DMark läuft aber nicht so lange. Und für Übertakter zählen die Punkte in 3DMark und nicht die Über-FPS nach 30 Minuten in einem Spiel.
Hmmm. Die 1080 kann in der FE kaum den Boost Takt halten und ist nach ca. 30 min langsamer, soweit richtig verstanden.
Interessant. Hast du dazu mehr Informationen?
dargo
2016-06-06, 13:00:19
http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111-11.html
uweskw
2016-06-06, 13:08:43
Interessant. Hast du dazu mehr Informationen?
.....Takt nach 20min. Anno 2205 oder Witcher3: 1607MHz
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast
Gibt noch andere. Wenn die FoolEdition gefordert wird taktet sie runter. In Spielen, es sei denn man zockt in 1920x1080 :freak:
greetz
US
BK-Morpheus
2016-06-06, 14:05:35
Mit manueller Lüfter-Kurve oder Custom Kühler, ist die Temp-Drosselung dann kein Problem mehr, aber @default ist die Founders Edition wohl bei fast allen Testern durch schnelles Erreichen des Temp Targets aufgefallen (dann kommt die Takt-Drosselung).
Aufpreis für Premium Material, Vapor Champer und Craftsmanship am Poppes :-)
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast
Gibt noch andere. Wenn die FoolEdition gefordert wird taktet sie runter.
Vielen Dank. Denke da dürfte NV die Default-Taktraten unausgewogen gewählt haben zugunsten besserer Benchmarks. Mit einer der Gründe wieso MSI Gaming OC Mode und Gaming Mode unterscheidet? Sehe y33H@s Aussage angesichts der zu erwartenden Performance und dem insgesamt soliden bis sehr guten Eindruck der 1070/180 trotzdem nicht gerechtfertig. Lasse mich natürlich gern positiv überraschen :-). Im Moment sieht es aber so aus, als wäre eine Custom-1070 für den 1440P Gamer die P/L Karte der Wahl.
Dino-Fossil
2016-06-06, 14:36:37
Im Moment hast du da @1440p auch nicht die große Auswahl (besonders innerhalb der 16/14nm Generation), zumindest wenn du einen gewissen Puffer für die Zukunft einbauen möchtest.
Ich schätze Polaris wird sich auch eher an fullHD-Zocker wie mich richten (die, schätze ich, eine relativ Große Gruppe sind), während erst Vega dann auch für höhere Auflösungen zukunftsicherheit bringt.
Ob die 1070 den Preis wert ist, muss jeder für sich selbst entscheiden.
MadPenguin
2016-06-06, 16:09:45
http://fudzilla.com/news/graphics/40835-all-apple-2016-laptops-come-with-amd-gpus
Tja...bisschen Geld tut immet gut :)
Menace
2016-06-06, 16:15:00
Generiert Umsatz und hoffentlich auch Vertrauen in die Marke. Also für eine Firma, die -laut User hier- schon seit Jahren tot ist, ist das schon erstaunlich. :wink:
deekey777
2016-06-06, 16:19:09
Wie hoch der Anteil an verkauften iMacs und MacBook Pros mit dedizierter Grafikkarte ist, weiß eigentlich nur Apple (ob MacBook Pro überhapt einen Nachfolger bekommt?). Ist schön für AMD, aber Tropfen auf die heiße Stein.
MadPenguin
2016-06-06, 16:20:04
Wie hoch der Anteil an verkauften iMacs und MacBook Pros mit dedizierter Grafikkarte ist, weiß eigentlich nur Apple (ob MacBook Pro überhapt einen Nachfolger bekommt?). Ist schön für AMD, aber Tropfen auf die heiße Stein.
Ein hübscher Tropfen jedoch :D
fondness
2016-06-06, 16:22:29
Apple steht wie kaum eine andere Marke für Premium. Dort exklusiv GPUs zu liefern spricht sicher nicht gegen AMD.
Elkinator
2016-06-06, 16:52:58
Wie hoch der Anteil an verkauften iMacs und MacBook Pros mit dedizierter Grafikkarte ist, weiß eigentlich nur Apple (ob MacBook Pro überhapt einen Nachfolger bekommt?). Ist schön für AMD, aber Tropfen auf die heiße Stein.
Ist eh nur einer der wichtigsten Design-Wins für AMD...
...2017 werden wahrscheinlich auch die APUs gegen welche von AMD ausgetauscht!
Warum soll es kein MBP mehr geben? Das Air soll offenbar rausfallen, ja, aber ein groesseres wird es ja wohl noch geben. Und da ist auch mit-ohne GPU ein nettes Differenzierungsmerkmal, das Apple ansetzen kann um noch ein paar 100$ mehr zu verlangen.
Da P11 viel effizienter ist, koennen sie das Ding trotzdem mal wieder duenner machen und nebenbei noch mit Performancesteigerung werben. Das lassen die sich doch nicht entgehen ;p
Schnoesel
2016-06-06, 17:27:20
Was ich mich frage ist warum man noch nichts von einer abgespeckten Variante gehört hat. Ist Rx 480 der Vollausbau? Falls ja wie teuer wird der kleine P10? Darüber hört man absolut nichts. Ich finde das schon ungwöhnlich.
Linmoum
2016-06-06, 17:38:02
Die Konsolendeals sind sicher keine Gelddruckmaschine aber helfen beim Überleben. Schon allein das ist es wert + die Vorteile die sich durch die gemeinsame GPU Architektur ergeben. Was ich mich frage ist warum man noch nichts von einer abgespeckten Variante gehört hat. Ist Rx 480 der Vollausbau? Falls ja wie teuer wird der kleine P10? Darüber hört man absolut nichts. Ich finde das schon ungwöhnlich.
Heute in einer Woche ist die PC Gaming Show auf der E3, da wirst du sicherlich in der Hinsicht Antworten erhalten.
AMD hat ja nur ein bisschen geteasert, eine wirkliche Vorstellung war das nicht. P11 wurde auch komplett ausgelassen. Ob das nun die PRO oder XT war und welche Varianten noch kommen wissen wir noch nicht, aber bald ;p
OBrian
2016-06-07, 00:36:06
Weiß nicht, die 1070 und 1080 wirken wenn man die Reviews anschaut alles andere als zusammengetackert, vielmehr sogar sehr gut. Sie liegen bei den Reviewern und sind auf dem Weg in die Läden. Insofern hat besagter Post meine Zweifel bzgl. Polaris eher gefördert.
warum, wieso muß der eine automatisch was schlecht hingekriegt haben, wenn der andere was gut hingekriegt hat? Evtl. haben sie ja auch beide das gut hingekriegt, was sie wollten.
Man darf nicht vergessen, daß die AMD-Karten in einem Preisbereich liegen, wo ganz andere Menge umgesetzt werden, d.h. sie müssen wesentlich länger schon mal sammeln, um einen Verkaufsstart nicht zu einem quasi-Paperlaunch verkommen zu lassen. Nvidia verkauft von der 1080 und 1070 in den nächsten paar Wochen sicherlich tausende bis zigtausende Exemplare, die gehen ja auch nur in den Retailbereich und an Premium-OEMs wie Alienware usw., mehr gibt der Markt einfach nicht her. Aber AMD hat möglicherweise bereits jetzt schon Hunderttausende bis Millionen von Chips an OEMs ausgeliefert, die in Notebooks und 0815-Komplettrechnern landen. Und Apple greift sich ja auch sicherlich als erster seinen Teil ab.
Das würde sich mit der gerüchteweisen Aussage decken, daß AMD früher dran wäre als Nvidia, und gleichzeitig erklären, warum der offizielle Retail-Verkaufsstart trotzdem nicht früher kommt: Es sollen erst alle Mitstreiter in den Startlöchern stehen.
-/\-CruNcher-/\-
2016-06-07, 01:47:35
Ist eh nur einer der wichtigsten Design-Wins für AMD...
...2017 werden wahrscheinlich auch die APUs gegen welche von AMD ausgetauscht!
Denke mal wir werden schon bald Apples Announcement zum HSA Foundation beitritt miterleben ;)
Nightspider
2016-06-07, 03:39:38
Ich habe jetzt mal die letzten 15 Seiten gelesen und finde es lustig wie hier die meisten davon ausgehen das Vega 10 wohl die Antwort auf die GTX1080 sein soll.
Vega ist AMDs große Chipreihe mit noch modernerer und effizienterer Architektur als Polaris + HBM2.
Wenn der große Vega 10 Chip nur 75% vor der RX480 liegt lacht sich Nvidia krumm und schief. Die Aussage ist imo sogar dämlich, horn.
Der große Pascal Chip (GP100 oder GP102) wird der Gegner für Vega 10.
Denn wenn AMD auch im Server-Bereich mitmischen will wird man keinen "nur" 350mm² großen Vega 10 Chip bringen. Vega 10 wird irgendwo zwischen 400-500mm² und damit potentiell eine bis zu 2,5fache Fläche aufbieten wie Polaris 10, incl. besserer Architektur.
Vega 10 wird also eher 100-150% schneller sein als Polaris 10 meiner Einschätzung nach.
Vega 11 wird sich dann mit der GTX1080 anlegen. Da wahrscheinlich auch Vega 11 mit HBM2 kommen wird sehe ich AMDs Vega 11 Karten auch im Vorteil bzgl. Kampf mit der GTX1080.
Falls es AMD nicht total verkackt stehen uns noch tolle 8 Monate bevor. Nicht nur im Grafikkarten-Segment wird es turbulent und tendenziell positiv für AMD. Auch im CPU Bereich dürften die Preise deutlich fallen. Zumindest was Leistung pro Euro betrifft mit AMDs Zen OctaCore mit sicherlich deutlich günstigeren Preisen als Intels 1000 Euro Ladenhüter.
PPS: Wer nicht Anfang des Jahres AMD Aktien gekauft hat, hat eh verloren. ^^
victore99
2016-06-07, 06:58:36
Ich habe jetzt mal die letzten 15 Seiten gelesen und finde es lustig wie hier die meisten davon ausgehen das Vega 10 wohl die Antwort auf die GTX1080 sein soll.
Vega ist AMDs große Chipreihe mit noch modernerer und effizienterer Architektur als Polaris + HBM2.
Wenn der große Vega 10 Chip nur 75% vor der RX480 liegt lacht sich Nvidia krumm und schief. Die Aussage ist imo sogar dämlich, horn.
Der große Pascal Chip (GP100 oder GP102) wird der Gegner für Vega 10.
Denn wenn AMD auch im Server-Bereich mitmischen will wird man keinen "nur" 350mm² großen Vega 10 Chip bringen. Vega 10 wird irgendwo zwischen 400-500mm² und damit potentiell eine bis zu 2,5fache Fläche aufbieten wie Polaris 10, incl. besserer Architektur.
Vega 10 wird also eher 100-150% schneller sein als Polaris 10 meiner Einschätzung nach.
Vega 11 wird sich dann mit der GTX1080 anlegen. Da wahrscheinlich auch Vega 11 mit HBM2 kommen wird sehe ich AMDs Vega 11 Karten auch im Vorteil bzgl. Kampf mit der GTX1080.
Falls es AMD nicht total verkackt stehen uns noch tolle 8 Monate bevor. Nicht nur im Grafikkarten-Segment wird es turbulent und tendenziell positiv für AMD. Auch im CPU Bereich dürften die Preise deutlich fallen. Zumindest was Leistung pro Euro betrifft mit AMDs Zen OctaCore mit sicherlich deutlich günstigeren Preisen als Intels 1000 Euro Ladenhüter.
PPS: Wer nicht Anfang des Jahres AMD Aktien gekauft hat, hat eh verloren. ^^
C'm on.. Rly?
Wir wissen, das Vega 10 im Grunde genommen "Fiji Done Right" ist. Also wieder 4096 ALUs hat.
Darüber dann Vega 11.
Also hast du quasi nur die Chipnamen vertauscht.
Da du das wahrscheinlich anders siehst, wäre ich dafür, von Vega-Big und Vega-Small zu sprechen. Dann gibts keine Verwechselungen mehr.
LadyWhirlwind
2016-06-07, 08:01:33
warum, wieso muß der eine automatisch was schlecht hingekriegt haben, wenn der andere was gut hingekriegt hat? Evtl. haben sie ja auch beide das gut hingekriegt, was sie wollten.
Man darf nicht vergessen, daß die AMD-Karten in einem Preisbereich liegen, wo ganz andere Menge umgesetzt werden, d.h. sie müssen wesentlich länger schon mal sammeln, um einen Verkaufsstart nicht zu einem quasi-Paperlaunch verkommen zu lassen. Nvidia verkauft von der 1080 und 1070 in den nächsten paar Wochen sicherlich tausende bis zigtausende Exemplare, die gehen ja auch nur in den Retailbereich und an Premium-OEMs wie Alienware usw., mehr gibt der Markt einfach nicht her. Aber AMD hat möglicherweise bereits jetzt schon Hunderttausende bis Millionen von Chips an OEMs ausgeliefert, die in Notebooks und 0815-Komplettrechnern landen. Und Apple greift sich ja auch sicherlich als erster seinen Teil ab.
Das würde sich mit der gerüchteweisen Aussage decken, daß AMD früher dran wäre als Nvidia, und gleichzeitig erklären, warum der offizielle Retail-Verkaufsstart trotzdem nicht früher kommt: Es sollen erst alle Mitstreiter in den Startlöchern stehen.
Kaby Lake steht ja in den Startlöchern, also Zeit für die OEMs & Apple ihre Geräte zu refreshen. Was natürlich heisst, dass auch auf 16/14nm GPUs umgestellt werden soll. Ein Design-Win ist natürlich nur was Wert, wenn man auch liefern kann. Da Nvidia keine direkten neuen Konkurenzprodukte vorgestellt hat, kann man mit dem Endkundenmarkt auch etwas zu warten, die grossen OEMs sind als Kunden einfach wichtiger. Ansinsten hätten wir einen Paperlaunch gesehen.
Sunrise
2016-06-07, 08:10:45
Längerfristige Verträge bzw. diese Volumen sind sowieso erstmal wichtiger, der Desktop alleine ist dagegen wirklich ein Witz. Ich denke AMD macht damit alles richtig, wenn es denn stimmt.
Und dass AMD jetzt in Apples Laptops und Co. kommt ist nun wirklich keine Überraschung.
G3cko
2016-06-07, 08:13:27
Falscher thread nur so viel zu den Intel 1000€ ladenhütern:
http://www.pcgameshardware.de/Haswell-Codename-255592/News/CPU-Ranking-2015-1181394/
MadPenguin
2016-06-07, 08:21:26
Falscher thread nur so viel zu den Intel 1000€ ladenhütern:
http://www.pcgameshardware.de/Haswell-Codename-255592/News/CPU-Ranking-2015-1181394/
Die Zeit ist reif für gute und erschwingliche 8 Kerner (Zen) und gute und erschwingliche GPUs (Rx480) :D
Da Nvidia keine direkten neuen Konkurenzprodukte vorgestellt hat, kann man mit dem Endkundenmarkt auch etwas zu warten, die grossen OEMs sind als Kunden einfach wichtiger.
Ich denke, da muss man vorsichtig sein.
Als ob die OEMs die Ersparnis so 1:1 an die Kunden weitergeben. Ich denke mal P10 wird es auch nur in hochpreisigen Gaming-Geraeten geben. Wenn ein OEM jetzt der Meinung ist, dass er mehr verlangen und umsetzen kann, wenn Nvidia drauf steht, konkurriert in diesem Markt GP104 durchaus mit P10. Auch und vor allem in Notebooks, wo beide Produkte eher an der oberen Grenze des "normal machbaren" kratzen, vom Verbrauch her gesehen, die riesigen Monster mal aussen vor.
Gerade mal einen Ueberblick verschafft: Notebooks mit GTX 960M gehen bei ~800 € los, mit 970M bei ~1200 und mit 980M bei ~1500.
Der Logik nach muesste P10 so den Bereich der 960M angreifen, aber wenn die Hersteller P10 Notebooks erst ab ~1000 und 1070M schon ab ~1200 verkaufen ist durchaus eine Konkurrenzsituation da.
Die gleiche Situation gab es ja mit Carrizo. AMD hat klare Ansagen gemacht, dass der Chip guenstig ist und im niedrigen Preisbereich angreifen soll. Bekommen hat man entweder absoluten Schrott oder eine Serie von HP die OK war und gleich mal gut >1k gekostet hat.
YfOrU
2016-06-07, 09:03:31
Der Logik nach muesste P10 so den Bereich der 960M angreifen, aber wenn die Hersteller P10 Notebooks erst ab ~1000 und 1070M schon ab ~1200 verkaufen ist durchaus eine Konkurrenzsituation da.
Im Bereich um die 960M (945M - 965M, bis 50W TDP) sehe ich eher P11. Mobile dGPUs mit 256-Bit GDDR5 SI wie auch P10 würde ich nicht in diesem Segment einordnen.
Sunrise
2016-06-07, 09:11:53
Ich denke, da muss man vorsichtig sein.
Als ob die OEMs die Ersparnis so 1:1 an die Kunden weitergeben. Ich denke mal P10 wird es auch nur in hochpreisigen Gaming-Geraeten geben.
Es geht um den Absatz insgesamt und vor allem um P11, der vornehmlich für mobile Anwendung gebaut wurde. Von P10 können wir maximal im iMac und evtl. einigen wenigen DTR-Notebooks ausgehen. GP104 kann ausschließlich mit P10 konkurrieren, das ist aber der deutlich kleinere Markt und im Gegensatz zu P11 vernachlässigbar.
Alle Deals in denen AMD die Wafer nur so aus den Händen gerissen werden sind gut für AMD und schlecht für NV, selbst bei kleineren Margen, denn das kostet NV über kurz oder lang weitere Marktanteile. Inwieweit andere OEMs da NV-affin sind, interessiert erstmal nicht, da NV scheinbar andere Prioritäten hatte (HPC und Performance-High-End-Desktop).
Im Bereich um die 960M (945M - 965M, bis 50W TDP) sehe ich eher P11. Mobile dGPUs mit 256-Bit GDDR5 SI wie auch P10 würde ich nicht in diesem Segment einordnen.
Die Betrachtung bezog sich rein auf die Preise, das habe ich denke ich deutlich gemacht.
Natuerlich braucht man fuer P10 mehr Power und Kuehlung was den Preis auch wieder erhoeht aber trotzdem ist der Chip halt preislich offenbar eher in dem Bereich eines Gxx06er als in dem eines Gxx04er Chips.
das ist aber der deutlich kleinere Markt und im Gegensatz zu P11 vernachlässigbar.
Darum geht es mir ja, P10 koennte eben auch fuer guenstigere Notebookserien ordentlich Mehrleistung bringen bzw. eine breitere Zielgruppe erreichen - wenn die OEMs das wollten.
-/\-CruNcher-/\-
2016-06-07, 09:50:22
Ich denke, da muss man vorsichtig sein.
Als ob die OEMs die Ersparnis so 1:1 an die Kunden weitergeben. Ich denke mal P10 wird es auch nur in hochpreisigen Gaming-Geraeten geben. Wenn ein OEM jetzt der Meinung ist, dass er mehr verlangen und umsetzen kann, wenn Nvidia drauf steht, konkurriert in diesem Markt GP104 durchaus mit P10. Auch und vor allem in Notebooks, wo beide Produkte eher an der oberen Grenze des "normal machbaren" kratzen, vom Verbrauch her gesehen, die riesigen Monster mal aussen vor.
Gerade mal einen Ueberblick verschafft: Notebooks mit GTX 960M gehen bei ~800 € los, mit 970M bei ~1200 und mit 980M bei ~1500.
Der Logik nach muesste P10 so den Bereich der 960M angreifen, aber wenn die Hersteller P10 Notebooks erst ab ~1000 und 1070M schon ab ~1200 verkaufen ist durchaus eine Konkurrenzsituation da.
Die gleiche Situation gab es ja mit Carrizo. AMD hat klare Ansagen gemacht, dass der Chip guenstig ist und im niedrigen Preisbereich angreifen soll. Bekommen hat man entweder absoluten Schrott oder eine Serie von HP die OK war und gleich mal gut >1k gekostet hat.
Du solltest die 965m noch hinzufügen die war äusserst wichtig um AMDs Angriff zu blocken, diesmal wird das nicht so einfach ;)
Vor allem da ein komplett AMD Laptop preislich effizienter sein sollte als wie eine Intel/Nvidia kombo, das hauptproblem ist die rchtige APU/CPU.
Wenn Zen jetzt schon fertig wäre :D
YfOrU
2016-06-07, 10:41:34
Die Betrachtung bezog sich rein auf die Preise, das habe ich denke ich deutlich gemacht.
Natuerlich braucht man fuer P10 mehr Power und Kuehlung was den Preis auch wieder erhoeht aber trotzdem ist der Chip halt preislich offenbar eher in dem Bereich eines Gxx06er als in dem eines Gxx04er Chips.
Am Desktop ja. Die mobilen Varianten müssen sich hier aber nicht im gleichen Verhältnis bewegen. Der Abstand zwischen P10 und GP104 sollte aufgrund der TDP Limitierung (im Regelfall um 100W) deutlich geringer ausfallen.
Das AMD niedrigere Preise ansetzen wird als Nvidia steht denke ich außer Frage und mit der geringeren Chipgröße sollte das auch problemlos realisierbar sein.
Rabiata
2016-06-07, 12:18:26
Du solltest die 965m noch hinzufügen die war äusserst wichtig um AMDs Angriff zu blocken, diesmal wird das nicht so einfach ;)
Vor allem da ein komplett AMD Laptop preislich effizienter sein sollte als wie eine Intel/Nvidia kombo, das hauptproblem ist die rchtige APU/CPU.
Wenn Zen jetzt schon fertig wäre :D
Bristol Ridge mit DDR4 RAM sollte auch schon helfen. Die APUs leiden bisher deutlich unter dem für die Grafik zu schwachen Speicherdurchsatz, das sollte mit DDR4 besser werden.
Eine APU mit HBM als VRAM wäre sicher auch interessant, aber im Moment wohl noch zu teuer.
von Richthofen
2016-06-07, 13:42:47
Polaris 11 mit nur 640 Shader Cores?
Wäre ein bisschen sehr wenig, verglichen mit dem wovon man bisher ausgegangen ist.
http://www.fudzilla.com/news/graphics/40840-amd-apple-gpu-polaris-11-based
Gipsel
2016-06-07, 13:47:54
Polaris 11 mit nur 640 Shader Cores?
Wäre ein bisschen sehr wenig, verglichen mit dem wovon man bisher ausgegangen ist.
http://www.fudzilla.com/news/graphics/40840-amd-apple-gpu-polaris-11-based
Falls das stimmen sollte, fehlt wohl noch ein Polaris 12 mit 18-20 CUs. Der große Abstand zu Polaris 10 ist untypisch für AMD (da gibt es sonst <= Faktor 2). Aber ich würde erstmal abwarten, was sich davon bestätigt. Denn 10 CUs sind so mickrig in 14nm, da würde es kaum auffallen, wenn man noch 5 oder 6 mehr draufhaut.
10 CUs? :uponder:
Das ist schon fast APU Niveau, sobald Raven Ridge kommt wird das doch fast schon laecherlich.
Das koennte eine stark beschnittene Variante sein, 16 CUs sollte das Ding schon mind. haben, sonst haetten sie es sich auch sparen koennen, imho.
40 Watt fuer das Topmodell ergeben doch auch keinen Sinn. Dann haette AMD ein riesen Loch dazwischen und koennte nichtmal den Bereich der vorher GM206 gehoert hat beliefern.
Sehe auch den Sinn fuer Apple nicht, die Skylake GT4e hat schon >1,1 TFLOPs. Ob die entsprechende CPU teurer ist als die CPU ohne GT4e, "P11" und den zusaetzlichen Konstruktionsaufwand zusammen?
Dass noch ein dritter Polaris kommt, wurde doch deutlich ausgeschlossen oder irre ich?
Knuddelbearli
2016-06-07, 14:08:44
Ich habe jetzt mal die letzten 15 Seiten gelesen und finde es lustig wie hier die meisten davon ausgehen das Vega 10 wohl die Antwort auf die GTX1080 sein soll.
Vega ist AMDs große Chipreihe mit noch modernerer und effizienterer Architektur als Polaris + HBM2.
Wenn der große Vega 10 Chip nur 75% vor der RX480 liegt lacht sich Nvidia krumm und schief. Die Aussage ist imo sogar dämlich, horn.
Der große Pascal Chip (GP100 oder GP102) wird der Gegner für Vega 10.
Denn wenn AMD auch im Server-Bereich mitmischen will wird man keinen "nur" 350mm² großen Vega 10 Chip bringen. Vega 10 wird irgendwo zwischen 400-500mm² und damit potentiell eine bis zu 2,5fache Fläche aufbieten wie Polaris 10, incl. besserer Architektur.
Vega 10 wird also eher 100-150% schneller sein als Polaris 10 meiner Einschätzung nach.
Vega 11 wird sich dann mit der GTX1080 anlegen. Da wahrscheinlich auch Vega 11 mit HBM2 kommen wird sehe ich AMDs Vega 11 Karten auch im Vorteil bzgl. Kampf mit der GTX1080.
Falls es AMD nicht total verkackt stehen uns noch tolle 8 Monate bevor. Nicht nur im Grafikkarten-Segment wird es turbulent und tendenziell positiv für AMD. Auch im CPU Bereich dürften die Preise deutlich fallen. Zumindest was Leistung pro Euro betrifft mit AMDs Zen OctaCore mit sicherlich deutlich günstigeren Preisen als Intels 1000 Euro Ladenhüter.
PPS: Wer nicht Anfang des Jahres AMD Aktien gekauft hat, hat eh verloren. ^^
Leider unterläuft dir da ein Fehler vega 10 ist der kleine Vega und 11 der große. Klingt komisch ist aber allem Anschein nach so.
Sunrise
2016-06-07, 14:26:05
Im Mid 2015 Macbook Pro Retina steckt ja aktuell schon eine Radeon R9 M370X mit 640 ALUs bei 800 MHz an einem 128Bit SI mit 2GB GDDR5 getaktet mit 4500MHz. Das sind laut meiner Rechnung knapp über 1 TFLOP. Bei der tatsächlichen Spielelast werden die 800 MHz nicht konstant gehalten. Sind sehr oft "nur" zwischen 675 und 725 MHz, bricht aber gelegentlich auch auf nur noch 400 MHz ein.
Damit das fürs Marketing aufgeht muss Polaris 11 im neuen Macbook Pro Retina sowohl mehr leisten als auch möglichst weniger verbrauchen (bei min. identischer Leistung).
Unwahrscheinlich, dass Apple da weiterhin nur 1 TFLOP angibt, auch wenn Polaris mehr aus den 1 TFLOP rausholen sollte. Denn damit wirbt es sich nicht gut. So 1,25 TFLOPs sollten es schon sein.
Bei nur etwa 1/4 der ALUs der RX 480, dem halbierten Interface und weniger Takt wäre es ein wenig überraschend, wenn dort nicht deutlich unter 40W stehen sollten und dann können sie es sich eigentlich auch gleich sparen. Wo soll denn da bitte die verbesserte Effizienz (2.0X oder mehr) sein?
Bei Apple hat allerdings die 5K-Ansteuerung und die Multi-Monitor-Fähigkeit zusammen mit OpenCL und der Multi-Stream-Fähigkeit (Video-Bearbeitung) Vorrang vor allem anderen. Intel kann da nicht mithalten, und theoretische TFLOPs-Vergleiche helfen auch nicht weiter.
Wenn Apple natürlich die Macbooks wieder deutlich verdünnert, dann wären da aber prinzipiell schon ein paar Schweinereien möglich, aber das klingt doch schon extrem enttäuschend IMHO. Klingt eigentlich nicht glaubwürdig.
Rabiata
2016-06-07, 14:43:12
10 CUs? :uponder:
Das ist schon fast APU Niveau, sobald Raven Ridge kommt wird das doch fast schon laecherlich.
Das koennte eine stark beschnittene Variante sein, 16 CUs sollte das Ding schon mind. haben, sonst haetten sie es sich auch sparen koennen, imho.
40 Watt fuer das Topmodell ergeben doch auch keinen Sinn. Dann haette AMD ein riesen Loch dazwischen und koennte nichtmal den Bereich der vorher GM206 gehoert hat beliefern.
Sehe auch den Sinn fuer Apple nicht, die Skylake GT4e hat schon >1,1 TFLOPs. Ob die entsprechende CPU teurer ist als die CPU ohne GT4e, "P11" und den zusaetzlichen Konstruktionsaufwand zusammen?
Dass noch ein dritter Polaris kommt, wurde doch deutlich ausgeschlossen oder irre ich?
Vielleicht wenn die 10 CU-Version seeehr preiswert ist. Aber da müßte sich AMD schon sehr anstrengen, was das Preis-Leistungsverhältnis angeht. Beim genaueren Nachsehen glaube ich nicht daß das klappen würde:
Bei Intel liegt der Preis für eine Skylake Mobil-CPU mit GT4e um 50-60$ über dem für eine mit HD 530 (laut Wikipedia, habe im heise-Preisvergleich nur komplette Notebooks gefunden). Das im Preis zu unterbieten dürfte auch für eine Low-End Grafikkarte mühsam werden.
Unicous
2016-06-07, 14:57:14
Nur mal zur Info. Cape Verde XT in Form von der 7870M soll wohl bei 45 Watt liegen. Es liegt auf der Hand, dass sich das bei einer 10 CU SKU/Chip? ca. halbieren sollte.:wink:
Bei Compubench war ja schon ein Eintrag zu finden der bei dieser SKU von max_compute_units 16 sprach.
https://compubench.com/device.jsp?benchmark=compu15d&os=Windows&api=cl&D=AMD+67FF%3AC8&testgroup=info
Dural
2016-06-07, 14:59:42
Apple will einfach nichts bezahlen, war schon immer so und bleibt auch so. War auch der Grund wie so Intel damals beim ersten iPhone abgesagt hat, und von NV muss nicht gar nicht erst Anfangen.
Die GPU wird sicherlich beschnitten sein und wird Apple weiter helfen früher oder später alles aus einer Hand liefern zu können. AMD muss sie dabei halt noch unterschützten, da sie um jeden Cent froh sind.
Apple verkauft Premium Produkte und schert sich rein gar nichts um die Lieferanten und die billigen Arbeitskräft, jede sollte sich schämen wenn er ein Apple Produkt hat. (jaja fast überall so)
deekey777
2016-06-07, 15:18:45
Im Mid 2015 Macbook Pro Retina steckt ja aktuell schon eine Radeon R9 M370X mit 640 ALUs bei 800 MHz an einem 128Bit SI mit 2GB GDDR5 getaktet mit 4500MHz
Es gibt auch ein Modell (gemeint ist das 15''-Modell) mit Iris Pro Grafik. Apple könnte auch einen Vierkerner-Skylake mit Iris Pro Graphics 580 reinstecken und auf eine dedizierte Grafik gänzlich verzichten (was eher unwahrscheinlich ist). Apple wäre zuzutrauen, dass sie zu einem Zweikerner greifen (wiedem i7-6660U).
Aber dann gibt es wohl einen aufstand, wenn Apple so ein Ultrahighend-Gerät nicht mehr im Angebot hat. (Wobei die Tendenz überall zu leichten Ultrabooks zu erkennen ist.) Auch wird Apple MBPs mit dedizierten GPUs anbieten (müssen).
Elkinator
2016-06-07, 15:19:02
Polaris 11 mit nur 640 Shader Cores?
Wäre ein bisschen sehr wenig, verglichen mit dem wovon man bisher ausgegangen ist.
http://www.fudzilla.com/news/graphics/40840-amd-apple-gpu-polaris-11-based
Teildeaktiviert, eine noch kleinere GPU wird sich nicht auszahlen.
Nightspider
2016-06-07, 15:37:10
Leider unterläuft dir da ein Fehler vega 10 ist der kleine Vega und 11 der große. Klingt komisch ist aber allem Anschein nach so.
Ernsthaft? Ist das schon mehr oder weniger bestätigt? Wer hat sich denn den Mist ausgedacht? :D
Thunder99
2016-06-07, 15:41:21
AMD :freak:
Die Nummerierung ist nach dem Zeitpunkt der Entwicklung gerichtet und nicht nach der Performance Einordnung
Unicous
2016-06-07, 15:43:54
Ernsthaft? Ist das schon mehr oder weniger bestätigt? Wer hat sich denn den Mist ausgedacht? :D
Nein, gar nichts ist bestätigt, Knuddelbärli behauptet bloß wieder Sachen, die er nicht beweisen kann.:rolleyes:
ravage
2016-06-07, 16:08:17
Das hier meintest du sicherlich:
https://abload.de/thumb/amdradeon-imgurszs1s.jpg (http://abload.de/image.php?img=amdradeon-imgurszs1s.jpg)
Das Bild im Quote ist der Auslöser für die Vermutung, dass Vega 11 der größere Chip wird.
/EDIT: Bild in groß (http://abload.de/image.php?img=amdradeon-imgurszs1s.jpg)
Unicous
2016-06-07, 16:12:38
:rolleyes:
http://www.3dhdwallpapers.com/image.php?width=700&height=700&cropratio=2:1&image=/wallpapers/260620156/4k-futuristic-planet.jpg
Ailuros
2016-06-07, 16:14:59
Eine Supernova? Ich hab ein eclipse Bildchen im avatar zaehlt das auch? :freak:
Unicous
2016-06-07, 16:17:59
Eine Supernova? Ich hab ein eclipse Bildchen im avatar zaehlt das auch? :freak:
Nur wenn du Vega Drölf und Navi Einhundertelfzig einzeichnest.:wink:
N0Thing
2016-06-07, 16:20:04
Ernsthaft? Ist das schon mehr oder weniger bestätigt? Wer hat sich denn den Mist ausgedacht? :D
Bestätigt im Sinne von zwei unabhängige Quellen ist es nicht. Anandtech haben laut eigener Aussage von AMD bestätigt bekommen, dass es zwei Vega GPUs geben soll. Alle anderen Redaktionen, scheinen diese Info aber nicht bekommen zu haben.
Außerdem hat AMD offiziell bestätigt, dass das Namensschema bei Polaris nicht nach der Leistung sondern anhand des Zeitpunktes gewählt wurde.
Somit ist es möglich, dass es zwei Vega Chips geben wird und es ist auch möglich, dass Vega 11 größer sein wird als Vega 10. Ob es so kommt, weiß hier aber niemand. :)
Eine Supernova? Ich hab ein eclipse Bildchen im avatar zaehlt das auch? :freak:
Sorry, ist nur eine Sonneneruption, darfst leider nicht mitspielen. :D
Das Bild im Quote ist der Auslöser für die Vermutung, dass Vega 11 der größere Chip wird.
Nein diese Vermutungen gab es schon lange vorher und sie wurden auch oft genug begruendet.
Unicous
2016-06-07, 16:29:32
Nein diese Vermutungen gab es schon lange vorher und sie wurden auch oft genug begruendet.
Wo, wann und von wem?
herp_derp
2016-06-07, 16:43:59
War das schon?
Dan Baker
@dankbaker
So it appears to us that the screen disparity on Ashes snow rendering was caused by NV driver 368.19. Driver 368.25 should be fixed.
Sean Pelletier @PellyNV
@dankbaker Weird. 368.19 was a press-only driver and not public. 368.25 was the first public driver. Wonder where they got that driver...
https://twitter.com/dankbaker/status/739880981612625920
victore99
2016-06-07, 16:46:43
Von "Fiji done right" und den Daraus resultierenden Shadern, von dem Zeitpunkt der ersten Kenntnis des Namens "Vega 10" und dem Bildchen.
Wie AMD die Vegas nennt kann uns aber an sich scheissegal sein. Wenn man einfach von Vega big und Vega small spricht, verstehen es alle.
victore99
2016-06-07, 16:47:43
War das schon?
https://twitter.com/dankbaker/status/739880981612625920
Was zur Hölle.. Wie kommt AMD an verdammte Pressetreiber???
Ergo haben sie auch eine Pressekarte. Ich kapiere nicht wie. Außer über einen NV-Maulwurf oder eine untreue Zeitschrift. Aber WTF?
][immy
2016-06-07, 16:51:24
Was zur Hölle.. Wie kommt AMD an verdammte Pressetreiber???
Ergo haben sie auch eine Pressekarte. Ich kapiere nicht wie. Außer über einen NV-Maulwurf oder eine untreue Zeitschrift. Aber WTF?
Die viel interessantere Frage ist wohl, warum rendert ein Presse-Treiber anders bzw. lässt Sachen weg. Hinterher kann man immer sagen, das es ein Fehler war.
Wäre natürlich interessant ob sich dadurch in der Performance etwas getan hat. aber abgesehen davon, es gibt genug Quellen im Internet um einen Presse-Treiber zu bekommen.
Wo, wann und von wem?
Hier, auf der Hauptseite, in anderen Foren/spekulativen News...
Begruendet != belegt. Begruendet mit Gedankengaengen und weiteren Spekulationen ;p
War das schon?
https://twitter.com/dankbaker/status/739880981612625920
nope, hat aber ehrlich gesagt auch nicht mehr wirklich was mit Polaris zu tun.
Das Bild im Quote ist der Auslöser für die Vermutung, dass Vega 11 der größere Chip wird.
/EDIT: Bild in groß (http://abload.de/image.php?img=amdradeon-imgurszs1s.jpg)
Japp ist es. Woher das aber stammt keine Ahnung. Hab es auch nur von hier.
Aber, Unicous hat das Original gefunden... ich suchte mich bis jetzt doof und dämlich und hab tonnenweise Bilder verglichen - danke, Unicous :D
-/\-CruNcher-/\-
2016-06-07, 17:00:05
Apple will einfach nichts bezahlen, war schon immer so und bleibt auch so. War auch der Grund wie so Intel damals beim ersten iPhone abgesagt hat, und von NV muss nicht gar nicht erst Anfangen.
Die GPU wird sicherlich beschnitten sein und wird Apple weiter helfen früher oder später alles aus einer Hand liefern zu können. AMD muss sie dabei halt noch unterschützten, da sie um jeden Cent froh sind.
Apple verkauft Premium Produkte und schert sich rein gar nichts um die Lieferanten und die billigen Arbeitskräft, jede sollte sich schämen wenn er ein Apple Produkt hat. (jaja fast überall so)
Maxwell 1 haben sie jedenfalls sehr schnell rausgefeuert und das obwohl er bessere laufzeit brachte das war echt verwunderlich lag so bei +10 min glaube.
Und dann kamm Microsoft mit Surface Book + Maxwell 2 :D
victore99
2016-06-07, 17:00:12
[immy;11059438']Die viel interessantere Frage ist wohl, warum rendert ein Presse-Treiber anders bzw. lässt Sachen weg. Hinterher kann man immer sagen, das es ein Fehler war.
Wäre natürlich interessant ob sich dadurch in der Performance etwas getan hat. aber abgesehen davon, es gibt genug Quellen im Internet um einen Presse-Treiber zu bekommen.
Wenns ein Fehler war, hat niemand aus der Fachpresse darüber berichtet oder NV den gemeldet.
Das heißt, NV muss selbst drauf gekommen sein - und dann aber die Benchmarks revalidieren, oder aber, NV boostet wirklich die FPS.
Auffällig ist bei dem Launch auch, dass nur DX11 getestet wurde oder DX12 nur mit ROTTR. Selbst in der Print-PCGH. Das nenne ich mal Qualitätskorruption.
BlacKi
2016-06-07, 17:01:29
Ich habe jetzt mal die letzten 15 Seiten gelesen und finde es lustig wie hier die meisten davon ausgehen das Vega 10 wohl die Antwort auf die GTX1080 sein soll.
Vega ist AMDs große Chipreihe mit noch modernerer und effizienterer Architektur als Polaris + HBM2.
wenn du den polaris chip grob verdoppelst kommst du bei 460-470mm², ohne chip verbesserungen auf höhe der 1080 raus(leicht schneller. hbm2 bringt dir kaum einen vorteil wenn der speicher nicht limitiert. oder findest du die 256gbit der rx480 zu gering? effizienz technisch ja, performance mäßig nicht.
victore99
2016-06-07, 17:08:55
wenn du den polaris chip grob verdoppelst kommst du bei 460-470mm², ohne chip verbesserungen auf höhe der 1080 raus(leicht schneller. hbm2 bringt dir kaum einen vorteil wenn der speicher nicht limitiert. oder findest du die 256gbit der rx480 zu gering? effizienz technisch ja, performance mäßig nicht.
Wenn AMD an das 256bit-SI 2MB $ hängen würden, was sie bei AMDs Psychologie wahrscheinlich nicht tun, dann ist das Interface kein Arges Limit.
Der grob gleich schnelle Hawaii mit 512er SI hat mit MemOC gut gewonnen, und Fiji skaliert trotz HBM nahezu 1:1 in manchen Games mit dem Speichertakt.
Also ich bin der Meinung, dass Vega Klein sogar pro Shader besser performen wird als Polaris. Allein wegen dem neuen Memorysubsystem
Elkinator
2016-06-07, 17:16:59
wenn du den polaris chip grob verdoppelst kommst du bei 460-470mm²
Arge Milchmädchenrechnung!
UVD, VCE wird nicht verdoppelt, der PHY wird bei HBM viel kleiner,...
P10 hat auch sicher mehr als 36CUs, selbst für 40CUs wäre der Chip mit 232mm² eigentlich zu groß.
Nightspider
2016-06-07, 17:20:32
wenn du den polaris chip grob verdoppelst kommst du bei 460-470mm², ohne chip verbesserungen auf höhe der 1080 raus(leicht schneller. hbm2 bringt dir kaum einen vorteil wenn der speicher nicht limitiert. oder findest du die 256gbit der rx480 zu gering? effizienz technisch ja, performance mäßig nicht.
Jepp. Das wären schon +100% im schlechtesten Fall, welche auch locker zu erreichen sind weil man durch HBM2 wahrscheinlich die 3-4 fache effektive Bandbreite hat, Strom spart (dadurch die Taktraten halten oder steigern kann) und durch HBM auch etwas Diearea spart.
Zudem kommen eben noch Architekturverbesserungen und die Möglichkeit das der Chip nicht nur ~460mm² groß wird sondern vllt sogar 500-550mm².
Deswegen hat Big Vega (so nennen wir ihn am besten mal ab jetzt) durchaus das Potential 120 -150% schneller zu sein als die RX480.
Das liegt absolut im Bereich des Möglichen.
Arge Milchmädchenrechnung!
UVD, VCE wird nicht verdoppelt, der PHY wird bei HBM viel kleiner,...
Deswegen würde ich einen Vega Chip mit doppelter Polaris 10 Leistung auch eher bei 410-440mm² sehen. Da ist noch viel Potential nach oben.
Wobei UVD und co bei Vega ja vllt noch größer und leistungsfähiger ausfallen werden.
Sunrise
2016-06-07, 17:29:25
...Deswegen hat Big Vega (so nennen wir ihn am besten mal ab jetzt) durchaus das Potential 120 -150% schneller zu sein als die RX480. Das liegt absolut im Bereich des Möglichen.
Sind leider immer nur theoretische TFLOPS, leider limitiert im Design aber meist etwas anderes. Vega hat aber zumindest den HBM-Vorteil und wenn der gut genutzt wird (bei Fiji eher nicht) sollte das Ding abgehen wie verrückt.
BlacKi
2016-06-07, 17:55:03
Jepp. Das wären schon +100% im schlechtesten Fall, welche auch locker zu erreichen sind weil man durch HBM2 wahrscheinlich die 3-4 fache effektive Bandbreite hat, Strom spart (dadurch die Taktraten halten oder steigern kann) und durch HBM auch etwas Diearea spart.
Zudem kommen eben noch Architekturverbesserungen und die Möglichkeit das der Chip nicht nur ~460mm² groß wird sondern vllt sogar 500-550mm².
Deswegen hat Big Vega (so nennen wir ihn am besten mal ab jetzt) durchaus das Potential 120 -150% schneller zu sein als die RX480.
Das liegt absolut im Bereich des Möglichen.
das wären ca 30% - 50% schneller als die 1080, somit schneller als der erwartete gp102.
daran glaub ich nicht. pro chip fläche liegt pascal weit vor polaris, die 1070 ist knapp 40% schneller bei leicht höherer chipfläche. selbst wenn man zugunsten der 480 nur +30% veranschlagt, bräuchte vega (ohne chip design verbesserungen) 30% mehr chipfläche um die 1080 zu erreichen. 408mm². wäre der chip nun ~460mm² dann wäre sie rechnerisch 12% schneller...
wie gesagt leicht schneller, zum selben preis für ~600€
Elkinator
2016-06-07, 18:05:13
daran glaub ich nicht. pro chip fläche liegt pascal weit vor polaris, die 1070 ist knapp 40% schneller bei leicht höherer chipfläche.
Mal abwarten ob noch eine P10-Karte mit mehr als 36 CUs und mehr Takt kommt.
selbst wenn man zugunsten der 480 nur +30% veranschlagt, bräuchte vega (ohne chip design verbesserungen) 30% mehr chipfläche um die 1080 zu erreichen.
Reine Spekulation.
BlacKi
2016-06-07, 18:06:12
Reine Spekulation.
exakt.
dargo
2016-06-07, 18:19:02
Der Abverkauf von R9 380/390 geht schon mal langsam los.
* R9 380X ab 188€
* R9 390 ab 240€
* R9 390X ab 283€
Rabiata
2016-06-07, 18:59:30
Jepp. Das wären schon +100% im schlechtesten Fall, welche auch locker zu erreichen sind weil man durch HBM2 wahrscheinlich die 3-4 fache effektive Bandbreite hat, Strom spart (dadurch die Taktraten halten oder steigern kann) und durch HBM auch etwas Diearea spart.
Zudem kommen eben noch Architekturverbesserungen und die Möglichkeit das der Chip nicht nur ~460mm² groß wird sondern vllt sogar 500-550mm².
Deswegen hat Big Vega (so nennen wir ihn am besten mal ab jetzt) durchaus das Potential 120 -150% schneller zu sein als die RX480.
Ich halte mal dagegen und vermute daß zuerst Small Vega kommt, und Big Vega später. Weil je größer der Chip, desto wichtiger wird eine ausgereifte Fertigung. Und 16mn ist noch ziemlich neu.
Mein Tipp:
64 CU wie bei der Fury und zwei HBM2 Stacks mit 512 GByte/s Speicherdurchsatz. Diese können ingesamt bis zu 16 GB groß sein, ich glaube aber eher an 8 GB.
Das Ganze auf ca. 370-400mm² (hochgerechnet von 36 oder 40 CU bei Polaris 10) und mit kleinen Architekturverbesserungen etwa doppelt so schnell wie die RX480.
Damit wäre Small Vega vermutlich etwas schneller als die GTX 1080, aber in den Herstellungskosten vermutlich auch etwas teurer.
Nightspider
2016-06-07, 19:01:08
das wären ca 30% - 50% schneller als die 1080, somit schneller als der erwartete gp102.
Sagt wer?
Wieso sollte GP102 nur 30% schneller sein als die GTX1080?
GP102 dürfte auch HBM2 Speicher nutzen und wird ebenso wie Big Vega, wahrscheinlich eine bis zu 4 mal so hohe Bandbreite besitzen wie die GTX1080.
Und genug potentielle Fläche hat Nvidia auch noch verfügbar, wenn GP104 314mm² groß ist und GP100 610mm².
Theoretisch könnte Nvidia eine Titan XX herausbringen mit doppelter Leistung einer GTX1080.
Praktisch dürfte es auf 40-70% mehr Leistung hinauslaufen.
Ich halte mal dagegen und vermute daß zuerst Small Vega kommt, und Big Vega später. Weil je größer der Chip, desto wichtiger wird eine ausgereifte Fertigung. Und 16mn ist noch ziemlich neu.
Mein Tipp:
64 CU wie bei der Fury und zwei HBM2 Stacks mit 512 GByte/s Speicherdurchsatz. Diese können ingesamt bis zu 16 GB groß sein, ich glaube aber eher an 8 GB.
Das Ganze auf ca. 370-400mm² (hochgerechnet von 36 oder 40 CU bei Polaris 10) und mit kleinen Architekturverbesserungen etwa doppelt so schnell wie die RX480.
Damit wäre Small Vega vermutlich etwas schneller als die GTX 1080, aber in den Herstellungskosten vermutlich auch etwas teurer.
Über den Releasezeitpunkt habe ich doch kein Wort verloren.
400mm² wäre ziemlich klein für AMDs Topdog.
Zergra
2016-06-07, 19:20:54
GP 102 wird bestimmt kein hbm Speicher haben, nvdia wird eher auf einen höheren getakteten GDDRX setzen.
Aber das ist hier alles ot...
BlacKi
2016-06-07, 19:25:55
Sagt wer?
Wieso sollte GP102 nur 30% schneller sein als die GTX1080?
GP102 dürfte auch HBM2 Speicher nutzen und wird ebenso wie Big Vega, wahrscheinlich eine bis zu 4 mal so hohe Bandbreite besitzen wie die GTX1080.
Und genug potentielle Fläche hat Nvidia auch noch verfügbar, wenn GP104 314mm² groß ist und GP100 610mm².
Theoretisch könnte Nvidia eine Titan XX herausbringen mit doppelter Leistung einer GTX1080.
Praktisch dürfte es auf 40-70% mehr Leistung hinauslaufen.
Über den Releasezeitpunkt habe ich doch kein Wort verloren.
400mm² wäre ziemlich klein für AMDs Topdog.
die titan x war auch nur 25-30% schneller als die 980. lediglich die titan black war knapp 40% schneller als die 770.
warum sollte nv das tun. der abstand zu volta 2018 wäre dann zu gering.
die 7970 und 290x war ein topdog.
Elkinator
2016-06-07, 19:34:13
GP102 dürfte auch HBM2 Speicher nutzen
GDDR5X
wahrscheinlich eine bis zu 4 mal so hohe Bandbreite besitzen wie die GTX1080.
SpeicherDURCHSATZ
Es werden 384bit, mit GDDR5X wären das dann 576GB/s, falls bis dahin 12Gb/s verfügbar ist.
Kriegsgeier
2016-06-07, 19:38:41
Wer sagt, dass Vega unbedingt mit HBM2 kommen soll?
16 GB GDDR5X wären auch nicht schlecht. Und unter Umständen sogar attraktiver!
Ailuros
2016-06-07, 19:39:36
Ich bin genauso von einem angeblichen GP102 mit HBM2 als auch einem "big" Vega ueberzeugt bis jetzt :freak:
Kriegsgeier
2016-06-07, 19:43:45
Gibt es Langzeitstudien bezüglich HBM Speicher?
Mechanische Belastungen wegen Wärme sollte ja höher sein als bei GDDR5x oder?
Tamagothi
2016-06-07, 19:51:53
Wer sagt, dass Vega unbedingt mit HBM2 kommen soll?
Offiziell AMD
Der_Korken
2016-06-07, 19:53:08
Je größer der Speicherdurchsatz*, desto mehr Energie spart HBM potenziell ein. Je größer der Chip, desto wahrscheinlicher ist er power-limitiert und desto wahrscheinlicher wird HBM. Außerdem egalisieren sich die Mehrkosten von HBM, weil man Highend-Chips überproportional teuer verkaufen kann.
Wenn V10 doppelt so viel Rohleistung wie P10 hat, wird man schwer auf HBM verzichten können, weil sich die Leistungsaufnahme sonst Richtung 300W bewegt (OK durch GDDR5X vielleicht etwas weniger).
* das ist technisch sicher richtiger als Speicherbandbreite, allerdings lese ich letzteres eigentlich seit 10 Jahren durchgehend - auch in Technikforen
Nightspider
2016-06-07, 20:01:59
die titan x war auch nur 25-30% schneller als die 980. lediglich die titan black war knapp 40% schneller als die 770.
warum sollte nv das tun. der abstand zu volta 2018 wäre dann zu gering.
die 7970 und 290x war ein topdog.
Und?
GM200 war nur 51% größer als GM204.
GP100 ist aber 94% größer als GP104.
Was was willst du mit Volta? Hätte NV GP100 auch lieber kastrieren sollen damit Volta nicht so schlecht dasteht? :rolleyes:
Ich bin genauso von einem angeblichen GP102 mit HBM2 als auch einem "big" Vega ueberzeugt bis jetzt :freak:
Falls du nicht gerade handfeste Infos hast welcher von beiden Vega Chips der Größere ist kannst du deinen Spam stecken lassen.
In letzter Zeit trollst du auch mehr herum als dich sinnvoll zu beteiligen.
Big Vega ist zumindest eineindeutig welcher Chip gemeint ist.
Wer sagt, dass Vega unbedingt mit HBM2 kommen soll?
Fiji hat es uns erzählt.
Ailuros
2016-06-07, 20:02:43
Wieso soll um Himmels Willen ein 64CU grosser chip 300W verdonnern? Wenn sie das Ding natuerlich weit ueber 1GHz takten wuerden wohl schon, aber unter normalen Umstaenden sind hw engineers nicht so besoffen.
Elkinator
2016-06-07, 20:02:49
Falsch ist es trotzdem, nur weil es fast alle nicht besser wissen muß man es ihne doch nicht nachmachen:\
Ailuros
2016-06-07, 20:07:30
Big Vega ist zumindest eineindeutig welcher Chip gemeint ist.
Dann zeig mir wenigestens EINE anstaendige Indizie dafuer. Ausser einer sehr wagen Aussage bei Anandtech dass es zwei Vega chips geben wird hab ich bis jetzt nicht gelesen, aber ich wuerde gerne vom Gegenteil lesen.
Nightspider
2016-06-07, 20:10:27
GDDR5X
SpeicherDURCHSATZ
Es werden 384bit, mit GDDR5X wären das dann 576GB/s, falls bis dahin 12Gb/s verfügbar ist.
Falls GP102, sofern er denn kommt, mehr als 50% größer wäre als GP104 dann würde die Titan XX noch stärker im Bandbreitenlimit sein als die GTX1080 bei welcher sich die Community hier ja seitenweise ausgeheult hat.
Das nach einem halben Jahr schon schnellerer GDDR5X Speicher vorhanden sein soll ist ebenfalls ein sehr sportliches Ziel.
Mit GDDR5X würde Nvidia etliche Vorteile von HBM2 aufgeben und das in einem Segment wo Nvidia eh schon überdurchschnittlich hohe Preise verlangt. Das ist imo ein Widerspruch.
Falls GP102 nur GDDR5X bekommt und Big Vega HBM2, sowie einen großen Chip, dann könnte Big Vega sogar schneller werden als GP102.
Gerade mit Hinsicht auf die stärkere Optimierung auf AMD Architektur sowie Async Compute Engines. Da könnte es erstmal seit Jahren sein das AMD in Führung geht, auch wenn das einige NV Fanboys hier nicht gern sehen würden.
OT: Star Citizen, der Prestige-Benchmark von 2017, soll auch Async Compute unterstützen.
Dann zeig mir wenigestens EINE anstaendige Indizie dafuer. Ausser einer sehr wagen Aussage bei Anandtech dass es zwei Vega chips geben wird hab ich bis jetzt nicht gelesen, aber ich wuerde gerne vom Gegenteil lesen.
1. Bin ich nicht derjenige der mit 2 Chips ankam
2. Kannst du uns ja Gegenbeweise liefern, daran wäre ich auch interessiert
3. Ändert das nichts an den Spekulationen, von zwei hypothetischen Vega Chips
Tamagothi
2016-06-07, 20:12:14
Sry für OT
Und?
GM200 war nur 51% größer als GM204.
GP100 ist aber 94% größer als GP104.
Jetzt überlegt mal kurz warum GM200 nur 51% größer ist und warum GP100 94% größer ist.
Falls es einen GP102 geben wird wird der auch nur 50% Größer als GP104 sein.
ca. 30% schneller und GDDRX 5 haben.
Elkinator
2016-06-07, 20:13:32
GP102 kommt sicher nur mit GDDR5X
GP100 mit HBM, aber davon wird man nie Karten für Gamer sehen.
GP100 ist mit FP64, NVLink,... eine reine HPC-GPU!
BlacKi
2016-06-07, 20:16:50
Und?
Was was willst du mit Volta? Hätte NV GP100 auch lieber kastrieren sollen damit Volta nicht so schlecht dasteht? :rolleyes:
was sind denn die 314mm²? das ist doch genau mein gedanke!
mboeller
2016-06-07, 20:18:10
Dann zeig mir wenigestens EINE anstaendige Indizie dafuer. Ausser einer sehr wagen Aussage bei Anandtech dass es zwei Vega chips geben wird hab ich bis jetzt nicht gelesen, aber ich wuerde gerne vom Gegenteil lesen.
AMD Slide zeigt VEGA für 2017:
http://bi9he1w7hz8qbnm2zl0hd171.wpengine.netdna-cdn.com/wp-content/uploads/2016/05/AMD_Roadmap_RTG_GPU.jpg
und
Yes. So it's a call about where you want to show most momentum in the market and the timing you associate with that. So if you see our new GPU roadmap that we rolled out in March, we have this Polaris family. And then that is followed-on by another family in 2017, which is actually a very tight cadence in terms of how you would normally launch products into the market. There might be a longer timeframe associated between new architectures. So we're very excited about the follow-on family.
Vega ist also eine Familie... und die besteht aus min. 2 Mitgliedern, oder?
Link: http://seekingalpha.com/article/3977446-advanced-micro-devices-amd-44th-annual-jpmorgan-global-technology-media-telecom-conference?page=5
http://bi9he1w7hz8qbnm2zl0hd171.wpengine.netdna-cdn.com/wp-content/uploads/2016/05/AMD_Roadmap_RTG_GPU.jpg
Ailuros
2016-06-07, 20:18:48
Falls GP102, sofern er denn kommt, mehr als 50% größer wäre als GP104 dann würde die Titan XX noch stärker im Bandbreitenlimit sein als die GTX1080 bei welcher sich die Community hier ja seitenweise ausgeheult hat.
Das nach einem halben Jahr schon schnellerer GDDR5X Speicher vorhanden sein soll ist ebenfalls ein sehr sportliches Ziel.
Mit GDDR5X würde Nvidia etliche Vorteile von HBM2 aufgeben und das in einem Segment wo Nvidia eh schon überdurchschnittlich hohe Preise verlangt. Das ist imo ein Widerspruch.
Falls GP102 nur GDDR5X bekommt und Big Vega HBM2, sowie einen großen Chip, dann könnte Big Vega sogar schneller werden als GP102.
Gerade mit Hinsicht auf die stärkere Optimierung auf AMD Architektur sowie Async Compute Engines. Da könnte es erstmal seit Jahren sein das AMD in Führung geht, auch wenn das einige NV Fanboys hier nicht gern sehen würden.
GP102 hat nach allen Indizien GDDR5X.
1. Bin ich nicht derjenige der mit 2 Chips ankam
2. Kannst du uns ja Gegenbeweise liefern, daran wäre ich auch interessiert
3. Ändert das nichts an den Spekulationen, von zwei hypothetischen Vega Chips
Dann komm gefaelligst mit einem anstaendigeren Ton denn ich poste schon seit Jahrzehnten mit kryptischen Posts und daran werde ich auch nichts aendern. 2 hypothetische Vega chips koennen vieles sein aber nicht unbedingt dass was sich jeder vorstellen will.
Sonst gibt es keine weiteren offiziellen Indizien fuer Vega und das ist eben das eigentlich Problem hier.
AMD Slide zeigt VEGA für 2017:
Vega ist also eine Familie... und die besteht aus min. 2 Mitgliedern, oder?
Link: http://seekingalpha.com/article/3977446-advanced-micro-devices-amd-44th-annual-jpmorgan-global-technology-media-telecom-conference?page=5
http://bi9he1w7hz8qbnm2zl0hd171.wpengine.netdna-cdn.com/wp-content/uploads/2016/05/AMD_Roadmap_RTG_GPU.jpg
Ich sehe aber auf dem slide - aus verstaendlichen Gruenden - nichts anderes als ein leeres Quadrat fuer Vega Architecture und darunter nur trocken HBM2. Es sollte wohl klar sein dass sie vorzeitig nichts hergeben werden, aber wie gesagt das eigentliche Problem hier ist dass es einfach zu wenig Indizien fuer Vega generell gibt.
Nightspider
2016-06-07, 20:25:07
Sry für OT
Jetzt überlegt mal kurz warum GM200 nur 51% größer ist und warum GP100 94% größer ist.
Falls es einen GP102 geben wird wird der auch nur 50% Größer als GP104 sein.
ca. 30% schneller und GDDRX 5 haben.
Logischerweise weil GM200 schon am Rand des machbaren produziert worden ist.
Was gibts da zu überlegen? :|
was sind denn die 314mm²? das ist doch genau mein gedanke!
Wir haben eine neue Fertigung und der Sweetspot ist halt irgendwo zwischen 200-300mm² was die Käufer-Zielgruppe betrifft.
Gerade bei den Kosten eines neuen Fertigungsprozesses. Für +50% müsste GP102 nur ~450mm² groß sein, das ist korrekt.
Dennoch ist da noch einiges an Potential zu den 610mm² von GP100.
Und da sich Nvidia die Titan und ti Karten eh vergolden lässt kann Nvidia genauso gut auch einen 500-550mm² GP102 herausbringen.
Soweit ich weiß kommt Volta in 10nm mit einer komplett neuen Architektur. Es gibt keinen rational sinnvollen Grund warum Nvidia GP102 bremsen sollte.
Selbst wenn bei einem 520-550mm² GP102 einiges an Ausschuss zu Beginn anfällst kann man 2 Salvage Chips bringen und die perfekten Chips wieder als total überteuerte Titan oder Titan Black Karten an den Mann bringen.
GK100 wurde ja auch als 780, 780ti, Titan und Titan Black verwurstet. Vielleicht kommt GP102 auch erst in 9-10 Monaten und läutet die GTX1100 Serie ein, wer weiß. ;)
Rabiata
2016-06-07, 20:31:12
Bei den Preisen, die Nvidia offenbar nehmen kann, geht auch finanziell alles was technisch machbar ist. Der Speicherdurchsatz wird wohl nicht der Flaschenhals sein. GP 102 könnte mit HBM2, aber theoretisch auch mit einem 512 Bit Speicherinterface kommen. Gab es bei AMD auch schon.
Am Ende werden wohl beide Firmen wieder bei Extrem-Konstruktionen wie der Radeon Pro Duo oder einer neuen Titan X landen. Aber ich werde mich da raushalten. Wenn bei mir nächstes Jahr ein neuer Compi ansteht, wird es wohl mit Polaris 10 oder maximal Small Vega sein :smile:.
dargo
2016-06-07, 20:33:37
Ich sehe aber auf dem slide - aus verstaendlichen Gruenden - nichts anderes als ein leeres Quadrat fuer Vega Architecture und darunter nur trocken HBM2.
Das selbe hast du auch bei Navi mit trockenem "NextGen Memory". Gehst du da auch nur von einem Chip aus? Man will einfach so früh noch nicht zu viele Details verraten. Ich finds schon erstaunlich wie dicht man bisher die genaueren Daten von Polaris hält, so kurz vor Release.
Nightspider
2016-06-07, 20:34:36
Ich meine, gut, wenn ich so drüber nachdenke könnte Nvidia auch die Kundschaft mit einem "kleinen" GP102 mit 450mm² schon ausnehmen. Die würde wahrscheinlich 1200 Euro für eine Titan XX ausgeben, egal ob die Karte 50% oder 70% schneller ist als eine GTX1080.
Dennoch wäre es natürlich für uns schöner wenn Nvidia an den Rand des machbaren geht und nicht nur die Server mit den richtig großen Chips versorgt. ;)
Elkinator
2016-06-07, 20:36:36
Nur weil AMD bei Vega HBM2 schreibt, müßen nicht beide Vega-GPUs HBM2 bekommen!
Eh nur noch 6 Tage bis zur PC Gaming Show<:}
Ailuros
2016-06-07, 20:40:36
Nur weil AMD bei Vega HBM2 schreibt, müßen nicht beide Vega-GPUs HBM2 bekommen!
Eh nur noch 6 Tage bis zur PC Gaming Show<:}
Ich weiss gar nicht wie oft ich es schon hier im thread gepostet habe. Ich hab auf jeden Fall Geduld :P
Das selbe hast du auch bei Navi mit trockenem "NextGen Memory". Gehst du da auch nur von einem Chip aus? Man will einfach so früh noch nicht zu viele Details verraten. Ich finds schon erstaunlich wie dicht man bisher die genaueren Daten von Polaris hält, so kurz vor Release.
Navi ist die Antwort auf Volta. Volta wird womoeglich irgendwo Anfang 2018 unter 10FF erscheinen und alles darunter auf welchem Prozess genau?
Gedankensporn: wieso sollte AMD auf monolithische Riesen-chips gehen wollen wenn sie NV oberhalb von Polaris jegliche konkurrierende Pascal chips mit kleineren Vega chips konfrontieren koennten?
Rabiata
2016-06-07, 20:44:20
Nur weil AMD bei Vega HBM2 schreibt, müßen nicht beide Vega-GPUs HBM2 bekommen!
Die versprochenen Effizienzgewinne wird es kaum ohne verbesserte Speichertechnik geben, dafür ist GDDR5 (ohne X) zu leistungshungrig.
Entweder AMD bringt auch GDDR5X oder es bleibt bei HBM2. Letzteres erscheint mir wahrscheinlicher, weil AMD mit HBM1 und Interposern schon Erfahrung hat.
Ailuros
2016-06-07, 20:48:13
Die versprochenen Effizienzgewinne wird es kaum ohne verbesserte Speichertechnik geben, dafür ist GDDR5 (ohne X) zu leistungshungrig.
Entweder AMD bringt auch GDDR5X oder es bleibt bei HBM2. Letzteres erscheint mir wahrscheinlicher, weil AMD mit HBM1 und Interposern schon Erfahrung hat.
Angenommen AMD braucht nur EINEN einzigen chip fuer HPC und einen zweiten kleineren um mit GP104/1070-1080 nur im desktop zu konkurrieren. Wieso "muessen" beide HBM2 mir nichts dir nichts haben?
Nightspider
2016-06-07, 20:48:24
Gedankensporn: wieso sollte AMD auf monolithische Riesen-chips gehen wollen wenn sie NV oberhalb von Polaris jegliche konkurrierende Pascal chips mit kleineren Vega chips konfrontieren koennten?
Ich denke da immer an den HPC / Server Bereich wo AMD mit einem großen Chip auch viel Geld machen könnte.
Die Frage ist nur wie viel mehr Geld man mit einem 500-550mm² machen könnte im Vergleich zu einem 400mm² Vega Chip.
Wenn ich mich richtig erinnere wurden Nvdia damals aber auch die ersten GK100 aus den Händen gerissen von den Serverherstellern, trotz verdammt hoher Preise.
Effizienz und große Chips zahlen sich in Servern, welche 24/7 laufen doch gut aus, soweit ich weiß.
Daher würde ich denken das es sich für AMD lohnen würde, einen großen Chip zu bauen.
Weiß einer wie gut sich Hawaii damals in diesem Bereich verkauft hat?
BlacKi
2016-06-07, 20:52:35
Ich meine, gut, wenn ich so drüber nachdenke könnte Nvidia auch die Kundschaft mit einem "kleinen" GP102 mit 450mm² schon ausnehmen. Die würde wahrscheinlich 1200 Euro für eine Titan XX ausgeben, egal ob die Karte 50% oder 70% schneller ist als eine GTX1080.
Dennoch wäre es natürlich für uns schöner wenn Nvidia an den Rand des machbaren geht und nicht nur die Server mit den richtig großen Chips versorgt. ;)
jetzt bist du bei mir^^
wenn volta 2018 kommt und gp102 zu schnell ist wird volta zu groß und zu teuer. ein 300mm²@10nm muss zumindest die chance haben gp102 schlagen zu können.
Ailuros
2016-06-07, 20:57:56
Ich weiss schon gar nicht mehr wie viele Generationen es her ist wo NV's high end chip nie schneller als bis zu 45% (im Durchschnitt) war als die groesste SKU vom performance chip. Sonst ist es zwar verdammt OT aber NV wird es nur mit dem grossen Volta@10FF sehr eilig haben um grosse Vertraege wie der mit Oak Ridge zu bedienen. Wenn wir schon von desktop only chips wie GP102 reden, sollten wir auch jegliche HPC only chips wie P100 bzw. V100 aus solchen Vergleichen lassen.
Nightspider
2016-06-07, 20:58:01
wenn volta 2018 kommt und gp102 zu schnell ist wird volta zu groß und zu teuer. ein 300mm²@10nm muss zumindest die chance haben gp102 schlagen zu können.
Mit 10nm und komplett neuer Architektur sollte es leicht sein für den GP104 Nachfolger GP102 zu schlagen, selbst wenn dieser sogar 70% vor der GTX1080 liegt.
300mm² in 10nm entsprechen schließlich ~600mm² in 16FF, obwohl ich die genauen Zahlenverhältnisse nicht kenne. Damit sollte man auch einen 550mm² Chip in 16FF schlagen können. ;)
Das ging früher schließlich auch. ^^
Und GP104 liegt mit seinen 314mm² auch 10-20% vor einem GM200 mit 601mm². Ich sehe da kein Problem.
Andernfalls müsste der GP104 Nachfolger vllt nur 250mm² groß werden um schon wieder 10-20%vor einem GP102 mit nur 450mm² zu liegen. (Sehr weitreichende Spekus heute ^^)
Ailuros
2016-06-07, 20:59:09
16/14FF wird laenger benutzt werden als sich viele vorstellen :wink:
Skysnake
2016-06-07, 21:01:54
Kann man nicht so genau sagen.
Es gab ein zwei große Cluster, aber AMD hat es nicht geschafft, Hersteller wie CRAY zu gewinnen. Damit sind viele große Deals weg gewesen.
Viel wichtiger als jedwede dGPU wären aber APUs. Da muss endlich was kommen. Ich hoffe ja das die ZEN APUs dann auch CCIX unterstüzen. Btw. eventuell ja schon Polaris?
Der Standard ist ja draußen, und ARM unterstützt ihn auch schon mit einigen Designs.
Das wäre halt schon ziemlich geil, auch wenn man z.B. CRAY wieder nicht an Board hätte, da die weiter mit Intel anbandeln.
Ansonsten muss man schauen, was geht. CUDA hat sein Hoch aber meiner Meinung nach z.B. schon überschritten.
Hab neulich mal einen netten Broadcast gehört von einem der schnellsten Rechner in Europa. Die hatten demnach auch mal K20, aber nach nem halben Jahr oder so, hatten die Leute ihre Paper geschrieben, und die Nodes standen nur noch dumm rum. Wurden dann irgendwann einfach ausgebaut und eingemottet.
BlacKi
2016-06-07, 21:06:51
Mit 10nm und komplett neuer Architektur sollte es leicht sein für den GP104 Nachfolger GP102 zu schlagen, selbst wenn dieser sogar 70% vor der GTX1080 liegt
Errrrr, von 28nm auf 16nm = 16nmauf 10nm? das ist doch der crux...
Rabiata
2016-06-07, 21:25:38
Angenommen AMD braucht nur EINEN einzigen chip fuer HPC und einen zweiten kleineren um mit GP104/1070-1080 nur im desktop zu konkurrieren. Wieso "muessen" beide HBM2 mir nichts dir nichts haben?
Weil meiner Meinung mit "herkömmlichem" GDDR5 das Versprechen der besseren Effizienz nicht zu halten ist. Hawaii hat mit GDDR5 fast so viel Leistung verbraucht wie Fury mit HBM1. Das zeigt daß GDDR5 bei der Effizienz zunehmend zum Flaschenhals wird. HBM1 läßt sich nur zu 1 GB/Stack stapeln, da sind mehr als die 4GB in der Fury unrealistisch.
Also muß was besseres her, GDDR5X oder HBM2 kommen in Frage. Und da tippe ich auf HBM2, weil AMD schon Erfahrung mit HBM hat. Ist aber nur eine Vermutung.
AlphaNUSS
2016-06-07, 21:27:12
16/14FF wird laenger benutzt werden als sich viele vorstellen :wink:
AMD hat doch sogar schon bestätigt, dass 14nm länger genutzt werden soll. Ich denke auch, dass wir wahrscheinlich 3 Generationen in 14/16 nm sehen werden.
-/\-CruNcher-/\-
2016-06-07, 21:28:33
Kann man nicht so genau sagen.
Es gab ein zwei große Cluster, aber AMD hat es nicht geschafft, Hersteller wie CRAY zu gewinnen. Damit sind viele große Deals weg gewesen.
Viel wichtiger als jedwede dGPU wären aber APUs. Da muss endlich was kommen. Ich hoffe ja das die ZEN APUs dann auch CCIX unterstüzen. Btw. eventuell ja schon Polaris?
Der Standard ist ja draußen, und ARM unterstützt ihn auch schon mit einigen Designs.
Das wäre halt schon ziemlich geil, auch wenn man z.B. CRAY wieder nicht an Board hätte, da die weiter mit Intel anbandeln.
Ansonsten muss man schauen, was geht. CUDA hat sein Hoch aber meiner Meinung nach z.B. schon überschritten.
Hab neulich mal einen netten Broadcast gehört von einem der schnellsten Rechner in Europa. Die hatten demnach auch mal K20, aber nach nem halben Jahr oder so, hatten die Leute ihre Paper geschrieben, und die Nodes standen nur noch dumm rum. Wurden dann irgendwann einfach ausgebaut und eingemottet.
Würde gerne mal eine Statistik sehen in welchen Bereichen uns GPU Compute bis jetzt wirklich am nützlichsten war vom wissenschaftlichen Erkentnissgewinn.
Vor allem welche Durchbrüche damit in den letzten jahren vor Neuronal Networks erreicht wurden die ohne GPU Compute nicht so schnell erreichbar gewesen wären und uns ausnahmslos allen bereits von nutzen geworden sind.
Elkinator
2016-06-07, 21:28:39
dafür ist GDDR5 (ohne X) zu leistungshungrig.
Vielleciht kann schon Polaris GDDR5X ansprechen und es kommt noch P10 mit GDDR5X.
Warum sollte das für den kleinen Vega keine Alternative sein?
GDDR5X hat doch den Vorteil, daß der IMC und PHY nur leicht angepasst werden muß, das könnte bei Polaris schon der Fall sein.
16/14FF wird laenger benutzt werden als sich viele vorstellen
Ja, weil man da 90-95% der Anlagen dei auch 20nm gefertigt haben nutzen kann.
Bei 10nm werden wieder große Investitionen nötig, dieser Node wird aber kurzlebig, weil 7nm der langlebige Half-Node davon ist.
AMD hat doch sogar schon bestätigt, dass 14nm länger genutzt werden soll. Ich denke auch, dass wir wahrscheinlich 3 Generationen in 14/16 nm sehen werden.
Der Prozess selbst wird ja auch immer weiter optimiert, Samsung arbeitet schon an der 3. Generation von 14nm.
Würde mich nicht wundern wenn sogar noch eine 4. Generation kommt bevor 10nm massentauglich ist.
Knuddelbearli
2016-06-07, 22:26:33
Nein, gar nichts ist bestätigt, Knuddelbärli behauptet bloß wieder Sachen, die er nicht beweisen kann.:rolleyes:
Ähm ich stelle hier nichts als Fakt da sondern sagte dazu Anscheinend. Das ist nunmal aktuell die Vorherschende Meinung ... Hab das ja selber lange Kritisiert aber am Ende sind es ja nur Codenamen und wichtig ist nur das jeder das selbe meint.
Also halt deine drehenden Augen bei dir Danke ...
Typen gibts ...
Limit
2016-06-07, 23:25:56
Und?
GM200 war nur 51% größer als GM204.
GP100 ist aber 94% größer als GP104.
Was was willst du mit Volta? Hätte NV GP100 auch lieber kastrieren sollen damit Volta nicht so schlecht dasteht? :rolleyes:
Die ist sich hoffentlich klar, dass dieser Vergleich vollkommen unsinnig ist? GP100 mag zwar fast doppelt so groß sein wie GP104, er hat allerdings nur etwa 30% mehr Shadereinheiten. Der große Flächenunterschied kommt durch die zusätzlichen DP-Einheiten, NVLink und andere Compute-Features.
Würde man GP104 einfach hochskalieren, bräuchte ein Chip mit GP100 Spieleleistung kaum viel mehr als 450mm². Sehr viel größer wird man GP102 vermutlich auch nicht ansetzen, denn mit etwas höherem Takt als bei GP100 würde das bereits für einn Leistungsunterschied wie bei der letzten Generation zwischen 980 und 980Ti sorgen.
Gorkon
2016-06-07, 23:31:57
Warum wird hier eigentlich im AMD-Speku-Thread über Pascal spekuliert :confused:
-/\-CruNcher-/\-
2016-06-07, 23:36:52
dass nennt man Cross Side Speculation ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.