PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Ailuros
2016-12-07, 06:11:24
Das heißt natürlich nicht, dass Pascal nicht auch deutliche Architekturverbesserungen für höhere Taktraten beinhalten kann, aber es sieht erstmal so aus, als hätten 28 vs 16nm hier den größten Sprung gebracht.

GTX1080 vs. GTX980
1733 vs. 1216MHz
2560 vs. 2048 SPs
7.2 vs. 5.2 Mrd Transistoren
13.07 Μio/mm2 (28HP) vs. 22.93 Mio/mm2 (16FF+)

Maximal erlaubt 16FF+ vs. 28HPm nach TSMC um 1.9x Mal mehr Transistoren wenn ich mich jetzt nicht irre. Natuerlich zeigt die 1.75x/mm2 Steigerung bei GP104 vs. GM204 dass sie es nie voll ausgenutzt haben, aber sie haben auch gleichzeitig die Frequenzen um einiges mehr erhoeht als dass der Prozess bei 1.75x eigentlich erlaubt haette. Rechne mal die Endleistung einer 1080 um sagen wir mal 30% (weniger Takt) runter, wie sieht es dann auf ersten Blick aus? Punkt hier ist dass es eine merkwuerdige Kombination der zwei wichtigsten Faktoren ist (Prozess & Frequenz). Welche der beiden als groesser erscheint ist eher eine Affaere der Perspektive, denn sie haben auch einiges zwischen die Transistoren gestopft um ihre heutigen Frequenzen zu erreichen....

Loeschzwerg
2016-12-07, 07:49:45
StefanV
Ganz so einfach ist es jetzt zwar nicht, aber die Richtig ist klar. 80% Marktanteil wird man aber erst erreichen, wenn Icelake die vorherigen Generationen verdrängt hat, also 2030 oder so :D. Eines ist klar: Ab 2019 wird dann so ziemlich jeder neue IGP im PC GCN sein, also alles, was Icelake-Generation ist. CoffeeLake/CannonLake dürfte dann der letzte eigene IGP sein. Die Lizenzierung passt recht gut in den Entwicklungszeitraum von IceLake finde ich. Der würde dann mit Vega IP Ende 2017 mit der 2. 10nm-Generation ins Tapeout gehen. Damit wäre die GCN-IP9.0 (Vega) die erfolgreichste Grafik-IP aller Zeiten.

Warum sollte Intel die eigene IGP durch GCN ersetzen?

Wie Unicous hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11229581#post11229581) schon schreibt wird es eher um ein Lizenzabkommen bezüglich Patante gehen.

Ailuros
2016-12-07, 08:18:36
Warum sollte Intel die eigene IGP durch GCN ersetzen?

Wie Unicous hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11229581#post11229581) schon schreibt wird es eher um ein Lizenzabkommen bezüglich Patante gehen.

Nicht dass es je so weit kommen wuerde, eben weil es hoechstwahrscheinlich ein Lizenz-Abkommen sein wird, aber fuer's hypothetische "warum" wuerde mir sofort die area u.a. einfallen. Apple ist nicht der einzige Grosse der bei Intel darueber intensiv meckert.

Loeschzwerg
2016-12-07, 08:38:47
Stimmt, GT2 nimmt schon fast die Hälfte der Fläche ein. Die Frage ist warum z.B. Apple gerade auf eine SKU mit GT3 gesetzt hat. Hätte eine SKU mit GT2 nicht gereicht?

Vielleicht geht Intel das Thema mit Gen10 an. Primär ging es in letzter Zeit wohl eher darum die Leistung nach oben zu schrauben, um mit AMD APUs mithalten zu können. Es wird spannend wie es mit dem Thema APU weitergeht (GCN 4/5 vs Gen10).

Hübie
2016-12-07, 10:04:12
Was "alles" meinst du denn?
Ein viel schnellerer Chip als Fiji stand jedenfalls zum release der pro duo nicht an.

Man wirbt hier ebenfalls mit 'up to 1024 GB/s' und hatte obendrein schon längst die effizientere Polaris angekündigt, als die erschien. Obendrein dann noch die 2 x 4 GB und das entfallene Argument des Formfaktors. Man brachte die Karte einfach auf den Markt, wo es keinen Markt gibt.

Ich denke du weißt schon was gemeint ist. Wenn du Kepler so prügelst hat er natürlich auch entsprechend gesoffen. Hawaii kann man auch mal auf 1,3 bekommen, das ist aber nicht das Thema. Ich sage auch nur Titan classic base clock von 836 MHz bei 250W ;D
Natürlich hat Maxwell da ordentlich drauf gelegt, vor allem weil es halt ausschließlich das Design und nicht die Fertigung war.
Du hast vielleicht auch vergessen, dass gm204 einfach mal 1/3 größer war als gk104, das kann schon auch eine Rolle spielen.

Nur weil 250 Watt TDP drauf steht, werden die nicht konsumiert. Es ist eben nicht enorm, für mein Begriffsverständnis. Da wird mit einem Wort hantiert, dass so nicht passend ist.
GM204 hat fast 1:1 mehr ALU to die-size ratio (1,33-fache ALU-Anzahl bei 1,35-facher Größe).

iuno
2016-12-07, 13:11:44
Wie soll man das ding denn sonst bewerben? Und in dem Beitrag auf den du geantwortet hast ging es darum doch gar nicht.

Pro Duo kam imho als Vorbereitung auf Vega duo. Man kann schon mal Erfahrungen sammeln und mit 2*4096SP "experimentieren". Es ist bestimmt nicht umsonst ein hybrid aus radeon und pro.

PrivateCeralion
2016-12-07, 21:06:16
Glaubt ihr, dass am 13.es auch neue GPUs zu sehen gibt?
Das steht auf der Seite der Radeon Technologie Group:
“New Horizon will also feature Radeon GPUs in several demos.“

Hübie
2016-12-07, 22:22:19
Wie soll man das ding denn sonst bewerben? Und in dem Beitrag auf den du geantwortet hast ging es darum doch gar nicht.

Pro Duo kam imho als Vorbereitung auf Vega duo. Man kann schon mal Erfahrungen sammeln und mit 2*4096SP "experimentieren". Es ist bestimmt nicht umsonst ein hybrid aus radeon und pro.

Naja 2x256bit sind ja nicht >256bit. Würde mich wundern wenn AMD plötzlich mit so etwas anfangen sollte.

War die Aussage auf die sich mein Bild ein paar Seiten vorher bezog. Da waren ein paar Beiträge dazwischen gekommen, bevor meine Antwort abgeschickt war. Darauf hin flogen ein paar weitere Argumente. AMD brachte dennoch des öfteren WTF-Produkte. Soll nur belegen dass eine Dual-P10 eben nicht unwahrscheinlich ist. ;)

Pro Duo kam ja wohl am ehesten, weil man Fiji überall unterbringen muss, damit der Chip keinen Negativrekord einfährt, meinst du nicht? Nur weil man etwas nach außen so bewirbt muss es drin nicht stimmen. Warum also mit den, nicht nur preislich, unattraktiven 2*4096SP "experimentieren", wenn es zigfach andere (bessere) Lösungen gibt?

N0Thing
2016-12-07, 22:23:20
Glaubt ihr, dass am 13.es auch neue GPUs zu sehen gibt?
Das steht auf der Seite der Radeon Technologie Group:
“New Horizon will also feature Radeon GPUs in several demos.“

Entweder die Dual-GPU mit Polaris, sofern es sie gibt, oder ein Ausblick auf Vega, aber letzteres würde ich eher für nächstes Jahr erwarten.

Die Meldung könnte genauso gut bedeuten, dass P10 und P11 bestückte Rechner zum Einsatz kommen.

victore99
2016-12-07, 22:45:33
Zu langsam für echte Performance-Demos in Spielen

N0Thing
2016-12-07, 22:47:57
Dafür können sie ja auch ne GTX 1080 verwenden. :freak:

dildo4u
2016-12-07, 22:49:41
Als Plattform Demo würde ein Crossfire Sinn machen,bei Intel zahlt man ja gut drauf wenn man 32 Lanes für die GPU's haben will.

iuno
2016-12-07, 23:05:19
Pro Duo kam ja wohl am ehesten, weil man Fiji überall unterbringen muss, damit der Chip keinen Negativrekord einfährt, meinst du nicht? Nur weil man etwas nach außen so bewirbt muss es drin nicht stimmen. Warum also mit den, nicht nur preislich, unattraktiven 2*4096SP "experimentieren", wenn es zigfach andere (bessere) Lösungen gibt?
Den Grund habe ich doch schon genannt; um (sich) auf dual Vega vorzubereiten. Dasselbe gilt doch auch fuer das Fiji Ding mit onboard SSD. So hat man aber wenigstens richtige Hardware mit einigermassen passenden Eckdaten zum Testen und Entwickeln.

Ich erwarte auch keine Vega Demo auf dem Zen Event. Der Hinweis kann letztlich aber alles heissen, dass man Zen nicht zusammen mit einer Nvidia vorfuehrt, war ja absehbar. Man konzentriert sich bestimmt auch auf Spiele, die gut mit Kernen/Threads skalieren, so wie ich das sehe, sind das tendenziell auch Spiele, die mit AMD GPUs "besser" laufen, das sollte also kaum Probleme machen. Vielleicht nimmt man Fury X, vielleicht die 480, vielleicht sogar die Pro Duo. Was dildo schreibt, macht fuer mich aber auch Sinn.

Thomas Gräf
2016-12-07, 23:18:45
Als Plattform Demo würde ein Crossfire Sinn machen,bei Intel zahlt man ja gut drauf wenn man 32 Lanes für die GPU's haben will.

Der war gut. Dieses rum geizen mit den Lanes vom Marktführer für CPU's ist auch so ein Knackpunkt wo es AMD leicht hätte.
VR braucht multiGPU, gutes 4k braucht multiGPU, und SSD's werden PCIe auch bald brauchen.
Es soll auch schon Soundkarten mit PCIe geben...
Naja so sind die Knallköppe vom Marketing, erst einen neuen Standard kreieren und dann den Saft abdrehen.
Sorry für OT.

Hübie
2016-12-07, 23:21:11
@iuno: Ja, was willst du da vorbereiten? Diese Sorte gibt es schon seit 10 Jahren am Markt. HBM hat keine Änderung an der ISA als Grundvoraussetzung. Ist doch irgendwie nicht schlüssig was du da sagst. Diese onboard-SSD-Geschichte warten wir mal ab. Als könne man sich in eine Workstation keine SSD in den PCI Slot stecken und darauf ein virtual file system im container kreiieren. Sicher nicht völlig überflüssig, aber auch nicht völlig vom Markt gebraucht / gewollt.

@Thomas Gräf: Ja Intel lässt es sich auf dem S2011-3 mittlerweile vergolden. Die Micky-Maus CPUs kann man ja nicht ernst nehmen. :D

iuno
2016-12-07, 23:50:15
Klar gibt es diese "Sorten", also Grafikkarten schon lange :D Man kann aber nicht erwarten, dass man einfach alles nur aufblasen kann und das hat man bei Fiji doch ganz klar gesehen. Zumal Hawaii nicht HSA konform war, Fiji aber schon. Wenn man dementsprechend mit Vega irgendwas vor hat, was ja offenbar der Fall ist, hat man so halt wenigstens eine halbwegs vergleichbare Karte, um etwas damit zu machen. Fiji hat Hardwarevirtualisierung, Google benutzt die Duos sogar dafuer. Hawaii konnte das noch nicht. Fiji ist voll mit dem neuen ROC stack kompatibel, Hawaii nicht. Fiji hat die neueren, flexibleren MECs, Hawaii nicht. Vielleicht haben sie auch mit denen etwas vor, was dem Einsatz auf mGPUs zugute kommt.
Usw. usf. Es wird schon einen Grund gehabt haben, die Pro Duo (so) aufzulegen. Fuer Spieler ist das Ding jedenfalls nicht, die wissen auch selbst, dass das wenig taugt. Wenn du so argumentierst, kannst du auch gleich fragen, warum AMD ueberhaupt Fiji auf den Markt gebracht hat.

Hübie
2016-12-08, 08:26:56
A) argumentiere ich so nicht und B) hast du Tonga (S7150) übersehen.

Edit: Diese meine ich: http://www.amd.com/en-gb/products/graphics/server/s7150-x2#

BoMbY
2016-12-08, 14:42:58
Es wird bald(tm) Neuigkeiten geben ...

Und, wie stehen die Sterne, in Markham (https://www.reddit.com/r/Amd/comments/5h67g2/theorycrafting_what_the_hell_is_going_on_in/)?

fondness
2016-12-08, 18:10:55
Secret AMD Vega tech day is happening right now
http://videocardz.com/64637/secret-amd-vega-tech-day-is-happening-right-now

MR2
2016-12-08, 21:25:25
WCCF hat auch ne News dazu.

http://wccftech.com/amd-vega-event/

"The structure and configuration of SIMD units is entirely new. Each SIMD is now capable of simultaneously processing variable length wavefronts. It also includes clever new coherency features to ensure peak stream processor occupancy in each compute unit at all times and reduce access times to cache and HBM. Memory delta color compression has also been improved."

"The Vega 10 GPU is an especially impressive one. Purported to deliver more than double the graphics horsepower of the RX 480, double the memory and double the memory bandwidth. It’s also officially AMD’s first ever graphics product to feature stacked, second generation High Bandwidth Memory technology “HBM2”."

Schaffe89
2016-12-08, 23:31:57
16GB wären wenigstens mal für die nächsten 3 Jahre zukunftssicher. Wer 2015 einen Titan X gekauft hat, der ist immernoch solide mit dem V-ram bedient.

Botcruscher
2016-12-09, 00:01:50
Es gibt auch eine 4GB 480.:freak: Wobei ich 8GB für den Massenmarkt im 1070/80 Segment für ausreichend halte. Alles eine Preisfrage.
Macht auf jeden Fall Freude auf mehr.

N0Thing
2016-12-09, 01:46:39
"The structure and configuration of SIMD units is entirely new. Each SIMD is now capable of simultaneously processing variable length wavefronts. It also includes clever new coherency features to ensure peak stream processor occupancy in each compute unit at all times and reduce access times to cache and HBM. Memory delta color compression has also been improved."

Das Zitat kommt mir sehr bekannt vor, so als ob ich das vor einigen Wochen auch schon mal hier im Forum als Spekulation gelesen hätte, was als Architekturverbesserung möglich und denkbare wäre...

Leonidas
2016-12-09, 08:12:25
WCCF hat auch ne News dazu.

http://wccftech.com/amd-vega-event/

"The structure and configuration of SIMD units is entirely new. Each SIMD is now capable of simultaneously processing variable length wavefronts. It also includes clever new coherency features to ensure peak stream processor occupancy in each compute unit at all times and reduce access times to cache and HBM. Memory delta color compression has also been improved."

"The Vega 10 GPU is an especially impressive one. Purported to deliver more than double the graphics horsepower of the RX 480, double the memory and double the memory bandwidth. It’s also officially AMD’s first ever graphics product to feature stacked, second generation High Bandwidth Memory technology “HBM2”."



Wurde das auf diesem TechDay gesagt - oder mischt WCCF Tech hier wieder alte Gerüchte mit hinein? Denn genau das technische ist Inhalt früherer Patente - wobei unklar ist, ob und wann AMD das in die Realität umsetzt.

BoMbY
2016-12-09, 09:02:31
Wurde das auf diesem TechDay gesagt - oder mischt WCCF Tech hier wieder alte Gerüchte mit hinein? Denn genau das technische ist Inhalt früherer Patente - wobei unklar ist, ob und wann AMD das in die Realität umsetzt.

Ich denke nicht, dass die praktische Umsetzung des Patents für die nächste Generation bestätigt ist. Wie immer wird bei denen eine Menge ungesicherte Informationen und pure Phantasie als Wahrheit verkauft.

AffenJack
2016-12-09, 10:11:49
Wurde das auf diesem TechDay gesagt - oder mischt WCCF Tech hier wieder alte Gerüchte mit hinein? Denn genau das technische ist Inhalt früherer Patente - wobei unklar ist, ob und wann AMD das in die Realität umsetzt.

Sie posten nur immer das gleiche wie vorher, das haben sie schon früher mal geposted bin ich ziemlich sicher. Man sollte da also kein Wert drauf legen. Vielleicht stimmt es wirklich, aber dann ist es einfach nur ein geratener Glücksgriff.

Pirx
2016-12-09, 10:41:54
16GB wären wenigstens mal für die nächsten 3 Jahre zukunftssicher. Wer 2015 einen Titan X gekauft hat, der ist immernoch solide mit dem V-ram bedient.
Sowas wird doch nicht honoriert, es wird lieber ne Krüppel-970 gekauft und promotet, warum sollte man das also tun?

Nakai
2016-12-09, 10:47:57
Boah, das wurde nicht auf diesem Techday gesagt. WCCFTech will nur eure Klicks. Das Patent wurde schon vor ~1 Jahr oder so ausgebuddelt und WCCFTech verramscht nur Forenwissen.

Vega könnte neuere SIMDs-Konfigurationen haben, aber ob das genau SO aussieht, wie im Patent oder Diagramm, das ist fraglich. Es steht auch im Patent, dass es auch andere Konfigurationen geben kann. Für bestimmte Use-Cases sind auch andere Konfigurationen eher von Vorteil.

Unicous
2016-12-09, 11:16:01
Ich sage es immer wieder gerne: Warum wird hier WTF-Tech als legitime Quelle für originäres Wissen herangezogen? Ich sehe euch immer wieder WTF-Tech verlinken oder sogar zu Artikeln verwursten, weil ihr euch nicht einmal die Mühe macht, die Originalquelle ausfindig zu machen (wird natürlich erschwert durch den Fakt, dass WTF-Tech sie so gut wie nie verlinkt).

Diese Seite ist ein Komglomerat aus clickbait, fake news und copy&paste Journalismus dennoch habt ihr kein Problem damit ihnen immer wieder Klicks zu schenken und euch auch noch zum Handlanger zu machen in dem ihr das hier auch noch verlinkt. Und dann am Ende labert ihr von irgendeinem Hype den Firma X mit Produkt Y veranstaltet, dabei seid ihr selbst die Hype-Maschine.

Cyphermaster
2016-12-09, 11:42:30
Wurde das auf diesem TechDay gesagt - oder mischt WCCF Tech hier wieder alte Gerüchte mit hinein?Ich zitiere da sogar direkt was aus der WTF-Tech-Meldung zum Event... ;)
All participants would’ve had to sign a non-disclosure agreement beforehandUnd nachdem sie selber nur vom Event gehört, aber nicht teilgenommen haben wollen, ist es eigentlich sonnenklar, daß das nur mal wieder einer ihrer üblichen Aufgüsse ist, und als solcher zu werten.

"Ungesicherte Fakten" ist ein schön klingendes Paradoxon, das aber schlicht "Gerüchte" bedeutet.

Complicated
2016-12-09, 11:46:10
Das Zitat kommt mir sehr bekannt vor, so als ob ich das vor einigen Wochen auch schon mal hier im Forum als Spekulation gelesen hätte, was als Architekturverbesserung möglich und denkbare wäre...

Hier im April:
http://forums.anandtech.com/showpost.php?p=38158614&postcount=115

And here we go. Wenn das GCN4 ist, dann wird das alles sehr interessant.
Also die Interpretation von dem Kerl im Anandforum ist fuer die Muelltonne. Hier bitte schoen mehr dazu:

https://forum.beyond3d.com/threads/amd-polaris-arctic-islands-r-4-series-speculation-rumors-and-discussion.56719/page-22
http://www.freepatentsonline.com/20160085551.pdf

Eingereicht in 2014, veroeffentlicht in 2016.
Wenn ich das richtig verstanden habe würde bei 8+ Threads eine Gruppierung der Einheiten erfolgen. 2 Scalare (in diesem Beispiel)+2ALU+4ALU+8ALU ergeben zusammen auch 16 Threads die allerdings alle Granularitäten zwischen 1-16 abdecken können wenn die Gruppen abgeschaltet werden können.

Die unterschiedlichen Größen der Gruppen wären wohl der nächste Step nach dem dynamischen abschalten der einzelnen Grupen. Dies ist sicherlich leichter zu implementieren als einzelne ALUs abschaltbar zu machen.
Nicht unterschiedlich große CUs. Eine CU ist ja heute 4x16 SIMD. Unterschiedlich große SIMD-Gruppen für eine CU. Auch eine skalare Recheneinheit steuert Threads zur Wavefront bei. Was nützt eine Scalar Unit die keine Threads abarbeitet? Die Aufgaben sind andere, doch Instruktionen müssen dennoch verarbeitet werden.

Ich meinte es sei leichter unterschiedlich große SIMD-Gruppen dynamisch ein- und auszuschalten als einzelne ALUs in einer Gruppe. Gruppiert man anstatt 4x16 +1 Scalar für eine CU eben 1x2, 1x4, 1x8 + 2 Scalar. Bzgl. dem zusmmenzählen der Units war das spekukliert auf der Basis dieses Papers, welches hier im Thread ja schon verlinkit wurde: http://people.engr.ncsu.edu/hzhou/ipdps14.pdf

Skysnake
2016-12-09, 12:35:31
Ich sage es immer wieder gerne: Warum wird hier WTF-Tech als legitime Quelle für originäres Wissen herangezogen? Ich sehe euch immer wieder WTF-Tech verlinken oder sogar zu Artikeln verwursten, weil ihr euch nicht einmal die Mühe macht, die Originalquelle ausfindig zu machen (wird natürlich erschwert durch den Fakt, dass WTF-Tech sie so gut wie nie verlinkt).

Diese Seite ist ein Komglomerat aus clickbait, fake news und copy&paste Journalismus dennoch habt ihr kein Problem damit ihnen immer wieder Klicks zu schenken und euch auch noch zum Handlanger zu machen in dem ihr das hier auch noch verlinkt. Und dann am Ende labert ihr von irgendeinem Hype den Firma X mit Produkt Y veranstaltet, dabei seid ihr selbst die Hype-Maschine.
+1
Mehr muss man nicht sagen

Nakai
2016-12-09, 12:50:29
Die neuen SIMDs werden wohl eher nicht die Performance steigern, sondern eher die Perf/Watt erhöhen. Es sieht mir nämlich nicht so aus, als ob die verschieden-große SIMD im gleichen Bereich "gleichzeitig" arbeiten können.

Falls doch, dann haben die neuen CUs mehr SPs als 64. Das glaube ich aber eher nicht.

€: Mit besserer Perf/Watt könnte es natürlich Taktsteigerungen geben. Ebenso muss das Frontend einer CU (Fetch & Decode & Schedule) überarbeitet werden. Das kann natürlich zu Mehrperformance führen.

AffenJack
2016-12-09, 12:58:40
Vom letzten Talk mit Investoren die Tage:

Alibaba is introducing a current generation of GPUs, but we do have Vega products coming out in the middle part of 2017. And that should help us from an overall standpoint of being more competitive in a space that, for example, our competitor has taken that world by storm. Everybody is talking about GPU acceleration.

http://seekingalpha.com/article/4029331-advanced-micro-devices-amd-management-presents-barclays-global-technology-media?page=5

Wahrscheinlich gehts um die Pro GPUs die Mitte des Jahres kommen, aber unter Umständen wird es doch etwas später mit Vega allgemein, als ich erwartet hätte.
Muss man abwarten, was so demnächst geleakt wird und ob das eher so eine allgemeine Vega Vorstellung wie bei Polaris war oder der Launch auch demnächst ansteht.

Palpatin
2016-12-09, 13:42:25
Sollte Vega für den Desktop erst im Juni kommen, wäre eine 490 mit Polaris 12 oder Polaris 10XT2 die sich Performancetechnisch zwischen 1060GTX und 1070GTX einordnet nicht unwarscheinlich.
Könnte dann auf Vorstellung im Dez, Tests im Jan und kaufbar ab Feb rauslaufen. Aber alles halt reine Spekulation, basierend auf den Gerüchten der letzten Tage/Wochen.

Nakai
2016-12-09, 15:32:20
P12 wird ein Chip unterhalb P11 sein.

P10 XT2 wird ein optimierter P10 sein. Eventuell mit GDDR5X, niedrigerem Stromverbrauch/höheren Taktraten. Daraus kann man eine Dual-Karte schmieden. Vega10 kommt noch nicht. Es gibt nichts auf Zauba (und sonst), dass danach aussehen könnte.

Ahja HBM1 fiel aus dem Databook von SKHynix. HBM2 mit 256GB/s ist zwar gelistet, aber Verfügbarkeit auf TBD.
Solange HBM2 mit 256GB/s NICHT lieferbar sind, wird Vega10 nicht kommen. Punkt.
Ich gehe von Q2 2017 frühestens für V10 aus.

horn 12
2016-12-09, 15:44:14
V10 dann April-Mai und nicht mal schneller als GTX 1080, das wäre Fatal
V10 muss schon schneller. bzw. in selber Performance liegen als Titan Pascal sonst hinkt man immer ein Jahr hinterher!

basix
2016-12-09, 15:45:01
Ahja HBM1 fiel aus dem Databook von SKHynix. HBM2 mit 256GB/s ist zwar gelistet, aber Verfügbarkeit auf TBD.
Solange HBM2 mit 256GB/s NICHT lieferbar sind, wird Vega10 nicht kommen. Punkt.
Ich gehe von Q2 2017 frühestens für V10 aus.

Wieso bist du dir da so sicher? Ist schon fix wie viele Stacks V10 haben wird? Zwei oder vier? Zwei sind sicher vorteilhaft, aber gibt es 8GB Stacks in nächster Zeit? 4 Stacks und 1024GB/s auf der anderen Seite ist meiner Meinung nach aber Overkill für eine Gamer-Karte.

Gipsel
2016-12-09, 17:56:40
Die neuen SIMDs werden wohl eher nicht die Performance steigern, sondern eher die Perf/Watt erhöhen. Es sieht mir nämlich nicht so aus, als ob die verschieden-große SIMD im gleichen Bereich "gleichzeitig" arbeiten können.Erstmal wäre ich sehr sehr skeptisch, ob die Vega-CUs überhaupt so aussehen (ich bezweifle es). Und da jede der Vektoreinheiten eigene Register hat, wird man eine Wavefront nicht (oder nur mit sehr großem Overhead) zwischen Ihnen verschieben können. Also so wie heute ist eine Wavefront immer an "seine" Vektor-ALU (bzw. bei dem Aufbau aus dem Patent sogar an eine Skalar-ALU, was die Ausführung der Wavefront sehr langsam machen würde. Das geht wirklich nur mit Wavefronts variabler Länge. Die kurzen gehen auf die kleinen Einheiten, die langen auf großen) bzw. SIMD-Einheit festgepinnt.
Ganz allgemein sieht mir das erstmal wie ein Patent für's Archiv aus. Gut zu haben und irgendwann benutzt man mal eine Idee daraus, aber ich glaube nicht, daß wir in näherer Zukunft eine GPU mit genau so aufgebauten CUs sehen werden.

Complicated
2016-12-09, 18:23:15
4. Wenn AMD eine Dual-GPU bringt, die aus 2 optimierten P10 besteht und diese als VR-Karte bewirbt Dann hat sie auch noch ihre Daseinsberechtigung wenn ein schneller Vega nachfolgt. Zumindest kauft sich dann keiner eine GTX 1080 für VR. Es könnte durchaus sein, dass AMD hier ein ganz neues Produkt-Lineup etablieren möchte welches den Konsolen am PC Konkurrenz macht ganz spezifisch für VR. Wenn man damit auch noch im normalen Modus nicht-VR Games spielen kann reicht es aus wenn die Leistung im Performancebereich angesiedelt ist und einige Spiele auf Dual-GPU optimiert werden.

5. Genau diese VR Zukunft könnte bei den Spieleentwicklern dazu führen, dass sie gar keine andere Wahl haben als wieder mehr in Dual GPU Optimierung zu investieren. Ich denke dies wird bei den kommenden DX12 Titel mehr der Fall sein als in der Vergangenheit, sicher nicht bei allen aber doch bei einigen die sich Abheben wollen.

Etwas Futter für diese beiden Punkte - Liquid VR Implementation bei Serious Sam VR für Affinity Multi-GPU:
http://gpuopen.com/implementing-liquidvr-affinity-multigpu-in-serious-samvr/?webSyncID=6cb69a3a-bc1d-5b20-c980-63843a439573&sessionGUID=9e03b780-68e7-8ad4-c721-5857de3e10ad
In Figure 2, we show the same scene with Affinity MGPU on two Radeon RX 480 cards. CPU usage has decreased from ~8 ms to ~5.5 due to single pass rendering and GPUs finished their work in ~8 ms. This gives us enough time to run the game at steady 90 FPS.Je schwächer die CPU desto eher ist eine Dual-GPU besser bei VR.

Palpatin
2016-12-09, 18:36:09
V10 dann April-Mai und nicht mal schneller als GTX 1080, das wäre Fatal
V10 muss schon schneller. bzw. in selber Performance liegen als Titan Pascal sonst hinkt man immer ein Jahr hinterher!
Naja zwischen langsamer als 1080 (600€) und schneller als Titan Pascal (1300€) gibt schon noch etwas Spielraum. Könnt mir vorstellen das man 10-15% über 1080 liegt und 600-700€ verlangt. NV die 1080 auf 500€ reduziert und eine 20-25% schnellere 1080TI für 800-900 bringt.

Dino-Fossil
2016-12-10, 17:18:22
Neue Infos zu Vega am 13. in einem weiteren Stream noch kurz vor dem Zen-Stream?

https://twitter.com/ryanshrout/status/807452609283899392
https://twitter.com/ryanshrout/status/807452979989069824

Könnte allerdings auch einfach nur Crimson ReLive betreffen, oder andere Radeon Software Dinge.

Cyphermaster
2016-12-10, 17:25:57
the stream is graphics based, and the software team will be in
Riecht also nach Crimson ReLive.

y33H@
2016-12-10, 20:13:34
Dienstag um 22h ist Zen.

BoMbY
2016-12-10, 20:50:01
Dienstag um 22h ist Zen.

Ja, aber was wurde Euch in Kanada erzählt?

y33H@
2016-12-10, 21:45:25
In Kanada? Nichts.

PrivateCeralion
2016-12-10, 22:46:59
Devinder:“

Alibaba is introducing a current generation of GPUs, but we do have Vega products coming out in the middle part of 2017. And that should help us from an overall standpoint of being more competitive in a space that, for example, our competitor has taken that world by storm Everybody is talking about GPU acceleration“

PrivateCeralion
2016-12-10, 22:53:57
Aber vielleicht bezieht sich das nur auf Vega im Profi Bereich.

BoMbY
2016-12-11, 01:11:00
In Kanada? Nichts.

Okay, wo war sie denn dann die Veranstaltung? :biggrin:

Naja, irgendeinen Event gab es jedenfalls wohl in Kanada, aber vielleicht auch doch nichts großes.

Sunrise
2016-12-11, 01:26:09
Okay, wo war sie denn dann die Veranstaltung? :biggrin:

Naja, irgendeinen Event gab es jedenfalls wohl in Kanada, aber vielleicht auch doch nichts großes.
Nanananana ;)

BlacKi
2016-12-11, 10:58:11
Dienstag um 22h ist Zen.
das passt ja, da komm ich grad heim. gleich mal für den stream anmelden. danke für die genaue info.

y33H@
2016-12-11, 18:50:59
Okay, wo war sie denn dann die Veranstaltung?Die paar Tage Stunden werdet ihr es noch aushalten :wink:

masked__rider
2016-12-11, 20:46:18
Mitternacht.. :confused::confused:;D:eek:

Tru
2016-12-11, 23:20:38
Nö :P

victore99
2016-12-12, 00:38:58
Ihr wisst echt, wie man die Leute anheizt xD

BoMbY
2016-12-12, 11:06:35
Dürfte dann wohl das hier sein - Videocardz hat wie so oft ein paar Folien vorab bekommen:

AMD announces first VEGA accelerator: RADEON INSTINCT MI25 for deep-learning (http://videocardz.com/64677/amd-announces-first-vega-accelerator-radeon-instinct-mi25-for-deep-learning)

Screemer
2016-12-12, 11:40:43
Also knapp 17-20% schneller in fp16 als nvidias p100 tesla. Gar nicht so schlecht. Vor allem wenn man bedenkt, dass dieser den markt per zuweiseung erreicht. Nv kann da aber sicher noch mal was nachschieben.

Tarkin
2016-12-12, 11:44:16
und 40% schneller bei DeepBench GEMM :eek:

Troyan
2016-12-12, 11:45:41
Titan Pascal hat 10,7 TFLOPs und soll langsamer als die 8,2TFLOPs Fiji-Karte sein? Manche glauben echt jeden Unsinn, der von AMD auf eine Powerpoint-Folie geschrieben wird.

/edit: Da die Titan Pascal Karte nur 35% schneller als die Titan Maxwell Karte ist, hat AMD hier einen schönen Bandbreitenbenchmark geschrieben.

y33H@
2016-12-12, 11:54:53
Bekommen ist gut, irgend ein A*** hat sie ihnen gesteckt ... allerdings zieht sich die Schlinge zu ;-)

dildo4u
2016-12-12, 11:57:18
Ist MI25 nich ein P100 Gegner?Warum vergleichen sie die mit Cosumer Karten?

Troyan
2016-12-12, 11:58:54
Ist MI25 nich ein P100 Gegner?Warum vergleichen sie die mit Cosumer Karten?

Weil der Benchmark ein Bandbreitenbenchmark ist und man mit rund 700GB/s deutlich mehr hat als Titan Pascal. P100 mit 700GB/s wäre wohl gleichschnell, wenn nicht schneller.

y33H@
2016-12-12, 12:02:37
Wie kommst du auf 700 GB/s? Sorry, dachte es bezog ich auf die MI25.

Screemer
2016-12-12, 12:03:29
Was ich auch sehr interessant finde ist, das miopen gegenüber gemm bei convolution fast um den faktor 3 schneller ist.

Troyan
2016-12-12, 12:04:29
Geschätzt. 40% schneller als Titan Pascal mit 448GB/s ergibt rund 628GB/s an Mehrbandbreite. 700GB/s ist das, was nVidia mit P100 verwendet.

/edit: 35% von Fijis 512GB/s ist ebenfalls rund 700GB/s.

dildo4u
2016-12-12, 12:06:01
Wie kommst du auf 700 GB/s?
http://abload.de/img/p100ybut1.png

BlacKi
2016-12-12, 12:10:22
700mhz HBM2 4096 Bit 720GB/s https://de.wikipedia.org/wiki/Nvidia_Tesla#GP100

HOT
2016-12-12, 12:14:32
SKHynix beitet AFAIK 1,6GHz HBM2 an. Das wird denke ich bei V10 auch zum Einsatz kommen, also über 800GB/s.

MechWOLLIer
2016-12-12, 12:19:19
bla, blödes NDA :(

Troyan
2016-12-12, 12:29:45
Ich gehe davon aus, dass der "DeepBench GEMM" Benchmark wohl hierauf beruht: https://github.com/baidu-research/DeepBench

Dort gibt es Benchmarks von Titan Maxwell und Titan Pascal.

Und hier das wohl wichtigste Zitat:

Although the fundamental computations behind deep learning are well understood, the way they are used in practice can be surprisingly diverse. For example, a matrix multiplication may be compute-bound, bandwidth-bound, or occupancy-bound, based on the size of the matrices being multiplied and the kernel implementation.

Hoffentlich gibt morgen heute mehr als nur belangloses AMD blabla und ein bisschen kritischen Journalismus.

mboeller
2016-12-12, 12:30:53
MI25’s value comes from FP16 calculations. So it means that the card has 12.5 TFLOPs in 32-bit operations.


so langsam? Nur 12,5 TFlops ... ;)

Link: http://cdn.videocardz.com/1/2016/12/AMD-INSTINCT-VEGA-VideoCardz.com-7.jpg
... heißt das nun, dass die MI25 bis zu 4,5x schneller ist als eine TitanX-Pascal (wenn man die beiden Charts einfach mal multipliziert)?


das 3PetaFLOPS "GPU" Serverrack ist auch nicht schlecht. Dürfte so 50KW brauchen wenn man die Zahlen der anderen Racks hochrechnet.

Screemer
2016-12-12, 12:38:19
wie schon angesprochen wohl bandbreiten bedingt mit DeepBench gemm und MIopen ist wohl ein neuer ansatz für convolution und der scheint performanter als gemm zu sein und könnte möglicherweise auch auf nv karten funktionieren.

PCGH_Carsten
2016-12-12, 12:43:53
Eine GEMM-Grafik mit den erreichten TFLOPS in Abhängigkeit von der Matrizengröße. Man braucht also nur eine kleine Fußnote und schon ist alles gut.
https://software.intel.com/sites/default/files/managed/dc/44/ML-pic1.png
edit: Beide in dieser Folie genannten Hersteller könnten wahrheitsgemäß behaupten „more than 2x Faster than the other guy“. :D

Noch spaßiger wird's mit speziellen Convolution-Kernels, die dann auch mal nur von einem Hersteller (*hust*) optimiert sein können:
https://software.intel.com/sites/default/files/managed/dc/44/ML-pic2.png

Beide Bilder aus:
https://software.intel.com/en-us/articles/intel-xeon-phi-delivers-competitive-performance-for-deep-learning-and-getting-better-fast#close

Merke: Traue keinem [Intel, Nvidia, AMD] bei Benchmarks mit unbekannten Parametern. :D

mboeller
2016-12-12, 12:46:46
Bekommen ist gut, irgend ein A*** hat sie ihnen gesteckt ... allerdings zieht sich die Schlinge zu ;-)

Wie? Benutzen sie Steganographie für das Fingerprinting der einzelnen Slides bzw. Slide-decks für jeden Journalisten?

BlacKi
2016-12-12, 12:52:36
Hoffentlich gibt morgen heute mehr als nur belangloses AMD blabla und ein bisschen kritischen Journalismus.
hoffe der hypetrain mit endstation wirklichkeit nimmt nochmals richtig fahrt auf, bei polaris war mehr stimmung^^

fondness
2016-12-12, 12:55:39
Sehe ich das richtig, mehr FP16, FP32, FP64 Leistung wie ein 610mm² GP100? Vermutlich wird Vega10 wohl deutlich weniger FP64 Leistung haben, sonst wäre Vega20 sinnlos... Die-Size wäre noch interessant.

PCGH_Carsten
2016-12-12, 12:59:16
Sehe ich das richtig, mehr FP16, FP32, FP64 Leistung wie ein 610mm² GP100? Vermutlich wird Vega10 wohl deutlich weniger FP64 Leistung haben, sonst wäre Vega20 sinnlos...
[als ein …]
Mehr FP64 sehe ich hier nicht, der Rest: Jo, mehr Rohleistung. Aber das war noch nie AMDs Problem.

fondness
2016-12-12, 13:01:29
Jo, mehr Rohleistung. Aber das war noch nie AMDs Problem.

Bei Compute-Anwendungen sehe ich keinen Grund, warum GP100 mehr TFLOPs auf die Straße bringen sollte. Bei Spielen klar da muss man erstmal abwarten.

Screemer
2016-12-12, 13:01:47
fp64 ist für dl ja auch eher unnötig. v10/11 sind also wohl zwei hpc chips mit unterschiedlichem fokus. na da bin ich mal gespannt wie die im markt angenommen werden.

der fp16 könnte dann auch der chip für den gamingmarkt werden. fp64 war hier immer unnötig. fp16 hingegen könnte hier in zukunft wieder interessant werden. gibt ja laut aussage einiger der spezis hier genug dinge bei denen verminderte genauigkeit ausreichen würde.

dildo4u
2016-12-12, 13:09:14
Bei Compute-Anwendungen sehe ich keinen Grund, warum GP100 mehr TFLOPs auf die Straße bringen sollte. Bei Spielen klar da muss man erstmal abwarten.
AMD hat doch kein Gegenstück zu NVlink,das dürfte für Multi GPU Systme wesentlich wichtigter werden als 20% mehr Computeleistung.

Locuza
2016-12-12, 13:14:48
AMD hat doch kein Gegenstück zu NVlink,das dürfte für Multi GPU Systme wesentlich wichtigter werden als 20% mehr Computeleistung.
Mit Vega und Zen hat AMD ebenso an einem neuen Interconnect gearbeitet, welcher sich Global Memory Interconnect (GMI) nennt.
Auf einer der geleaked Folien wird das auch erwähnt:
http://cdn.videocardz.com/1/2016/12/AMD-INSTINCT-VEGA-VideoCardz.com-9.jpg

Screemer
2016-12-12, 13:17:41
AMD hat doch kein Gegenstück zu NVlink,das dürfte für Multi GPU Systme wesentlich wichtigter werden als 20% mehr Computeleistung.
pcie 4.0 ist jetzt nicht wirklich langsamer als nvlink, oder?

gmi soll bei 4 links bis zu 100GB/s liefern. das ist noch mal ein ticken mehr als nvlink. allerdings auf nem mcm. keine ahnung wie das gesteckt aussehen wird.

Troyan
2016-12-12, 13:18:27
Und das beruht auf PCIe? Die Bilder Karten haben nur einen PCIe Anschluss und das gezeigte System war nur mit PCIe-Karten bestückt:
http://uploads.disquscdn.com/images/930205cbe909d0fcb4ebfafdffc5865042afc9cc85948e79567fb3ee769aa463.jpg?w=800&h=370
http://videocardz.com/64677/amd-announces-first-vega-accelerator-radeon-instinct-mi25-for-deep-learning

pcie 4.0 ist jetzt nicht wirklich langsamer als nvlink, oder?

Die drei Systeme auf den Folien haben nur PCIe 3.0.

Screemer
2016-12-12, 13:21:10
Die drei Systeme auf den Folien haben nur PCIe 3.0.
das war aber nicht meine frage.

Troyan
2016-12-12, 13:23:14
das war aber nicht meine frage.

Es war die Antwort auf deine Frage. Die Racksysteme unterstützen kein PCIe 4.0.

PCIe 4.0 spielt also für Vega und Zen keine Rolle.

BoMbY
2016-12-12, 13:30:13
Zwei neue Interconnects mit AMD-Beteiligung wurden kürzlich vorgestellt:

Gen-Z: http://genzconsortium.org/
CCIX: http://www.ccixconsortium.com/

Gen-Z ist eher ein PCIe-Ersatz, und CCIX eher für on-chip.

fondness
2016-12-12, 13:45:05
AMD hatte schon vor mehr als zehn Jahren mit Hypertransport eine schnelle Punkt-zu-Punkt Verbindung. GMI wird da eben der Nachfolger sein für Zen und vermutlich auch Vega. Die Folie spricht ja von einer High-Speed-Network-Fabric, wo offensichtlich auch die GPUs angeschlossen sind.

BoMbY
2016-12-12, 13:57:24
Gen-Z nutzt den Ethernet Layer 1 (IEEE 802.3 physical layer) (http://genzconsortium.org/faq/gen-z-technology/). Wäre jedenfalls nicht unmöglich, dass Summit Ridge und Vega das implementiert haben, eventuell als zwischen PCIe und Gen-Z umschaltbare Lanes.

AffenJack
2016-12-12, 14:01:23
Gen-Z ist doch eher zwischen Racks oder nicht? AMD ist bei Opencapi dabei und das dürfte da eher ne Rolle spielen. Ist dann auch fast das gleiche wie Nvlink.

Troyan
2016-12-12, 14:03:23
Die GPUs sind mit PCIe 3.0 an das System angeschlossen. Die Folie soll aber den Eindruck erwecken, dass ein "Network" verwendet wird, das schneller als PCIe 3.0 ist:
"Optimized for GPU[...] throughput computing".

Gut, wir könnten nun davon ausgehen, die meinen einzig die Leiterbahnen auf der Platine... Aber das wäre schon richtig bizarr.

BoMbY
2016-12-12, 14:05:14
Gen-Z

"Scales from the simple point-to-point optimized solutions to rack-scale"

"Can be incorporated into any solution using a wide range of existing mechanical form factors and cables to enable Gen-Z to be easily integrated into any solution. "

"A Gen-Z I/O component is mapped into an unmodified operating system as a conventional PCI device"

usw. usf.

Troyan
2016-12-12, 14:24:54
Das ist die Kommunikation der Cluster untereinander. Das hat aber nichts mit der Folie von AMD zu tun, wo sie das "Innenleben" eines Clusters zeigen und dort vor Allem die Kommunikation der Karten und der CPU hervorheben. Und diese Kommunikation erfolgt weiterhin, jedenfalls in den Racksystemen auf der Folie, über PCIe 3.0.

BTW: Findet es keiner komisch, dass AMD weiterhin Fiji-Karten verkauft anstelle von Vega?! Die 8,2TFLOPs bei weniger als 175W sollte Vega eigentlich deutlich übertreffen...

PCGH_Carsten
2016-12-12, 14:27:37
BTW: Findet es keiner komisch, dass AMD weiterhin Fiji-Karten verkauft anstelle von Vega?! Die 8,2TFLOPs bei weniger als 175W sollte Vega eigentlich deutlich übertreffen...

Nö, find ich nicht. Alles eine Frage der Markteinführung. Komisch wird's höchstens dann, wenn MI6 und MI8 nicht deutlich vor MI25 auf den Markt kommen.

Troyan
2016-12-12, 14:33:18
Hättest du dir auch keine Gedanken gemacht, wenn nVidia 3 Monate vor der Nachfolgergeneration nochmal ein 18 Monate altes Produkt neu aufgelegt hätte?
MI8 zum jetzigen Zeitpunkt zu bringen, bedeutet fast, dass AMD von Vega nur geringe Stückzahlen in den nächsten 12 Monaten produzieren kann.

Alleine die 4GB von MI8 ist ein Todesstoß für jeden ambitionierten Computingmarkt...

BoMbY
2016-12-12, 14:34:28
Das ist die Kommunikation der Cluster untereinander. Das hat aber nichts mit der Folie von AMD zu tun, wo sie das "Innenleben" eines Clusters zeigen und dort vor Allem die Kommunikation der Karten und der CPU hervorheben. Und diese Kommunikation erfolgt weiterhin, jedenfalls in den Racksystemen auf der Folie, über PCIe 3.0.

Die Beispielsysteme haben auch alle keine Summit Ridge CPU ...

PCGH_Carsten
2016-12-12, 14:37:29
Troyan,

Gedanken schon. Aber wenn das Produkt eine bestimmte Nische ausfüllt, für welche die anderen Produkte vielleicht nicht im selben Maße geeignet wären. Das kann viele Aspekte betreffen: Performance, Größe, Kosten, elektr. Leistung, TFLOPS/Watt, Kosten für die Produktentwicklung etc. pp. dann hätte ich es nicht notwendigerweise „komisch“ gefunden.

Screemer
2016-12-12, 14:42:43
Es war die Antwort auf deine Frage. Die Racksysteme unterstützen kein PCIe 4.0.

nein war es nicht. lies noch mal was meine frage war.

HOT
2016-12-12, 14:52:30
Sicher, dass der nur 4GB hat und nicht 1TB? Fiji unterstützt SSDs.
Fiji ist zudem billiger als V10 mit seinen 28nm und AMD hat kein weiteres Produkt in dieser Leistungskategorie z.Z. Zudem ist auch noch ein interessanter Punkt, dass man nicht weiss, wieviele von den Dingern bei AMD auf Halde liegen, auch solche Argumente sind relevant.

Unicous
2016-12-12, 15:01:05
http://www.anandtech.com/show/10905/amd-announces-radeon-instinct-deep-learning-2017

PCGH_Carsten
2016-12-12, 15:03:58
4 GByte für MI8 (Fiji), 16 GByte für MI6 (Polaris 10) und...
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Vega-10-HBM2-GTX-1080-1215734/

y33H@
2016-12-12, 15:05:02
Doom-Benchmark mit Vega 10: http://www.golem.de/news/grafikchip-amds-vega-hat-mindestens-25-teraflops-sowie-8-gbyte-hbm2-1612-125003.html

http://scr3.golem.de/screenshots/1612/AMD-Vega10-RadeonInstinct-Doom/thumb620/AMD-Vega10-RadeonInstinct-Doom-02.JPG

deekey777
2016-12-12, 15:17:26
Doom-Benchmark mit Vega 10: http://www.golem.de/news/grafikchip-amds-vega-hat-mindestens-25-teraflops-sowie-8-gbyte-hbm2-1612-125003.html

http://scr3.golem.de/screenshots/1612/AMD-Vega10-RadeonInstinct-Doom/thumb620/AMD-Vega10-RadeonInstinct-Doom-02.JPG
Ihr habt doch nicht etwa die geleakte Folie verwendet?

tm0975
2016-12-12, 15:17:30
klingt doch gar nicht schlecht. wird wohl dennoch q2 werden bei vega.

Flusher
2016-12-12, 15:19:30
Doom-Benchmark mit Vega 10: http://www.golem.de/news/grafikchip-amds-vega-hat-mindestens-25-teraflops-sowie-8-gbyte-hbm2-1612-125003.html

http://scr3.golem.de/screenshots/1612/AMD-Vega10-RadeonInstinct-Doom/thumb620/AMD-Vega10-RadeonInstinct-Doom-02.JPG

So wie sich der Artikel liesst, dauert es noch locker ein halbes Jahr bis Vega im Markt aufschlägt

Troyan
2016-12-12, 15:22:09
Doom-Benchmark mit Vega 10: http://www.golem.de/news/grafikchip-amds-vega-hat-mindestens-25-teraflops-sowie-8-gbyte-hbm2-1612-125003.html

http://scr3.golem.de/screenshots/1612/AMD-Vega10-RadeonInstinct-Doom/thumb620/AMD-Vega10-RadeonInstinct-Doom-02.JPG

Eine Ahnung, wo genau in Doom? Mein Savegame ist kaputt, aber beim Start schafft meine GTX1080 mit 2050Mhz auch schon mehr als 60FPS mit Vulkan...

Tarkin
2016-12-12, 15:22:33
Tolle Headline bei PCGH - Vega auf 1080 Nivea

und weiter unten:

Eine 1.900 MHz übertaktete Geforce GTX 1080 ist dort etwa 10 Prozent langsamer

alles klar :rolleyes:

also rund 20% (k.a. was der durchschnittliche Standard-Takt einer 1080 ist 1750 vl?) Unterschied sind selbes Niveau? Interessant...

liegt wohl eher näher an einer Titan X als an der 1080

N0Thing
2016-12-12, 15:23:21
Computerbase hat auch was geschrieben:

https://www.computerbase.de/2016-12/radeon-instinct-vega-mi25/
https://www.computerbase.de/2016-12/amd-vega-details/

dildo4u
2016-12-12, 15:23:28
Doom ist mit Abstand Best Case für AMD,1080 Level passt schon.

tm0975
2016-12-12, 15:24:35
Doom ist einfach nur moderner als der ganze dx11-krempel...

dildo4u
2016-12-12, 15:26:11
Doom ist einfach nur moderner als der ganze dx11-krempel...
Und was ist Gears 4?

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/3/

Die Engine wird in Zukunft wesentlich wichtiger als die Doom Engine,die für Entwickler außerhalb von Bethesda gar nicht verfügbar ist.

Tru
2016-12-12, 15:27:15
Tolle Headline bei PCGH - Vega auf 1080 Nivea

und weiter unten:

Eine 1.900 MHz übertaktete Geforce GTX 1080 ist dort etwa 10 Prozent langsamer

alles klar :rolleyes:

also rund 20% (k.a. was der durchschnittliche Standard-Takt einer 1080 ist 1750 vl?) Unterschied sind selbes Niveau? Interessant...

liegt wohl eher näher an einer Titan X als an der 1080
Und noch weiter unten steht, dass Doom mit Vulkan einen Best-Case für AMD darstellt.

Troyan
2016-12-12, 15:31:56
Troyan,

Gedanken schon. Aber wenn das Produkt eine bestimmte Nische ausfüllt, für welche die anderen Produkte vielleicht nicht im selben Maße geeignet wären. Das kann viele Aspekte betreffen: Performance, Größe, Kosten, elektr. Leistung, TFLOPS/Watt, Kosten für die Produktentwicklung etc. pp. dann hätte ich es nicht notwendigerweise „komisch“ gefunden.

Vega sollte in jedem Belang besser als Fiji sein. nVidia hat z.B. das Perf/Watt Verhältnis von M40 auf P40 um 71% verbessert. Beim selben Maßstab zu MI8 wären das 8,2TFLOPs bei 102W.

Mir fällt nur ein einziger Grund ein, wieso man heute noch Fiji als "neues" Produkt verkaufen muss: Vega ist fast 2 Quartale von der Einführung entfernt.

AffenJack
2016-12-12, 15:34:15
Benchmarks sind im Moment doch eh unwichtig. Die Treiber sind völlig unoptimiert, da sollte also noch was gehen. Bei der derzeitigen Performance sollte man zumindest in Doom die Titan X schlagen. Das sieht schonmal ziemlich gut aus. Problem ist, dass man spät dran ist. CB sagt Samples sind gerade einmal Wochen alt. Heißt Launch erst Ende Q2.

Zusätzlich verwendet man noch Fury Nano im Deap Learning und keinen kleinen Vega. Also kann sein, dass klein Vega sehr spät kommt. Könnte allerdings auch nur heißen, dass man Vega 11 wegen zu wenig Bandbreite nicht verwenden will in HPC. Vega 10 sieht ja alles nach 2 Stacks aus. Dementsprechend würde ich 1 Stack und 256 Gb/s bei Vega 11 erwarten.

y33H@
2016-12-12, 15:34:35
Ihr habt doch nicht etwa die geleakte Folie verwendet?Wovon sprichst du?
Eine Ahnung, wo genau in Doom?Die Szene gleich am Anfang, wo der Imp von der Decke kommt.

N0Thing
2016-12-12, 15:37:36
Who cares ob Doom nun state of the art ist oder nicht? Mit einem Chip frisch aus der Produktion ohne ausgereiftem Treiber kann man eh keine Punktlandung bei einer Performance-Einschätzung hinlegen.
AMD muss am Ende konkurrenzfähig gegenüber einer GTX 1080 sein. Dass mal das eine oder andere Spiel eher besser bei der Konkurrenz läuft, ist ebenfalls zu erwarten und spielt auch keine große Rolle.

Troyan
2016-12-12, 15:41:05
GTX1080? Die Karte wird zum Erscheinen fast ein Jahr alt sein. Wenn die der Maßstab ist, dann gute Nacht.

PCGH_Carsten
2016-12-12, 15:45:20
War es bei Vulkan (und DX12) nicht sogar so, dass der Treiber selbst immer weniger Einfluss haben und dem Entwickler mehr Einfluss zufallen sollte? Klar dürfte Doom auch noch nicht für Vega optimiert sein, aber die Performance an den Treiber zu hängen, der sich ja nach Möglichkeit raushalten soll?

Cyphermaster
2016-12-12, 15:46:26
Mit einem Chip frisch aus der Produktion ohne ausgereiftem Treiber kann man eh keine Punktlandung bei einer Performance-Einschätzung hinlegen.This.
Weitere Unsicherheitsfaktoren:
- Belüftung (nach Beschreibung eingeschränkt = geringere Taktraten?)
- Optimierung (wie stark selektiert war der präsentierte Chip?)

Aber auch als grober Fingerzeig eine sehr positive Sache.

Loeschzwerg
2016-12-12, 15:47:35
CB sagt Samples sind gerade einmal Wochen alt. Heißt Launch erst Ende Q2.

Juni/Juli war ja ein "wichtiger Milestone" für Vega. Falls damit der Tapeout gemeint war gab es wohl noch Probleme und man hat ein neues Stepping nachgeschoben.

Ende Q2 würde sich mit der Aussage aus dem Transcript von Seekingalpha decken.

Fusion_Power
2016-12-12, 15:48:31
Ich las was von "Unter 300W" Leistungsaufnahme, das könnne also auch 299W sein... :ugly: nene, nennt mich "Öko" aber im 21. Jahrhundert will ich so ein Blockheizkraftwerk einfach nicht mehr in meinem PC haben. Egal wie schnell die ist.

deekey777
2016-12-12, 15:53:34
Wovon sprichst du?
.
Irgendwie wirkt auf mich die erste Folie nicht so klar wie im Parallelartikel und erinnert mich an die geleakte.

Linmoum
2016-12-12, 15:54:15
Ich las was von "Unter 300W" Leistungsaufnahme, das könnne also auch 299W sein... :ugly: nene, nennt mich "Öko" aber im 21. Jahrhundert will ich so ein Blockheizkraftwerk einfach nicht mehr in meinem PC haben. Egal wie schnell die ist.
Die >300W sind für die MI25. ;)

Pirx
2016-12-12, 16:01:17
Hmm was ist dann jetzt die RX490?

Dino-Fossil
2016-12-12, 16:01:33
So interessehalber, hat die Zahlen mal wer mit den Tesla-Karten verglichen?

PCGH_Carsten
2016-12-12, 16:09:11
Vega sollte in jedem Belang besser als Fiji sein. nVidia hat z.B. das Perf/Watt Verhältnis von M40 auf P40 um 71% verbessert. Beim selben Maßstab zu MI8 wären das 8,2TFLOPs bei 102W.

Mir fällt nur ein einziger Grund ein, wieso man heute noch Fiji als "neues" Produkt verkaufen muss: Vega ist fast 2 Quartale von der Einführung entfernt.
Mir fallen noch mehr ein: Man hat schon das vermutlich nicht ganz billige Design der Nano rumliegen. Fiji-GPUs gibt's vielleicht auch genug (nachdem die Miner auf Polaris rübergemacht haben) und ebenso HBM-gen1-stacks? Perf/Watt ist besser als bei Polaris, absolute (Compute)-Performance auch, daher für eine hohe Dichte von Rechenleistung interessant. Speichermenge kann ein Problem sein, muss aber nicht. Das hängt wohl ganz von der Anwendung ab. Generell gilt natürlich mehr ist besser, aber solange dein spezieller Algorithmus mit 4 GByte auskommt - warum nicht?

PCGH_Carsten
2016-12-12, 16:09:40
Irgendwie wirkt auf mich die erste Folie nicht so klar wie im Parallelartikel und erinnert mich an die geleakte.

Not all slides are created equal.

y33H@
2016-12-12, 16:14:44
Irgendwie wirkt auf mich die erste Folie nicht so klar wie im Parallelartikel und erinnert mich an die geleakte.Ich hatte es eilig, weil man nie weiß ob man gleich vom Rechner weggezerrt wird :biggrin: der Kollege wusste dann schon, dass nix passiert ...

N0Thing
2016-12-12, 16:15:04
GTX1080? Die Karte wird zum Erscheinen fast ein Jahr alt sein. Wenn die der Maßstab ist, dann gute Nacht.

Die Titan XP als Maßstab ist auch nur ca. 25% schneller als eine GTX 1080, in den getesteten DX12 Titeln bei PCGH (http://www.pcgameshardware.de/Titan-X-Grafikkarte-265165/Specials/Test-Benchmark-Tuning-Overclocking-vs-1080-1206879/) sogar nur ca. 15%. Von daher wäre AMD gut aufgestellt, wenn man sich nicht hinter der GTX 1080 einreihen müsste.


War es bei Vulkan (und DX12) nicht sogar so, dass der Treiber selbst immer weniger Einfluss haben und dem Entwickler mehr Einfluss zufallen sollte? Klar dürfte Doom auch noch nicht für Vega optimiert sein, aber die Performance an den Treiber zu hängen, der sich ja nach Möglichkeit raushalten soll?

Die grobe Richtung sollte klar sein, aber man sollte die Werte noch nicht als in Stein gemeißelt betrachten, wenn zum einen immer wieder mal erwähnt wird, dass auch unter DX12 und Vulkan der Treiber eine Rolle spielt und zum anderen Doom sicherlich auch noch nicht viele Anpassungen an Vega bekommen haben dürfte.
Inwiefern sich Vega dann in den bisher bekannten DX12 und DX11 Anwendungen schlägt, steht ja auch nochmal auf einem anderen Blatt.

Troyan
2016-12-12, 16:16:02
Titan Pascal wird auf 200 bis 210W gedrosselt und liegt nur minimal über GP104 mit 180W.


Die Szene gleich am Anfang, wo der Imp von der Decke kommt.

Meine GTX1080 mit 2050MHz/5500MHz erreicht an der Stelle 70FPS mit Nightmare-Schatten. Stromverbrauch der kompletten Karte liegt bei 92% bzw. 184W.
Natürlich unter OpenGL. Der von id superoptimierte Vulkan-Pfad erreicht 61FPS bei 170W. :freak:

/edit: Mit Ultra-Schatten sind es 73FPS.

PCGH_Carsten
2016-12-12, 16:23:56
Die grobe Richtung sollte klar sein, aber man sollte die Werte noch nicht als in Stein gemeißelt betrachten, wenn zum einen immer wieder mal erwähnt wird, dass auch unter DX12 und Vulkan der Treiber eine Rolle spielt und zum anderen Doom sicherlich auch noch nicht viele Anpassungen an Vega bekommen haben dürfte.
Inwiefern sich Vega dann in den bisher bekannten DX12 und DX11 Anwendungen schlägt, steht ja auch nochmal auf einem anderen Blatt.
Das halte ich in der Tat für den wichtigeren Teil.

Cyphermaster
2016-12-12, 16:25:42
Meine GTX1080 mit 2050MHz/5500MHz erreicht an der Stelle 70FPS mit Nightmare-Schatten. Stromverbrauch der kompletten Karte liegt bei 92% bzw. 184W.
Natürlich unter OpenGL. Der von id superoptimierte Vulkan-Pfad erreicht 61FPS bei 170W. :freak:War das Butthurt Ointment wieder mal aus, oder geht es tatsächlich über deinen Horizont, daß wenn du nicht aussagekräftige Daten (s.o.) mit nicht aussagekräftigen Daten deinerseits zusammenbringst, nichts Anderes als eine Null-Aussage² rauskommen kann? :ulol:

N0Thing
2016-12-12, 16:26:18
Titan Pascal wird auf 200 bis 210W gedrosselt und liegt nur minimal über GP104 mit 180W.

Die PCGH misst in der Spitze 231 Watt und ist sonst ja auch gut genug für Angaben zum Stromverbrauch. Spielt in dem Segment aber auch nicht mehr so eine große Rolle, solange der Kühler mitspielt. Dass AMD Nvidia bei der Performance pro Watt mit dieser Generation einholen wird, erwartet ja wahrscheinlich eh niemand mehr, oder?

Hübie
2016-12-12, 16:37:29
War das Butthurt Ointment wieder mal aus, oder geht es tatsächlich über deinen Horizont, daß wenn du nicht aussagekräftige Daten (s.o.) mit nicht aussagekräftigen Daten deinerseits zusammenbringst, nichts Anderes als eine Null-Aussage² rauskommen kann? :ulol:

X-D Autsch!

In Doom macht der Treiber nicht mehr viel, aber auf NV gab es mit dem letzten Treiber Update neue dlls und mal 'eben so' 10%. :smile: Das stützt also das Argument dass man hier noch nicht viel sagen kann. Eben so die Tatsache, dass es ein Standbild ist in einer unbekannt Szene. Marc ist nicht dumm, also kann man dass imo schon ganz gut so stehen lassen, wie er im Artikel sagt (er kennt ja die Szene und auch die Performance der 1080).

Tamagothi
2016-12-12, 16:42:07
Das sollte man auch nicht unterschätzen.

Zweitens sollte jegliche Sicht auf die Grafikkarte verwehrt bleiben, sodass sämtliche Lüfterplätze abgeklebt wurden und es keinerlei Luftstrom im Gehäuse gab. Die Grafikkarte war dadurch merklich laut und schaufelte ordentlich heiße Abluft nach hinten heraus. Eine Drosselung des GPU-Taktes kann daher nicht ausgeschlossen werden

deekey777
2016-12-12, 16:46:54
Das halte ich in der Tat für den wichtigeren Teil.
Es zählen doch nur die Balken. Was interessiert schon, ob die Treiber halbwegs optimal sind. Oder ob der Vergleich zu Pascal-Grafikkarten überhaupt vergleichbar ist.

PCGH_Carsten
2016-12-12, 16:47:54
Es zählen doch nur die Balken. Was interessiert schon, ob die Treiber halbwegs optimal sind. Oder ob der Vergleich zu Pascal-Grafikkarten überhaupt vergleichbar ist.

Aber es gibt doch noch gar keine Balken *ogottogottogottogottogott* :eek::freak:

victore99
2016-12-12, 16:48:13
Außerdem "schaufelte Abluft nach Hinten" besagt, dass sie einen Blowerstyle oder so nutzen. Auf jeden Fall keine WaKü. Und wenn AMD eine Karte mit Blowerstyle gekühlt kriegt, muss das was für die Leistungsaufnahme heißen xD

deekey777
2016-12-12, 16:49:14
Aber es gibt doch noch gar keine Balken *ogottogottogottogottogott* :eek::freak:
Man kann sich welche basteln!

KORE
2016-12-12, 16:59:13
Ich las was von "Unter 300W" Leistungsaufnahme, das könnne also auch 299W sein... :ugly: nene, nennt mich "Öko" aber im 21. Jahrhundert will ich so ein Blockheizkraftwerk einfach nicht mehr in meinem PC haben. Egal wie schnell die ist.

Wieso? Wenn sie dabei ähnlich effizient ist wie Pascal ... Ist doch Geil. :)

pest
2016-12-12, 17:00:53
Man kann sich welche basteln!

:frown:

https://abload.de/img/meta-charti8u1i.jpeg

deekey777
2016-12-12, 17:01:39
AMD sucks!

Mancko
2016-12-12, 17:08:00
Who cares ob Doom nun state of the art ist oder nicht? Mit einem Chip frisch aus der Produktion ohne ausgereiftem Treiber kann man eh keine Punktlandung bei einer Performance-Einschätzung hinlegen.
AMD muss am Ende konkurrenzfähig gegenüber einer GTX 1080 sein. Dass mal das eine oder andere Spiel eher besser bei der Konkurrenz läuft, ist ebenfalls zu erwarten und spielt auch keine große Rolle.

Die GTX 1080 darf niemals der Maßstab für Vega sein. Das wäre viel zu wenig. Die Karte ist zum Vega Launch vermutlich zwischen 9 und 12 Monaten auf dem Markt und sie ist ist für Nvidia sehr günstig herzustellen. Mit HBM2 sind die Kosten für Vega da definitiv drüber, insbesondere wegem dem zeitlichen Nachteil. Da muss schon Leistung deutlich oberhalb der 1080 im Schnitt rausspringen.

iuno
2016-12-12, 17:08:51
Gibt es Neuigkeiten bzgl. OpenCL + ROCm? Auf den Bildern sieht man was, gelesen habe ich aber noch nichts.

y33H@
2016-12-12, 17:14:23
Nur, dass ROCm als Basis für DL-Frameworks dient.

Nightspider
2016-12-12, 17:14:55
Wenn die Karte nur 80% der Leistung einer Titan X Pascal erreicht wären die meisten ja schon zufrieden, auch wenn es schade wäre wenn AMD fast 9 Monate später es nicht schafft einen 450mm² Chip zu schlagen.

Schnoesel
2016-12-12, 17:44:49
Furchtbar, das geht jetzt ein halbes Jahr hier so weiter. Hätte AMD mal lieber gar nix gesagt...

KORE
2016-12-12, 17:50:15
Und in diesen 6 Monaten wird Vega schneller und schneller. ;)

Menace
2016-12-12, 17:53:25
Und dann ist sie am Ende doch nur so schnell wie angekündigt und die typischen schreien hier "Skandal/Fail", während ein paar Optimisten auf den richtigen Treiber warten. Also nichts neues und trotzdem ziemlich nervig.

BlacKi
2016-12-12, 17:56:50
8gb. war schon vorher angenommen das es so kommt. "reichlich" ist das nichtmehr, und nur noch gleichauf mit der ein jahr alten nv karten. bleibt wohl nur noch ein interessanter preispunkt übrig wo die karte punkten könnte.

PrivateCeralion
2016-12-12, 17:57:48
Die GTX 1080 darf niemals der Maßstab für Vega sein. Das wäre viel zu wenig. Die Karte ist zum Vega Launch vermutlich zwischen 9 und 12 Monaten auf dem Markt und sie ist ist für Nvidia sehr günstig herzustellen. Mit HBM2 sind die Kosten für Vega da definitiv drüber, insbesondere wegem dem zeitlichen Nachteil. Da muss schon Leistung deutlich oberhalb der 1080 im Schnitt rausspringen.

Stimme ich nicht zu. Nvidia macht momentan am meisten Umsatz mit der GTX 1070, also wenn Vega schneller als die GTX 1070 ist, bis maximal 10% über der GTX 1080, dann ist AMD genau im richtigen Bereich aktiv. Und es gibt noch sehr viele Gamer, die noch nicht aufgerüstet haben.

fondness
2016-12-12, 18:07:52
Die Daten die man heute erfahren hat bestätigen jedenfalls die Angaben im ersten Post bzw. im LinkedIn Beitrag des AMD Mitarbeiters. Um auf die 25 TFLOPs FP16 Leistung zu kommen, brächte man 1,525 Ghz Takt, Vega taktet also deutlich höher als Polaris. Entscheidend wird wieviel Strom das Ding schluckt und wie groß er wird. V11 dürfte dann mit einem HBM2 Stack kommen und damit dieselben Bandbreite wie P10 haben, das spricht entweder für eine Einstellung von P10 nach nur einem Jahr (IMO unwahrscheinlich) oder doch nach deutlichen Architekturnverbesserungen zumindest was den Bandbreitengebrauch betrifft. Denn schon P10 ist relativ Bandbreitenlimitiert.

[...]Doom sicherlich auch noch nicht viele Anpassungen an Vega bekommen haben dürfte.


Vega10 hat im Gegensatz zu GP104 jedenfalls doppelten FP16 Durchsatz. Wenn in Doom hier Optimierungen einfließen würden, sollte das jedenfalls eine deutlich Leistungssprung ermöglichen. Und nachdem die PS4 PRO ebenfalls 2xFP16 Performance hat, sollte das nicht so unwahrscheinlich sein.

Screemer
2016-12-12, 18:41:14
Und wer sagt das v10 nicht ein noch größerer chip mit höher so leistung ist? Es scheint sich ja anzudeuten, dass v11 keine 1:2 dp ratio hat. Oder eben anders rum.

BoMbY
2016-12-12, 18:43:38
Wurde eigentlich gesagt ob das vorgeführte Gerät bei Doom Vega 10 oder Vega 11 war? Eigentlich sollte Vega 10 die Device ID 0x6860 (zumindest auch) haben, die habe ich jedenfalls an anderer Stelle mit Referenz darauf gefunden.

Edit: Soll heißen, das Gerät 687F:C1 dürfte eigentlich Vega 11 sein (der vermutliche kleinere Vega).

YfOrU
2016-12-12, 18:50:48
Da es nur eine Vega GPU innerhalb der vorgestellten Radeon Instinct Serie gibt und normalerweise der kleinere Chip bei neuen Prozessen zuerst in die Produktion geht ist es am wahrscheinlichsten.

Hübie
2016-12-12, 18:53:15
Wurde eigentlich gesagt ob das vorgeführte Gerät bei Doom Vega 10 oder Vega 11 war? Eigentlich sollte Vega 10 die Device ID 0x6860 (zumindest auch) haben, die habe ich jedenfalls an anderer Stelle mit Referenz darauf gefunden.

Edit: Soll heißen, das Gerät 687F:C1 dürfte eigentlich Vega 11 sein (der vermutliche kleinere Vega).

Ich sehe nach Polaris und Vega 10 keinen Spielraum mehr für einen Vega 11, da diese Lücke aller Wahrscheinlichkeit nach über cutdown abgedeckt wird.

GP106<->P10
GP104<->V10
GP102<->???

BoMbY
2016-12-12, 19:02:00
Ich sehe nach Polaris und Vega 10 keinen Spielraum mehr für einen Vega 11, da diese Lücke aller Wahrscheinlichkeit nach über cutdown abgedeckt wird.

GP106<->P10
GP104<->V10
GP102<->???

Vega11 (0x687F): Kleiner Chip gegen GTX 1070/1080
Vega10 (0x6860): Großer Chip gegen Titan X (Pascal)

Eventuell als neue RX 5xx Serie:

RX 560: Polaris 10 Pro rebrand
RX 570: Polaris 10 XT rebrand
RX 580: Vega 11 Pro (8 GB HBM2, 512 GB/s)
RX 590: Vega 11 XT (8 GB HBM2, 512 GB/s)

RX Fury: Vega 10 XT (16 GB HBM2, 1024 GB/s)

TheGood
2016-12-12, 19:05:11
Die PCGH misst in der Spitze 231 Watt und ist sonst ja auch gut genug für Angaben zum Stromverbrauch. Spielt in dem Segment aber auch nicht mehr so eine große Rolle, solange der Kühler mitspielt. Dass AMD Nvidia bei der Performance pro Watt mit dieser Generation einholen wird, erwartet ja wahrscheinlich eh niemand mehr, oder?

ES wird eine weitere Verbesserung zu Polaris erwartet, aber dass sie Nvidia einholen ist unwahrscheinlich, das wird imho schon alleine die Architektur nicht hergeben. Aber da Nvidia auf kurz oder lang auch auf eine ähnliches Architektur wie AMD wechseln wird oder muss, wird es Ihnen nicht anders gehen.
Fuer AMD kann nur wichtig sein nicht Welten im Stromverbrauch hinten zu liegen um die Ökogesellschaft zu befriedigen...

Screemer
2016-12-12, 19:07:05
Ich sehe nach Polaris und Vega 10 keinen Spielraum mehr für einen Vega 11, da diese Lücke aller Wahrscheinlichkeit nach über cutdown abgedeckt wird.

Ich glaub du hast ihn falsches verstanden. V11 als kleinen variante mit den leistungsdaten von heute und v10 als powerhouse mit mehr diefläche und zaster.

Hatte ich oben ja auch schon vermutet. Denn scheinbar gibt es kein 1:2 so bei dem chip der c1 deviceid. Also braucht man fur hpc eh noch was anderes.

N0Thing
2016-12-12, 19:08:24
Die GTX 1080 darf niemals der Maßstab für Vega sein. Das wäre viel zu wenig. Die Karte ist zum Vega Launch vermutlich zwischen 9 und 12 Monaten auf dem Markt und sie ist ist für Nvidia sehr günstig herzustellen. Mit HBM2 sind die Kosten für Vega da definitiv drüber, insbesondere wegem dem zeitlichen Nachteil. Da muss schon Leistung deutlich oberhalb der 1080 im Schnitt rausspringen.

Den Maßstab, den AMD angelegt hat, dürfte deutlich älter als 12 Monate sein und wird sich auch jetzt nicht mehr ändern. Nvidia hat sicher mehr geschafft als AMD erwartet hat, bzw. als AMD selber erreichen konnte. Dass Vega nach den Ergebnissen von Polaris 10 nicht oberhalb eines GP100 oder GP102 heraus kommen würde, war auch klar und alles andere auch zuvor schon eine optimistische Erwartungshaltung.

Natürlich stellt sich die Frage, wer denn noch als Kunde in Frage kommt, der sich nicht jetzt schon eine GTX 1080/70 gekauft hat. Da bleiben nur prinzipielle AMD-Käufer und Leute, die erst zum nächsten Jahr (z.B. nach Zen) aufrüsten wollen, bzw. noch auf Bewegung bei den Preisen warten.
Das Ei hat sich AMD aber ebenfalls schon mit dem Plan ins eigene Netz gelegt, die GPUs zeitlich so weit auseinander liegend zu bringen. Würde mich aber wundern, wenn das eine freiwillige Entscheidung ohne Not war.


Wenn die Karte nur 80% der Leistung einer Titan X Pascal erreicht wären die meisten ja schon zufrieden, auch wenn es schade wäre wenn AMD fast 9 Monate später es nicht schafft einen 450mm² Chip zu schlagen.

Das wäre dann ziemlich exakt auf dem Niveau der GTX 1080.

Troyan
2016-12-12, 19:09:15
AMD hat 12,5TFLOPs mit 300W angekündigt. Das ist leicht besser als die 5,7TFLOPs mit 150W von Polaris 10 als MI6. Es gibt keinen zweiten Vega-Chip. Wo soll der auch positioniert werden?

Schaffe89
2016-12-12, 19:16:18
Eine Ahnung, wo genau in Doom? Mein Savegame ist kaputt, aber beim Start schafft meine GTX1080 mit 2050Mhz auch schon mehr als 60FPS mit Vulkan...

Wieso das passt doch, Vulkan läuft auf AMD in Doom überdurchschnittlich gut.
AMD braucht seit Maxwell ca 20 bis 30% mehr Rohleistung um auf die gleiche Leistung zu kommen, da liegt es auf der Hand, dass diese Karte ein GTX 1080 Gegner werden wird und Nvidia kann die GTX 1080 auch noch mit schnellerem GDDR5X und bisschen mehr Takt refreshen.

Doom ist einfach nur moderner als der ganze dx11-krempel...

Nein, es unterstützt AMD Shader intrinsics und ist laut Entwicklern unter Vulkan bei Nvidia immernoch nicht optimal.
Vulkan ist der absolute AMD Bestcase, also man sollte wirklich ein bisschen mehr Neutralität walten lassen und nicht schon wieder so hypen.

Benchmarks sind im Moment doch eh unwichtig. Die Treiber sind völlig unoptimiert, da sollte also noch was gehen.

Warum sollten sie völlig unoptimiert sein? Das ist GCN. Dieser Mythos immer man könne mit Treibern noch soviel heraus holen.

Bei der derzeitigen Performance sollte man zumindest in Doom die Titan X schlagen. Das sieht schonmal ziemlich gut aus.

Nvidia bringt die GTX 1060 heraus und sagt bei Project Cars schlägt man eine übertaktete AMD Fijii GPU, das sieht ziemlich gut aus.
Zen sieht auch ziemlich gut aus. Also man sollte AMD´s verzweifeltres cherry picking das noch ne Ecke perverser ist als das was Nvidia betreibt, mittlerweile kennen.

aufkrawall
2016-12-12, 19:23:27
Knapp über 1080-Leistung in Doom mit Vulkan wär ziemlich enttäuschend, dann hätte die Architektur immer noch kein Upgrade wie damals bei Maxwell erhalten.
Der Treiber wird im GPU-Limit voraussichtlich auch keine Wunder mehr reißen, Doom Vulkan ist schon so ziemlich das am besten für GCN optimierteste Spiel.
Und dann nur 8GB, die man in Watch Dogs 2 oder RotTR in WQHD schon heute bzw. gestern mit den Extra-Texturen braucht...

Linmoum
2016-12-12, 19:30:23
Warum sollten sie völlig unoptimiert sein? Das ist GCN. Dieser Mythos immer man könne mit Treibern noch soviel heraus holen.
http://www.pcgameshardware.de/Radeon-RX-480-8G-Grafikkarte-264637/News/Mehr-Leistung-neuer-Treiber-Rise-of-the-Tomb-Raider-1203196/

Stimmt, nur ein Mythos. ;)

Isen
2016-12-12, 19:32:09
Alles "nur" Einzelfälle :rolleyes:

aufkrawall
2016-12-12, 19:32:35
Bei dem einen Spiel lag/liegt massig Leistung brach, bei dem anderen nicht -> nicht vergleichbar.

Linmoum
2016-12-12, 19:33:47
Bei dem einen Spiel lag/liegt massig Leistung brach, bei dem anderen nicht -> nicht vergleichbar.
Ändert schlicht nichts an dem Vorwurf, man könne durch Treiber nicht (mehr) viel herausholen.

Schaffe89
2016-12-12, 19:36:57
Ich bin sehr gespannt wie AMD auf die 1525mhz kommen möchte, die Architektur ist sicherlich nicht auf sehr hohe Taktraten wie bei Nvidia ausgelegt, dafür ist VEGA doch schon viel zu lange in der Pipeline. Ich glaube der Vega Launch wird einen neuen Tiefpunkt bei den AMD GPU´s darstellen und der Takt wird mit aller Macht herausgepresst werden wie auch schon bei Polaris, ein Chip der für 1000 bis 1100mhz im Sweetspot ausgelegt war.

Also ich tippe auf eine Spieleleistung zwischen GTX 1070 und GTX 1080. Mit Directx12 dann GTX 1080 + max. 5 bis 10%. In Full HD wird die Karte regelmäßig unter Directx11 ins CPU Limit laufen da kann sie gar nicht schneller als eine GTX 1080 sein.

http://www.pcgameshardware.de/Radeon-RX-480-8G-Grafikkarte-264637/News/Mehr-Leistung-neuer-Treiber-Rise-of-the-Tomb-Raider-1203196/

Stimmt, nur ein Mythos. ;)

Nicht vergleichbar und ein sehr schlechtes Beispiel das wiederum deine AMD Affinität zeigt. in Tombraider lag massiv Leistung brach, das Spiel war kaputt auf AMD. Massive CPU Limit Probleme.
Überhaupt kein Vergleich zu Doom unter Vulkan, das Spiel ist bestens auf AMD optimiert, seitdem Vulkan herausgekommen ist und läuft außer der Reihe extrem gut auf AMD, fast wie kein anderes Spiel.
Und da fehlt dir halt wieder die Neutralität das zu erkennen, obwohl es ja offensichtlich ist.

Ändert schlicht nichts an dem Vorwurf, man könne durch Treiber nicht (mehr) viel herausholen.

Wann haben bitte je Treiber im Schnitt groß etwas herausgeholt? Doom ist wirklich der AMD Bestcase und AMD wird auch kaum etwas leaken wenn sie sich nicht sicher sind.
Von AMD´s Standpunkt ist diese Leistung toll, von AMD´s Standpunkt aus war es auch toll eine GTX 1080 mit zwei RX480 in Ashes zu schlagen. Man muss halt einfach ein bisschen tiefstapeln was die Erwartungen angeht, das ist ne Firma R&D technisch keinerlei Chance mehr hat und trotzdem noch halbwegs was konkurrenzfähiges auf die Beine stellt, das ist doch überraschend genug.

aufkrawall
2016-12-12, 19:38:22
Ändert schlicht nichts an dem Vorwurf, man könne durch Treiber nicht (mehr) viel herausholen.
Bei Doom ja wahrscheinlich auch nicht. Das nutzt auf GCN zig exklusive mit Low Level verfügbare Features, um die Leistung zu steigern.

Schnoesel
2016-12-12, 19:39:08
Also ich persönlich glaube ja das AMD mit Vega allerhöchstens 1523MHZ schafft und damit total abstinkt ...

PS: Kickvote für Schaffe anyone?

Screemer
2016-12-12, 19:41:08
Bei Doom ja wahrscheinlich auch nicht. Das nutzt auf GCN zig exklusive mit Low Level verfügbare Features, um die Leistung zu steigern.
Na dann hat man zumindest fp16 und vielleicht anpassungen an neue cus und caches.

aufkrawall
2016-12-12, 19:44:32
Na dann hat man zumindest fp16 und vielleicht anpassungen an neue cus und caches.
Damit nicht wieder ein Zeitalter des IHV-Cheatens anbricht, sollte die Verwendung von fp16 wohl besser allein der Entwickler bestimmen -> Spiele-Updates für Leistungsteigerung nötig.

gmb
2016-12-12, 19:56:05
http://www.pcgameshardware.de/Radeon-RX-480-8G-Grafikkarte-264637/News/Mehr-Leistung-neuer-Treiber-Rise-of-the-Tomb-Raider-1203196/

Stimmt, nur ein Mythos. ;)


Das passiert, wenn ein Spiel besonders grottig auf AMD läuft. Für pcars gab es auch große Steigerungen mit der Zeit, auch im CPU Limit, aber dort lag AMD einfach grottig. Das ist nicht die Norm. Und wenn du dir einfach mal ein paar Treiber roundups anschaust, zum Beispiel zum neuen Crimson ReLive, würde dir das auffallen. Steigerungen liegen da meist im einstelligen Bereich. Ein Spiel wie Doom @Vulkan, was eh schon überdurchschnittlich auf AMD läuft, wird eher wenig durch Treiber rausholen können.

Schaffe89
2016-12-12, 20:00:05
Also ich persönlich glaube ja das AMD mit Vega allerhöchstens 1523MHZ schafft und damit total abstinkt ...

PS: Kickvote für Schaffe anyone?

Was hat AMD denn bei VEGA geändert um die Taktraten derart zu erhöhen?:rolleyes: Ich halte mehr als 1500mhz für ein sehr ambitioniertes Ziel.
Die AMD Mitarbeiter waren ja beim GTX 1080 Release regelrecht geschockt wegen der hohen Taktraten, man hatte da deutlich andere Erwartungen und Planungen, auch was VEGA angeht.
Also liegt es auf der Hand, dass VEGA eher ein Stromschlucker wird. AMD gab für die RX480 150 Watt an, danach zog die Karte im 3D Center Schnitt 164 Watt, also dürfte VEGA dann knapp bei 350 Watt herauskommen.

dargo
2016-12-12, 20:00:33
Es ist mal wieder höchst amüsant zu verfolgen wie aktiv das grüne Lager plötzlich wieder wird wenn das rote Lager kurz vor der Vorstellung einer neuen Grafikkarte ist. ;D

fondness
2016-12-12, 20:04:22
Das ganze ist ohnehin wenig zielführend. Doom kann mit der GPU nichts anfangen. AMD hat erst seit wenigen Wochen Silizium, die Treiber wurden aktuell also nur auf dem Papier entwickelt. Ob und wieviel Optimierungspotential hier noch vorhanden ist kann niemand beurteilen.

Im übrigen liegt die Leistung in Doom doch deutlich über einer GTX1080. 10% über einer übertakteten 1080 ist nicht mehr weit weg von TXP.
Wenn man davon ausgeht, dass AMD keinerlei zusätzliche Leistung mehr heraus holen kann, dann würde die gezeigte Karte also wohl ziemlich genau auf GTX1080 Niveau in anderen Spielen liegen.

Damit nicht wieder ein Zeitalter des IHV-Cheatens anbricht, sollte die Verwendung von fp16 wohl besser allein der Entwickler bestimmen -> Spiele-Updates für Leistungsteigerung nötig.

Mag sein, trotzdem hat man damit potentiell die doppelte Leistung zur Verfügung und die Konsolenentwickler können das ganze von der PS4 Pro einfach übernehmen.

Leider wird es wieder mal so sein, dass AMD etwas neues einführt, viel investiert, damit es die Entwickler auch verwenden und wenn sich das ganze dann langsam durchsetzt wird es NV mit Volta auch haben.

Troyan
2016-12-12, 20:13:22
Das ganze ist ohnehin wenig zielführend. Doom kann mit der GPU nichts anfangen. AMD hat erst seit wenigen Wochen Silizium, die Treiber wurden aktuell also nur auf dem Papier entwickelt. Ob und wieviel Optimierungspotential hier noch vorhanden ist kann niemand beurteilen. Im übrigen liegt die Leistung in Doom doch deutlich über einer GTX1080. 10% über einer übertakteten 1080 ist nicht mehr weit weg von TXP.


Es sind 10% weniger gegenüber einer übertakteten GTX1080.
Und Treiber werden simultan zur GPU in den Simulatoren entwickelt und programmiert. Die Qualität ist also verdammt hoch beim Eintreffen der ersten GPUs aus der Fertigung.

w0mbat
2016-12-12, 20:15:20
Die AMD Mitarbeiter waren ja beim GTX 1080 Release regelrecht geschockt wegen der hohen Taktraten [...]

Du verwechselst da gerade dich mit den AMD Mitarbeitern und hohe Taktraten mit qualitativen Foren-Posts. :freak:

fondness
2016-12-12, 20:16:07
Es sind 10% weniger gegenüber einer übertakteten GTX1080.

PCGH vertraue ich da doch etwas mehr.

Die Qualität ist also verdammt hoch beim Eintreffen der ersten GPUs aus der Fertigung.

Bei Nvidia vielleicht, die von Intel und den Fanboys die Kohle zugesteckt bekommen und nicht mehr wissen, was sie mit dem vielen Geld machen sollen.

Screemer
2016-12-12, 20:16:16
Damit nicht wieder ein Zeitalter des IHV-Cheatens anbricht, sollte die Verwendung von fp16 wohl besser allein der Entwickler bestimmen -> Spiele-Updates für Leistungsteigerung nötig.
Ich ging da auch eher von anpassung durch die entwickler aus und nicht von seiten der ihvs.

Nakai
2016-12-12, 20:33:23
Es ist schon bescheiden, wenn man sieht, wieviel Unsinn in diesem Forum nur aus einem "Preview" zustandekommt.

Und der Wechsel von CU => NCU sollte einige mehr Spekulationen anheizen, als vorläufige Benchmarks.

Wieso bist du dir da so sicher? Ist schon fix wie viele Stacks V10 haben wird? Zwei oder vier? Zwei sind sicher vorteilhaft, aber gibt es 8GB Stacks in nächster Zeit? 4 Stacks und 1024GB/s auf der anderen Seite ist meiner Meinung nach aber Overkill für eine Gamer-Karte.

Und hiermit sind die 2x4GB mit 512GB/s bestätigt. Ergo zwei HBM2-Stacks.

@Gipsel:
Erstmal wäre ich sehr sehr skeptisch, ob die Vega-CUs überhaupt so aussehen (ich bezweifle es). Und da jede der Vektoreinheiten eigene Register hat, wird man eine Wavefront nicht (oder nur mit sehr großem Overhead) zwischen Ihnen verschieben können. Also so wie heute ist eine Wavefront immer an "seine" Vektor-ALU (bzw. bei dem Aufbau aus dem Patent sogar an eine Skalar-ALU, was die Ausführung der Wavefront sehr langsam machen würde. Das geht wirklich nur mit Wavefronts variabler Länge. Die kurzen gehen auf die kleinen Einheiten, die langen auf großen) bzw. SIMD-Einheit festgepinnt.
Ganz allgemein sieht mir das erstmal wie ein Patent für's Archiv aus. Gut zu haben und irgendwann benutzt man mal eine Idee daraus, aber ich glaube nicht, daß wir in näherer Zukunft eine GPU mit genau so aufgebauten CUs sehen werden.

Ich zitiere aus dem Patent:

If a wavefront has 64 threads (but only 16 active threads), instead of scheduling the wavefront to a 16 thread wide SIMD unit, the wavefront may be scheduled to a four thread wide SIMD unit. Based on demand (a need basis), the scheduler determines whether to schedule the wavefront to all four thread wide SIMD units or just to a subset of the SIMD units. The threads migrating between these functional units can have their context (register values) migrated with the help of software (using "spill" and "fill" instructions) or with dedicated hardware that helps the migration. Alternately, only the data needed for the upcoming instruction or instructions can be forwarded along with the work through a register-functional unit crossbar or other interconnection. This determination provides a finer granularity control over how the threads are executed. By dispatching work to a narrower vector unit compared to the baseline wide vector unit, it is possible to execute only as many threads as will actually produce results, thereby saving power.

Read more: http://www.patentsencyclopedia.com/app/20160085551#ixzz4SeaV7XMi

Man hat sich jedenfalls Gedanken gemacht. Grundsätzlich stimme ich dir zu und ich vermute (ähnlich wie du, was ich schon vor einiger Zeit auch gemeint habe), dass man eben nicht beliebig "mischen" kann. Der Aufbau einer CU bei diesem Patent sind eben genau 16 Slots. Eher würde ich mir eine fixe Konfiguration vorstellen, also eine SIMD16 gepairt mit SIMD8, SIMD4, etc...

Der Punkt, dass Vega nun NCUs haben wird und keine CUs mehr, sollte aber in vielerlei Hinsicht positiv stimmen, dass hierbei was kommt. ;)

Ich gehe, nebenbei bemerkt, stark davon aus, dass die Vega CUs schon deutlich anders sind, als jegliche Vorgänger CUs. :)

€: Ein sehr starker Indikator ist auch der höhere Takt von Vega10. Das wird auch im Patent ordentlich angemerkt, dass neue CUs ordentlich Energie sparen können. Die CUs wurden jedenfalls überarbeitet.

Schaffe89
2016-12-12, 20:38:24
Du verwechselst da gerade dich mit den AMD Mitarbeitern und hohe Taktraten mit qualitativen Foren-Posts. :freak:

Das Niveau hat einen neuen Tiefpunkt erreicht, gratuliere.
Dass AMD von den hohen Taktraten überrascht war ist doch offensichtlich, so haben sie in letzter Sekunde die Taktraten der RX480 hochgezogen und die Karte außerhalb der Spezifikationen betrieben und zu gering mit einem 6Pin ausgestattet. Was gibt es da bitte zu bezweifeln? Bekannt sind auch die Reaktionen nach der Nvidia Präsentation.

Und dass Vega nicht für hohe Taktraten ausgelegt ist, ist doch auch klar und wenn AMD Richtung 1500mhz gehen will, weiß man ja was dann wieder nötig ist. Hohe Spannungen und eijn ausufernder Verbrauch.

AMD sollte nicht wie bei Polaris den Fehler machen, sondern lieber eine geringere Leistung in Kauf nehmen, dafür aber ein rundes Produkt liefern.

BlacKi
2016-12-12, 20:54:19
AMD sollte nicht wie bei Polaris den Fehler machen, sondern lieber eine geringere Leistung in Kauf nehmen, dafür aber ein rundes Produkt liefern.
schwachfug. falls es so kommt, hat amd eh keine wahl. keiner kauft einen vega mit nur 150w verbrauch und der leistung von fiji für 400€. die takten den chip lieber so hoch das die karte 250w verbraucht und sich mit der 1080 anlegen kann, oder sogar übertrumpft für 500€. falls es so kommt, hat amd eh keine wahl. den luxus können sie sich erst leisten wenn sie einen performancevorteil haben den man opfern kann.

von Richthofen
2016-12-12, 21:01:39
Und dass Vega nicht für hohe Taktraten ausgelegt ist, ist doch auch klar und wenn AMD Richtung 1500mhz gehen will, weiß man ja was dann wieder nötig ist. Hohe Spannungen und eijn ausufernder Verbrauch.

AMD sollte nicht wie bei Polaris den Fehler machen, sondern lieber eine geringere Leistung in Kauf nehmen, dafür aber ein rundes Produkt liefern.

Was man schon wieder alles weiß...ist doch völlig Wumpe was sie tun, richtig kann AMD in den Augen einiger ohnehin nichts machen: Entscheidet man sich für den hohen Takt, wird die Verbrauchsschiene gefahren, "stimmt" hingegen die Verlustleistung wird das Ergebnis als nicht schnell genug angemosert.

N0Thing
2016-12-12, 21:07:27
Knapp über 1080-Leistung in Doom mit Vulkan wär ziemlich enttäuschend, dann hätte die Architektur immer noch kein Upgrade wie damals bei Maxwell erhalten.
Der Treiber wird im GPU-Limit voraussichtlich auch keine Wunder mehr reißen, Doom Vulkan ist schon so ziemlich das am besten für GCN optimierteste Spiel.

Doom wird bisher wohl kaum Optimierungen und Anpassungen für Vega bekommen haben. Wenn die ganzen Verbesserungen nicht out of the box von der Hardware alleine und automatisch kommen, würde ich bis zum Release von Vega noch Verbesserungen erwarten.


Es ist schon bescheiden, wenn man sieht, wieviel Unsinn in diesem Forum nur aus einem "Preview" zustandekommt.

Und der Wechsel von CU => NCU sollte einige mehr Spekulationen anheizen, als vorläufige Benchmarks.

So wenig die vorläufigen Benchmarks als Grundlage zu bieten haben, es ist immerhin mehr als der Name NCU ohne weitere Informationen. Mit dem Ausgraben der alten Patentediskussion ist dazu nun sowieso alles gesagt, außer persönlichen Einschätzungen zu der Wahrscheinlichkeit der Umsetzung dieser in Vega. ;)

aufkrawall
2016-12-12, 21:20:11
Doom wird bisher wohl kaum Optimierungen und Anpassungen für Vega bekommen haben. Wenn die ganzen Verbesserungen nicht out of the box von der Hardware alleine und automatisch kommen, würde ich bis zum Release von Vega noch Verbesserungen erwarten.

Wenn fast jede Verbesserung explizite Unterstützung durch den Entwickler bedürfte, wird davon real eh häufig in vielen Titeln kaum etwas ankommen. Kennt man ja nun schon von Async Compute. Gibt in ca. zwei DX12/Vulkan-Titeln einen netten Gratis-Gewinn, dafür bekommens zig andere Entwickler nicht gebacken.

dargo
2016-12-12, 21:20:44
Und dass Vega nicht für hohe Taktraten ausgelegt ist, ist doch auch klar und wenn AMD Richtung 1500mhz gehen will, weiß man ja was dann wieder nötig ist. Hohe Spannungen und eijn ausufernder Verbrauch.

Wo ist das klar? Was hat Vega noch mit Polaris zu tun? Meine Güte... du weißt rein gar nichts über Vega. Saugst dir irgendwas aus den Fingern und schon wird es als Fakt hingestellt.

Nakai
2016-12-12, 21:21:49
Neue Architekturänderungen haben Treiber Änderungen zur Folge. Die Zeit für Performance-Abschätzungen ist noch nicht genommen.

Schaffe89
2016-12-12, 21:23:41
die takten den chip lieber so hoch das die karte 250w verbraucht und sich mit der 1080 anlegen kann, oder sogar übertrumpft für 500€. falls es so kommt, hat amd eh keine wahl. den luxus können sie sich erst leisten wenn sie einen performancevorteil haben den man opfern kann.

Ja 250 Watt wären doch noch in Ordnung, davon spreche ich ja jetzt gar nicht mal, ich meine eher solche Stunts wie bei der 290x und 290.

Ein extrem lauter Kühler eine hitzige Angelegenheit wegen den letzten paar Prozent FPS.
250 Watt kann man noch wegkühlen, aber bei den erwarteten 300 bis 350 Watt, wirds problematisch.
AMD braucht einen runden Launch, wenn man die GTX 1080 angreifen will, fast 1 Jahr später. Das ist ein Produkt mit x Customlösungen die sehr leise arbeiten, da hat man es mit einer fetten TDP relativ schwer.

Was man schon wieder alles weiß...ist doch völlig Wumpe was sie tun, richtig kann AMD in den Augen einiger ohnehin nichts machen: Entscheidet man sich für den hohen Takt, wird die Verbrauchsschiene gefahren, "stimmt" hingegen die Verlustleistung wird das Ergebnis als nicht schnell genug angemosert.

Deswegen gab es da mal eine GPU die 1 Jahr lang bei mir im Rechner steckte und nannte sich Nano.:redface:
Wenn das Referenzprodukt nicht schnell genug ist, kann man zum Launch auch eine leise und moderate Referenzkarte schicken und ein hochgezüchtetes Custommodell ala Sapphire Nitro OC +, oder eben eine Nano Variante und eine hochgezüchtete Variante, je nach Belieben, da gibt es so viele Möglichkeiten einen geschmeidigen Launch zu liefern.

Effe
2016-12-12, 21:25:47
Wer erwartet das denn? Sag lieber das Wetter für Weihnachten vorraus!

Schaffe89
2016-12-12, 21:43:36
Wo ist das klar? Was hat Vega noch mit Polaris zu tun? Meine Güte... du weißt rein gar nichts über Vega. Saugst dir irgendwas aus den Fingern und schon wird es als Fakt hingestellt.

Ich habe bisher kein Material/Gerüchte/whatever im Netz gefunden das auf einen hohen Takt von Vega hinweisen würden, ich denke daher es wird die Holzhammermethode sein. Polaris lässt sich doch auch mit Ach und Krach auf 1475 mhz drücken. Das beste Sample erreichte das doch auch. Wieso nicht auch VEGA?:)

Brillus
2016-12-12, 21:46:42
Vega11 (0x687F): Kleiner Chip gegen GTX 1070/1080
Vega10 (0x6860): Großer Chip gegen Titan X (Pascal)

Eventuell als neue RX 5xx Serie:

RX 560: Polaris 10 Pro rebrand
RX 570: Polaris 10 XT rebrand
RX 580: Vega 11 Pro (8 GB HBM2, 512 GB/s)
RX 590: Vega 11 XT (8 GB HBM2, 512 GB/s)

RX Fury: Vega 10 XT (16 GB HBM2, 1024 GB/s)

Wharscheinlicher 560: P11 rebrand, aber im großen und ganzen geh ich auch davon aus.

Schaffe89
2016-12-12, 21:49:32
Wer erwartet das denn? Sag lieber das Wetter für Weihnachten vorraus!

Naja AMD gibt <300 Watt an.
AMD hat auch bei Polaris weniger als 150 Watt angegeben, sogar noch einen Monat vor dem eigentlichen Launch.

Es steht doch also eher 50:50 was den Verbrauch anbetrifft, oder nicht? Ich entscheide mich für die letzteren 50%, damit fährt man doch sehr gut und es ist auch realistisch. Hawai lag ja auch regelmäßig über den angegebenen Wattagen.

Es ist doch quasi ein nette Marketingstrategie den Verbrauch niedriger anzugeben dann nen kurzen Shitstorm zu ernten und danach Besserung zu versprechen und die Besserungen dann mit anderen Treiberfeatures zuzudecken, das klappt, hat man bei der RX480 gesehen. Man wartet heute noch auf den Treiber die die Idle Stromaufnahme senkt - vergeblich, interessiert aber keinen mehr. Auch Zero Core Power funzt nicht, auch wurst.

Der_Korken
2016-12-12, 21:52:48
Ich habe bisher kein Material/Gerüchte/whatever im Netz gefunden das auf einen hohen Takt von Vega hinweisen würde, ich denke daher es wird die Holzhammermethode sein. Polaris lässt sich doch auch mit Ach und Krach auf 1475 mhz drücken. Das beste Sample erreichte das doch auch. Wieso nicht auch VEGA?:)

Aber von Pascal hat man natürlich schon Monate vorher gewusst, dass die Karten 2Ghz packen? Für Maxwell hätte man auch keine so hohen Taktraten vorhersagen können, weil der Vorgänger Kepler sie nicht erreicht hat und der Nachfolger nicht besser sein kann, als sein Vorgänger - so wie hier im Thread von der schlechten Taktbarkeit von Polaris auf Vega geschlossen wird.

Leute kommt mal runter. Wir wissen fast nichts über die Veränderungen von Vega im Vergleich zu Polaris, es kann sowohl ein neuer R600 als auch ein neuer G80 werden. Auch das ganze AMD-Bashing verstehe ich nicht. Wenn AMD 1 Jahr nach der GTX1080 nicht schneller ist und mindestens 30% mehr Perf/W als diese liefert, dann ist Vega völlig lächerlich und unbrauchbar. Am besten gleich einstampfen das Teil ... :rolleyes: :upicard:

Mr.Bug
2016-12-12, 22:08:50
Ich glaube der Vega Launch wird einen neuen Tiefpunkt bei den AMD GPU´s darstellen und der Takt wird mit aller Macht herausgepresst werden wie auch schon bei Polaris, ein Chip der für 1000 bis 1100mhz im Sweetspot ausgelegt war.

Pardon, aber was du hier an geballtem, grün eingefärbtem "Fachwissen" zum Besten gibst in Kombination mit unangebrachten Polaris-Vergleichen, drückt wirklich das Diskussions-Niveau in den Keller.

Als käme es hauptsächlich auf die reine Höhe des Chiptaktes an bei einer bis dato noch größtenteils spekulativen Architektur im finalen Design. :freak: Da spielen noch einige, andere Faktoren eine entscheidende Rolle. Und natürlich muß Vega bereits im Vorfeld ohne optimierte Treiber eine Titan X schlagen bei gleichwertigem Verbrauch und natürlich halbem Preis...sonst könnte AMD ja wieder heulend in der Ecke sitzen obgleich ihrer Inkompetenz. :crazy2:

Einfach mal abwarten, diese klassischen Pöbeleien vorher sind völlig unangebracht - Doom gab bereits einen kleinen Vorgeschmack und ich bin gespannt & unvoreingenommen darüber was uns Enthusiasten final präsentiert wird. Am Ende sind ohnehin die Custom-Lösungen der Partner entscheidend!

Schaffe89
2016-12-12, 22:15:08
Naja das sagt ja keiner. Die Frage ist doch nur immerwieder wieso man das alles so positiv hinstellen muss?
AMD liefert womöglich 1 Jahr nach der GTX 1080 einen Konkurrenten mit knapp 300 Watt TDP vs. 180 Watt TDP. Mit einem großen Chip gegen einen kleinen Chip mit günstigerem GDDR5x und nimmt dazu einen gut optimierten Low Level Titel wo Treiberoptimierungen kaum noch möglich sind um die Leistungsfäigkeit zu spoilern.

Doom liegt AMD etwa 20% besser als der Rest der Spiele, sogar eine Fury X klebt an der GTX 1080. Eine GTX 1080 mit 1,9 ghz. Das sind in der Praxis vll 10% mehr Leistung als stock.

Das ist im Schnitt genau GTX 1080 Performance, mehr nicht. Ich frage mich derzeit wie AMD so einen Fail finanziell überleben soll. Wenn man sich nur alles schönredet, fordert das natürlich andere dazu heraus etwas schlechter zu sehen. Ist halt so.

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/462107-amd-vega-gpu-hat-8-gibyte-hbm2-und-liegt-unoptimiert-auf-gtx-1080-niveau-6.html#post8590834

"Doom nutzt Vulkan, Vulkan ist eine Low-Level-Schnittstelle. Hier sollten fehlende Treiberoptimierungen einen geringeren Einfluss haben als in DX11-Titeln etwa."

samm
2016-12-12, 22:19:04
Wenn fast jede Verbesserung explizite Unterstützung durch den Entwickler bedürfte, wird davon real eh häufig in vielen Titeln kaum etwas ankommen. Kennt man ja nun schon von Async Compute. Gibt in ca. zwei DX12/Vulkan-Titeln einen netten Gratis-Gewinn, dafür bekommens zig andere Entwickler nicht gebacken.
Müsste halt in die überall verwendeten Engines sauber mit rein. Würden automatisch irgendwelche Indie-Produktionen auch von profitieren.

Hübie
2016-12-12, 22:19:32
Ich glaub du hast ihn falsches verstanden. V11 als kleinen variante mit den leistungsdaten von heute und v10 als powerhouse mit mehr diefläche und zaster.

Hatte ich oben ja auch schon vermutet. Denn scheinbar gibt es kein 1:2 so bei dem chip der c1 deviceid. Also braucht man fur hpc eh noch was anderes.

Also der gezeigte Chip soll ein V11 sein oder wie versteh ich dich jetzt? Hm. Okay daran hatte ich nicht gedacht.

BlacKi
2016-12-12, 22:34:20
Das ist im Schnitt genau GTX 1080 Performance, mehr nicht. Ich frage mich derzeit wie AMD so einen Fail finanziell überleben soll. Wenn man sich nur alles schönredet, fordert das natürlich andere dazu heraus etwas schlechter zu sehen. Ist halt so.
ohne einen preis zu wissen, oder wieviel sie verbraucht von fail zu sprechen ist fail.

Botcruscher
2016-12-12, 22:42:58
AMD hat erst seit wenigen Wochen Silizium, die Treiber wurden aktuell also nur auf dem Papier entwickelt.

Glaube ich nicht so recht. Die Torte zu Vega ist doch schon ewig her.

Tamagothi
2016-12-12, 22:48:26
Hab ich was verpasst oder wo steht den das DOOM auf einer MI25 gelaufen ist :confused:

Das Ding wird/muss ja Minimum 16GB VRAM haben. Da passen die 8Gb nicht.

Screemer
2016-12-12, 22:50:22
Hab ich was verpasst oder wo steht den das DOOM auf einer MI25 gelaufen ist :confused:

Das Ding wird/muss ja Minimum 16GB VRAM haben. Da passen die 8Gb nicht.

Gut dass das endlich mal noch einer bemerkt hat.

Linmoum
2016-12-12, 22:52:04
Hab ich was verpasst oder wo steht den das DOOM auf einer MI25 gelaufen ist :confused:

Das Ding wird/muss ja Minimum 16GB VRAM haben. Da passen die 8Gb nicht.
Es ist nur bekannt, dass es auf einem Consumer-Vega lief. Jetzt stellt sich halt die Frage, ob es mehrere Chips gibt und auf welchem Doom dann möglicherweise lief. ;)

Dino-Fossil
2016-12-12, 23:02:33
Eine MI25 hat auch keine Video-Ausgänge, wie sollte das funktionieren?

Tamagothi
2016-12-12, 23:09:58
Pssst das darfst du nicht verraten sonst störst du die Professionelle Unterhaltung gewisser User.

Es sind ja nur paar grobe Daten bekannt aber was zu was gehört weiß keiner.

Fakt ist aber das DOOM mit Sicherheit nicht auf einer 300Watt MI25 gelaufen ist.

Tru
2016-12-12, 23:32:46
Der AMD-Mann am Doom-Rechner, der auch den Fiji-Treiber angepasst hatte, sagte, dass man auf der GPU auch 16 GiByte unterbringen könnte. Sollte also der gleiche Vega gewesen sein.

Linmoum
2016-12-12, 23:40:19
AMD-Ingenieure haben auch von 40 CUs bei Polaris 10 gesprochen. :tongue:

iuno
2016-12-12, 23:40:46
8 Hi Stacks und fertig.

Ich finde die News uebrigens sehr erfreulich. AMD bekommt offenbar endlich die Taktraten ein ordentliches Stueck hoeher, und das sogar bei einem groesseren Chip.

OBrian
2016-12-12, 23:44:15
Möglicherweise hängen sie für die Profikarte noch zwei Stacks mehr dran, die sie für die Gamerkarte schlicht weglassen. Die Gamerkarte muß ja auch genug Bandbreite haben, dann hätte die Profikarte viel zu viel, was aber wohl nicht sooo schlimm ist ;) Speicherbandbreite kommt einem mit HBM2 sowieso zu den Ohren raus, die Kapazität ist es ja, an der es knappst.

Falls Nvidia dann doch noch eine Gamerkarte von der Titan ableitet, könnte AMD einfach nachziehen, die doppelte Speicherbandbreite mit 16 GB bringt evtl. auch noch ein paar Prozent mehr Performance. Die Möglichkeit bestünde dann, aber wird wohl nicht kommen, solange sich die Dinger im Profibereich für wesentlich mehr Geld verscherbeln lassen.

Tru
2016-12-12, 23:58:26
AMD-Ingenieure haben auch von 40 CUs bei Polaris 10 gesprochen. :tongue:
Ich saß am gleichen Tisch und glaube bis heute, dass das als Scherz gemeint war. Jedenfalls floss Bier.

Palpatin
2016-12-13, 10:36:41
Fakt ist aber das DOOM mit Sicherheit nicht auf einer 300Watt MI25 gelaufen ist.
Das ist doch völlig klar, da würde auch die Leistung hinten und vorne nicht passen. Die Furry X ist in Doom Vulcan gleich auf mit der 1080, die MI25 taktet knapp 50% höher und soll dann nur 10%-20% schneller sein? Selbst wenn sie die Architektur NULL verbessert haben müsste sie deutlich oberhalb der 1080 in DOOM rauskommen mit einem 1,5 GHZ 4000 Shader Monster das nicht an der Bandbreite verreckt.

Screemer
2016-12-13, 10:46:13
so klar war das einigen hier wohl nicht. schau dir mal den schrott der letzten 5 seiten an.

Troyan
2016-12-13, 10:50:53
Die 1500MHz der MI25 sind rein aus der Not geboren, um mehr FP16 und FP32 Leistung als nVidia anzubieten. Die verwendete Vega-Karte liegt wohl eher darunter und hatte eine Rechenleistung von 10 bis 11TFLOPs.

Man sieht doch auch den Unterschied zwischen MI8 mit 1000MHz und der MI25 mit 1500MHz: Ein deutlicher Effizienzabfall von 49 GFLOPs/W auf 41 GFLOPs/W.

y33H@
2016-12-13, 10:56:13
Du rechnest ernsthaft mit 300 Watt für die MI25? :uclap:

Troyan
2016-12-13, 10:58:08
Du rechnest ernsthaft mit 300 Watt für die MI25? :uclap:

Natürlich. Warum sollte AMD auch lügen? ;D

Nakai
2016-12-13, 11:06:26
Du rechnest ernsthaft mit 300 Watt für die MI25? :uclap:

Lass ihn einfach. Es hat eh keinen Sinn.
Ich meine, wer sowas behauptet:


Man sieht doch auch den Unterschied zwischen MI8 mit 1000MHz und der MI25 mit 1500MHz: Ein deutlicher Effizienzabfall von 49 GFLOPs/W auf 41 GFLOPs/W.

Richtig, man hat einen Effizienzabfall von 28nm auf 14/16FF. :facepalm:

Höchstwahrscheinlich ist bei der MI25 noch eine SSD oder anderer externer Speicher verbaut, eben als Cache. Hinzukommt der generelle Formfaktor der eine höhere TDP also 300W eh nicht möglich macht. Wenn die Karte eh erst vor einiger Zeit aus der Fab gekommen ist, sind höchstwahrscheinlich eh nicht alle PowerManagement-Features aktiviert bzw. richtig konfiguriert (Treiber unreif). Ergo kann man das als maximale Leistungsaufnahme verstehen, welche AMD je nach Situation ausreizen werden wird, oder eben nicht, je nachdem wo eben der Leistungstarget liegt.

Und das "<300W" interpretiert man anscheinend gleich als 300W+.:freak:

MechWOLLIer
2016-12-13, 11:08:40
Du rechnest ernsthaft mit 300 Watt für die MI25? :uclap:
Es ist immer relativ. Die Tesla P100 hat auch 300 Watt TDP. Das ist eben kein Consumer-Produkt, genausowenig die MI25. Darauf sollte man also nicht unbedingt auf das Desktop-Produkt schließen.

Dino-Fossil
2016-12-13, 11:16:32
Wenn die Karte eh erst vor einiger Zeit aus der Fab gekommen ist, sind höchstwahrscheinlich eh nicht alle PowerManagement-Features aktiviert bzw. richtig konfiguriert (Treiber unreif).

Ich denke das 300W TDP da schon stimmen und bleiben werden, sonst hätte AMD das nicht so geschrieben.

Aber wie MechWOLLIer richtig anmerkt:
Das ist eine Compute-only Karte fürs Profi-Segment, aus der man nicht viel auf die Desktop-Karten schließen sollte - und nVidia liegt da mit Tesla bei Leistung (21TFLOP FP16) und TDP (300W) ganz ähnlich.
Von daher - wer damit über AMD trollt, trollt auch nVidia. :biggrin:

Naitsabes
2016-12-13, 11:24:14
Die Idee mit der SSD bei der im25 ist interessant, schließlich wurde ja extra auf Cache hingewiesen.

Also 512GB SSD und dabei dann HBM rein als Cache.

Hübie
2016-12-13, 11:25:05
Naja das sagt ja keiner. Die Frage ist doch nur immerwieder wieso man das alles so positiv hinstellen muss?
AMD liefert womöglich 1 Jahr nach der GTX 1080 einen Konkurrenten mit knapp 300 Watt TDP vs. 180 Watt TDP. Mit einem großen Chip gegen einen kleinen Chip mit günstigerem GDDR5x und nimmt dazu einen gut optimierten Low Level Titel wo Treiberoptimierungen kaum noch möglich sind um die Leistungsfäigkeit zu spoilern.

Doom liegt AMD etwa 20% besser als der Rest der Spiele, sogar eine Fury X klebt an der GTX 1080. Eine GTX 1080 mit 1,9 ghz. Das sind in der Praxis vll 10% mehr Leistung als stock.

Das ist im Schnitt genau GTX 1080 Performance, mehr nicht. Ich frage mich derzeit wie AMD so einen Fail finanziell überleben soll. Wenn man sich nur alles schönredet, fordert das natürlich andere dazu heraus etwas schlechter zu sehen. Ist halt so.

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/462107-amd-vega-gpu-hat-8-gibyte-hbm2-und-liegt-unoptimiert-auf-gtx-1080-niveau-6.html#post8590834

"Doom nutzt Vulkan, Vulkan ist eine Low-Level-Schnittstelle. Hier sollten fehlende Treiberoptimierungen einen geringeren Einfluss haben als in DX11-Titeln etwa."

Das stimmt nicht. FuryX klebt nicht an einer 1080. Ansonsten Beweise bitte. :rolleyes:
Carsten seine Aussage kann man nur bedingt durchgehen lassen, denn mit neuen Treibern kommen u.a. neue Bibs und wie man am letzten NV-Treiber sah bringen die sehr wohl etwas. Obendrein dann noch das v-sync Durcheinander beim Release.
Ferner wird man Doom patchen müssen, um auf Vega optimale Leistung zu erhalten.

In Summe: Das gezeigte Material hat erst mal nur den Charakter einen groben Ausblick zu geben. Wer da schon zuviel rein interpretiert, sollte mal auf die Bremse latschen. :cool:

@iuno: Also 1525 MHz ist jetzt nichts Besonderes. Erfreulich schon, aber dass sollte man ja imo auch schon erwarten dürfen.

Troyan
2016-12-13, 11:26:16
Und wieviele RX 480 Karten gibt es im Handel, die 5,7 TFLOPs mit 150W erreichen?
Wieviele Fiji Karten gibt es im Handel, die mit 1000MHz 175W erreichen? Die Nano liegt bei 185W mit ~850Mhz.

Offensichtlich selektiert AMD ihre Chips nach Güte und die besten kommen nicht in das Consumergeschäft.
Aber hey, da AMD ihre intransparenz liebt, können wir nun 6 Monate darüber philosophieren, wieviel schneller eine Vega-Karte mit 1500MHz bei 250W gegenüber einer GTX1080 sein wird. :lol:

BTW: 12,5TFLOPs bei 250W wären 2,2x soviel Rechenleistung bei 1,47x mehr Stromverbrauch gegenüber der RX 480 - eine Perf/Watt Verbesserung von fast 50%. Polaris 10 hat es gerademal auf 1,8x gegenüber Tonga geschafft mit 14nmFF.

dildo4u
2016-12-13, 11:30:03
Natürlich wird Vega ein Heizer wenn sie höher taktet als die 480.Ich hätte eher darauf getippt,das die 480 mit 1.5Ghz kommt und Vega mit 1.3.

deekey777
2016-12-13, 11:36:55
Natürlich wird Vega ein Heizer wenn sie höher taktet als die 480.Ich hätte eher darauf getippt,das die 480 mit 1.5Ghz kommt und Vega mit 1.3.
Diese Nixkönner!

y33H@
2016-12-13, 11:38:40
Es ist immer relativ. Die Tesla P100 hat auch 300 Watt TDP. Das ist eben kein Consumer-Produkt, genausowenig die MI25. Darauf sollte man also nicht unbedingt auf das Desktop-Produkt schließen.Bei MI25 steht aber unter 300 Watt ... können freilich auch 290 sein ^^

Screemer
2016-12-13, 11:39:16
Diese Nixkönner
entwickeln einfach noch nen chip der sich von polaris unterscheidet. sauerei.

tm0975
2016-12-13, 11:40:59
Die Nano liegt bei 185W mit ~850Mhz

du kennst also die nano nur von bildern.. meine nano taktet definitiv höher als 850, es wirden regelmäßig knappe 980, liegt natürlich auch am spiel.

und den p10 apauschal als ineffizient zu bezeichnen ist auch quatsch. er ist einfach nur zu hoch getaktet...

Troyan
2016-12-13, 11:46:17
Bei MI25 steht aber unter 300 Watt ... können freilich auch 290 sein ^^

Eine MI6 wird auch mit unter 150W angegeben. :P


und den p10 apauschal als ineffizient zu bezeichnen ist auch quatsch. er ist einfach nur zu hoch getaktet...

nVidias P4 erreicht 73 GFLOPS/W gegenüber den 38 GFLOPS/W von MI6.

Effe
2016-12-13, 11:57:08
Kann man diesen Werbebot mal bitte entfernen?

Nazar
2016-12-13, 12:03:56
Naja das sagt ja keiner. Die Frage ist doch nur immerwieder wieso man das alles so positiv hinstellen muss?
AMD liefert womöglich 1 Jahr nach der GTX 1080 einen Konkurrenten mit knapp 300 Watt TDP vs. 180 Watt TDP. Mit einem großen Chip gegen einen kleinen Chip mit günstigerem GDDR5x und nimmt dazu einen gut optimierten Low Level Titel wo Treiberoptimierungen kaum noch möglich sind um die Leistungsfäigkeit zu spoilern.

Doom liegt AMD etwa 20% besser als der Rest der Spiele, sogar eine Fury X klebt an der GTX 1080. Eine GTX 1080 mit 1,9 ghz. Das sind in der Praxis vll 10% mehr Leistung als stock.

Das ist im Schnitt genau GTX 1080 Performance, mehr nicht. Ich frage mich derzeit wie AMD so einen Fail finanziell überleben soll. Wenn man sich nur alles schönredet, fordert das natürlich andere dazu heraus etwas schlechter zu sehen. Ist halt so.

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/462107-amd-vega-gpu-hat-8-gibyte-hbm2-und-liegt-unoptimiert-auf-gtx-1080-niveau-6.html#post8590834

"Doom nutzt Vulkan, Vulkan ist eine Low-Level-Schnittstelle. Hier sollten fehlende Treiberoptimierungen einen geringeren Einfluss haben als in DX11-Titeln etwa."

Da du der Einzige zu seien scheinst, der alle Fakten kennt, wie wäre es, wenn du diese Fakten mal präsentierst?
Deine Ansichten und besonders die Art und Weise wie du diese mitteilst, liegen, gelinde gesagt, unter Kindergartenniveau.
Warte doch einfach ab?
Momentan stellst du dich nur selber ins Abseits!
Und selbst wenn du später doch recht behalten solltest, wird das keinen mehr interessieren, dank deiner "unbekümmerten" Art und Weise!
Dich verstehe wer will.... verstehst du dein Handeln überhaupt? :confused:

Nakai
2016-12-13, 12:09:26
Bei MI25 steht aber unter 300 Watt ... können freilich auch 290 sein ^^

Die werden sich hüten bei einer Profikarte eine falsche bzw. zu niedrige TDP anzugeben. Und wir wissen nicht, was alles auf der Karte ist.

Aber klar, ich rechne auch mit etwas um die 250W für das Consumer-Produkt. Etwas mehr oder weniger, mit SSD oder ohne.

Nur so nebenbei, eine SSD kann sehr wichtig sein, fürs Trainieren für DL-Geschichten. Die ganzen Trainingsparameter, wie Eingabedaten und Vergleichsdaten, brauchen verdammt viel Speicher. Nur so:
MNIST, also der handwritten-digits, ist sehr klein, aber auch nur monochrom.
http://yann.lecun.com/exdb/mnist/

Sobald das größer und komplexer wird, also ein richtiger Use-Case mit 3D-Stereo-Kamera, größeren Bild-Daten, da wäre eine SSD ziemlich gut als Zwischenspeicher geeignet. Initial alles auf die SSD laden und dann rechnen und den Datenbus/PCIe deutlich weniger belasten. ;)

€:
Kann man diesen Werbebot mal bitte entfernen?

Ich zähle mindestens Drei in diesem Thread.

Der_Korken
2016-12-13, 12:11:16
BTW: 12,5TFLOPs bei 250W wären 2,2x soviel Rechenleistung bei 1,47x mehr Stromverbrauch gegenüber der RX 480 - eine Perf/Watt Verbesserung von fast 50%. Polaris 10 hat es gerademal auf 1,8x gegenüber Tonga geschafft mit 14nmFF.

Natürlich wird Vega ein Heizer wenn sie höher taktet als die 480.Ich hätte eher darauf getippt,das die 480 mit 1.5Ghz kommt und Vega mit 1.3.

Na gut, wenn das alles schon offensichtlich ist, kann der Thread ja zu. AMD wird auf alle Ewigkeiten bei der aktuellen µ-Architektur bleiben und niemals daran etwas verbessern können. Schließlich hat es noch nie ein GPU-Entwickler geschafft aus dem gleichen Prozess mehr Effizienz rauszuholen.[/sarkasm]

Schaffe89
2016-12-13, 12:26:56
Das stimmt nicht. FuryX klebt nicht an einer 1080.

Nun, in Doom ist man da nur 10% hinter einer Stock GTX 1080 unter Vulkan 2560x1440, schau halt die PCGH benches.

In Summe: Das gezeigte Material hat erst mal nur den Charakter einen groben Ausblick zu geben.

Für mich heißt das von AMD folgendes. Hey wir sind auch noch da und wir können die GTX 1080 in einem cherry picked Bench schlagen, ich erinnere mich da an ein CF System in Ashes.

Wer da schon zuviel rein interpretiert, sollte mal auf die Bremse latschen. :cool:

Warum soll man denn daraus nichts interpretieren? Weil es nicht in den Kram passt dass man sich offensichtlich nur auf GTX 1080 Niveau bewegt oder wie? Es ist wieder das übliche Hoffen, nach dem Motto AMD ist so blöd und drosselt die GPU bzw. nutzt Treiber die nichts taugen.

Da du der Einzige zu seien scheinst, der alle Fakten kennt, wie wäre es, wenn du diese Fakten mal präsentierst?

Deine Ansichten und besonders die Art und Weise wie du diese mitteilst, liegen, gelinde gesagt, unter Kindergartenniveau.

Schaut man sich die Umfragen wer hier wie oft AMD kauft, ist es klar dass gegen Kritik oder andere Sichtweisen schlicht nur gehated wird und auf die persönliche Ebene zurückgegriffen wird, das Forum hat einen AMD Bias. Sagst du was gegen AMD wird einem sofort Kindergartenniveau unterstellt, weil man GTX 1080 Niveau knapp 1 Jahr später mit deutlich mehr TDP nicht feiert.:rolleyes:
Und ja es ist nunmal ein "Fail", sollte es so kommen. Alles deutet darauf hin. Spätestens mit der <300 Watt Angabe und Leistungsprognose auf GTX 1080 Niveau, wird das für AMD ungemütlich werden. Was wurde gegen die GTX 480 gehatet, weil die deutlich später kam und viel Strom zieht. Aber bei AMD is das ja nicht wichtig, die <300 Watt, sind bestimmt 201 Watt oder so,sicher nicht knapp 300 Watt, wie etwa 275 Watt TDP bei der Fury X, nein ganz bestimmt nicht....

Na gut, wenn das alles schon offensichtlich ist, kann der Thread ja zu.

dildo4u wählt genau die Begriffe die die anderen auf die Palme bringen und die selbige mit ihrer pro AMD Haltung provozieren.
Natürlich "heizt" eine GPU wenn sie wahrscheinlich 100 Watt mehr für selbige Leistung benötigt. Unterstellt man der VEGA GPU eine ähnliche Effizienz wie der von Polaris mit kleinen Verbesserungen, landet man doch auch genau da, also wieso die Aufregung.
Hätte AMD 200 Watt angegeben und nicht <300 Watt, dann würde dildo darauf auch nicht hinweisen.

N0Thing
2016-12-13, 12:36:43
Für mich heißt das von AMD folgendes. Hey wir sind auch noch da und wir können die GTX 1080 in einem cherry picked Bench schlagen, ich erinnere mich da an ein CF System in Ashes.

Da haben sie zumindest geliefert, was sie angekündigt haben: https://www.computerbase.de/2016-06/radeon-rx-480-test/13/#diagramm-ashes-of-the-singularity-2560-1440_2

Und in diesem Fall hat AMD noch nicht einmal irgendwas zur Performance gesagt, y33H@ hat nur einfach mal dreist die Kamera gezückt. :D
Und von diesem ersten Eindruck her, scheint Vega dort zu landen, wo man ihn vermuten konnte.

Tesseract
2016-12-13, 12:40:11
um mal etwas klar zu stellen: spiele in einer low-level-API brauchen zwar nicht die individualoptimierungen einer high-level-API, das bedeutet aber nicht, dass ein beta-treiber automatisch die hardware bereits optimal auslastet. verschiedene vulkan-funktionen können auf vega trotzdem langsam sein bevor der treiber ordentlich optimiert ist.

Linmoum
2016-12-13, 12:44:52
Alles deutet darauf hin. Spätestens mit der <300 Watt Angabe und Leistungsprognose auf GTX 1080 Niveau, wird das für AMD ungemütlich werden.

Natürlich "heizt" eine GPU wenn sie wahrscheinlich 100 Watt mehr für selbige Leistung benötigt.

Hätte AMD 200 Watt angegeben und nicht >300 Watt, dann würde dildo darauf auch nicht hinweisen.
Zwei Dinge.

1) Du solltest verstehen, in welchem Zusammenhang die <300W stehen. Da du das noch nicht tust, wäre Zurückhaltung angebracht.
2) Würde der Consumer-Vega 100W mehr als die 1080 ziehen, wäre man bei >270W aufwärts. Damit würde man grob zwischen der Fury und Fury X landen. Wenn du das selbst glaubst... Bitte.

Unicous
2016-12-13, 12:48:52
Schaffe giert nach Aufmerksamkeit... und ihr seid immer wieder bereit sie ihm zu schenken.

Nur so als keiner Tipp:

Diese Nachricht ist versteckt, da sich Schaffe89 auf Ihrer Ignorier-Liste befindet.
:wink::wink:

BlacKi
2016-12-13, 12:50:11
verschiedene vulkan-funktionen können auf vega trotzdem langsam sein bevor der treiber ordentlich optimiert ist.
welche aber wohl vulkan only features sein werden, die nicht auf alle spiele übertragbar wären. das würde die allgemeine leistungsfähigkeit der karte nicht erhöhen.

Schaffe89
2016-12-13, 12:52:03
Und in diesem Fall hat AMD noch nicht einmal irgendwas zur Performance gesagt, y33H@ hat nur einfach mal dreist die Kamera gezückt. :D

Und das ist von AMD einkalkuliert.


Damit würde man grob zwischen der Fury und Fury X landen. Wenn du das selbst glaubst... Bitte.

Ja das sehen wir ja dann bei Release. Die Optimisten gegen die Realisten.:rolleyes:

Nakai
2016-12-13, 12:52:07
Schaffe giert nach Aufmerksamkeit... und ihr seid immer wieder bereit sie ihm zu schenken.

Nur so als keiner Tipp:


:wink::wink:

Man kann auch einfach das Forum weniger oft besuchen. Spart nerven und man kann sich den ganzen optischen Tinnitus mal sparen. :)

Skysnake
2016-12-13, 13:00:59
um mal etwas klar zu stellen: spiele in einer low-level-API brauchen zwar nicht die individualoptimierungen einer high-level-API, das bedeutet aber nicht, dass ein beta-treiber automatisch die hardware bereits optimal auslastet. verschiedene vulkan-funktionen können auf vega trotzdem langsam sein bevor der treiber ordentlich optimiert ist.
Vor allem kann es gut sein, dass die ganzen Energiespar oder Boost funktionen noch nicht oder nicht richtig laufen.

Das kann man nämlich wirklich erst richtig machen, wenn man den Chip da hat. Also die "richtigen" Parameter finden.

N0Thing
2016-12-13, 13:23:06
Und das ist von AMD einkalkuliert.

Ja. Und? Was willst du AMD da vorwerfen?

Sie haben nichts angekündigt und versprochen. Das, was du anhand der Photos sehen kannst, ist, wie zu dem Zeitpunkt des Photos die Performance mit dieser Version von Doom auf der verwendeten Hardware an dieser Stelle im Spiel ausfällt. Nicht mehr und nicht weniger. Also keine Leistungsprognosen seitens AMD und auch keine Angabe zur Leistungsaufnahme der Grafikkarte, auf der Doom lief.

Schlammsau
2016-12-13, 13:25:09
Ignoriert doch endlich diesen Troll! :mad:

pilzsammler2002
2016-12-13, 14:45:00
Irgendwie kommt in jedem Forum (pcgh, 3dcenter etc.) von Schaffe89 das gleiche :freak:

Bin gespannt wie sich erst der Große Chip verhalten wird bzw was für eine "Performance" da liegt...
Ich glaube hbm2 würde der 470/480 auch ganz gut passen (falls nicht zu teuer im refresh) :biggrin:

Schaffe89
2016-12-13, 15:11:13
Ja. Und? Was willst du AMD da vorwerfen?

Ja wo werfe ich AMD jetzt wieder was vor?;D Nirgends.

Nicht mehr und nicht weniger. Also keine Leistungsprognosen seitens AMD und auch keine Angabe zur Leistungsaufnahme der Grafikkarte, auf der Doom lief.

Ja wer sagt den was anderes? Niemand.

iuno
2016-12-13, 15:13:16
@iuno: Also 1525 MHz ist jetzt nichts Besonderes. Erfreulich schon, aber dass sollte man ja imo auch schon erwarten dürfen.
Fuer AMD schon. Dazu ist es nochmal etwa dieselbe Steigerung wie von Hawaii zu Polaris nochmal oben drauf, und das bei groesserem Chip.

Nach den Polaris Taktraten haette man da durchaus etwas anderes erwarten koennen.

nalye
2016-12-13, 15:39:58
Schaffen wir es jetzt langsam mal, diese laecherlichen Privatkleinkriege zu unterbinden?

robbitop
2016-12-13, 15:47:35
Taktraten sind am Ende ja nur ein Teil der Gleichung. NVs SPs benötigen mehr Transistoren pro Unit. Davon sind sicher nicht unwesentlich viele in die Erreichung der Taktraten geflossen (lange, ausbalancierte Pipeline). Am Ende ist Leistung pro W oder Leistung pro mm² entscheidender. Hier ist NV aktuell schon noch ein Stück voraus. Insbesondere Leistung pro W. Aber Leistung pro mm² sieht gar nicht so schlimm für AMD aus. Bei vergleichbarer Leistung bekommt NV knapp 17% mehr dies pro Wafer heraus. Das ist jetzt keine Welt. Leistung pro Watt hingegen ist man immerhin 25 % besser.

Anhand der tatsächlichen Leistung pro Rohleistung zu rechnen ist IMO zu kurz gedacht, da die Philosophien unterschiedlich sind. (weniger dafür teurere Ausführungseinheiten vs mehr aber dafür billigere Ausführungseinheiten).

Interessant wird es zu sehen, ob es einen signifikanten Schritt in der mArch gibt, der den og. Vorsprung von Pascal etwas verkürzt.

Der_Korken
2016-12-13, 16:04:04
Aber Leistung pro mm² sieht gar nicht so schlimm für AMD aus. Bei vergleichbarer Leistung bekommt NV knapp 17% mehr dies pro Wafer heraus. Das ist jetzt keine Welt. Leistung pro Watt hingegen ist man immerhin 25 % besser.

Will keine Eerbsen zählen, aber 25% für Perf/W sind viel zu wenig. Es kommt natürlich drauf an, von wo aus man rechnet, da GP104 näher am Sweetspot taktet. Angenommen RX480 = GTX1060, GTX1080 = 1,7*RX480:

GP106: 16% mehr Perf/mm², 40% mehr Perf/W (165W vs 120W)
GP104: 25% mehr Perf/mm², 60% mehr Perf/W (180W vs 165W)

Palpatin
2016-12-13, 16:06:03
Leistung pro Watt hingegen ist man immerhin 25 % besser.

Die 137 Watt bei Metro 2033 der WX7100 gegenüber 119 Watt (GTX1060)
http://www.tomshardware.de/amd-radeon-pro-wx-7100-performance-leistungsaufnahme-temperatur,testberichte-242272-4.html
lassen hoffen das man auch hier schon gut aufgeholt hat. Rechnet man jetzt noch mögliche Ersparnisse durch HBM ein könnte AMD hier evtl sogar knapp vor NV landen.

PCGH_Carsten
2016-12-13, 16:06:04
Anhand der tatsächlichen Leistung pro Rohleistung zu rechnen ist IMO zu kurz gedacht, da die Philosophien unterschiedlich sind.

Du kannst doch nicht einfach herkommen und schreiben, man könnte nicht mit vereinfachten, generalisierten und am besten noch wenigen und/oder streng selektierten Fakten seinen persönlichen Sieger krönen! Da könnte man's ja direkt an der Farbe des Logos festmachen...*duckundweg*

N0Thing
2016-12-13, 16:44:29
Ja wer sagt den was anderes? Niemand.

Du hast doch selber folgendes geschrieben:


Und ja es ist nunmal ein "Fail", sollte es so kommen. Alles deutet darauf hin. Spätestens mit der <300 Watt Angabe und Leistungsprognose auf GTX 1080 Niveau, wird das für AMD ungemütlich werden.

Die Angabe der Leistungsaufnahme stand in keinem Zusammenhang mit der Doom-Präsentation. Du knüpfst da Verbindungen, die bisher so nicht gegeben sind.



Taktraten sind am Ende ja nur ein Teil der Gleichung. NVs SPs benötigen mehr Transistoren pro Unit. Davon sind sicher nicht unwesentlich viele in die Erreichung der Taktraten geflossen (lange, ausbalancierte Pipeline). Am Ende ist Leistung pro W oder Leistung pro mm² entscheidender.

Dabei ist bisher aber noch offen, wieviele Transistoren AMD für Vega benötigt.
Wenn man bedenkt, welche Taktrate bei 4096 Recheneinheiten aktueller Prägung notwendig wäre, um auf 12TFlops zu kommen und wenn man sich anschaut, wie sich Polaris takten läßt, ist Vega vielleicht recht groß. Videocardz (http://videocardz.com/64677/amd-announces-first-vega-accelerator-radeon-instinct-mi25-for-deep-learning) haben da eine übersichtliche Tabelle.