PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Schaffe89
2017-04-24, 16:27:42
Langfristig wird GDDR HBM sowieso wieder den Rang ablaufen, da HBM einfach mit der Zeit viel zu ineffizient wird.
HBM ist wenn überhaupt ein kurzer Zwischenschritt, hin zu einer verbesserten SpeicherTechnologie, die AMD mit Vega 20 2020 vielleich einführen wird.

http://static1.gamespot.com/uploads/original/92/929129/3027242-4368030567-NV-HB.png

HBM hat denke ich bereits schon den Zenit erreicht, wird wohl außerhalb des Profi segments von GDDR6 komplett abgesägt werden.
AMD bringt auch genau deshalb Vega 11 mit GDDR6 Anfang 2018 heraus und haut Vega 10 breitflächiger auf den Markt und garniert das ganze mit einer Dual Polaris.
Von Vega 11 ist nichts zu hören, wohl weil man diesen mit HBM gecancelt hat.

HOT
2017-04-24, 16:30:15
Umgekehrt wird ein Schuh draus, HBM wird sich sicher durchsetzen - stapelspeicher ist definitiv die Zukunft, sowohl bei nicht-flüchtigen als auch bei DRAM, dort eben nur später. Es ist eben eine Sache von Kosten/Nutzen und das ist am Anfang einer Technologie immer schwierig, vor allem wenn die richtige Infrastruktur noch nicht gefunden ist. Es kann nur eben sein, dass die Zeit für HBM einfach noch nicht reif ist, und das dieser erst in 2022 oder so handfeste Vorteile bringt.

Und V11 hat wohl kaum 384Bit GDDR6 :freak:

Hübie
2017-04-24, 16:35:53
Mit solchen Prognosen wäre ich grundsätzlich vorsichtiger. HBM hat definitiv eine Daseinsberechtigung und da jetzt von überschrittenem Zenit zu sprechen finde ich gerade etwas vermessen. Nix für ungut. :|

Schaffe89
2017-04-24, 16:38:44
Und V11 hat wohl kaum 384Bit GDDR6 :freak:

Da würde selbst ein 256bit mit GDDR6 spielend ausreichen.
Man könnte sogar auf 192bit runter gehen und hätte mit14 bis 16gbps immernoch erheblich mehr Bandbreite als 256bit mit lediglich 8gbps.

Hier HBM zu verbauen ist finanziell gesehen einfach ein einziges Desaster, nicht mehr und nicht weniger. Selbst 11gbps GDDR5x inkl. 256bit müsste bei der wieder verbesserten Kompression einer Vega 11 ausreichend sein.
Bin sehr gespannt was da kommt. Ich verwette meinen Hintern, dass Vega 11 nicht mit HBM2 kommt.

Sollte das so kommen, wird es AMD gegen Volta und selbst schon gegen die GTX 1080/GTX 1070 was die Produktionskosten angeht extrem schwer haben.
Warum hat sich Nvidia wohl entschieden selbst bei GP102 kein HBM zu verbauen.

HOT
2017-04-24, 16:42:29
V11 kommt entweder mit 1,6GHz HBM oder er kommt mit 384Bit GDDR5. Falls letzteres zutrifft wird man ihn einfach nur als salvage mit 7Gbps RAM als RX590 verkaufen.

ndrs
2017-04-24, 16:49:39
Langfristig wird GDDR HBM sowieso wieder den Rang ablaufen, da HBM einfach mit der Zeit viel zu ineffizient wird.
[...]
http://static1.gamespot.com/uploads/original/92/929129/3027242-4368030567-NV-HB.png

Komisch, in meinen Augen sagt die Grafik genau das Gegenteil aus. Nach rechts steigt die Bandbreite im Verhältnis zur Leistungsaufnahme immer schneller. Extrapoliere doch mal die GDDR-Balken ein Stück weiter. Die Bandbreite wird vielleicht ca bei HBM1 landen, der insgesamt schon so wenige verbraucht, wie alleine IO von GDDR5. Letzteres wird bei GDDR6 nochmal ein ganzes Stück ansteigen müssen.

iuno
2017-04-24, 16:53:40
Umgekehrt wird ein Schuh draus, HBM wird sich sicher durchsetzen - stapelspeicher ist definitiv die Zukunft, sowohl bei nicht-flüchtigen als auch bei DRAM, dort eben nur später. Es ist eben eine Sache von Kosten/Nutzen und das ist am Anfang einer Technologie immer schwierig, vor allem wenn die richtige Infrastruktur noch nicht gefunden ist. Es kann nur eben sein, dass die Zeit für HBM einfach noch nicht reif ist

Ganz genau. Samsung hat z.B. schon laenger stacked und mit TSV durchkontaktierten DDR4 auf dem Markt.
Was Kapazitaet angeht ist es also eh klar und dass die Speicher naher zu den Chips wandern ist auch ein Trend, den man nicht leugnen kann.

@iuno: Ich gucke mir das mal an. Weißt du in etwa die Seitenzahl?
Das meinte ich (S.7):
https://www.micron.com/~/media/documents/products/technical-note/dram/tned02_gddr5x.pdf


Pseudo 32 Bytes Mode
The increase in access granularity from 32 bytes to 64 bytes is something that should be
considered when transitioning to GDDR5X. Obviously, the maximum average perform-
ance is achieved when the 64 bytes transferred per memory access contain useable da-
ta, which is the case, for example, when a controller's cache line is 64 bytes wide.
However, depending on the application, there may be cases where not all 64 bytes of a
read burst contain usable data. The host in this case will ignore some of the data, which
is known as over-fetch. Controller architecture optimizations try to minimize this over-
fetch in an attempt to maximize the utilization of the available memory bandwidth.
To minimize the disadvantage of the GDDR5X SGRAM 64-byte access, some features
have been added to the GDDR5X specification. When these features are efficiently used
by the memory controller, GDDR5X is operated in what is called pseudo 32 bytes mode
Ich weiss ja auch nicht viel darueber :freak: Nur, dass die 1080 z.B. im Mining (OpenCL und CUDA) komplett zusammenbricht, waehrend sich die 1070 normal verhaelt. Gut, das ist natuerlich nicht der primaere Einsatzzweck, aber ein legitimer. Man hat die Ursache schnell ausgemacht, selbst habe ich damit natuerlich keine Erfahrungen gemacht. Ich weiss auch nicht, ob man versucht hat die Algorithmen anzupassen oder ob im MC eben noch Optimierungsbedarf fuer den Pseudo 32b Modus ist. Es zeigt aber, dass GDDR5X/6 genausowenig ein problemloser drop-in Ersatz oder Allheilsbringer ist wie HBM.

----------------------------------------

Es gibt nochmal ein dickes Patchset fuer Mesa, das Vega direkt vom Start u.A. OGL 4.5 Support bringt:
https://lists.freedesktop.org/archives/mesa-dev/2017-April/152733.html

interessant dabei:

Patches 14-30 add LS-HS support (i.e. tessellation). The hw LS stage
doesn't exist anymore and the driver has to merge it with HS. There is
a lot of shader work around merging the stages.

Patches 31-53 add ES-GS support (i.e. geometry shaders). The hw ES
stage doesn't exist anymore the driver has to merge it with GS.

Also, the ESGS offchip ring is gone and the driver has to use LDS
instead, so this becomes pretty much the same as passing outputs
between LS and HS. Using LDS for ESGS data was also an option on CI
and VI, but we never used it in the Mesa driver.

Offenbar kann Vega tatsaechlich gar keine normalen Vertex Shader mehr ausfuehren und der Treiber schreibt sie in den neuen "Primitive Shader" zusammen.
Ansonsten geht es dabei wie ich das verstehe darum, wenn man Variablen (in/out) in shadern hat, die durchgereicht werden, etwa vom vertex zum fragment shader. Ich glaube, man will da mehr im LDS belassen (wird vielleicht in einer NCU deutlich groesser?) statt auf den Speicher ausweichen zu muessen. Siehe auch

This buffer lives in LDS (typical case for tessellation), but it can also live in memory (ESGS).

[...]

/* Valid shader configurations:
*
* API shaders VS | TCS | TES | GS |pass| PS
* are compiled as: | | | |thru|
* | | | | |
* Only VS & PS: VS | -- | -- | -- | -- | PS
* With GS: ES | -- | -- | GS | VS | PS
* With Tessel.: LS | HS | VS | -- | -- | PS
* With both: LS | HS | ES | GS | VS | PS
*/

G3cko
2017-04-24, 18:09:26
Schaffe du bist echt der Knaller.

GDDR5 gibts nun seit der 4870. Für mich sieht GDDRX5 und GDDR6 aus wie ein letzter vorallem überhasteter Versuch die Technologie nocheinmal an den Mann zu bringen.

[MK2]Mythos
2017-04-24, 19:24:46
Da wir alle Schaffe's Prognosen kennen, können wir uns ja jetzt beruhigt zurücklehnen und den Durchbruch von HBM beobachten. Da Schaffe HBM für tot hält, hat der Speicher definitiv Zukunft! :D

basix
2017-04-24, 20:02:32
Die zur verfügung steheden Spannungspegel sind halt nicht besonders groß. Wenn du da allein schon zwei Bits übertragen willst in einem Zustand brauchste 4 Level. Das fliegt dir schnell um die Ohren, weil du verdammt genaue Versorgungsspannungen und eben auch Referenzwiderstände usw usf brauchst.

1Bit ist 0815. Das beherrscht man da man viel Erfahrung hat. Zudem ist es halt einfach "robust". Aktuell sind wohl höhere Frequenzen noch immer einfacher als mehr Bits auf einmal zu senden.

Wie macht man es dann bei den meisten Funkübertragungstechnologien? Dort hat man ja auch bis zu QAM-256 (LTE glaube ich z.B. hat 256) und die Signalstärken sind sicher nicht so gross wie einem DRAM Interface. Die Modulationsfrequenz bewegt sich ebenfalls im x-GHz Bereich. Am Schluss wird es soweit mir bekannt auf niedrigere Frequenzen runtergemischt und mit einem sogenannten "Entzerrer" in klar interpretierbare Signale zurückverwandelt. Funk hat zudem noch das Problem von Reflexionen der Funkwellen, welche eine sauber abgeschlossene Point-to-Point Verbindung nicht haben sollte (jetzt kann man darüber streiten wie sauber das geht). Eine automatische Fehlerkorrektur sollte ebenfalls jedes vernünftige Interface beherrschen. Auch Ethernet benutzt breitflächig QAM. Während meiner Arbeit bin auch schon im Bereich PLC - Power Line Communication mit höherwertigen Modulationsverfahren in Kontakt gekommen (DQPSK-4 und DQPSK-8) was grundsätzlich ebenfalls anwendbar wäre.

Die Frage zum QAM habe ich mir nämlich auch schon gestellt, warum noch niemand sowas praktisch nutzt. QAM-256 bedeuten 4x höhere Bitrate pro Symbol verglichen zu DDR und 2x verglichen zu QDR bei gleicher Taktrate.

Die Antwort auf meine eigene Frage (kam mir gerade in den Sinn als ich darüber schrieb ;D): Es lohnt sich wahrscheinlich einfach nicht! Die zwei Hauptpunkte werden vermutlich einfach in der nötigen Clock-Genauigkeit als auch im SNR der Amplitude liegen. Umso schwächer das gesendete Signal, desto schwerer wird es, den Zustand eindeutig zu erkennen wenn es mit Rauschen überlagert ist. Das sollte einleuchtend sein. Dies limitiert gleichzeitig das Maximalmass an Amplitudenmodulation. Die meisten höherwertigen Modulationsverfahren benutzen zudem die Phasenverschiebung als Zusatzsignal. Das hat den Vorteil, dass man die Datenmenge steigern kann, ohne die Signalstärke zu verringern (siehe zum Beispiel https://upload.wikimedia.org/wikipedia/commons/thumb/8/8f/QPSK_Gray_Coded.svg/618px-QPSK_Gray_Coded.svg.png). Das ist ein riesiger Vorteil gegenüber der Amplitudenmodulation, bedeutet aber dass man die zeitlichen Abstände und somit den Phasenwinkel genauer einhalten muss. Bei Frequenzen um die paar GHz wird der Clock-Jitter dann relativ zur Taktrate so hoch, dass man die Signale nicht mehr richtig interpretieren kann. Clock-Jitter bedeutet, dass ein Clock über die Zeit ein wenig "verrauscht" ist und variiert, d.h. ein Taktpuls nicht immer exakt gleich lang dauert.

QAM-256 sind übrigens in etwa so aus (um zu verdeutlichen, wie genau die Phasen und Amplituden stimmen müssten). Jeder Fleck stellt einen Wert zwischen 0...255 dar. Mit einem Symbol kann also 8 Bit oder 1 Byte übertragen werden.
https://i.stack.imgur.com/VCJOx.png

Bei DDR / QDR etc. stellt sich diese Schwierigkeit gar nicht. Verglichen dazu ist QDR Pille-Palle. Und dort können schon 4 Bit pro Symbol übertragen werden (wenn auch ein wenig gemogelt mit dem zweiten Datenkanal ;)) https://upload.wikimedia.org/wikipedia/commons/thumb/8/81/SDR_DDR_QDR.svg/1200px-SDR_DDR_QDR.svg.png
Faktor 2 verglichen zu GDDR5 lohnt den Aufwand allem Anschein nach nicht. Dann einfacher in die Breite gehen wie mit HBM.

Achill
2017-04-24, 20:41:53
@basix, das eine ist eine Elektromagnetische Welle, dass andere ein elektrisches Feld in dem sich Ladungsträger bewegen.

Ohne groß darüber nachgedacht zu haben, wird man das Konzept aus einen Teil der Physik (Amplituden Modulation (https://en.wikipedia.org/wiki/Amplitude_modulation) bei Elektromagnetischen Wellen) nicht auch ein anderes Gebiet der Physik (Elektrotechnik) (ohne weiteres / trivial) übertragen können.

Hasenpfote
2017-04-24, 21:07:02
Mal back to topic :-)

https://i.redd.it/r7qc0lc77jty.png
Google translate sagt:
kiedy vega => when vega
kiedy bedzie gotowa a bedzie jeszcze w tym kwartale => When will be ready and will be still in this quarter

D.h. 30.6. 16Uhr :D

PS: Wie zum Henker spricht man "jeszcze"? Da ist meine Zunge zu steif und Hirn zu klein für! :D

BoMbY
2017-04-24, 21:28:25
Q2 ist jetzt wie lange bekannt? Seit einem halben Jahr etwa?

Th3o
2017-04-24, 22:00:48
@Hasenpfote
ungefähr so : Jeschtsche

Hasenpfote
2017-04-24, 22:24:14
Q2 ist jetzt wie lange bekannt? Seit einem halben Jahr etwa?Wenn das mal reicht. Aber wenn man mangels echter News mehrere Seiten über einen schlechten Fake sabbeln kann, kann man auch einen Post über aufgewärmte/aktualisierte Infos abgeben. Hätte ja immer noch sein können, dass Vega aus irgendwelchen Gründen ins Q3/2025 verschoben wird.

Und jetzt philosphiert weiter, ob Vega zwischen ner 1080 und 1080TI bei 449Euro liegt und V11 mit GDDR6 kommt, da HBM ja sowas von oldschool und seit ewig und dreitagen outdated ist. :P

PS:
@Th3o: podziękować :-) (google translate! Wohne 100km von der Grenze und spreche kein Wort :'-( )

ndrs
2017-04-24, 22:26:47
Die Modulationsfrequenz bewegt sich ebenfalls im x-GHz Bereich.
Du hast jetzt nicht zufällig die Modulations- mit der Trägerfrequenz verwechselt? Ich hab gerade 15kHz Symbolrate für LTE gefunden.

uweskw
2017-04-24, 22:46:54
AMD hat sich bei HBM einfach verfahren. Das da jetzt irgendwelche unbekannten Chips auftauchen halte ich für höchst unwahrscheinlich. GDDR6 sagt eher etwas über den (preislichen) Zustand von HBM aus.


War es nicht so, dass HBM klar die bessere und fortschrittlichere Technologie ist.?.
Und diese setzt sich in erster Linie deswegen nicht durch weil die Stückzahlen von NV fehlen um das ganze auch wirtschaftlich interessant zu machen?
Oder hatte ich da was falsch mitbekommen?

greetz
US

Iruwen
2017-04-24, 22:50:33
Irgendwie findet sich immer ein Grund warum NV an allem Schuld ist oder :D

uweskw
2017-04-24, 22:56:55
Ich frag doch. Wenn du es besser weisst, lass es mich wissen.

greetz
US

Schaffe89
2017-04-24, 23:35:29
Schaffe du bist echt der Knaller.
GDDR5 gibts nun seit der 4870.

Dafür wurden die Taktraten immer weiter gesteigert.:rolleyes:
Schau mal den Vortrag von Nvidia an, die erklären es recht anschaulich wieso HBM langfristig gesehen zu ineffizient ist.
Der Vorteil von HBM skaliert ab einem gewissen Grad gegenüber GDDR nicht mehr nach oben.

Der_Korken
2017-04-24, 23:40:37
Dafür wurden die Taktraten immer weiter gesteigert.:rolleyes:
Schau mal den Vortrag von Nvidia an, die erklären es recht anschaulich wieso HBM langfristig gesehen zu ineffizient ist.
Der Vorteil von HBM skaliert ab einem gewissen Grad gegenüber GDDR nicht mehr nach oben.

Wenn du mit "Vortrag" die Folie meinst, die du auf der letzten Seite gepostet hast: Es wurde schon mehrmals in diversen Threads geschrieben, dass HBM dort viel effizienter ist als GDDR5. Man muss das Diagramm nur korrekt lesen.

victore99
2017-04-24, 23:52:11
die Technische Seite von G5/G5X/G6 vs HBM2 kann uns für Vega exakt egal sein.
denn jetzt ist HBM2 da, und setzten wir es mal in Vergleich zu GDDR5:
bei Polaris brauchen 256GB/s 8GB GDDR5 etwa 40W. ich bezweifle, dass ein 8hi-Stack HBM2 (@1000MHz, somit gleiche Transferrate und Kapazität) auch nur annähernd das gleiche verbraucht. Sonst hätte NV bei ihrem GP100 nämlich >100W nur für den Speicher verbraten..

und selbst der BEST-Case für GDDR6 kommt an diese Effizienz nicht ran. G6 bietet vielleicht doppelte Transferrate bei (bestenfalls) leicht höheren Energieverbrauch. 30W für 8G 256 GB/sec (128-bit-SI)? sollte HBM2 immernoch drunter sein.

Schaffe89
2017-04-24, 23:58:06
Nur für was HBM2 verwenden, wenn es doch absolut nix bringt? Das bringt nur was wenn man an die Granze des machbaren gehen will, das heißt >250 Watt, ~600mm die size.
Darunter ist das alles völlige Verschwendung und wird AMD in den Ruin treiben.

Linmoum
2017-04-25, 00:03:59
Keine Ahnung, wie du darauf kommst, dass HBM absolut nichts bringt. Käse hoch zehn und nicht nur momentan hat man dir das schon mehrfach erklärt bzw. es versucht. ;) Du solltest mal anfangen, aufmerksam zu lesen, bevor du deinen Unfug alle drei Beiträge wiederholst.

victore99
2017-04-25, 00:28:46
Nur für was HBM2 verwenden, wenn es doch absolut nix bringt? Das bringt nur was wenn man an die Granze des machbaren gehen will, das heißt >250 Watt, ~600mm die size.
Darunter ist das alles völlige Verschwendung und wird AMD in den Ruin treiben.
spielen wir mal einen Theoretischen Vega 11 durch.
400sqmm, 3072 Shader, dementsprechend auch ein 384 bit G5 Interface. Alternativ ein 256 bit G5X oder G6 Interface auf 12gb/s.
384er G5 kommt auf 60W, die anderen beiden so etwa 40W oder ähnliches.
da 14nm LPP ja nicht soo energiesparend ist, wird der Core wahrscheinlich bei rund 200W bis 220W angekettet sein. und du sagst, darauf noch G5 oder G5X/G6 sei kein Grenzfall? dann bist du sicherlich der Ansicht, dass Hawaii, bei dem es mit den Verbräuchen ähnlich stand, auch kein Grenzfall ist..

mczak
2017-04-25, 03:07:56
Es gibt nochmal ein dickes Patchset fuer Mesa, das Vega direkt vom Start u.A. OGL 4.5 Support bringt:
https://lists.freedesktop.org/archives/mesa-dev/2017-April/152733.html

interessant dabei:

Offenbar kann Vega tatsaechlich gar keine normalen Vertex Shader mehr ausfuehren und der Treiber schreibt sie in den neuen "Primitive Shader" zusammen.
Ansonsten geht es dabei wie ich das verstehe darum, wenn man Variablen (in/out) in shadern hat, die durchgereicht werden, etwa vom vertex zum fragment shader. Ich glaube, man will da mehr im LDS belassen (wird vielleicht in einer NCU deutlich groesser?) statt auf den Speicher ausweichen zu muessen.

Hättest ruhig stattdessen den neuen Code-Kommentar posten können :smile:.

/* Valid shader configurations:
*
* API shaders VS | TCS | TES | GS |pass| PS
* are compiled as: | | | |thru|
* | | | | |
* Only VS & PS: VS | | | | | PS
* GFX6 - with GS: ES | | | GS | VS | PS
* - with tess: LS | HS | VS | | | PS
* - with both: LS | HS | ES | GS | VS | PS
* GFX9 - with GS: -> | | | GS | VS | PS
* - with tess: -> | HS | VS | | | PS
* - with both: -> | HS | -> | GS | VS | PS
*
* -> = merged with the next stage
*/

LS ist "local shader", ES "evaluation export shader", hs/gs/vs/ps sind wie erwartet (hull/geometry/vertex/pixel shader).
Das ganze ist nicht so intuitiv, weil die HW-shader nicht den API-shadern entsprechen müssen. Insbesondere ist "VS" der einzige der in den Parameter Cache schreiben kann (deswegen muss der immer aktiv und zuletzt sein). Ist ein (API) GS aktiv braucht es einen extra (hw) VS copy shader der das übernimmt. Ist Tesselation aber kein GS aktiv kann der (hw) VS direkt als ES laufen. Soweit nichts neues bei Vega, und dass es mit GS komplizierter wird ist imho nicht überraschend - die Dinger sind wirklich hässlich zum vernünftig (parallel) implementieren.
Neu ist aber eben dass man den (API) VS+GS in GS kombiniert (das ist wohl das was AMD "Primitive-Shader" nennt). Beziehungsweise mit Tesselation kombinert man andere Shader.

iuno
2017-04-25, 03:32:07
Danke, vorhin nicht gefunden auf die Schnelle aber das ging ja groesstenteils aus der Nachricht von Marek hervor.
Was machen denn local shader? Warum man dort d3d Nomenklatur benutzt verstehe ich auch nicht :D "HS" entspricht in dem Fall schon relativ dem OpenGL TCS und "ES" dem TES?!
Bin mal gespannt, wie gut sie das auch in der Software mit den Compilern hinbekommen. Fuer load balancing und bessere Auslastung ist da sicher Potenzial da, sonst wuerde man die pipeline ja nicht umbauen. Weiss man eigentlich wie Nvidia das macht?

mczak
2017-04-25, 04:17:55
Danke, vorhin nicht gefunden auf die Schnelle aber das ging ja groesstenteils aus der Nachricht von Marek hervor.
Was machen denn local shader? Warum man dort d3d Nomenklatur benutzt verstehe ich auch nicht :D "HS" entspricht in dem Fall schon relativ dem OpenGL TCS und "ES" dem TES?!

Sorry das war falsch habe mich da kurz irritieren lassen (in den Docs steht "VS_STAGE_DS: VS Stage is On, acts as an evaluation shader (DS) for DX11 tessellation)". Andernorts steht aber der Name doch noch (VGT_INITIATOR reg: "28 - FLUSH_ES_OUTPUT: Flush Export Shader Output -- Inserted by the VGT to instruct the SX to flush all the ES output to memory").
Ich denke mal vor allem der "VS" shader ist eher aus historischen Gründen - ist ja ein egentlicher "param write shader".
Wieso die LS/ES so heissen kann ich auch nur raten - ich vermute mal "local" weil der Output des Shaders im LDS landet der ES hingegen schreibt in Speicher (den "ESGS-Ring") - wobei das dann auch bloss historisch bedingt wäre weil auch schon Chips vor Vega dafür ebenfalls den LDS nutzen konnten. Vielleicht liege ich aber auch komplett daneben :biggrin:.
Jedenfalls ist das eigentlich mit Vega gar nicht so kompliziert. Man braucht ja quasi zwingend 2 Shader (einen vor und einen nach Tesselation, weil das ein separater Fixed-Function Block ist), und genau die hat Vega auch. Dazu dann eben noch den "VS" weil der GS nicht direkt in den Parameter Cache schreiben kann.


Bin mal gespannt, wie gut sie das auch in der Software mit den Compilern hinbekommen. Fuer load balancing und bessere Auslastung ist da sicher Potenzial da, sonst wuerde man die pipeline ja nicht umbauen. Weiss man eigentlich wie Nvidia das macht?
So ungefähr sieht man das ja auch im Open-Source Treiber. Bin aber zu faul um mich da durchzwühlen, wenn ich das richtig im Kopf habe sieht man aber die Details weniger gut.

StefanV
2017-04-25, 04:19:30
Langfristig wird GDDR HBM sowieso wieder den Rang ablaufen, da HBM einfach mit der Zeit viel zu ineffizient wird.
Genau wie RDRAM damals SDR und DDR-SDRAM den Rang abgelaufen ist.

Dir scheint einfach nicht klar zu sein, dass sich immer das effizientere durchsetzt.

Mit externem Off-Chip RAM läufst so langsam mit Anlauf gegen die Wand. Das solltest eigentlich auch seit den letzten HBM vs, GDDR Dokumenten von allen betroffenen Herstellern gesehen haben, die den Vorteil von 'on Chip' Memory vs. 'Off Chip' Memory als gewaltig beziffern, was die Leistungsaufnahme betrifft...

Hier hast wohl HBM mit GDDR-SDRAM verwechselt. Denn das ist schon jetzt furchtbar ineffizient und verursacht einen nicht unerheblichen Teil der Leistungsaufnahme...

"On Chip" Speicher ist einfach Alternativlos...

Botcruscher
2017-04-25, 12:28:26
Dir scheint einfach nicht klar zu sein, dass sich immer das effizientere durchsetzt.
Definiere Effizienz. VHS hat sich ebenso durchgesetzt wie Digitalradio gescheitert ist.
...dass Hawaii, bei dem es mit den Verbräuchen ähnlich stand, auch kein Grenzfall ist..
Wenn der nicht wegen 10% an der Kotzgrenze betrieben wurde, dann lief der auch bei 190W. AMD muss bei der Chiparchitektur aufholen und sich nicht blind auf HBM verlassen. NV ist im Moment bei der Bandbreitennutzung unendlich effizienter. Wenn die Gerüchte um den HBM stimmen wird GP102 deutlich mehr Bandbreite haben. Das Gesamtbild muss einfach stimmig sein. Zukunftstechnik nutzt dir nichts wenn die Konkurrenz um dich Runden dreht.

uweskw
2017-04-25, 12:29:03
War es nicht so, dass HBM klar die bessere und fortschrittlichere Technologie ist.?.
Und diese setzt sich in erster Linie deswegen nicht durch weil die Stückzahlen von NV fehlen um das ganze auch wirtschaftlich interessant zu machen?
Oder hatte ich da was falsch mitbekommen?

greetz
US


Nur für was HBM2 verwenden, wenn es doch absolut nix bringt? Das bringt nur was wenn man an die Granze des machbaren gehen will, das heißt >250 Watt, ~600mm die size.
Darunter ist das alles völlige Verschwendung und wird AMD in den Ruin treiben.


Wie ist das nun mit HBM/2? Sinnlose Spielerei oder ist DDR5/6/7... veraltete Technologie?

Gibt es nicht ein Fachmagazin das sich mit dem Thema mal gründlich auseinander setzt?
Wir haben dutzende "Fachmagazine" aber sobald es mal etwas komplexer wird, muss sich der Verbraucher auf das verlassen was er zwischen den Fanboy-Grabenkämpfen herauslesen kann.;(

greetz
US

dildo4u
2017-04-25, 12:37:55
Es ist ziemlich offensichtlich zumindest für Fury musste es HBM sein weil die Kompression nix taugt und GDDR5X nicht verfügbar war.Ob Vega das selbe Problem hat kann man ohne Test schwer beantworten.

http://abload.de/img/82902i5xjt.png

Für AMD ist HBM natürlich auch wichtig weil sie es irgendwann für die Ryzen APU's brauchen,da DDR4 zu wenig Bandbreite bietet.

Botcruscher
2017-04-25, 12:44:43
Wie ist das nun mit HBM/2? Sinnlose Spielerei oder ist DDR5/6/7... veraltete Technologie?

Weder noch. Beide Speichertypen haben ihre spezifischen Vor und Nachteile. Grob verkürzt wäre HBM deutlich überlegen wenn der liebe Preis nicht wäre. Solche Zahlen kennen aber nur die Hersteller und deswegen wirst du den Punkt in den Fachmagazinen auch kaum behandelt finden. Irgend jemand hat hier mal vom doppelten Preis für HBM pro GB geschrieben.
Speicher alleine macht dir aber noch keine Karte. Auf dem Endprodukt kommt noch viel mehr zusammen.

robbitop
2017-04-25, 12:45:53
Mit Vega entfällt der Bandbreitenvorsprung. 512 GB/s ggü Titan Xps 547 GB/s (bzw 501,6 GB/s auf der 1080 Ti).

Vega muss und sollte (nach dem was man hört) deutlich effizienter mit der Bandbreite umgehen als Fijii.

Botcruscher
2017-04-25, 12:50:16
Das wird sich zeigen. Im Moment sind nur 410GB/s im Gespräch weil die größeren nicht gelistet sind. Polaris sollte auch so viel besser sein...

w0mbat
2017-04-25, 13:00:57
25.5.

Hübie
2017-04-25, 13:19:54
Vorstellung oder Start? :D

fondness
2017-04-25, 13:35:26
Mit Vega entfällt der Bandbreitenvorsprung. 512 GB/s ggü Titan Xps 547 GB/s (bzw 501,6 GB/s auf der 1080 Ti).



Ja, weil AMD ein verhältnismäßig schmales und damit auch billigeres SI mit nur 2 Stacks verbaut. Theoretisch kann man mit 4 HBM2 Stacks problemlos 1TB/s erreichen.

Aber stimmt natürlich, AMD erreicht nicht mal die Bandbreite der TITAN Xp, wenn man ähnlich schnell sein will, muss man also mindestens so bandbreiteneffizient sein wie NV, bzw. sogar etwas bandbreiteneffizienter als NV.

Gipsel
2017-04-25, 14:00:49
Es ist ziemlich offensichtlich zumindest für Fury musste es HBM sein weil die Kompression nix taugt und GDDR5X nicht verfügbar war.Ob Vega das selbe Problem hat kann man ohne Test schwer beantworten.

http://abload.de/img/82902i5xjt.pngNö. Das ist schlicht der falsche Test, den Anandtech da durchgeführt hat. Der mißt auf AMD-Karten nur den ROP-Durchsatz und ist praktisch unbeeinflußt von der Bandbreite (und damit auch der Kompression). AMD-GPUs haben meist für INT8-Framebuffer zu wenig ROP-Durchsatz (relativ wenige ROPs), um die Bandbreite ausnutzen zu können. Die hängen da hart im ROP-Limit und nicht im Bandbreitenlimit. Da muß man schon Blending mit 4xFP16 auffahren, damit man in die Bandbreitenbegrenzung läuft. Und dann sieht man auch auf AMD-Karten deutliche Vorteile durch die Framebufferkompression. Bei hardware.fr (http://www.hardware.fr/articles/951-7/performances-theoriques-pixels.html) mißt man für die RX480 mit FP16 Blending z.B. eine effektive Bandbreite von 555GB/s (praktisch identisch zu den 552GB/s der GTX980 übrigens) und selbst da klebt die noch recht nah an ihrem durch die ROPs vorgegebenen Füllratenlimit (erreicht noch 87% des Durchsatzes im Vergleich zu INT8 mit halber Bandbreitenanforderung pro Pixel). Also ich komme da nach Adam Riese auf eine Kompression von mindestens 2.17 (555GB/s effektiv vs. 256GB/s theoretischer maximaler Durchsatz) ;).

PS:
FuryX kommt bei 4xFP16 übrigens auf 874GB/s effektiv, Hawaii immerhin auch schon auf 563GB/s (gänzlich ohne Kompression kommt der also auch nicht daher, der erste AMD-Chip mit Kompression war offenbar Bonaire, der auch schon Faktor 1,73 Kompression mit 4xFP16 in dem Füllratentest bei hardware.fr erreichte).
Aber diese Füllratentests messen ja im Prinzip den best case für die Kompression. Die sind praktisch gesehen wenig aussagekräftig, wenn es um den realen Vorteil in Spielen geht (wo eben auch das Wechselspiel zwischen Kompression, Caching und Tiling sehr wichtig ist). Es erlaubt maximal die isolierte Einordnung der erzielbaren Kompressionsraten, wenn man z.B. mit verschiedenen Texturen in dem Test experimentieren würde und die ROP-Limitierungen im Auge behält (was einen automatisch auf Blending mit 4xFP16 festlegt, um überhaupt Aussagen treffen zu können).

iuno
2017-04-25, 14:03:28
Aber stimmt natürlich, AMD erreicht nicht mal die Bandbreite der TITAN Xp, wenn man ähnlich schnell sein will, muss man also mindestens so bandbreiteneffizient sein wie NV, bzw. sogar etwas bandbreiteneffizienter als NV.
Das kann man sich imho abschminken, an so einen Sprung glaube ich nicht. Zumal Nvidia nicht nur eine Generation lang nur Gaming GPUs gebaut hat, sondern jetzt auch noch fuer Gaming/HPC jeweils ein eigenes Topmodell hat. Vega muss dagegen wieder an beiden Fronten kaempfen. Selbst die technischen Daten sind bei Nvidia hoeher, was schon ungewoehnlich ist.
Trotzdem wird viel umgebaut und ein weiterer Grundstein fuer zukuenftige Karten gelegt. Wenn AMD jetzt wieder mehr Geld zur Verfuegung hat und auch noch die Fertigung divergiert, kann es mittelfristig auch wieder ganz anders ausschauen.

Das Datum ist Jux und kommt uebrigens von da (https://www.techpowerup.com/232708/amd-confirms-vega-is-launching-this-quarter):
The star known as Vega is 25.05 light years away from earth

Noch was:
Vega performance compared to the Geforce GTX 1080 Ti and the Titan Xp looks really nice.
http://www.tomshardware.com/reviews/amd-ryzen-ama,5018-11.html

Tarkin
2017-04-25, 14:07:28
https://twitter.com/BitsAndChipsEng/status/856817394882408448

"Price → Ryzen:Intel = VEGA:NVIDIA"

hmmm... Vega mit Titan Xp Performance für 600,- wäre nice :biggrin:

Nakai
2017-04-25, 14:12:23
Das ist nicht gut.

Troyan
2017-04-25, 14:13:50
AMD zeigt Vega auch auf der NAB: http://www.pcworld.com/article/3192067/components-graphics/amd-shows-off-vegas-ability-to-handle-8k-graphics-at-nab.html

Tarkin
2017-04-25, 14:17:29
Das ist nicht gut.

stimmt ... für nVidia wäre das eine Katastrophe

Tarkin
2017-04-25, 14:18:20
AMD zeigt Vega auch auf der NAB: http://www.pcworld.com/article/3192067/components-graphics/amd-shows-off-vegas-ability-to-handle-8k-graphics-at-nab.html

Das Bild oben im Artikel ist btw eine Radeon pro duo (Dual Fiji)

iuno
2017-04-25, 14:18:41
Das ist nicht gut.
Wieso nicht?
Es wird suggeriert, dass das PL Verhaeltnis dem von Ryzen/Intel entspricht. IMHO heisst das 1k$± (6900k, Titan/Ti) vs. 500$± (1800X, Vega)
wenn es gut laeuft vergleichbar schnell

Der Hype Train ist damit am Anrollen, s. auch die Aeusserung oben...

fondness
2017-04-25, 14:21:18
Das ist nicht gut.

Richtig, denn eine ähnlich schnelle Karte würde auch ähnlich viel kosten.

MilesEdgeworth
2017-04-25, 14:23:58
Die Aussage suggeriert erstmal nur, dass der Preis deutlich unterhalb der Konkurrenz angesetzt ist. So wie es auch bei Ryzen verglichen mit den Intel Chips der Fall ist. Über die Performance sagt das erstmal nichts aus.

Am ehesten lassen sich daraus negative Schlüsse ziehen: Ist Vega deutlich günstiger als eine 1080Ti wird der Chip auch entsprechend schlechter performen. Der Chip ist schließlich sicherlich teurer zu fertigen als ein GP102.

EDIT: Fondness war schneller...

Nakai
2017-04-25, 14:28:22
Richtig, denn eine ähnlich schnelle Karte würde auch ähnlich viel kosten.

Ich würde das nicht nur auf die Performance reduzieren, sondern auch Stromverbrauch, Lautstärke, etc.

masked__rider
2017-04-25, 14:35:11
Ich würde das nicht nur auf die Performance reduzieren, sondern auch Stromverbrauch, Lautstärke, etc.

und ich würde in das Ganze zum jetzigen Zeitpunkt nicht allzu viel hineininterpretieren ;)

MadPenguin
2017-04-25, 14:36:30
Richtig, denn eine ähnlich schnelle Karte würde auch ähnlich viel kosten.

Hmm. Deine Aussage ist mMn falsch. Ryzen ist gleich schnell wie ein Intel Pandant um den halben Preis (so ungefähr). Warum sollte das für Vega vs. Nvidia nicht gelten?

Nakai
2017-04-25, 15:02:04
Hmm. Deine Aussage ist mMn falsch. Ryzen ist gleich schnell wie ein Intel Pandant um den halben Preis (so ungefähr). Warum sollte das für Vega vs. Nvidia nicht gelten?

Ja, das so ungefähr ist anscheinend das Zünglein an der Waage. Man merkt ja schon von den Reviews, dass AMD 9000% schneller wie Intel sein muss, bei halbem Verbrauch und weniger als 10% des Preises, und die CPU muss Pfannkuchen backen können, etc...

MadPenguin
2017-04-25, 15:30:34
Ja, das so ungefähr ist anscheinend das Zünglein an der Waage. Man merkt ja schon von den Reviews, dass AMD 9000% schneller wie Intel sein muss, bei halbem Verbrauch und weniger als 10% des Preises, und die CPU muss Pfannkuchen backen können, etc...
Haha. Das stimmt allerdings :)

Nakai
2017-04-25, 15:46:28
Haha. Das stimmt allerdings :)

Ich kann schon verstehen, dass die Reviews auf ein bestimmtes Klientel zugeschnitten ist. Auf dumme Fanboys oder pickeligen Kindern, welchen prozentuelle Unterschiede von wenigen Prozenten sehr wichtig sind. Hat zwar keinen Bezug auf die Realität, aber Hauptsache man hat eine Grundlage zum Bashen in Foren.

Was mir bei nahezu allen Reviews bei Ryzen fehlt:
- Dauer des Builds einer Opensource-Software (irgendwo von Github kriegt man schon was her)
- Synthese, Implementierung und Routing eines VHDL, Verilog-Projekts
- Machine-Learning

Ganz ehrlich, die meisten Reviews sind auf einen Level, das mich kein bisschen interessiert. Und dann werden aus einem wertlosen Review, noch wertlose Schlüsse gezogen.

Relic
2017-04-25, 15:56:52
Ich kann schon verstehen, dass die Reviews auf ein bestimmtes Klientel zugeschnitten ist. Auf dumme Fanboys oder pickeligen Kindern, welchen prozentuelle Unterschiede von wenigen Prozenten sehr wichtig sind. Hat zwar keinen Bezug auf die Realität, aber Hauptsache man hat eine Grundlage zum Bashen in Foren.

Was mir bei nahezu allen Reviews bei Ryzen fehlt:
- Dauer des Builds einer Opensource-Software (irgendwo von Github kriegt man schon was her)
- Synthese, Implementierung und Routing eines VHDL, Verilog-Projekts
- Machine-Learning

Ganz ehrlich, die meisten Reviews sind auf einen Level, das mich kein bisschen interessiert. Und dann werden aus einem wertlosen Review, noch wertlose Schlüsse gezogen.

Dir sollte klar sein, dass sich das für Reviewer, die von Klicks leben, nicht lohnen wird. Du bist garantiert nicht Teil einer großen Nutzergruppe.

Botcruscher
2017-04-25, 16:05:18
Die größte Zielgruppe sind nun mal Spieler. Für den Besitzer eines typischen 4K Prozi sieht es eben eher durchwachsen aus. Dazu kommt dann noch OC... Unterm Strich ist es halt nur "nett". Ryzen ist denke ich recht gut bei den Testern weg gekommen. Mobil fehlt eben auch noch.

Für den Vega/TI vergleich kann das wiederum alles mögliche bedeuten. Mining und Doom sind super, dafür schwächen im Rest und OC kann man gleich ganz vergessen.:freak:

Nakai
2017-04-25, 16:49:12
Ich habe jetzt ungefähr meinen Post 5 mal neuaufgesetzt nur um ihn wieder zu Löschen, weil ich bemerkte, dass ich ohne Probleme einige Punkte kassieren würde. Nur soviel:

ir sollte klar sein, dass sich das für Reviewer, die von Klicks leben, nicht lohnen wird. Du bist garantiert nicht Teil einer großen Nutzergruppe.

Die größte Zielgruppe sind nun mal Spieler. Für den Besitzer eines typischen 4K Prozi sieht es eben eher durchwachsen aus. Dazu kommt dann noch OC... Unterm Strich ist es halt nur "nett". Ryzen ist denke ich recht gut bei den Testern weg gekommen. Mobil fehlt eben auch noch.

Sicherlich sind Programmierer, Entwickler und Codemonkeys eine minimale Nutzergruppe. Sieht man ja schon, dass es kaum Software auf dem Markt gibt.

https://www.servethehome.com/amd-ryzen-7-1800x-linux-benchmarks-paying-for-speed/

Hier hat man mal den Linux-Kernel kompiliert (Compiles per Hour).

http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=5

Laufzeit einer Linux-Kompilierung.

PrivateCeralion
2017-04-25, 16:53:56
Ich hoffe Vega wird teuer. Denn ich brauche 5 Stück und ich habe Angst, dass alle ausverkauft sind, wenn sie so günstig angeboten werden.

horn 12
2017-04-25, 17:08:51
479 Dollar und 599 bis 619 Dollar wäre schon mal Hammerpreis für Titan X Pascal Leistung und 8GB HBM-2
Zudem soll der Speicher komplett anders angebunden sein und daher auch die 8K Leistung ermöglichen.

[MK2]Mythos
2017-04-25, 17:16:35
:D horn du bist echt der geilste!

PrivateCeralion
2017-04-25, 17:20:17
479 Dollar und 599 bis 619 Dollar wäre schon mal Hammerpreis für Titan X Pascal Leistung und 8GB HBM-2
Zudem soll der Speicher komplett anders angebunden sein und daher auch die 8K Leistung ermöglichen.

Der Preis wäre echt abartig günstig. Mein Preislimit:

700€ bei 1080 Leistung.
900€ bei 1800ti Leistung.
1500€ bei Titan XP Leistung.

Ich bin bereit, mehr Geld zu zahlen, als bei Nvidia, da ich HBM einfach sexy finde und Innovation auch belohnt werden soll. Sollte es aber sehr günstig werden, kaufe ich im zweifel einfach noch mehr Karten :D

[MK2]Mythos
2017-04-25, 17:22:46
Im teuersten Fall gibst du also mal eben so 7500 Eur für 5 neue Grafikkarten aus? Nicht schlecht...Auch AMD Aktien Besitzer? :D

PrivateCeralion
2017-04-25, 17:33:05
Mythos;11359203']Im teuersten Fall gibst du also mal eben so 7500 Eur für 5 neue Grafikkarten aus? Nicht schlecht...Auch AMD Aktien Besitzer? :D

Ja, bin ich :D

Eine Karte zum zocken, eine für einen Kumpel und 3 Karten für Tensor Flow in meine Workstation. Für eine Quadro GP100 zahlt man ja schon 7500 €, dagegen sind die 5 Karten ein Schnäppchen.

5CH4CHT3L
2017-04-25, 17:42:45
eine für einen Kumpel
suchst du zufällig noch Freunde?

Ne aber die Preisdiskussion ist IMO ziemlich egal im moment weil man noch keine Performance weiß. AMD hat da eh kaum eine Wahl, die müssen leicht mehr Performance für selbe Geld anbieten können aber nicht viel weiter heruntergehen weil ihr Chip teurer ist.

MadPenguin
2017-04-25, 17:49:05
http://www.pcworld.com/article/3192067/components-graphics/amd-shows-off-vegas-ability-to-handle-8k-graphics-at-nab.html

Klingt gut.
Edit: sorry, wurde eine Seite vorher schon gepostet

Dorn
2017-04-25, 18:24:02
Der Preis wäre echt abartig günstig. Mein Preislimit:

700€ bei 1080 Leistung.
900€ bei 1800ti Leistung.
1500€ bei Titan XP Leistung.

Bei einem so schlechte Preis/Leistungsverhältnis würde das ganze Internet lachen. :freak: Meine Glaskugel sagt mir du kannst min. überall 200 Euro abziehen.

Screemer
2017-04-25, 18:25:15
Ich habe jetzt ungefähr meinen Post 5 mal neuaufgesetzt nur um ihn wieder zu Löschen, weil ich bemerkte, dass ich ohne Probleme einige Punkte kassieren würde. Nur soviel:





Sicherlich sind Programmierer, Entwickler und Codemonkeys eine minimale Nutzergruppe. Sieht man ja schon, dass es kaum Software auf dem Markt gibt.

https://www.servethehome.com/amd-ryzen-7-1800x-linux-benchmarks-paying-for-speed/

Hier hat man mal den Linux-Kernel kompiliert (Compiles per Hour).

http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=5

Laufzeit einer Linux-Kompilierung.

Wenn man sich die benches so ansieht, dann muss man sich fragen wer noch auf Intel setzt für solche workloads. Die datenbank benches vom tm96 würd ich auch gern mal sehen.

Edit: UPS falscher thread.

Achill
2017-04-25, 18:39:26
Ich kann schon verstehen, dass die Reviews auf ein bestimmtes Klientel zugeschnitten ist. Auf dumme Fanboys oder pickeligen Kindern, welchen prozentuelle Unterschiede von wenigen Prozenten sehr wichtig sind. Hat zwar keinen Bezug auf die Realität, aber Hauptsache man hat eine Grundlage zum Bashen in Foren.

Was mir bei nahezu allen Reviews bei Ryzen fehlt:
- Dauer des Builds einer Opensource-Software (irgendwo von Github kriegt man schon was her)
- Synthese, Implementierung und Routing eines VHDL, Verilog-Projekts
- Machine-Learning

Ganz ehrlich, die meisten Reviews sind auf einen Level, das mich kein bisschen interessiert. Und dann werden aus einem wertlosen Review, noch wertlose Schlüsse gezogen.

Nicht alles dabei, aber ein paar Sachen: http://www.phoronix.com/scan.php?page=article&item=ryzen-1800x-linux&num=4

Sollte ein besseren Indikator für deine Anforderungen abgeben als PC-Spiele.

Der 1800X schlägt sich dann auch sehr gut wie ich finde ...

--
Edit: Wurde schon geschrieben und falscher Thread ... :D

Nakai
2017-04-25, 18:41:00
Wenn man sich die benches so ansieht, dann muss man sich fragen wer noch auf Intel setzt für solche workloads. Die datenbank benches vom tm96 würd ich auch gern mal sehen.

Edit: UPS falscher thread.

Um den Bogen zu Vega zu kriegen. Es gibt derzeit kaum ein Review, was einen dedizierten DX12-Parcour hat. Man sollte DX11 und DX12 endlich mal trennen, um eine Tendenz für zukünftige Situationen zu erkennen. Aber wird ja nicht gemacht. ;D
Es gibt soviele interessante Möglichkeiten die Reviews zu gestalten. Da aber die meisten Reviews sehr ähnlich sind, sollte man sich schon fragen, ob es eher an Bequemlichkeit oder den harten Auflagen mancher Produktlieferanten liegt. :D

Dino-Fossil
2017-04-25, 18:50:08
479 Dollar und 599 bis 619 Dollar wäre schon mal Hammerpreis für Titan X Pascal Leistung und 8GB HBM-2
Zudem soll der Speicher komplett anders angebunden sein und daher auch die 8K Leistung ermöglichen.

Bei den Preisen lägen die Vega-Karten mit ziemlicher Sicherheit im Performance-Bereich rund um die 1080 bis bestenfalls (!) knapp unter 1080Ti.

Warum? Einfach weil ich davon ausgehe, dass AMD die Karten preislich an vergleichbaren nVidia Karten orientiert und höchstens leicht darunter bleibt.

G3cko
2017-04-25, 19:24:29
Also ich bin immer davon ausgegangen, dass VEGA irgendwo zwischen 450 -700€ liegt. Immerhin kommt man mit "nur" 8GB und verzichtet auf 4 Stacks. 8GB sind nun auch nicht mehr so Premium, dafür gibts halt den besseren Preis. Fiji gabs ja auch als 550€ Varainte (Fury non X).

Davon ab, nach einem Jahr ist auch GP104 keine 600€ mehr Wert...

Schnoesel
2017-04-25, 19:29:10
Nun FuryX war zu teuer fürs Gebotene, das muss man auch ganz klar so sagen. Den Fehler sollten sie nicht wiederholen. Wer Marktanteile will muss einen fairen Preis aufrufen und darf noch nicht nach der Marge schielen. Die muss man sich erst verdienen.

dargo
2017-04-25, 19:37:36
Richtig, denn eine ähnlich schnelle Karte würde auch ähnlich viel kosten.
Ich wüsste nicht, dass die Fury X 1000€ gekostet hatte. Afaik war das der Preis bei Titan Maxwell.

Schaffe89
2017-04-25, 20:07:49
Dir scheint einfach nicht klar zu sein, dass sich immer das effizientere durchsetzt.

Deswegen setzt sich also GDDR6 und später GDDR7 scheinbar durch und HBM2 nicht?
Jede weitere HBM Generation wird lediglich den Takt erhöhen und den Stromverbrauch deutlich steigern und aufgrund der kleinen Fläche gar nicht sogut zu kühlen sein.

Nebenher kann man wunderbar GDDR6 mit Quad-Date-Rate verbauen, das mit einem 384bit Interface und voller Taktrate schon mit 768 gbps gut an die 1 tbps von voll ausgebautem HBM 2 herankommt, dabei aber viel günstiger bleibt, zudem steigt der Bandbreitenkonsum durch immer weiter verbesserte Kompressionsverfahren auch nicht durch die Decke, man kann damit also problemlos auch High End Karten mit versorgen.

Das solltest eigentlich auch seit den letzten HBM vs, GDDR Dokumenten von allen betroffenen Herstellern gesehen haben, die den Vorteil von 'on Chip' Memory vs. 'Off Chip' Memory als gewaltig beziffern, was die Leistungsaufnahme betrifft...

Wirklich, nach allem was ich gelesen habe sind die Verbrauchsunterschiede besonders dann eher zweitrangig, wenn das Endprodukt wie bei Hawai, Polaris oder Fijii nicht ans absolute TDP Maximum gepresst wird.

Denn das ist schon jetzt furchtbar ineffizient und verursacht einen nicht unerheblichen Teil der Leistungsaufnahme...

Steht in keinem Verhältnis zu den Kosten. Man kann nur hoffen, dass Vega 11 mit GDDR5x oder GDDR6 kommt.
Kommt Vega 11 mit HBM2, dann kann AMD anständige Margen wohl vergessen.

Botcruscher
2017-04-25, 20:08:18
Ich wüsste nicht, dass die Fury X 1000€ gekostet hatte. Afaik war das der Preis bei Titan Maxwell.
Womöglich weil die 980TI schneller war und mehr RAM mitbringt.:rolleyes: Ihr schon wieder mit euren Preisen.

Mancko
2017-04-25, 20:09:42
stimmt ... für nVidia wäre das eine Katastrophe

Warum? Nvidia hat seit Jahren sehr gutes Geld verdient. Verstehe deine Aussage nicht. Zudem ist das R&D für Pascal rein. Für Vega noch nicht. Nvidia kann ziemlich simpel einfach mit dem Preis auch runter gehen und schauen wer den längeren Atem hat. AMD mit Sicherheit nicht.

Ich gehe daher eher davon aus, dass der gemunkelte Preis auch eine Performance/Leistungsaufnahme Indikation ist. AMD muss Geld reinholen und bei gleicher bzw. leicht besserer Performance würden die eher die Gunst der Stunde nutzen und die im Markt etablierten Preispunkte nur geringfügig gegenüber der Konkurrenz unterbieten. Wozu auch sinnlos mega Preisagressiv reingehen. Das bringt ihnen nichts. Nvidia macht das Spiel dann mit und auf Grund:

- des zeitlichen Vorsprungs
- der vermutlich besseren Kostenstruktur in der Herstellung
- sowie dem deutlich überlegenen Geschäftskundensegment gegenüber AMD und
- 6 Mrd. in Cash auf dem Bankkonto

haben sie hier halt einfach den deutlich längeren Atem. Geht AMD zu krass darunter geht Nvidia auch einfach runter. Dann ist AMD wieder am Ausgangspunkt und müsste noch weiter runter usw... Ich glaube nicht das AMD so etwas sinnloses macht, wenn das Produkt ganz oben mitspielen kann. Das mag vielleicht beim trägen Intel Konzern ein paar Monate funktionieren aber mit Sicherheit nicht bei der straffen Organisation von Nvidia. Da vergaloppieren die sich. Von daher muss man mal abwarten. Ein sehr tiefer Preis riecht aber eher nach Leistungsrückstand zur Spitze.

Mancko
2017-04-25, 20:13:12
suchst du zufällig noch Freunde?

Ne aber die Preisdiskussion ist IMO ziemlich egal im moment weil man noch keine Performance weiß. AMD hat da eh kaum eine Wahl, die müssen leicht mehr Performance für selbe Geld anbieten können aber nicht viel weiter heruntergehen weil ihr Chip teurer ist.

Nicht nur der Chip und alles drum herum ist vermutlich teurer, sie liegen auch 1 Jahr zurück. Sprich ihnen fehlt auf der Zeitachse die Zeit das Geld zu verdienen. Das ist eigentlich fast noch gravierender als die reinen GPU Herstellungskosten.

Blediator16
2017-04-25, 20:15:18
Wenn man an billig produzierbaren CPUs mehr als an jeder GPU verdienen kann, dann weiß man leider welche Priorität GPUs bei AMD haben.

scully1234
2017-04-25, 20:17:31
Womöglich weil die 980TI schneller war und mehr RAM mitbringt.:rolleyes: .

Mit der Titan argumentiert sich es eben leichter...

Screemer
2017-04-25, 20:35:00
So ein scheiß gelaber schon wieder. Ich könnte direkt in den thread kotzen.

Skysnake
2017-04-25, 20:38:57
Das ist dein Fachgebiet. Jedoch weiß ich dass GDDR5 am gleichen SI läuft und GDDR5X einen nativen fallback auf GDDR5 bietet. ;) Das Interface baut also vollständig auf GDDR5 auf. Klar musst du durch QDR mehr clocks generieren, aber das ist per se keine so große Schwierigkeit. Soviel ich weiß muss am Rest nix geändert werden.

Hübie das ist alles nur nicht "mal eben" gemacht.

Du musst neu designen:

Sampling CLK
High Speed Sampler
High speed SerDes
Datenkanal/Signalintegrity


Also quasi alles auf dem physical Layer... Nur der Link layer und höher bleiben wenn überhaupt unangetastet. Das ist wie ein komplett neues Interface auf einem neuen Node designen....

Du musst da also den kompletten Designcycle durchlaufen und hoffen dass du nicht irgendwo scheise gebaut hast...

Klar, Rückwärtskompatibel ist selten ein großes Problem.
http://monitorinsider.com/assets/QDR_WCK_4_phases.svg
http://monitorinsider.com/GDDR5X.html
Für den GDDR5-Modus müsstest du lediglich die Daten, die über WCK_1 und 3 gelesen werden, wegwerfen. Es baut vielleicht Grundsätzlich drauf auf, aber die beiden zusätzlichen Taktgeber (oder Delays) und der höhere Datentakt müssen ja irgendwo herkommen.

DelayLines (also einer Bufferchain) wirste da eher nicht verwenden. Du hast eine Durchlauflatenz von so irgendwo um die 20-40ps pro Doppelinverter. Da brauchste also viele Stufen was viel Power frisst und dazu dann auch noch viel Noise gibt. Mal ganz davon abgesehen, das es wegen LayoutDependentEffect eine HÖLLE!!! ist da etwas gescheites zu designen. Mal ganz davon abgesehen, dass du auch Produktionsvariation hast, die du ausgleichen musst.

Man wird also hoffentlich NICHT so etwas wie eine DelayLine verwenden, sondern eher einen ClockMultiplier. Das ist deutlich effizienter und am Ende auch "einfacher" zu bauen damit es "richtig" funktioniert. Einfach ist das aber bei weitem nicht. Die Chance, dass das Ding beim ersten Versuch gar nicht funktioniert ist nicht klein. Ist halt ein richtiges Analogdesign im Endeffekt bei den Frequenzen....


Bei mehreren GHz müssen die Clocks mit einer Präzision von vermutlich um die 100ps oder (um noch ein Auge erkennen zu können) weniger positioniert werden.

Du hast bei 10GBit eh nur noch eine Periodendauer von 100ps... Da musste also eher mit Genauigkeiten für die CLK von 10-20ps rechnen. Wobei weniger immer besser ist. Die 10-20 ps sind ja an sich eher bereits für die komplette CLK gerechnet. Da kannste ja nicht alles für die Multiphasen CLK Generierung draufgehen lassen. Mal ganz davon abgesehen, dass das DAtensignal ja auch jitter hat... Wenn du da mit 50ps allein für die CLK ankommst, dann wirste da keine Daten mehr über den Link übertragen....

Ich hab an nem 25GBit Design mitgearbeitet, und da wollteste an sich eher was in die Richtung von ein paar ps.


Vielleicht sollte man den Teil der Diskussion in den GDDRx-Thread auslagern. Ich finde ihn leider grad nicht, um ihn zu verlinken.
Edit: gefunden: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=506896&page=16
Wie macht man es dann bei den meisten Funkübertragungstechnologien? Dort hat man ja auch bis zu QAM-256 (LTE glaube ich z.B. hat 256) und die Signalstärken sind sicher nicht so gross wie einem DRAM Interface. Die Modulationsfrequenz bewegt sich ebenfalls im x-GHz Bereich. Am Schluss wird es soweit mir bekannt auf niedrigere Frequenzen runtergemischt und mit einem sogenannten "Entzerrer" in klar interpretierbare Signale zurückverwandelt. Funk hat zudem noch das Problem von Reflexionen der Funkwellen, welche eine sauber abgeschlossene Point-to-Point Verbindung nicht haben sollte (jetzt kann man darüber streiten wie sauber das geht). Eine automatische Fehlerkorrektur sollte ebenfalls jedes vernünftige Interface beherrschen. Auch Ethernet benutzt breitflächig QAM. Während meiner Arbeit bin auch schon im Bereich PLC - Power Line Communication mit höherwertigen Modulationsverfahren in Kontakt gekommen (DQPSK-4 und DQPSK-8) was grundsätzlich ebenfalls anwendbar wäre.

Die Frage zum QAM habe ich mir nämlich auch schon gestellt, warum noch niemand sowas praktisch nutzt. QAM-256 bedeuten 4x höhere Bitrate pro Symbol verglichen zu DDR und 2x verglichen zu QDR bei gleicher Taktrate.

Die Antwort auf meine eigene Frage (kam mir gerade in den Sinn als ich darüber schrieb ;D): Es lohnt sich wahrscheinlich einfach nicht! Die zwei Hauptpunkte werden vermutlich einfach in der nötigen Clock-Genauigkeit als auch im SNR der Amplitude liegen. Umso schwächer das gesendete Signal, desto schwerer wird es, den Zustand eindeutig zu erkennen wenn es mit Rauschen überlagert ist. Das sollte einleuchtend sein. Dies limitiert gleichzeitig das Maximalmass an Amplitudenmodulation. Die meisten höherwertigen Modulationsverfahren benutzen zudem die Phasenverschiebung als Zusatzsignal. Das hat den Vorteil, dass man die Datenmenge steigern kann, ohne die Signalstärke zu verringern (siehe zum Beispiel https://upload.wikimedia.org/wikipedia/commons/thumb/8/8f/QPSK_Gray_Coded.svg/618px-QPSK_Gray_Coded.svg.png). Das ist ein riesiger Vorteil gegenüber der Amplitudenmodulation, bedeutet aber dass man die zeitlichen Abstände und somit den Phasenwinkel genauer einhalten muss. Bei Frequenzen um die paar GHz wird der Clock-Jitter dann relativ zur Taktrate so hoch, dass man die Signale nicht mehr richtig interpretieren kann. Clock-Jitter bedeutet, dass ein Clock über die Zeit ein wenig "verrauscht" ist und variiert, d.h. ein Taktpuls nicht immer exakt gleich lang dauert.

QAM-256 sind übrigens in etwa so aus (um zu verdeutlichen, wie genau die Phasen und Amplituden stimmen müssten). Jeder Fleck stellt einen Wert zwischen 0...255 dar. Mit einem Symbol kann also 8 Bit oder 1 Byte übertragen werden.
https://i.stack.imgur.com/VCJOx.png

Bei DDR / QDR etc. stellt sich diese Schwierigkeit gar nicht. Verglichen dazu ist QDR Pille-Palle. Und dort können schon 4 Bit pro Symbol übertragen werden (wenn auch ein wenig gemogelt mit dem zweiten Datenkanal ;)) https://upload.wikimedia.org/wikipedia/commons/thumb/8/81/SDR_DDR_QDR.svg/1200px-SDR_DDR_QDR.svg.png
Faktor 2 verglichen zu GDDR5 lohnt den Aufwand allem Anschein nach nicht. Dann einfacher in die Breite gehen wie mit HBM.
Naja, natürlich ist das mit Funkwellen in Luft nochmals viel viel viel schwieriger. Aber schau dir mal die Latenzen und den Energieverbraucht pro übertragenem Bit an....

Du darfst aber nicht den Fehler machen und Trägerfrequenz mit Datenfrequenz verwechseln! Die Trägerfrequenz ist zwar sehr hoch mit einigen GHz aber die Datenfrequenz bei der die Amplituden und Phasenmodulation stattfindet liegt nur bei kHz oder MHz wenn ich mich richtig erinnere!!! Dabei ist es nicht wirklich ein Problem das Datensignal aus dem Trägersignal abzugreifen. Das musste wenn ich mich recht erinnere, das Signal einfach nur durch einen Lowpass jagen und fertig ist der Kuchen. Ok dadurch das man viele Trägerfrequenzen benutzt brauchste einen Bandpass, aber auch das ist jetzt kein Hexenwerk, wobei die in der benötigten Güte herzustellen ist dann schon wieder sehr aufwendig und etwas Black magic ;) Aber alles in allem halt bei sehr sehr sehr überschaubaren Frequenzen...

Das Herstellen der Trägerfrequenz ist da auch nicht DAS Problem. Die Frequenzen bekommste mit heutigen CMOS Prozessen eigentlich ganz gut hin. Wo die Technologie drin steckt ist da vor allem das Verarbeiten von den Reflektionen etc etc.

Am Ende vom Tag bekommste mit so etwas aber eben nicht die Datenraten wie mit DDR und 1Bit Übertragung hin. MAl ganz zu schweigen davon, was QAM an Chipfläche fressen würde.... Und die Latenz würde ziemlich sicher auch hoch gehen.

victore99
2017-04-25, 22:34:32
Jede weitere HBM Generation wird lediglich den Takt erhöhen und den Stromverbrauch deutlich steigern und aufgrund der kleinen Fläche gar nicht sogut zu kühlen sein.

so sicher? warum? besitzt du etwa non-discloser-Informationen? ich bezweifle es.
wer sagt denn, dass HBM niemals mit QDR kommen wird? Wer sagt denn, dass G5X besser skaliert?


Nebenher kann man wunderbar GDDR6 mit Quad-Date-Rate verbauen, das mit einem 384bit Interface und voller Taktrate schon mit 768 gbps gut an die 1 tbps von voll ausgebautem HBM 2 herankommt, dabei aber viel günstiger bleibt, zudem steigt der Bandbreitenkonsum durch immer weiter verbesserte Kompressionsverfahren auch nicht durch die Decke, man kann damit also problemlos auch High End Karten mit versorgen.

stimmt, Kompression lässt den Bandbreitenbedarf nicht so stark steigen, den Unterschied sieht man ja nur, wenn man die letzte 28nm-Generation seitens NVIDIA mit der ersten 16nm-Generation vergleicht, um genau zu sein die Titans (wobei die ältere GTX Titan X deutlich mehr Fläche hatte als die Titan Xp..): 336GB/s vs. 547GB/s, das macht einen Anstieg von 60% in grad mal zwei Jahren. Und 16nm ist mit GP102 nicht mal ans Maximum getrieben. Bei AMD gibt es in ähnlichen Zeiträumen eine ähnlich krasse Skalierung.



Wirklich, nach allem was ich gelesen habe sind die Verbrauchsunterschiede besonders dann eher zweitrangig, wenn das Endprodukt wie bei Hawai, Polaris oder Fijii nicht ans absolute TDP Maximum gepresst wird.

Finde den Fehler. Du listest grad alles auf ab dem Niveau von Hawaii was AMD jemals entwickelt hatte. und bei der 7970 GHz und Toxic war es glaub ich schon genauso. Die Grafikkarten werden Zwecks der Balken immer über den Sweetspot geprügelt.




Steht in keinem Verhältnis zu den Kosten. Man kann nur hoffen, dass Vega 11 mit GDDR5x oder GDDR6 kommt.
Kommt Vega 11 mit HBM2, dann kann AMD anständige Margen wohl vergessen.
ein Argument, welches zwar die Produktionskosten beachtet (bin schon erstaunt, dass du mal mit sowas kommst..), aber nicht beachtet, dass sowas wie der HBCC und generell der gesamte SI-Part nur für die neue GPU komplett neu entwickelt werden müsste. und dementsprechend auch aufwändigere Treiberpflege und schlechte Presse brächte.

Schaffe89
2017-04-26, 02:33:52
so sicher? warum? besitzt du etwa non-discloser-Informationen? ich bezweifle es.

Die surface area bei HBM wird auf 5% gegenüber GDDR5 Speicherchips reduziert, ergo von 672mm² auf 35mm² und die Leistungsaufnahme soll laut AMD Dokumenten auf 30% der Ursprünglichen Leistungsaufnahme gesenkt werden.
Die effektive Bandbreite erhöht sich ausgehend von 10,66 GByte/s pro Watt auf über 35 GByte/s pro Watt, was erheblich ist.

Trotzdem muss die 6 fache Wärmemenge pro mm² abgegeben werden.
Das ganze bei 4hi pro Stapel und bei den professionellen teuren Lösungen inkl. HBM2 dann mit 8hi mit doppelter Transferrate als HBM1 und bei HBM3 wird die Transferrate dann auf 1500mhz nochmal um 500mhz angehoben.

Das heißt die Wärmeabfuhr sollte auf Dauer ein ziemlich Problem werden und das ganze ist spätestens mit HBM 3 dann schon eher am Limit des sinnvollen angekommen und alle weiteren Ausbaustufen nur mehr Taktrate mitbringen.

wer sagt denn, dass HBM niemals mit QDR kommen wird? Wer sagt denn, dass G5X besser skaliert?

Wer sagt denn dass GDDR5, bzw GDDR5x mit QDR nicht von "GODR7" abgelöst wird? Also den klassischen Octal-Data-Rate Ansatz verfolgen wird?
Ich hab von HBM mit Quad-Data-Rate jedenfalls noch nirgends was gelesen, sondern nur dass man mehr Takt herauspressen will.

Und 16nm ist mit GP102 nicht mal ans Maximum getrieben. Bei AMD gibt es in ähnlichen Zeiträumen eine ähnlich krasse Skalierung.


Mit GP100 inkl HPC Ballast reizt aber von der Größe her den Prozess ziemlich aus und mit einer Consumer GPU weiter an die Grenze des machbaren zu gehen, wird wohl kaum im Interesse Nvidias liegen.
Wahrscheinlich ist Vega sogar ein bisschen größer als GP102.

Finde den Fehler. Du listest grad alles auf ab dem Niveau von Hawaii was AMD jemals entwickelt hatte. und bei der 7970 GHz und Toxic war es glaub ich schon genauso.

Wenn man unter Druck gerät, reizt man alles bis auf ein noch vertretbares Limit aus, da kann dann auch HBM weiterhelfen das zu erhöhen, falls nötig.

Die Grafikkarten werden Zwecks der Balken immer über den Sweetspot geprügelt.

Die 7970 imho nicht, erst die 7970ghz als es nicht gereicht hat für die Leistungskrone.

aber nicht beachtet, dass sowas wie der HBCC und generell der gesamte SI-Part nur für die neue GPU komplett neu entwickelt werden müsste

Glaubst du wirklich Vega 11 (Mittelklasse bis Peformance) kommt mit HBM, wenn selbst die neue Titan mit Volta anfang 2018 mit GDDR6 kommt?
Eins muss man AMD lassen, sollte es denn stimmen. Vom Reisbrett 2008 gehen sie konsequent den Weg zu HBM und dann wenn es sehr wahrscheinlich die Margen der Produkte zerstört.
HBCC ist doch nur ein Marketingbegriff für ein verbessertes Speichermanagement, die wirklichen Schwierigkeiten wird man mit der Umsetzung von Tiled Base Rasterization, denn wie bereits bei Fijii mehr Bandbreite einiges gebracht hat, dürften 512 gbps bei Vega 10 vielleicht ein bisschen dünn sein. Ansonsten würde man H2 2017 nicht eine Karte mit 1 tbps nachschieben.

und dementsprechend auch aufwändigere Treiberpflege und schlechte Presse brächte

Angeblich soll es sowas wie Low-Cost HBM mit einer kleineren Anbindung geben, vielleicht wäre ja das was für Vega 11 oder für die zukünftigen APU´s.
Ich bin mir aber sicher dass man den HBM Ansatz bereits bald wieder verwerfen wird, bei den APU´s DDR5 einsetzen wird oder schnellen DDR4 Speicher.

Ich denke dass Nvidia im Consumer Bereich überhaupt kein Produkt mit HBM2 oder HBM3 bringen wird und somit AMD bei den Kosten für das ganze sich in eine Sackgasse manövriert.

Ailuros
2017-04-26, 06:39:58
GDDR6 ist nach allen Indizien nur ein refresh zu 5X; Hoffnungen dass man damit mit logischem Stromverbrauch bald 1TB an Bandbreite erreichen kann ist einfache Tagtraeumerei (selbst mit einem 512bit bus).

Sonst wird es in absehbarer Zukunft HBM auch in kleineren chips als GPU chips geben, es ist lediglich eine Kosten-frage als alles andere. Fuer die kommende GPU Generation zumindest bleibt HBM im high end, fuer alles andere danach lass ich mich eher ueberraschen.

victore99
2017-04-26, 07:38:08
Die surface area bei HBM wird auf 5% gegenüber GDDR5 Speicherchips reduziert, ergo von 672mm² auf 35mm² und die Leistungsaufnahme soll laut AMD Dokumenten auf 30% der Ursprünglichen Leistungsaufnahme gesenkt werden.

Da es dir hier scheinbar um HBM1 geht, gerne:
der Stromverbrauch des HBM von FuryX und co. liegt bei etwa 15W. bei 4 Chips a 35sqmm (Package sind 40sqmm) ergibt das
0,06W/sqmm.
beim Verbrauch HBM2 liegen wir im Dunkeln, genauso wie HBM3. was wir bei HBM2 aber wissen, ist die Größe: ein Stack liegt bei 90sqmm. wir haben bei Polaris und Pascal gesehen, an der GPU kriegt man 0,5W/spmm weggekühlt. das heißt, bei HBM2 wären etwa 45W wegkühlbar, pro Stack. da hbm3 noch größer wird, sollte da noch mehr wegkühlbar sein, tippe auf rund 60W pro Stack. das wird nie bei HBM generell passieren..

Die effektive Bandbreite erhöht sich ausgehend von 10,66 GByte/s pro Watt auf über 35 GByte/s pro Watt, was erheblich ist.

Trotzdem muss die 6 fache Wärmemenge pro mm² abgegeben werden.
Das ganze bei 4hi pro Stapel und bei den professionellen teuren Lösungen inkl. HBM2 dann mit 8hi mit doppelter Transferrate als HBM1 und bei HBM3 wird die Transferrate dann auf 1500mhz nochmal um 500mhz angehoben.

Das heißt die Wärmeabfuhr sollte auf Dauer ein ziemlich Problem werden und das ganze ist spätestens mit HBM 3 dann schon eher am Limit des sinnvollen angekommen und alle weiteren Ausbaustufen nur mehr Taktrate mitbringen.

erstmal ist der letzte Satz totales Kauderwelsch. Bitte in für Menschen verständlichem Satzbau neu schreiben, danke.




Wer sagt denn dass GDDR5, bzw GDDR5x mit QDR nicht von "GODR7" abgelöst wird? Also den klassischen Octal-Data-Rate Ansatz verfolgen wird?
Ich hab von HBM mit Quad-Data-Rate jedenfalls noch nirgends was gelesen, sondern nur dass man mehr Takt herauspressen will.
wir haben von dem ersten DDR-RAM (meinetwegen auf VRAM) bis QDR-RAM noch gleich wie lange gebraucht? und auf einmal soll das innerhalb von ein paar wenigen Jahren gehen?


Mit GP100 inkl HPC Ballast reizt aber von der Größe her den Prozess ziemlich aus und mit einer Consumer GPU weiter an die Grenze des machbaren zu gehen, wird wohl kaum im Interesse Nvidias liegen.
Wahrscheinlich ist Vega sogar ein bisschen größer als GP102.
es ging mir um deine Aussage, dass mehr Bandbreite nicht benötigt würde. Hab ich an Gamingchips belegt. und hab dazu eingeworfen, dass das nicht die Grenze des machbaren ist, dh. dass ein theoretischer GP101 mit 5120 SE und 512 bit möglich wäre.



Wenn man unter Druck gerät, reizt man alles bis auf ein noch vertretbares Limit aus, da kann dann auch HBM weiterhelfen das zu erhöhen, falls nötig.



Die 7970 imho nicht, erst die 7970ghz als es nicht gereicht hat für die Leistungskrone.


und dieser Druck existiert immer bzw fast immer. Man kann also sagen, dass GPUs grundlegend weit hochgepusht werden.


Glaubst du wirklich Vega 11 (Mittelklasse bis Peformance) kommt mit HBM, wenn selbst die neue Titan mit Volta anfang 2018 mit GDDR6 kommt? wir wissen nichts über Vega 11, von daher.. ich schließe es nicht aus, sehe aber die Alternativen.


Eins muss man AMD lassen, sollte es denn stimmen. Vom Reisbrett 2008 gehen sie konsequent den Weg zu HBM und dann wenn es sehr wahrscheinlich die Margen der Produkte zerstört.
HBCC ist doch nur ein Marketingbegriff für ein verbessertes Speichermanagement, die wirklichen Schwierigkeiten wird man mit der Umsetzung von Tiled Base Rasterization, denn wie bereits bei Fijii mehr Bandbreite einiges gebracht hat, dürften 512 gbps bei Vega 10 vielleicht ein bisschen dünn sein. Ansonsten würde man H2 2017 nicht eine Karte mit 1 tbps nachschieben.



Angeblich soll es sowas wie Low-Cost HBM mit einer kleineren Anbindung geben, vielleicht wäre ja das was für Vega 11 oder für die zukünftigen APU´s.
Ich bin mir aber sicher dass man den HBM Ansatz bereits bald wieder verwerfen wird, bei den APU´s DDR5 einsetzen wird oder schnellen DDR4 Speicher.

Moment, was für Datenraten erreist du mir D4 oder D5? Irgendwas nennenswertes, was für Brauchbare iGPUs ausreicht?

Ich denke dass Nvidia im Consumer Bereich überhaupt kein Produkt mit HBM2 oder HBM3 bringen wird und somit AMD bei den Kosten für das ganze sich in eine Sackgasse manövriert.
wie langfristig siehst du das?

Tarkin
2017-04-26, 07:44:32
http://www.xtremesystems.org/forums/showthread.php?293860-News-AMD-Confirms-Vega-is-Launching-this-Quarter&p=5257849&viewfull=1#post5257849

"I can confirm that Vega will be 2.5"

;D

Zergra
2017-04-26, 07:53:28
"I can confirm that Vega will be 2.5"

;D
2.5.2017 wäre jetzt lustig, weil niemand so schnell damit rechnet :D
Ich denke aber das heißt was anderes.

[MK2]Mythos
2017-04-26, 07:54:17
http://www.xtremesystems.org/forums/showthread.php?293860-News-AMD-Confirms-Vega-is-Launching-this-Quarter&p=5257849&viewfull=1#post5257849

"I can confirm that Vega will be 2.5"

;D
Dass es sich dabei um 2,5 Slots handelt, kann man wohl anhand der bisher geleakten Bilder ausschließen. https://www.custompcreview.com/wp-content/uploads/2017/03/amd-vega-images-leak-01.jpg
Insofern ist die 2,5 fache Fiji Performance wohl am naheliegendsten? ;)

Tarkin
2017-04-26, 07:59:11
2,5x so power efficient wie Fiji könnte auch sein - damit würde man die 1080ti locker schlagen - glaub ich aber fast nicht

eventuell 2,5x so schnell wie Polaris - klingt plausibler/machbarer

Hübie
2017-04-26, 08:07:20
In Cherry picked games könnte man es sich vorstellen (Doom @4k Nightmare z.B.). Aber das sagt erst mal nix aus, diese 2,5. Da können wir ne Menge hinein interpretieren (2,5-facher Verbrauch, 2,5-fache PCB Länge... Etc).

dargo
2017-04-26, 08:08:56
In Cherry picked games könnte man es sich vorstellen (Doom @4k Nightmare z.B.). Aber das sagt erst mal nix aus, diese 2,5. Da können wir ne Menge hinein interpretieren (2,5-facher Verbrauch, 2,5-fache PCB Länge... Etc).
Dann würde Vega ~400W verbrauchen. Das glaubst du wohl selbst nicht. :tongue:

btw.
2,5 fache PCB Länge? :|


eventuell 2,5x so schnell wie Polaris - klingt plausibler/machbarer
Oder einfach nur 2,5 fache TFLOPs zu P10 @1266Mhz. Würde allerdings bedeuten, dass V10 mindestens 1766Mhz im Boost bräuchte. Eventuell wieder eine voll ausgereizte Version mit AIO.

Palpatin
2017-04-26, 08:28:39
2,5 mal so teuer wie RX580 würde auch gut passen wären dann 650€ UVP. :D

r3ptil3
2017-04-26, 08:29:30
Die Erwartungshaltung steigt hier wieder in die Höhe...

Nebenbei: Bethesda arbeitet ja mit AMD zusammen. Dass sie Vega schon haben, weiss man ja (siehe ve.ga).
Bethesda hat aber auch vor ein paar Monaten, als die Anforderungen von Fallout 4 mit HQ Texturen bekanntgegeben wurden, eine RX 490 erwähnt als Empfehlung neben der GTX 1080. Danach wurde die RX 490 nicht ersetzt durch 480, sondern gestrichen. Ich spekuliere jetzt einfach, dass damit Vega gemeint war.
Und das Fazit daraus: Vega liegt vermutlich grob auf GTX 1080 Niveau.

dargo
2017-04-26, 08:29:47
2,5 mal so teuer wie RX580 würde auch gut passen wären dann 650€ UVP. :D
Nach meiner Rechnung 572,5$. :wink:


Und das Fazit daraus: Vega liegt vermutlich grob auf GTX 1080 Niveau.
Klar... mit 53-60% mehr Die Size erreicht man GTX1080 Niveau. :facepalm:

HOT
2017-04-26, 08:32:42
Die Erwartungshaltung steigt hier wieder in die Höhe...

Nebenbei: Bethesda arbeitet ja mit AMD zusammen. Dass sie Vega schon haben, weiss man ja (siehe ve.ga).
Bethesda hat aber auch vor ein paar Monaten, als die Anforderungen von Fallout 4 mit HQ Texturen bekanntgegeben wurden, eine RX 490 erwähnt als Empfehlung neben der GTX 1080. Danach wurde die RX 490 nicht ersetzt durch 480, sondern gestrichen. Ich spekuliere jetzt einfach, dass damit Vega gemeint war.
Und das Fazit daraus: Vega liegt vermutlich grob auf GTX 1080 Niveau.

V11XT, jo

Mortalvision
2017-04-26, 08:32:57
Man wird aber bei den customs das übliche 2,5 Slot Design antreffen. Und vermutlich 8+6 pin Stromstecker statt nur 8pin beim Referenzmodell (wenn ich mich richtig erinnere).

Was den Preis anbelangt, sollte AMD nicht zu tief stapeln. HBM2 macht die Karte gesamt in der Herstellung vermutlich 50€ teurer als mit gddr5(x), weil auch die Anbindung der Vram Chips und deren Stromversorgung günstig ist. Also können AMD auch 50€ Aufpreis bei selber Leistung draufschlagen. Das HBM ist eine gute Erfindung für das Enthusiasten Segment, und wird noch für die ein oder andere Überraschung sorgen.

Was die nvidia Folie anbelangt, kann diese die technischen Möglichkeiten des HBM für die nächsten Jahre doch noch garnicht mit einbeziehen. Klaro gibt es ein thermisches Limit, wenn Du in 3D in Makrostruktur gehst, einen Interposer brauchst, etc. Aber, und das ist ein Punkt, den auch nvidia brennend interessieren wird, damit steigerst Du Effizienz und Rechendicht enorm. Ergo hast Du breitere Verwendungsmöglichkeit dafür. Gut möglich, dass die Auto- aber auch die Rüstungsindustrie ein Interesse daran haben wird ;)

r3ptil3
2017-04-26, 08:38:31
Klar... mit 53-60% mehr Die Size erreicht man GTX1080 Niveau. :facepalm:

Ich rede von der realen Gaming-Performance.;)
Compute Performance mal aussen vor, das interessiert die Leute bei einer RX Vega so gut wie gar nicht.

dargo
2017-04-26, 08:39:25
Ich rede von der realen Gaming-Performance.;)

Ich auch. ;)

r3ptil3
2017-04-26, 08:40:55
Ich auch. ;)

Ich hoffe dass du recht behältst.

Dass Video von Doom@4k auf ve.ga ist immer wieder interessant...

[MK2]Mythos
2017-04-26, 10:15:19
Ich glaube nicht dass sich das in irgend einer Weise auf Polaris bezieht, Polaris ist Midrange. In der Regel wird ja immer mit dem Vorgänger verglichen.

Fragman
2017-04-26, 10:52:33
ich hoffe das vega insgesamt gut performed und nicht nur unter vulkan wie der letzte low cost chip. ansonsten wird die karte nicht viel bringen ohne vulkan support. das sollte am ende nur ein nettes extra sein, nicht aber voraussetzung.

dargo
2017-04-26, 11:20:40
Es geht ja nicht hauptsächlich um Vulkan an sich sondern das was id u.a. mit AC und Shader Intrinsic aus Radeons rausgeholt haben. Beides geht auch unter DX12. Und letzteres sogar DX11 ab einem bestimmten Treiber wenn ich die Andeutungen richtig von d2k damals verstanden habe. Vulkan und DX12 ist eh die Zukunft.

Palpatin
2017-04-26, 11:38:41
2.5.2017 wäre jetzt lustig, weil niemand so schnell damit rechnet :D
Ich denke aber das heißt was anderes.
Könnte auch der Termin sein an dem AMD VEGA incl Preise und 1-2 Leaks vorstellt. Launch mit Benches dann ca 2 Wochen später.

uweskw
2017-04-26, 11:40:46
Ja, so langsam wäre es an der Zeit mal halbwegs realistische Performance Einschätzungen zu bekommen.
Die 1080 GTX gibts neu für 500,00€ gute Customs gebraucht um 400,00€. Wenn Vega nicht deutlich vor GTX1080 @ stock liegt, ist für mich jeder Tag des wartens verschenkte Zeit.

greetz
US

Botcruscher
2017-04-26, 12:06:16
Wieso langsam? Exakte Werte gibt es wie bei der Gen zum Starttermin. Ansonsten darfst du dir fröhlich alles von 20% langsamer bei 10% schneller zur TI aussuchen. Genauer wird es eh nicht.

horn 12
2017-04-26, 12:17:56
2,5 fach so effizient! :-)
Mal so in den Raum geworfen...

Schaffe89
2017-04-26, 12:20:02
Klar... mit 53-60% mehr Die Size erreicht man GTX1080 Niveau. :facepalm:

Was hatte denn die Fury für eine Die Size gegenüber einer GTX 980?
Die reiche grade so um ein paar Prozentchen schneller zu sein.
Das gleiche liegt auch im Rahmen für Vega, da hat man jetzt schon mehrere Hinweise darauf, dass die Karte ungefähr bei einer GTX 1080 herauskommt.

Was glaubst du wieso Nvidia die GTX 1080 noch mal mit schnellerem Speicher ein bisschen getreten hat?:wink:

Der AMD Mann sagte, dass die Leistung verglichen mit Titan Xp ne nice Sache wäre.
Kann ja auch stimmen, nur halt 20% dahinter und in den Kirschen vielleicht mal gleich auf, das passt auch zur Aussage von Koduri, dass man Software bereit halte wo Vega glänzen kann.
Wäre Vega so schnell, hätte Nvidia auch den Launch abwarten können und danach einen Vollausbau mit einer 1080 Ti liefern können.
Ich erwarte GTX 1080 11gbitps + 5% bei 50 bis 70 Watt mehr Stromverbrauch.

horn 12
2017-04-26, 12:23:18
Um mit Klein Vega mithalten zu können, was sie aber eh nicht werden können!
Vega wird eine Klasse für sich, wie Ryzen mit jedem Monat ausgereifter und schneller!

dargo
2017-04-26, 12:26:09
Ja, so langsam wäre es an der Zeit mal halbwegs realistische Performance Einschätzungen zu bekommen.
Die 1080 GTX gibts neu für 500,00€ gute Customs gebraucht um 400,00€. Wenn Vega nicht deutlich vor GTX1080 @ stock liegt, ist für mich jeder Tag des wartens verschenkte Zeit.

Hier hast du meine Prognose. :P

Bei 12,5 TFLOPs im Benchmarkparcour der CB ca. Gleichstand sofern keine unvorhersehbaren Flaschenhälse noch auftauchen. Bei reinen low Level Games entsprechend schneller als die 1080TI FE (11,6 TFLOPs). Fühlst du dich jetzt besser? :D

dildo4u
2017-04-26, 12:54:36
Die Rechenleistung ist nicht das Problem,AMD hat massive Probleme mit der Bandbreite siehe die 580(6 Tflops und nicht schneller als die 1060).Wenn die Kompression nicht zwei Generation's Sprünge macht wie soll sich die Karte dann 100% von Fury absetzen?

Hübie
2017-04-26, 12:56:40
Dann würde Vega ~400W verbrauchen. Das glaubst du wohl selbst nicht. :tongue:

btw.
2,5 fache PCB Länge? :|


Oder einfach nur 2,5 fache TFLOPs zu P10 @1266Mhz. Würde allerdings bedeuten, dass V10 mindestens 1766Mhz im Boost bräuchte. Eventuell wieder eine voll ausgereizte Version mit AIO.

Natürlich glaub ich nicht an 400 Watt, nur kann diese 2,5 eben alles bedeuten. Speku lohnt also nicht. ;)

dargo
2017-04-26, 12:56:52
Die Rechenleistung ist nicht das Problem,AMD hat massive Probleme mit der Bandbreite...
:rolleyes:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11359014&postcount=3289

Natürlich glaub ich nicht an 400 Watt, nur kann diese 2,5 eben alles bedeuten. Speku lohnt also nicht. ;)
Am liebsten wäre mir 02.05 Release. :)

aufkrawall
2017-04-26, 13:02:11
Trotzdem ist die 1060 aber nicht selten 10% vor der 480, Aufholbedarf ist auf jeden Fall da.
Btw. den Faktor Bandbreite für die Energieeffizienz nicht vergessen, Polaris schluckt auch einfach zu viel und eine größere GPU ließe sich mit dem Design entsprechend kaum skalieren ohne irrwitzigen Verbrauch.

dargo
2017-04-26, 13:04:29
Oh man... jetzt geht das schon wieder los. Wie oft muss man hier eigentlich wiederholen, dass Vega kein aufgeblasener P10 ist? Wo bleibt die überlegene Kompression von GP106, 104 und 102 eigentlich in Doom? :P

aufkrawall
2017-04-26, 13:05:00
Gar nicht, es ging aber nicht um Vega (ja, verrückt bei dem Thread-Titel).
Und jetzt geht das Doom-Cherrypicking schon wieder los, da kann man bei dargo echt die Uhr nach stellen.

Hübie
2017-04-26, 13:07:27
Mir wäre 2.5. ebenfalls am liebsten. Dann hätte ich Klarheit, was ich nun kaufen soll. =) Obwohl meine Ti irgendwie noch reicht... :redface:

iuno
2017-04-26, 13:33:26
Wer ist der Typ mit der 2.5 ueberhaupt?

Tarkin
2017-04-26, 13:34:49
also ich gehe nicht von 2. Mai aus... sonst hätte er nämlich 5.2 geschrieben, oder? Ist Fugger ein Ami?

BoMbY
2017-04-26, 13:38:02
Nur weil irgendwer irgendwo in einem Forum einen Furz lässt, springen alle aus dem Höschen? Das hat ungefähr genauso viel Aussagekraft wie das Post von "horn 12".

Tarkin
2017-04-26, 13:38:46
Wer ist der Typ mit der 2.5 ueberhaupt?

http://www.xtremesystems.org/forums/member.php?91-FUGGER

Charles "Fugger" Wirth

Owner of xtremesystems.org

https://www.golem.de/news/overclocking-95-extreme-cpus-fuer-5-8-ghz-1309-101522.html

(ist schon schwierig Google zu bemühen, oder?)

ich glaub kaum dass das nur ein "Furz" war ... das ist nicht irgendein Foren-Troll

iuno
2017-04-26, 13:39:51
IMHO also keiner mit Ahnung, nur ein Trollpost. Wieso steigt man ueberhaupt darauf ein?

Tarkin
2017-04-26, 13:43:08
IMHO also keiner mit Ahnung, nur ein Trollpost. Wieso steigt man ueberhaupt darauf ein?

weil das kein 14 jähriger, pickelgesichtiger Foren-Troll ist - den Typ ist eine Berühmtheit in der OC-Szene.

AffenJack
2017-04-26, 13:44:45
Mir wäre 2.5. ebenfalls am liebsten. Dann hätte ich Klarheit, was ich nun kaufen soll. =) Obwohl meine Ti irgendwie noch reicht... :redface:

Nur schreiben Amis leider ihre daten nie so, von daher unwahrscheinlich.



https://www.forum-3dcenter.org/vbull...postcount=3289


Gipsel schreibt da auch rein, dass Hawaii schon Kompression besitzt, während AMD ihm wiederspricht in ihren Folien. Ist also auch die frage was solche synthetischen Tests wirklich messen. AMD hat in ihren Folien die gleichen Daten wie Techreport in der b3d testsuite: http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/3

Da muss Vega also schon durch das Tile based rendering einiges aufholen. Bei Nv kam da aber auch erst der große Sprung mit Maxwell, daher kann man den auch bei Vega erwarten. Wieviel man dann vielleicht noch durch Nvs bessere Kompression zurückliegt wird dann interessant.

Pirx
2017-04-26, 13:53:11
oder, wieviel man durch AMDs dann bessere Umsetzung vorne liegt

Palpatin
2017-04-26, 13:54:11
Nur schreiben Amis leider ihre daten nie so, von daher unwahrscheinlich.

Stimmt wenn es eine Anspielung auf das Release Datum war dann warscheinlicher, 2.5 Month or 2.5 Weeks away. :rolleyes:

Nakai
2017-04-26, 14:11:16
Vega wird aus meiner Sicht nicht auf Pascals-IPC liegen. Man wird aufholen, aber nicht überholen.

Mögliche Punkte:
- AMDs Frontend muss erstmal auf NVidias Frontend aufholen
- AMD hat 64er Wavefronts, Nvidia eben 32er
- AMDs Tile-Based-Ansatz muss erstmal an Nvidias Tile-Based-Ansatz herankommen
- AMD wird niedriger Takten als NV

Aber grundsätzlich wird man irgendwo zwischen GP104 und GP102 liegen.

iuno
2017-04-26, 14:12:25
weil das kein 14 jähriger, pickelgesichtiger Foren-Troll ist - den Typ ist eine Berühmtheit in der OC-Szene.
Ach so. Nur wer Pickel im Gesicht hat, kann ein Troll sein. Sorry, ich vergass das :freak:

Das ist nichts weiter als ein Trollpost, weil er keine Substanz hat. Um das bewerten zu koennen spielt es keine Rolle wie sein Gesicht aussieht oder was fuer Hobbies er hat.

dildo4u
2017-04-26, 14:33:56
Oh man... jetzt geht das schon wieder los. Wie oft muss man hier eigentlich wiederholen, dass Vega kein aufgeblasener P10 ist? Wo bleibt die überlegene Kompression von GP106, 104 und 102 eigentlich in Doom? :P
Vielleicht funzt die Kompression unter Vulkan nicht so gut leider komplett irrelevant da es keine Verbreitung hat.Die großen Publisher wie EA,Ubisoft werden wenn auf DX12 umsteigen,bzw es ist schon passiert bei BF1 und The Divsion.So lange es Win 10 Key's für 30€ gibt wird sie das OS vermutlich stetig weiter verbreiten.

Troyan
2017-04-26, 14:36:00
Die Kompression ist Hardwarezeug. Das hat doch nichts mit den APIs zu tun.

dargo
2017-04-26, 14:37:58
@dildo

Und weiter? Was hast du jetzt nicht daran verstanden?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11359931&postcount=3352

Screemer
2017-04-26, 14:44:32
- AMDs Tile-Based-Ansatz muss erstmal an Nvidias Tile-Based-Ansatz herankommen

so wie amds erster smt versuch erst mal an den zig jahre gereiften von intel herankommen musste? na dann sieht das ja mehr als gut aus :ugly:

5CH4CHT3L
2017-04-26, 14:55:11
Die Rechenleistung ist nicht das Problem,AMD hat massive Probleme mit der Bandbreite siehe die 580(6 Tflops und nicht schneller als die 1060).Wenn die Kompression nicht zwei Generation's Sprünge macht wie soll sich die Karte dann 100% von Fury absetzen?
Das liegt nicht nur an der Bandbreite / Kompression sondern auch daran dass man die Rechenleistung nicht so gut ausnutzen kann wie NV.
Ich mach mir allerdings auch etwas sorgen wegen der Speicherbandbreite, Vega müsste ja von der Kompression her fast so gut wie Pascal sein (HBCC?)
Hätte man nicht auf V10 3 Stacks nehmen können oder geht das nicht? Weil dann hätte man 12GB HBM2, mehr Bandbreite und muss nicht die Taktraten voll ausnutzen ...

5CH4CHT3L
2017-04-26, 15:02:14
Vielleicht 2,5 fache Effizienz gegenüber der Fury? Also ca. doppelte Performance wenn der Verbrauch leicht sinkt

Pirx
2017-04-26, 15:06:58
Das liegt nicht nur an der Bandbreite / Kompression sondern auch daran dass man die Rechenleistung nicht so gut ausnutzen kann wie NV.
Ich mach mir allerdings auch etwas sorgen wegen der Speicherbandbreite, Vega müsste ja von der Kompression her fast so gut wie Pascal sein (HBCC?)
Hätte man nicht auf V10 3 Stacks nehmen können oder geht das nicht? Weil dann hätte man 12GB HBM2, mehr Bandbreite und muss nicht die Taktraten voll ausnutzen ...
Das wäre außerst schlecht von der benötigten Fläche her - nach dem Chip, den Raja Koduri gezeigt hatte. Da passten die zwei Stacks sehr gut.

http://hexus.net/tech/news/graphics/101302-amd-vega-10-graphics-card-seen-hands-on-video/

grml

https://www.computerbase.de/2017-01/amd-vega-preview/

5CH4CHT3L
2017-04-26, 15:11:33
Das wäre außerst schlecht von der benötigten Fläche her - nach dem Chip, den Raja Koduri gezeigt hatte. Da passten die zwei Stacks sehr gut.

http://hexus.net/tech/news/graphics/101302-amd-vega-10-graphics-card-seen-hands-on-video/

grml

https://www.computerbase.de/2017-01/amd-vega-preview/
Naja, hätte man 3 Chips quer genommen und den Die länglicher gezogen wrde es auch passen, wahrscheinlich waren es kostengründe

StefanV
2017-04-26, 16:26:02
Was hatte denn die Fury für eine Die Size gegenüber einer GTX 980?
Was hatte die GTX 280 gegenüber der Radeon 4870 für eine Die Size?

Dass sich Dinge ändern, sollte eigentlich bekannt sein.
Und aus der Vergangenheit wissen wir, dass sich Dinge auch mal ganz schnell ändern können und auch haben, wenn sich einer mal richtig hingesetzt hat und mal ordentlich auf den Haufen gehauen hat...

R300 wird ja noch bekannt sein...

Was du sagst, ist also völlig an den Haaren herbeigezogen. Denn wir wissen NIX über den Chip außer, dass er HBM2 Speicher haben wird.

StefanV
2017-04-26, 16:31:01
Vega wird aus meiner Sicht nicht auf Pascals-IPC liegen. Man wird aufholen, aber nicht überholen.

Mögliche Punkte:
- AMDs Frontend muss erstmal auf NVidias Frontend aufholen
- AMD hat 64er Wavefronts, Nvidia eben 32er
- AMDs Tile-Based-Ansatz muss erstmal an Nvidias Tile-Based-Ansatz herankommen
- AMD wird niedriger Takten als NV

Aber grundsätzlich wird man irgendwo zwischen GP104 und GP102 liegen.
Genau, siehe Ryzen...
Es ist nicht so, dass bei AMD keine fähigen Leute sitzen. Ganz im Gegenteil.


Einerseits sollte man die Erwartungen nicht zu hoch stapeln, andererseits auch nicht zu weit aus dem Fenster lehnen, denn wir wissen einfach zu wenig über das ganze...

Was wir aber wissen ist, dass AMD sich voll auf die VEGA Architektur konzentriert hat, die Polaris Generation war (leider) nur eine leichte Überarbeitung der 2012 vorgestellten GCN Architektur...

VEGA ist also erst einmal ein komplett neuer Chip, bei dem der Unterschied eher Richtung Terrascale vs. GCN geht als von Tahiti auf Polaris...

Rampage 2
2017-04-26, 16:38:35
Nö. Das ist schlicht der falsche Test, den Anandtech da durchgeführt hat. Der mißt auf AMD-Karten nur den ROP-Durchsatz und ist praktisch unbeeinflußt von der Bandbreite (und damit auch der Kompression). AMD-GPUs haben meist für INT8-Framebuffer zu wenig ROP-Durchsatz (relativ wenige ROPs), um die Bandbreite ausnutzen zu können. Die hängen da hart im ROP-Limit und nicht im Bandbreitenlimit. Da muß man schon Blending mit 4xFP16 auffahren, damit man in die Bandbreitenbegrenzung läuft. Und dann sieht man auch auf AMD-Karten deutliche Vorteile durch die Framebufferkompression.

Ich hatte mich zum Polaris-Release auch darüber gewundert, warum das ROP-TMU Verhältnis so unausgewogen ist - warum hat AMD bei 4,5mal sovielen TMUs nur 32ROPs verbaut? Zumal AMD GPUs sehr niedrig takten relativ zu Pascal. Immerhin reden wir hier von einer Performance-GPU und nicht Low-Cost. So kommen nur lächerliche 44 Gpixel Füllrate heraus - das schafft ja meine GTX770 schon fast:freak:

Ein Verhältnis von 1:3 (48 ROPs zu 144 TMUs) wären schon viel besser gewesen - ein P20 @ 1.4GHz oder höher hätte damit locker den Pixeldurchsatz einer 1060 übertrefffen können...

OT: Kann jemand eigentlich was dazu sagen, wie viele ROPs & TMUs der Vega-Topdog haben könnte? Was wäre das maximal Realistische?

R2

r3ptil3
2017-04-26, 16:57:00
Hat eigentlich irgendjemand von den Reviewer Vega schon erhalten?

Zergra
2017-04-26, 16:57:35
Hat eigentlich irgendjemand von den Reviewer Vega schon erhalten?
Ja... habe schon 2 hier liegen





*ironie off* gibt doch ein NDA

MechWOLLIer
2017-04-26, 17:01:08
Ist das so?

Sir_Freezer
2017-04-26, 17:17:52
Ich hatte mich zum Polaris-Release auch darüber gewundert, warum das ROP-TMU Verhältnis so unausgewogen ist - warum hat AMD bei 4,5mal sovielen TMUs nur 32ROPs verbaut? Zumal AMD GPUs sehr niedrig takten relativ zu Pascal. Immerhin reden wir hier von einer Performance-GPU und nicht Low-Cost. So kommen nur lächerliche 44 Gpixel Füllrate heraus - das schafft ja meine GTX770 schon fast:freak:

Ein Verhältnis von 1:3 (48 ROPs zu 144 TMUs) wären schon viel besser gewesen - ein P20 @ 1.4GHz oder höher hätte damit locker den Pixeldurchsatz einer 1060 übertrefffen können...

OT: Kann jemand eigentlich was dazu sagen, wie viele ROPs & TMUs der Vega-Topdog haben könnte? Was wäre das maximal Realistische?

R2

Das wird dir im Moment ohne insider Infos wahrscheinlich keiner sagen können, da Vega augenscheinlich wirklich eine andere Architektur haben wird und damit weg vom klassichen GCN-Bau geht und damit selbst bei bekannten Standartwerten wie Rasta, Rop, Takt, Shader, etc die Leistung zu Polaris nur eine bedingte bzw. gar keine Skalierung mehr zuläst.

5CH4CHT3L
2017-04-26, 17:17:53
Ist das so?
siehe Spoiler

Nakai
2017-04-26, 17:24:37
Genau, siehe Ryzen...
Es ist nicht so, dass bei AMD keine fähigen Leute sitzen. Ganz im Gegenteil.


Einerseits sollte man die Erwartungen nicht zu hoch stapeln, andererseits auch nicht zu weit aus dem Fenster lehnen, denn wir wissen einfach zu wenig über das ganze...

Was wir aber wissen ist, dass AMD sich voll auf die VEGA Architektur konzentriert hat, die Polaris Generation war (leider) nur eine leichte Überarbeitung der 2012 vorgestellten GCN Architektur...

VEGA ist also erst einmal ein komplett neuer Chip, bei dem der Unterschied eher Richtung Terrascale vs. GCN geht als von Tahiti auf Polaris...

Man sollte erstmal keinerlei Erwartungen haben. Das ist zwar alles schön und toll, was AMD bzgl Vega angekündigt hat. Was am Ende auf die Straße kommt, ist was völlig anderes.

Und Vega ist eher eine völlig neue Architektur als ein "Refresh". Da kann vieles mit dem Treiber stehen und fallen. Das sollte nicht unterschätzt werden. Tahiti war gegenüber Terrascale auch kein großer Performancesprung. 30~40% am Anfang, NV konnte mit Kepler einfach nachrücken. Jetzt spricht keiner mehr darüber und Tahiti ist eine extrem langlebige GPU geworden. Das Problem ist einfach, dass Vega auch am Anfang überzeugen muss und nicht erst nach 1~2 Jahren.

AffenJack
2017-04-26, 17:27:07
Das wird dir im Moment ohne insider Infos wahrscheinlich keiner sagen können, da Vega augenscheinlich wirklich eine andere Architektur haben wird und damit weg vom klassichen GCN-Bau geht und damit selbst bei bekannten Standartwerten wie Rasta, Rop, Takt, Shader, etc die Leistung zu Polaris nur eine bedingte bzw. gar keine Skalierung mehr zuläst.

Wo geht Vega vom GCN Bau weg? Das wird ein stark veränderter GCN, aber AMD bezeichnet Vega nicht umsonst als GCN 5th Gen.

Sir_Freezer
2017-04-26, 17:33:19
Im Prinzip gibst du dir die Antwort bereits selbst...
Mal sehen, was von eigentlich GCN übrig bleibt.
Aber was sind schon "Architekturnamen" Man könnte es auch Sammelbegriff zur besseren Grupierung nennen, klingt aber bei weitem nicht so schön. :wink:

StefanV
2017-04-26, 17:44:01
Wo geht Vega vom GCN Bau weg? Das wird ein stark veränderter GCN, aber AMD bezeichnet Vega nicht umsonst als GCN 5th Gen.
Genau wie Radeon HD 2900 und Radeon HD 6900...
Beide 900 im Namen, beide basierend auf der VLIW ARchitektur...

Gipsel
2017-04-26, 19:20:00
Gipsel schreibt da auch rein, dass Hawaii schon Kompression besitzt, während AMD ihm wiederspricht in ihren Folien.Füllratentests zeigen den Support. GCN1.1 kann offenbar komprimierte Framebufferformate nicht wieder über die TMUs einlesen, es ist also öfter mal nicht wirklich nutzbar. Die ROPs können das aber trotzdem, auch wenn AMD das nicht offiziell angekündigt hat (und bei Bonaire ging es mit dem Launchtreiber auch noch nicht, es wurde aber später offenbar aktiviert; zumindest stiegen die FP16-Füllraten in entsprechenden Tests mit neueren Treibern sprunghaft [INT8 ist wie gesagt nicht durch Bandbreite sondern durch ROPs limitiert]) ;).
Ist also auch die frage was solche synthetischen Tests wirklich messen.Genau. Und ich habe begründet, warum ein Test mit INT8 ungeeignet ist, AMD-GPUs wirklich ins Bandbreitenlimit zu treiben:
4 (8) Byte pro Pixel (mit Blending) * 32 ROPs@1GHz => 128 (256) GB/s benötigte Bandbreite.
Bei FP16 kannst Du die Zahlen verdoppeln, es sind also 8 bzw 16Byte/Pixel ohne bzw. mit Blending.
AMD hat in ihren Folien die gleichen Daten wie Techreport in der b3d testsuite: http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/3Deswegen muß das noch lange kein aussagekräftiger Test sein. Die Angabe mit INT8 als Datenformat stellt praktisch sicher, daß es nicht wirklich hart bandbreitenlimitiert ist. Ich habe nicht umsonst einen Test von hardware.fr verlinkt, die testen nämlich ein paar mehr Framebufferformate, wo die Bandbreite mehr zuschlägt ;).

Mal vorweg, AMDs ROPs schaffen im Gegensatz zu denen von nV FP16 (auch mit Blending) full-rate (bei den alten GPUs kam das nur nie so recht durch, da man dann im Bandbreitenlimit hing, man lag aber teilweise trotzdem über half-rate).

Bonaire (GCN 1.1) Launchtreiber:
http://www.hardware.fr/medias/photos_news/00/40/IMG0040763.gif http://www.hardware.fr/medias/photos_news/00/40/IMG0040767.gif
HD7770 (CapeVerde, GCN1.0): 16 ROPs@1GHz (16 GPixel/s theoretisch), 72GB/s theoretische Bandbreite
INT8 ohne Blending: 4Byte/Pixel * 15,9GPixel/s = 63,6GB/s genutzte Bandbreite (ROP-Limit!)
INT8 mit Blending: 8Byte/Pixel * 8,2GPixel/s = 65,6 GB/s genutzte Bandbreite (91% Bandbreiteneffizienz, Füllrate deutlich unter dem, was die ROPs schaffen => offenbar jetzt Bandbreitenlimit)
FP16 ohne Blending: 8Byte/Pixel * 8,4GPixel/s = 67,2 GB/s (93% Bandbreiteneffizienz => Bandbreitenlimit)
FP16 mit Blending: 16Byte/Pixel * 4,1GPixel/s = 65,6 GB/s (Bandbreitenlimit)

Die HD7790 (Bonaire, GCN1.1) skaliert hier nur mit der höheren Speicherbandbreite von 96GB/s wenn sie nicht im ROP-Limit hängt (auch 16ROPs@1GHz = 16GPixel/s) :
INT8 ohne Blending: 4Byte/Pixel * 15,9GPixel/s = 63,6GB/s genutzte Bandbreite (ROP-Limit!)
INT8 mit Blending: 8Byte/Pixel * 10,6GPixel/s = 84,8 GB/s genutzte Bandbreite (88% Bandbreiteneffizienz, Füllrate deutlich unter dem, was die ROPs theoretisch schaffen => offenbar Bandbreitenlimit)
FP16 ohne Blending: 8Byte/Pixel * 10,6GPixel/s = 84,8 GB/s (Bandbreitenlimit)
FP16 mit Blending: 16Byte/Pixel * 5,3GPixel/s = 84,8 GB/s (Bandbreitenlimit)

Alternativ kann man auch Tahiti (7970) und Pitcairn (7870) vergleichen, die beide 32ROPs haben, aber da ändert sich mit späteren Treibern nichts. Denn nun schauen wir uns das mal 7 Monate später mit den zum Hawaii-Launch verfügbaren Treibern an:
http://www.hardware.fr/medias/photos_news/00/43/IMG0043272.png http://www.hardware.fr/medias/photos_news/00/43/IMG0043273.png
Bei Pitcairn und Tahiti und auch CapeVerde (alles GCN1.0) tut sich praktisch gar nichts. Aber schauen wir mal auf die Bonaire-Zahlen:
INT8 ohne Blending: 4Byte/Pixel * 15,9GPixel/s = 63,6GB/s genutzte Bandbreite (ROP-Limit!)
INT8 mit Blending: 8Byte/Pixel * 15,7GPixel/s = 125,6 GB/s genutzte Bandbreite? (131% Bandbreiteneffizienz? Füllrate am ROP-Limit? Kompression!)
FP16 ohne Blending: 8Byte/Pixel * 10,6GPixel/s = 84,8 GB/s (hmm, hier hat sich nix geändert, ROPs irgendwie ineffizient mit FP16? Schaffen irgendwie doch nicht ganz full-rate.)
FP16 mit Blending: 16Byte/Pixel * 10,4GPixel/s = 166,4 GB/s (173% Bandbreiteneffizienz, Füllrate bricht kaum ein, Bandbreitenlimit oder ROP-Limit?)

Irgendwas ist da ganz offensichtlich passiert. Und das Verhalten von GCN1.1 (Bonaire und Hawaii) sieht so aus, wie in den späteren Tests von GPUs, die offiziell Framebufferkompression unterstützen (AMD hat bei Tonga und Polaris nur noch an der Effizienz mit FP16 gearbeitet, so daß man damit näher an die full-rate-Performance kommt):
http://www.hardware.fr/getgraphimg.php?id=331&n=1 http://www.hardware.fr/getgraphimg.php?id=332&n=1

===================================

Kann jemand eigentlich was dazu sagen, wie viele ROPs & TMUs der Vega-Topdog haben könnte? Was wäre das maximal Realistische?TMUs sind immer an die CUs gekoppelt, da wird man kaum Änderungen vornehmen. Es bleibt also bei 4 TMUs pro CU, was bei 64 CUs dann 256 TMUs ergibt, genau wie bei Fiji. Und Anzahl der ROPs sollte ebenfalls wie bei Fiji 64 betragen. Hier setzt man auf den Takt und die Effizienzsteigerungen.

BoMbY
2017-04-26, 20:21:22
Hat eigentlich irgendjemand von den Reviewer Vega schon erhalten?

In der Regel gibt es das frühestens erst eine Woche vor Release, und davon sind wir noch mind. einen Monat entfernt.

TheGood
2017-04-26, 21:01:30
Um die Erwartungen mal zu senken. Wenn VEGA 5-10% hinter 1080 TI ist, dann ist das doch immer noch ein Erfolg, da das die erste Enthusiastion GPU von AMD seit langer Zeit ist. Wenn dies wieder den Einstieg in dieses Segment ist, dann ist das ein Gewinn für jeden Kunden. Egal was jeder präferiert, am Ende gewinnen beide. DAs muss doch das oberste Ziel von allen sein!

24p
2017-04-26, 21:04:05
5-10% hinter dem Referenzdesign? Naja, wenn die GPU dann schon am Limit ist (wie ja bei Fury X auch), dann ists doch ein Stück dahinter. Da regelt dann aber alles der entsprechende Preis.

w0mbat
2017-04-26, 21:22:34
5-10% hinter dem Referenzdesign? Naja, wenn die GPU dann schon am Limit ist (wie ja bei Fury X auch), dann ists doch ein Stück dahinter. Da regelt dann aber alles der entsprechende Preis.

Wieso ist die AMD GPU "am Limit", wenn das Vega Referenzdesign 5-10% hinter dem 1080Ti Referenzdesign ist? Und wieso ist es dann "ein Stück" dahinter? Er hat doch genau von 5-10% gesprochen. Dein Kommentar macht keinen Sinn, abseits des normalen AMD bashings...

Locuza
2017-04-26, 21:48:17
Um die Erwartungen mal zu senken. Wenn VEGA 5-10% hinter 1080 TI ist, dann ist das doch immer noch ein Erfolg, da das die erste Enthusiastion GPU von AMD seit langer Zeit ist. Wenn dies wieder den Einstieg in dieses Segment ist, dann ist das ein Gewinn für jeden Kunden. Egal was jeder präferiert, am Ende gewinnen beide. DAs muss doch das oberste Ziel von allen sein!
Ich würde Erfolg bei AMD als wachsendes Potential ansehen, was besonders mit den Finanzen und der Arbeitskraft verbunden ist.

Zwischen AMD und Nvidia herrscht eine weite Schere, kann AMD sie verkleinern, großartig, bleibt sie gleich oder wächst sogar, sieht es düster aus.

AMD hat in ihrem Marketing-Teaser zu Vega den Seitenhieb "Poor Volta" eingebaut und AMD steht wirklich vor dem Problem Pascal schlagen zu müssen, falls sie ihre Zukunftsaussichten gravierend verbessern wollen.
Denn Pascal hat schon viele Marktsegmente mit sehr hoher Marge ausgeschöpft, Polaris ist eine schwache Konkurrenz (finanziell) und wird durch Vega vorerst nicht ersetzt, dass heißt bezüglich des Mittelfelds muss sich Nvidia keine Gedanken machen und Vega10 kann ohne hohe DP-Leistung den GP100 gar nicht angreifen und wenn V10 dann auch unter Gaming hinter einem GP102 landet, sieht das ganze natürlich nicht gut aus, vor allem wenn nach einem halben Jahr Nvidia den Markt schon wieder mit Volta beliefern wird.

Im Wettlauf hat AMD die letzten Jahre viel verloren und Vega hat am Besten AMDs GPU Ryzen zu sein oder wir werden wieder 5 Jahre warten müssen oder im schlimmsten Falle gar nicht die Gelegenheit haben, zwei konkurrenzfähige Unternehmen zu erleben, deren Produktstack wirklich ebenbürtig erscheint.

24p
2017-04-26, 22:31:13
Wieso ist die AMD GPU "am Limit", wenn das Vega Referenzdesign 5-10% hinter dem 1080Ti Referenzdesign ist? Und wieso ist es dann "ein Stück" dahinter? Er hat doch genau von 5-10% gesprochen. Dein Kommentar macht keinen Sinn, abseits des normalen AMD bashings...

Er macht Sinn. Du musst ihn nur einfach mal richtig lesen.

Schaffe89
2017-04-26, 22:55:26
Wieso ist die AMD GPU "am Limit", wenn das Vega Referenzdesign 5-10% hinter dem 1080Ti Referenzdesign ist?

Wenn du wie bei der Fury X keine schnelleren Customdesigns bringen kannst, weil die GPU am absoluten Limit läuft, sind es eben keine 5 bis 10% sondern eher 20 bis 30% am Ende, von daher kann man nur hoffen dass Vega nicht am Limit läuft und trotzdem auf Augenhöhe zur 1080 Ti liegt.

w0mbat
2017-04-27, 00:09:29
Wenn du wie bei der Fury X keine schnelleren Customdesigns bringen kannst, weil die GPU am absoluten Limit läuft, sind es eben keine 5 bis 10% sondern eher 20 bis 30% am Ende, von daher kann man nur hoffen dass Vega nicht am Limit läuft und trotzdem auf Augenhöhe zur 1080 Ti liegt.

Wie kommst du von 5-10% auf 20-30%? Niemand hat gesagt, dass Vega am absouten Limit läuft?

Stell dir vor, die Kommentare hier wären so negativ gegenüber Nvidia.

"Also die Titan Xp ist ja am Ende, wenn Vega schon in der Referenz-Version am Sweetspot 40% schneller bei 50W weniger Verbrauch ist!!!111einself"

Der_Korken
2017-04-27, 00:58:04
Das mit dem am Limit sein war doch nur eine Annahme: "wenn". Und "wenn" sie stimmt, dann vergrößert sich der Abstand unter Berücksichtigung von Custom Karten natürlich, weil die eine Karte noch OC-Reserven hat und die andere nicht. Ob V10XT wirklich am Limit läuft, hängt sicherlich davon ab, wie sie sich im Vergleich zur 1080Ti schlägt. Wenn man wirklich nur 5% hinten ist, dann wird AMD die paar Prozent sicher noch versuchen rauszuquetschen, notfalls auf Kosten der Effizienz und der OC-Reserven.

Schaffe89
2017-04-27, 01:59:31
Wie kommst du von 5-10% auf 20-30%? Niemand hat gesagt, dass Vega am absouten Limit läuft?

Das war lediglich eine Annahme von jemandem, bzw Spekulation, da AMD in den letzten Jahren ihre GPU´s gerne über ein sinnvolles Limit hinaus betrieben hat.
Zumal die Aussage von dem AMD Mitarbeiter nicht besonders positiv klingt, sondern eher nach "so ungefähr kommen wir schon etwas ran".

Stell dir vor, die Kommentare hier wären so negativ gegenüber Nvidia.

Ich sehe keinen negativen Kommentar.

Laut Raja Koduri ist ja Vega sogar schneller als Volta, also vielleicht gibt es ja eine faustdicke Überraschung.

crux2005
2017-04-27, 04:52:56
Volta@1GHz?

Die Aussage ist auch Dehnbar.

Schaffe89
2017-04-27, 06:18:14
Die Aussage ist auch Dehnbar.

Na sie war doch der zentrale Punkt aus dem Trommelvideo.
Poor Volta hieß es da, was impliziert dass Vega selbst gegen Volta vorne liegen wird.

Screemer
2017-04-27, 07:21:58
Na sie war doch der zentrale Punkt aus dem Trommelvideo.
Poor Volta hieß es da, was impliziert dass Vega selbst gegen Volta vorne liegen wird.Genau. Ich mach mir die Welt wie sie mir gefällt. Vielleicht ist poor volta auch nur traurig, weil er noch warten muss bis er zum spielen raus darf.

Hübie
2017-04-27, 07:25:24
Um die Erwartungen mal zu senken. Wenn VEGA 5-10% hinter 1080 TI ist, dann ist das doch immer noch ein Erfolg, da das die erste Enthusiastion GPU von AMD seit langer Zeit ist. Wenn dies wieder den Einstieg in dieses Segment ist, dann ist das ein Gewinn für jeden Kunden. Egal was jeder präferiert, am Ende gewinnen beide. DAs muss doch das oberste Ziel von allen sein!

In dem Segment muss AMD entweder den Preis deutlich unterhalb dem NV-Pendant absetzen oder mehr Leistung liefern, sonst hat man finanziell gesehen n zweiten Fiji. Mit GM200 gab's zumindest noch OC-Potenzial womit man gut und gerne mal 15% mehr Leistung abruft, wenn nicht noch mehr. Auch hier muss Vega bestechen können. Wieder ein auf Kante gestricktes Teil wäre fatal. Meine Erwartungen sind gering, damit ich nicht wieder wie bei Fiji enttäuscht werde (man erinnere sich an AMDs Marketing im Vorfeld... und was lieferte man?).

@Gipsel: Das scheint aber weniger das Problem zu sein, sondern eben die Texel-Füllrate (sprich die TMUs welche keine Kompressionsformate lesen können). Fiji bricht da bei FP16 auf 1:2 weg. Wann werden ROPs eigentlich umgangen? Bei compute, ok. Was noch? Was ist in der Praxis anzutreffen? INT8 oder mehr FP16?

24p
2017-04-27, 07:28:42
So sieht's aus. Die letzten Top-Karten von AMD liefen ziemlich am Limit, damit sie mit den Konkurrenten mithalten konnten. Ist es diesmal auch so sind 5-10% Rückstand zum Referenzdesign einer 1080Ti eher mittelmäßig.

Palpatin
2017-04-27, 08:58:23
Meine Erwartungen sind gering, damit ich nicht wieder wie bei Fiji enttäuscht werde (man erinnere sich an AMDs Marketing im Vorfeld... und was lieferte man?).

Bei Fiji und Polaris hat das Marketing ja schon gut ein zwei Monate vor Release ordenltich auf die Trommel gehauen, klar was rauskam war dann eher entäuschend bis so lala. Um Vega dagegen ist es jetzt 1-2 Monate vor Release sehr still. Könnte ein gutes Zeichen sein ;).

HOT
2017-04-27, 09:27:10
Genau wie Radeon HD 2900 und Radeon HD 6900...
Beide 900 im Namen, beide basierend auf der VLIW ARchitektur...
Wobei die 6900 kein komplett neues Renderingverfahren mitbringt.
Es ist eher Kepler -> Maxwell.

Mortalvision
2017-04-27, 13:58:53
Ahust? Polaris war enttäuschend? Also mitnichten! Die 480 custom Lösungen waren Stand Juli letzten Jahres ca. 550-580% 3DCenter Performance Index für FullHD. Die 970 geschlagen, die Fury (Fiji Pro, also abgespeckt) auf Augenhöhe mit 8GB Speicher. Sollte Vega "nur" auf 1,6 Fache Leistung von P10 kommen, also 850-900%, so lala und ok, wie ref. 1080. Bei 2facher Leistung im Optimalfall 1100%, also im Bereich der 1080ti.

Zähle die Shader (4096 vs 2384), gib ein paar % für HBM2 Bandbreite und GCN Verbesserungen, dann liegt der Chip im Schnitt bei 1000%, mit OC und der Brechstange bei 1050-1080. Bei 4k dürfte die 1080ti wegen des größeren VRAM dominieren.

Alles reine Spekulation :D

BoMbY
2017-04-27, 14:23:05
Ein 4K-HDR-Bild braucht maximal 67,5 MB Speicher ohne jegliche Komprimierung. VRAM wird größtenteils nur gefüllt, weil es gefüllt werden kann, nicht weil es gefüllt werden muss. Die 3D-Engines sind zum Teil einfach nur wirklich schlecht optimiert, was den Speicherverbrauch angeht.

Dino-Fossil
2017-04-27, 14:34:00
Ahust? Polaris war enttäuschend?

Rein von der Leistung her lag Polaris da, wo er realistisch zu erwarten war.
Es wurde zwar vorher von einigen auf einen Enthusiasten-Chip gehofft, aber eigentlich war schon Monate im voraus klar, dass AMD einen Chip fürs Mittelfeld bringt.

Wo Polaris allerdings dann doch ein wenig enttäsuchte, war die Diskrepanz zwischen den vom Marketing angekündigten technologischen Verbesserungen und der Realität. Da wurde teils (Effizienz!) mehr versprochen, als Polaris halten konnte.

Bei Vega hoffe ich, dass die Schere da nicht so weit auseinander geht und die architektonischen Änderungen auch stärker durchschlagen.

Hacki_P3D
2017-04-27, 14:59:45
Ein 4K-HDR-Bild braucht maximal 67,5 MB Speicher ohne jegliche Komprimierung. VRAM wird größtenteils nur gefüllt, weil es gefüllt werden kann, nicht weil es gefüllt werden muss. Die 3D-Engines sind zum Teil einfach nur wirklich schlecht optimiert, was den Speicherverbrauch angeht.

Verstehe die Aussage nicht so ganz... ein "4K-HDR-Bild" ist ja erst mal zweidimensional, hat mit 3D nix am Hut... und was hat die Auflösung mit Speicherverbrauch zu tun? Mit kleineren Auflösungen bekommt man Grafikkartenspeicher auch voll...

Außerdem ist es doch gut, wenn verfügbarer Speicher auch benutzt wird?
(Solange er sinnvoll benutzt wird ^^ )

Hast Du schon mal eine 3D Engine programmiert? Also ich nicht...deswegen kann und will ich sowas nicht beurteilen.. :)

Mortalvision
2017-04-27, 15:03:31
Ja, und die übermäßige Stromaufnahme über PCIe-Slot. Was bei einer Karte nix macht, kann bei nem Miningrig schon übel sein...

Aber für 219€ und echte 4GB 970 Leistung war sie wirklich sehr gut ;)

BoMbY
2017-04-27, 15:34:33
Verstehe die Aussage nicht so ganz... ein "4K-HDR-Bild" ist ja erst mal zweidimensional, hat mit 3D nix am Hut... und was hat die Auflösung mit Speicherverbrauch zu tun? Mit kleineren Auflösungen bekommt man Grafikkartenspeicher auch voll...

Außerdem ist es doch gut, wenn verfügbarer Speicher auch benutzt wird?
(Solange er sinnvoll benutzt wird ^^ )

Hast Du schon mal eine 3D Engine programmiert? Also ich nicht...deswegen kann und will ich sowas nicht beurteilen.. :)

Die Geometrie sollte in der Regel auch weniger Speicher verbrauchen, und auch kaum unterschiedlich zu anderen Auflösungen. Der meiste Speicher wird für Texturen belegt, und da oft als reiner Puffer ohne das die aktuell wirklich benötigt werden (weil aktuell gar nicht im Bild). Ansonsten brauchen bestimmte Effekte relativ viel Speicher für die Berechnung, oder so Späße wie Multisampling. Wenn man 4K HDR mit 8xMSAA laufen lässt, braucht das sicher viel mehr Speicher, ist aber in der Regel auch totaler overkill.

Gipsel
2017-04-27, 18:03:20
@Gipsel: Das scheint aber weniger das Problem zu sein, sondern eben die Texel-Füllrate (sprich die TMUs welche keine Kompressionsformate lesen können). Fiji bricht da bei FP16 auf 1:2 weg.Da schmeißt Du aber ganz schön was durcheinander. Daß die Radeon-TMUs FP16 nur halfrate können, ist schon immer so und hat mit dem angesprochenen Thema nicht viel zu tun. Und die normalen komprimierten Texturformate können alle GCN-TMUs (seit 1.0) natürlich direkt lesen (die VLIW-GPUs haben die Texturen beim Kopieren vom L2 in den L1 dekomprimiert). GCN1.0 und 1.1 können aber keine DCC-komprimierten Framebuffer wieder einlesen (und bei 1.0 können die ROPs die auch nicht schreiben), dies können erst die TMUs ab GCN 1.2 (Kompression bei MSAA-Framebuffern gibt es schon länger, weiß gerade gar nicht, ab wann die TMUs die ohne Dekompressionspass lesen können).

Um das noch mal klarzustellen: Der Punkt war, daß man keine Bandbreitenmessung per INT8-Füllratentest zur Einschätzung der Framebufferkompression heranziehen kann, weil eben diese Tests auf AMD-GPUs oft gar nicht bandbreitenlimitiert sind sondern im ROP-Limit hängen. Die darauf basierenden Aussagen stehen also schlicht auf einer nicht aussagekräftigen Datenbasis. Hier muß mit FP16 (mitsamt Blending) gearbeitet werden, um überhaupt Aussagen treffen zu können (wie aussagekräftig die auch immer sein mögen). Und man muß die anderen Limits der GPU im Auge behalten, damit man keinen Blödsinn schlußfolgert. Und dann kommt noch hinzu, daß so ein reiner Bandbreitentest wenig Belastbares darüber liefert, wie der Einfluß in einem realistischerem Szenario aussieht.

TheGood
2017-04-27, 18:39:46
Man man die Diskussion hier ist schon wieder wahnwitzig...

Es werden hier Anforderungen gestellt die gar nicht machbar sind (oder nur im Best Case), der Chip im Vorfeld dann als Scheisse dargestellt, um dann im Nachhinein zu sagen "Boah geil ich hatte so recht"... *kopfschüttel. Das ist doch totaler Irrsinn und aus Kundensicht auch noch völlig dämlich. Grad der Prozessorenmarkt zeigt doch was genau Konkurrenz bringt und selbst 10% langsamer als ne 1080Ti wäre Konkurrenz. Wenn es sogar nur 5% Unterschied wären, würden 99% es nichtmal im tatsächlichen Einsatz merken.

Wo soll denn AMD von heut auf morgen auf einmal wieder eine super duper perfekte High End Architektur herbekommen, wenn Sie in dem Bereich schon Jahre nichts mehr gemacht haben. Allein schon aus diesem Grund wäre eine Leistung 5-10% unterhalb von 1080 TI ein gut mit Sternchen. Sie brauchen für einen richtigen Angriff eine gescheite Grundlage, welche die VEGA Architektur bilden könnte. Diese Architektur sieht ja im Grundsatz schonmal gut auf dem Papier aus, es muss nur diesesmal auch in der Praxis ankommen. Zeitgleich müssen Sie natürlich Ihren Entwicklungszyklus und vor allem Innovationszyklus verkürzen.

Klar kann AMD diesen Chip dann nicht zum selben Preis verkaufen (das könnten Sie bei einem Gleichstand auch nicht), aber das werden Sie wohl auch mit ziemlicher Sicherheit nicht machen. Es muss dann einfach der richtige Preispunkt für die Graka gefunden werden. Der ist irgendwo zwischen 500 und 730 Euro (Stand heute, wenn die Graka zwischen 1080 und 1080 TI rauskommt).
Damit machen Sie mit dem Chip auch kein Minus. Sicherlich haben Sie nicht die Marge von NVidia, aber das kann aktuell auch nicht das Ziel sein.
Die Cashcow für AMD muss aktuell die Prozessoren sein und irgendwann später wirds sicherlich auch bei den Grafikkarten mehr zu verdienen geben.

Es wird wohl ziemlich klar sein, dass VEGA nicht das Overclocking Monster werden wird, da es ist schliesslich nicht wie bei Nvidia daraufhin entwickelt worden ist. Wenn ich OC Grakas kaufe, sind sie 1. deutlich teuerer, 2. machen die wenigsten Leute ein OC Ihrer Graka selbst. Kunden kaufen ne "Standardkarte" und die wird eingebaut und gut ist es. Warum sonst gibt es so viele von Haus aus übertaktete Karten. Die Leute wollen sich damit nämlich schlichtweg nicht selbst mit beschäftigen.

AMD braucht ein gutes Gesamtpaket im richtigen Preisrahmen, dann werden Sie auch genug verkaufen und die Leute müssen mal ihren klugen Menschenverstand wieder einschalten. Immerhin haben die Reviewer das in der Zwischenzeit gemacht, nur beim Fußvolk muss das noch anzukommen. Dieser Thread ist mal wieder das Beste Beispiel dafür...

dargo
2017-04-27, 18:53:56
Es wird wohl ziemlich klar sein, dass VEGA nicht das Overclocking Monster werden wird wie Nvidia...
Damit wird doch eh immer völlig übertrieben. Die Leute sehen 2Ghz und bekommen ein feuchtes Höschen. Dabei vergiss man aber, dass bereits das Referenz Design mit 1630-1650Mhz im Schnitt taktet. Nimmt man dann sowas hier.
http://www.tomshardware.de/1080ti-performance-leistungsaufnahme-lautstarke-temperatur,testberichte-242349-6.html

Sind es nur noch 7% OC auf 2Ghz. Super... richtiges OC Monster. :uclap:

Loeschzwerg
2017-04-27, 19:10:14
Ahust? Polaris war enttäuschend?

Ja, weil AMD sich hat zwingen lassen P10 außerhalb des Sweet-Spots zu betreiben.

Bei VEGA sollte AMD auf diese "Brechstange" schlichtweg verzichten. Das Produkt wird dadurch für die Allgemeinheit runder (z.B. keine Kritikpunkte ala PCIe Leistungsaufnahme), OCer haben mehr Spielraum (OC Monster :freak:) und Partner sind flexibler bei den Eigenlösungen.

TheGood
2017-04-27, 19:30:34
Ich bringe hier mal die Umfragen vom 3Dcenter ins Spiel, die deine Sicht nicht für die Mehrheit bestätigen kann:

RX 480:
http://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zur-radeon-rx-480

GTs 1060
http://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zur-geforce-gtx-1060



Gerne auch nochmals die Umfrage bzgl. dem Preisrange in welchen eingekauft wird
http://www.3dcenter.org/news/umfrage-auswertung-welchem-preisbereich-werden-grafikkarten-gekauft
75 % sind unter 400 Euro. (der 3dcenter user)

Die Diskussion sollten wir aber nicht in diesem Thread führen.

TheGood
2017-04-27, 19:31:23
http://www.3dcenter.org/news/umfrage-auswertung-wie-stark-fehlen-1416nm-highendenthusiasten-grafikkarten-von-amd

Diese Umfrage ist auch sehr spannend bzgl. des möglichen Kaufabsatzes von VEGA. Nach meiner Interpretation ist das nicht so schlecht, ob es AMD wirklich hilft, steht natürlich auf einem anderen Blatt.

Loeschzwerg
2017-04-27, 20:04:01
Die Diskussion sollten wir aber nicht in diesem Thread führen.

Siehe Polaris Thema ;)

robbitop
2017-04-27, 20:22:19
Da schmeißt Du aber ganz schön was durcheinander. Daß die Radeon-TMUs FP16 nur halfrate können, ist schon immer so
Ist nicht ganz korrekt. Die TMUs von R600 beherrschten damals FP16 fullrate. (das hatte mir Eric Demers vor ~10 Jahren jedenfalls erzählt)
Wurde allerdings damals kaum/nicht genutzt und galt somit schnell als Transistorverschwendung.

Kommen FP16 Texturen denn heute häufig zum Einsatz, dass sich soetwas lohnen würde?

(Kompression bei MSAA-Framebuffern gibt es schon länger, weiß gerade gar nicht, ab wann die TMUs die ohne Dekompressionspass lesen können).
Color Compression für MSAA war R300 IIRC der erste Chip. Z-Kompression ab NV20.

Ja, weil AMD sich hat zwingen lassen P10 außerhalb des Sweet-Spots zu betreiben.


Ist ja leider schon zur Gewohnheit geworden. Wann lief die letzte AMD Karte mal im Sweetspot. Das muss schon lange her sein. OK - Fury Nano. Die war aber eher zusätzlich. Aber dennoch lobenswert. Leider aufgrund der 4GB etwas untergegangen. Tahitii, Fijii und Hawaii können richtig viel Perf/W leisten, wenn man sie ein paar MHz tiefer taktet und die Spannung entsprechend anpasst.

aceCrasher
2017-04-27, 20:56:12
Sind es nur noch 7% OC auf 2Ghz. Super... richtiges OC Monster. :uclap:
7% ausgehend von einer werksübertakteten Karte wohlgemerkt. Eine Referenz 1080ti erreicht unter typischen gaming load gerade einmal knapp 1600MHz, von da ausgehend sind diese 2000-2050Mhz eine Steigerung von über 20%.

Ne 1080ti als schlechten Overclocker zu bezeichnen, weil in ner gaming X nich mehr viel drin steckt, ist wie zu behaupten, dass ne 7970 n schlechter Übertakter gewesen ist, nur weil in ner 7970 Toxic nich mehr viel zu holen war.

robbitop
2017-04-27, 21:01:49
Auch sind die absoluten maximalen Taktraten seit Maxwell und spätestens seit Pascal für sich schonmal ziemlich beeindruckend.

24p
2017-04-27, 21:09:25
Jop, insbesondere Maxwell war da richtig gut. 1,075GHz beim Referenzdesign vs 1,4GHz bei den Top Costums. Fast eine Leistungsklasse mehr.

Gipsel
2017-04-27, 21:13:49
Ist nicht ganz korrekt. Die TMUs von R600 beherrschten damals FP16 fullrate. (das hatte mir Eric Demers vor ~10 Jahren jedenfalls erzählt)
Wurde allerdings damals kaum/nicht genutzt und galt somit schnell als Transistorverschwendung.Okay, "schon immer" war natürlich zu stark formuliert. Aber schon sehr lange. Einzige Ausnahme war wie von Dir erwähnt damals zu R600-Zeiten. Aber schon die Nachfolger haben da wieder gespart.
Kommen FP16 Texturen denn heute häufig zum Einsatz, dass sich soetwas lohnen würde?Zumindest mehr als früher (kannst ja mal Foobar nach fragen, der weiß das sicher besser). Und nV verbaut seit geraumer Zeit full-rate FP16 TMUs (aber nur half-rate FP16 ROPs, also genau umgekehrt im Vergleich zu AMD).
Color Compression für MSAA war R300 IIRC der erste Chip. Z-Kompression ab NV20.Aber es war lange schwierig, die komprimierten Frame- bzw. Z-Buffer wieder einzulesen. Da wurde lange ein Dekompressionspass fällig (z.T. wohl auch heute noch).

Aber wir kommen vom Thema ab.

Screemer
2017-04-27, 21:19:50
warum gehts hier seit ner seite schon wieder um nvidia gpus?

iuno
2017-04-27, 21:20:30
Sind es nur noch 7% OC auf 2Ghz. Super... richtiges OC Monster. :uclap:
Weiss ehrlich nicht, was daran witzig sein soll. Wie viel OC kann man denn auf die hoechstuebertaktete Polaris oder Fury drauf hauen?
Bei Nvidia ist das Verhaeltnis zw. Taktraten und Spannungen einfach um Welten besser, ich hoffe, dass man das mit Vega endlich auf die Reihe bekommt damit man sich als Kunde nicht immer gezwungen fuehlt undervolten zu muessen.

Bei VEGA sollte AMD auf diese "Brechstange" schlichtweg verzichten.
Es waere schon zu begruessen, sie versuchten nicht wieder ums Verrecken die Karte an die Ti/Titan ran kommen zu lassen. Ehrlich gesagt habe ich da aber wenig Hoffnung :usad:
Obwohl man es jahrelang so gemacht hat um letztlich eine mindestens gleich schnelle Karte billiger verkaufen zu koennen, hat es offensichtlich (s. Marktanteil) ja nicht funktioniert.

Costums
Du machst das mit Absicht, oder?

robbitop
2017-04-27, 21:21:55
Aber es war lange schwierig, die komprimierten Frame- bzw. Z-Buffer wieder einzulesen. Da wurde lange ein Dekompressionspass fällig (z.T. wohl auch heute noch).

Aber wir kommen vom Thema ab.
R300 hat damals jedenfalls massiv von der Colorcompression profitiert. Der Hit bei 4x MSAA war so gering wie nie zuvor. Man konnte die CC damals auch deaktivieren. Dann ist die Performance bei 4xMSAA deutlichst eingebrochen. (waren aber noch Forwardrenderer Spiele)

Digidi
2017-04-27, 21:23:16
AMDs schwäche sind doch nicht die ROPs und die TMUs !?
Das Zeigt ja Polaris, wo man in Spielen mit höheren Texturen und mehr Shadereffekten Nvidia meist übertrumpft.

AMDs Problem ist das Frontend. Es bringt nichts wenn man unendlich viel Textur und Pixeloutput hat aber vorne keine Polyognen reinkommen.

robbitop
2017-04-27, 21:29:30
Darum ging es doch gar nicht. Es ging um den Blendtest, der die Kompression nachweisen soll - es hier aber einen anderen Bottleneck gibt, der die synthetische Messung beeinflusst (aber nicht unbedingt Relevanz auf Spiele hat).

gravitationsfeld
2017-04-27, 21:34:07
R300 hat damals jedenfalls massiv von der Colorcompression profitiert. Der Hit bei 4x MSAA war so gering wie nie zuvor. Man konnte die CC damals auch deaktivieren. Dann ist die Performance bei 4xMSAA deutlichst eingebrochen. (waren aber noch Forwardrenderer Spiele)
MSAA-Kompression ist wesentlich simpler als generelle Color-Compression und hat auch nicht die Probleme mit den Tiles und Read/Modify/Write. Wieso diskutiert ihr das?

horn 12
2017-04-27, 21:34:51
@Ailuros

Sollte wohl langsam wissen wie es um den Launch steht und auch wo es noch haken kann, könnte...

robbitop
2017-04-27, 21:40:55
MSAA-Kompression ist wesentlich simpler als generelle Color-Compression und hat auch nicht die Probleme mit den Tiles und Read/Modify/Write. Wieso diskutiert ihr das?
Ist mir klar. Wurde auch nie behauptet. Wir kamen einfach durch den Diskussionsverlauf auf das leichte OT Thema. Ist in jeder Diskussion völlig normal. Akute Neuigkeiten zu Vega stehen eh gerade nicht an.

Du könntest aber gern etwas zur DCC beitragen. Interessiert wären wir alle.

Btw du änderst die Accounts ja wie manche ihre Unterwäsche... ;)

r3ptil3
2017-04-27, 21:53:28
http://www.xtremesystems.org/forums/showthread.php?293860-News-AMD-Confirms-Vega-is-Launching-this-Quarter&p=5257849&viewfull=1#post5257849

"I can confirm that Vega will be 2.5"

;D

"I did the OC at the AMD Vega launch event @ GDC in SFO last month."

http://www.xtremesystems.org/forums/showthread.php?293860-News-AMD-Confirms-Vega-is-Launching-this-Quarter&p=5257912&viewfull=1#post5257912

Bei dem Mangel an neuen Infos, wird alles aufgesaugt.
Vielleicht kommt jemand nun eher drauf was mit 2.5 gemeint ist.

gedi
2017-04-27, 22:27:31
Na 2.5 Steckplätze - was auch sonst. Bezüglich der Performance würde ich (bis kurz) vor Release keine gesicherten Infos erwarten.

[MK2]Mythos
2017-04-27, 22:31:30
Na 2.5 Zoll Formfaktor - was auch sonst. Bezüglich der Performance würde ich (bis kurz) vor Release keine gesicherten Infos erwarten.
Was soll denn bitte 2.5 Zoll Formfaktor sein?
Falls du 2,5 Slots meinst, möchte ich *nochmals* auf dieses Bild verweisen: https://www.custompcreview.com/wp-content/uploads/2017/03/amd-vega-images-leak-01.jpg

gedi
2017-04-27, 22:36:53
Ups - ich meinte natürlich 2.5 Steckplätze natürlich (schäm - zu viel programmiert heut an einem Tag, wo ich besser sowieso zuhause geblieben wäre). BTW_OT habe ich heut ohne Programmiersystem 1.875.003 Zeichen programmiert.

iuno
2017-04-28, 04:37:06
Mythos;11361523']Was soll denn bitte 2.5 Zoll Formfaktor sein?
Na das:
https://3.bp.blogspot.com/-Pv1QyUVlX20/Vz_iPo-qnQI/AAAAAAAACq8/mgLCTGT5M3QeM4nHZZBeiZp78GmuTWYowCLcB/s640/tpu.png
fits into a hard disk drive slot in our data center racks (https://cloudplatform.googleblog.com/2016/05/Google-supercharges-machine-learning-tasks-with-custom-chip.html)

Haben wir jetzt genug ueber die 2.5 gesprochen?
:P

mboeller
2017-04-28, 07:29:51
"I did the OC at the AMD Vega launch event @ GDC in SFO last month."

http://www.xtremesystems.org/forums/showthread.php?293860-News-AMD-Confirms-Vega-is-Launching-this-Quarter&p=5257912&viewfull=1#post5257912

Bei dem Mangel an neuen Infos, wird alles aufgesaugt.
Vielleicht kommt jemand nun eher drauf was mit 2.5 gemeint ist.

na 2.5GHz... was denn sonst? :biggrin:

reaperrr
2017-04-28, 11:50:47
2,5-fache Performance von Polaris 10, natürlich.

fondness
2017-04-28, 12:42:24
2.5 fache Leistung von P10 wäre naheliegend. 2xP10 schafft man ja schon mit den Rohdaten. Der Rest sollte durch die Architekturverbesserungen allemal machbar sein.

dildo4u
2017-04-28, 12:48:58
Wie soll das gehen wenn eine 580 schon 200 Watt zieht?Es kann doch nicht sein das Polaris so ein Abfall ist und Vega so viel besser ist.Solche Unterschiede zwischen den kleinen und großen Chip's die im selben Zeitraum gebaut wurden gibt es einfach nicht.

Troyan
2017-04-28, 12:50:51
MI25 hat 12,5TFLOPs bei 300W. Das entspricht 2x den Verbrauch zu MI6 für 2,2x mehr Rechenleistung.

Sieht doch okay aus.

G3cko
2017-04-28, 12:51:46
2,5x so schwer wie Fermi@Holz :D

dargo
2017-04-28, 12:53:29
Wie soll das gehen wenn eine 580 schon 200 Watt zieht?Es kann doch nicht sein das Polaris so ein Abfall ist und Vega so viel besser ist.Solche Unterschiede zwischen den kleinen und großen Chip's die im selben Zeitraum gebaut wurden gibt es einfach nicht.
Wann kapierst du endlich, dass Vega kein aufgeblasener Polaris ist? Nvidia hat GP106 bis GP102 immer weiter hochskaliert. Das ist mit Vega vs. Polaris überhaupt nicht vergleichbar.

vinacis_vivids
2017-04-28, 12:54:32
Polaris ist nicht Vega.
Voltage, Clock und hotspot sind nicht bekannt. Und selber Zeitraum ist das nun auch nicht. Ist ne ganze andere DIE. Auch die 275W TDP sind Spekulazius von Vega.

Locuza
2017-04-28, 12:58:59
Wie soll das gehen wenn eine 580 schon 200 Watt zieht?Es kann doch nicht sein das Polaris so ein Abfall ist und Vega so viel besser ist.Solche Unterschiede zwischen den kleinen und großen Chip's die im selben Zeitraum gebaut wurden gibt es einfach nicht.
Was für ein selber Zeitraum denn bitte?
Laut AMD wird an Vega (GCN Gen 5) seit 5 Jahren gearbeitet und wenn ich mich nicht vertue, meinte Raja Koduri in einem YouTube-Video, dass sie grob 2 Jahre an Polaris (GCN Gen 4) gewerkelt haben.
Der Tape-Out von Vega 10 war ein Jahr nach den Polaris-Ablegern.

Polaris war zeitlich gesehen ein relativ schnelles Projekt, um wenigstens in der Mittelklasse neue Produkte vorstellen zu können und weiterhin Umsatz zu generieren.

Fiktiv kann man das Ganze so betrachten, Nvidia veröffentlicht Kepler für die Mittelklasse, um nicht mehrere Jahre ohne neue Produkte dazustehen und bringt ein Jahr später High-End-Maxwell auf den Markt, dessen Architektur eben wesentlich moderner und effizienter ausfällt.

AMD muss mit ihren beschränkten Ressourcen haushalten und wenige Chips über mehrere Zeitabschnitte und Marktsegmente streuen und platzieren.

fondness
2017-04-28, 13:15:38
Wie soll das gehen wenn eine 580 schon 200 Watt zieht?Es kann doch nicht sein das Polaris so ein Abfall ist und Vega so viel besser ist.Solche Unterschiede zwischen den kleinen und großen Chip's die im selben Zeitraum gebaut wurden gibt es einfach nicht.

Indem man die Perf/Watt anhebt, das ist im übrigen schon lange bekannt:

http://s22.postimg.org/ll6azorfl/AMD_Next_Gen_Vega_GPU_and_Navi_GPU_2017_2018.jpg

MI25 hat 12,5TFLOPs bei 300W. Das entspricht 2x den Verbrauch zu MI6 für 2,2x mehr Rechenleistung.

Sieht doch okay aus.

12TFLOPs @ 225W TDP:

http://users.otenet.gr/~ailuros/vega.jpg

Troyan
2017-04-28, 13:21:29
Bleiben wir doch einfach bei den offiziellen Folien von AMD:
https://1.f.ix.de/imgs/18/2/1/0/5/0/2/0/Instinct-562d67510d1c987c.jpeg
https://www.heise.de/newsticker/meldung/Rechenkarten-von-AMD-Radeon-Instinct-MI6-MI8-und-MI25-mit-Vega-GPU-3568504.html

fondness
2017-04-28, 13:22:13
Bleiben wir doch einfach bei den offiziellen Folien von AMD:
https://1.f.ix.de/imgs/18/2/1/0/5/0/2/0/Instinct-562d67510d1c987c.jpeg
https://www.heise.de/newsticker/meldung/Rechenkarten-von-AMD-Radeon-Instinct-MI6-MI8-und-MI25-mit-Vega-GPU-3568504.html

Achja, du ignorierst ja seit Monaten das Kleiner-Zeichen, ich weiß schon wieder. ;D

Pirx
2017-04-28, 13:23:05
Bleiben wir doch einfach bei den offiziellen Folien von AMD:
https://1.f.ix.de/imgs/18/2/1/0/5/0/2/0/Instinct-562d67510d1c987c.jpeg
https://www.heise.de/newsticker/meldung/Rechenkarten-von-AMD-Radeon-Instinct-MI6-MI8-und-MI25-mit-Vega-GPU-3568504.html
na dann bleibe doch auch dabei, du hast doch sonst keine Probleme mit Korinthenkackerei:rolleyes:

Botcruscher
2017-04-28, 13:23:11
Es kann doch nicht sein das Polaris so ein Abfall ist

Äh doch? Polaris hat jenseits von 16nm quasi null Verbesserungen Richtung Verbrauch gebracht und taktet durch die Konkurrenz auch noch in unschönen Bereichen.
Bei dem Chip wäre ich mir nicht mal sicher ob da erst die PC-Architektur entwickelt oder das ganze Ding quasi hastig von den Konsolen abstammt. Die hatten Priorität, brachten Geld und irgendwo musste AMD zwischen den Projekten extrem sparen. Bei AM4 sind ja die gleichen Einschnitte zusehen. Das AMD Management muss an irgend einem Punkt extrem umstrukturiert haben. Bei Zen sieht es ja gut aus und auch Vega ist der erste Chip mit wirklichen zu erwartenden Verbesserungen. Mehr ging eben nicht.

Achja, du ignorierst ja seit Monaten das Kleiner-Zeichen, ich weiß schon wieder. ;D
Weil es schlicht eine Entwicklerprognose ist. Ab das stört ihn ja nicht.

Troyan
2017-04-28, 13:24:41
"Zeichen" haben bei AMD auch soviel Bedeutung, gell? Die Karte ist mit 300W spezifiziert. Wieso man das nicht akzeptiert, ist mir schleiferhaft.

Das AMD auch 225W Karten ins Portfolio aufnimmt, haben sie mit der Pro Duo auf Polaris-Basis bewiesen.

fondness
2017-04-28, 13:25:47
Vega kommt anscheinend gebundelt mit Quake Champions:
Wurde laut der Quelle kurzzeitig auf Reddit gepostet und dann gleich wieder gelöscht, sollte also valide sein.

https://s18.postimg.org/t1xdzj7ax/AMD-_Radeon-_RX-_Vega-_Quake-_Championship.jpg (https://postimg.org/image/vw0jcz9h1/)

http://informaticacero.com/aparece-reddit-empaque-una-radeon-rx-vega/

iuno
2017-04-28, 13:33:44
Wollten sie nicht urspr. mit Prey dazulegen?
Ist es denkbar, dass es verschiedene Pakete gibt oder ist es einfach zeitlich bedingt geaendert worden?
Weiss man schon was darueber, ob Quake auch schon FP16 nutzen wird? Eher nicht, das kommt ja nicht mal fuer Konsolen oder?

Screemer
2017-04-28, 13:40:37
MI25 hat 12,5TFLOPs bei 300W. Das entspricht 2x den Verbrauch zu MI6 für 2,2x mehr Rechenleistung.

Sieht doch okay aus.

Bleiben wir doch einfach bei den offiziellen Folien von AMD:
https://1.f.ix.de/imgs/18/2/1/0/5/0/2/0/Instinct-562d67510d1c987c.jpeg
https://www.heise.de/newsticker/meldung/Rechenkarten-von-AMD-Radeon-Instinct-MI6-MI8-und-MI25-mit-Vega-GPU-3568504.html

die neue pro duo hat 11,45TFLOPs bei <250W und nun? das ist schon mal im worstcase mit 250W eine 10% bessere Perf/W als der von dir kolportierte Vega mit 300W und das mit Polaris. bei amd ist regression bei perf/w natürlich normal :ugly:

Wie soll das gehen wenn eine 580 schon 200 Watt zieht?Es kann doch nicht sein das Polaris so ein Abfall ist und Vega so viel besser ist.Solche Unterschiede zwischen den kleinen und großen Chip's die im selben Zeitraum gebaut wurden gibt es einfach nicht.
polaris scheint extrem zu streuen. wenn man sich überlegt, dass man in <250W die 4x Speichermenge und 2x P10 mit 1243 MHz Boost unterbringt. da fragt man sich doch an was das liegt. allein der ram dürfte massiv beim powerbudget zufassen.

BoMbY
2017-04-28, 13:48:06
Wollten sie nicht urspr. mit Prey dazulegen?
Ist es denkbar, dass es verschiedene Pakete gibt oder ist es einfach zeitlich bedingt geaendert worden?
Weiss man schon was darueber, ob Quake auch schon FP16 nutzen wird? Eher nicht, das kommt ja nicht mal fuer Konsolen oder?

Quake Champions hat derzeit noch nicht mal Vulkan, und es wird wohl F2P. Ein Release-Termin steht noch nicht fest. AMD kooperiert halt eng mit Behesda, und alle neuen Spiele werden wohl bei AMD Erwähnung finden.

dildo4u
2017-04-28, 13:50:50
die neue pro duo hat 11,45TFLOPs bei <250W und nun? das ist schon mal im worstcase mit 250W eine 10% bessere Perf/W als der von dir kolportierte Vega mit 300W und das mit Polaris. bei amd ist regression bei perf/w natürlich normal :ugly:
Natürlich hat die Pro Duo bessere Performance per Watt da der Takt geringer als bei der 580 ist,Vega muss aber höher und nicht niedriger Takten als die 580.

Troyan
2017-04-28, 13:57:14
die neue pro duo hat 11,45TFLOPs bei <250W und nun? das ist schon mal im worstcase mit 250W eine 10% bessere Perf/W als der von dir kolportierte Vega mit 300W und das mit Polaris. bei amd ist regression bei perf/w natürlich normal :ugly:

Sind 225W für die Pro Duo.
Hast recht.

Es sollte doch längst bekannt sein, dass AMD ihre professionellen Karten massiv selektiert. Die Consumerprodukte erhalten dann den letzten Abfall. Weder die Nano noch die (Referenz-)RX480 schaffen die von AMD angegeben Werte in Bezug auf Rechenleistung und Stromverbrauch.

Screemer
2017-04-28, 13:59:30
Natürlich hat die Pro Duo bessere Performance per Watt da der Takt geringer als bei der 580 ist,Vega muss aber höher und nicht niedriger Takten als die 580.
vega muss höher takten? aha. du kennst den shadercound, die arch-verbesserungen, die auswirkung von hbcc? erleuchte uns! warum stellt ihr eure meinung/spekulation immer als fakten dar?

Sind 225W für die Pro Duo.
Hast recht.

Es sollte doch längst bekannt sein, dass AMD ihre professionellen Karten massiv selektiert. Die Consumerprodukte erhalten dann den letzten Abfall. Weder die Nano noch die (Referenz-)RX480 schaffen die von AMD angegeben Werte in Bezug auf Rechenleistung und Stromverbrauch.
und was ist eine MI25? die karte für die mutti?

p.s.: mein p10 läuft mit 1,106v@1370MHz völlig stressfrei. das ist jetzt nicht wirklich abfall.

Pirx
2017-04-28, 13:59:56
sicher, den letzten Abfall:lol: - Was hier zugelassen wird ist nicht mehr normal.

DrumDub
2017-04-28, 14:02:07
Natürlich hat die Pro Duo bessere Performance per Watt da der Takt geringer als bei der 580 ist,Vega muss aber höher und nicht niedriger Takten als die 580. und? tatsache ist, dass wir nicht wissen, ob es eine verbesserung der perf/w bei höheren taktraten bei vega gegenüber polaris geben wird. da es aber bei polaris gegenüber fiji eine steigerung dieser art gab, ist davon auszugehen, dass dies auch hier der fall sein wird.

Linmoum
2017-04-28, 14:08:46
vega muss höher takten? aha. du kennst den shadercound, die arch-verbesserungen, die auswirkung von hbcc? erleuchte uns! warum stellt ihr eure meinung/spekulation immer als fakten dar?
Nun, AMD hat selbst davon gesprochen, dass Vega für höhere Taktraten optimiert ist und da wird man mit Sicherheit nicht mit weniger als bei Polaris ankommen. ;)

Zudem hat man eben die MI25 mit ihren 12.5 TFLOPS, dafür braucht sie schon >1500MHz.

Ansonsten sollten einige mal langsam damit anfangen, nicht ständig von Polaris auf Vega zu schließen. Das ist schlicht nicht möglich, dafür ändert sich viel zu viel. Vega ist kein aufgeblasener Polaris.

uweskw
2017-04-28, 14:38:41
und? tatsache ist, dass wir nicht wissen, ob es eine verbesserung der perf/w bei höheren taktraten bei vega gegenüber polaris geben wird. da es aber bei polaris gegenüber fiji eine steigerung dieser art gab, ist davon auszugehen, dass dies auch hier der fall sein wird.

perf/w spielt nur solange eine Rolle wie die Marktführer da besser sind. Sehen wir ja bei Ryzen.
Solange Intel da Vorteile hatte wurde jedes Watt auf die Goldwage gelegt. Jetzt wo Ryzen effizienter ist ist das auf einmal kaum mehr interessant. Weder in den Foren und schon gar nicht bei den Review-Seiten.
Aber ehrlich gesagt: Ob mein Maschinchen unter Vollast 30 W mehr oder weniger braucht interessiert mich nicht. 10 W mehr im Idle dagegen schon.

Leider habe ich Bedenken was die Leistung von Vega angeht. Wenn man da wirklich auf 1080 bis 1080Ti Niveau liegt, warum will AMD dann gleich eine Vega X2 nachschieben?

greetz
US

vinacis_vivids
2017-04-28, 14:43:35
Wenn man da wirklich auf 1080 bis 1080Ti Niveau liegt, warum will AMD dann gleich eine Vega X2 nachschieben?

greetz
US

Vega x2 für die Leistungskrone.

Screemer
2017-04-28, 14:51:42
Zudem hat man eben die MI25 mit ihren 12.5 TFLOPS, dafür braucht sie schon >1500MHz.

und das weißt du woher? die 4096 shader sind bisher absolute spekulation. das könnten mehr oder weniger sein. vielleicht ist das auch der shadercount für v11 und die mi25 ist damit bestückt und v10 wird ein moooonster. wer kann das nur sagen?

Schaffe89
2017-04-28, 15:12:38
Wenn man da wirklich auf 1080 bis 1080Ti Niveau liegt, warum will AMD dann gleich eine Vega X2 nachschieben?

Ergibt heutzutage überhaupt keinen Sinn überhaupt noch Dual-Grafikkarten zu bauen. Es nutzt nichts. Die meisten Spiele laufen damit nicht mal anständig, von den µrucklern ganz zu schweigen.

Die Pro Duo brachte AMD nur noch für den professionellen Markt.
Es riecht wohl nach einer Verzweiflungstat um irgendwie an der 1080 Ti vorbei zu kommen.

Vega x2 für die Leistungskrone.

Wer baut sich heutzutage noch freiwillig ne Dual GPU ein? Leistungskrone? Nvidia hat nichtmal ne Dual GPU und werden wahrscheinlich auch gar keine mehr bringen.
Ich schätze Vega 10 zwischen GTX 1070 und GTX 1080 ein. Bei Directx12 und extremen Kirschen dann mal nahe an einer 1080Ti, jedenfalls wohl ne sehr sehr schwankende Leistung.

uweskw
2017-04-28, 15:15:44
Vega x2 für die Leistungskrone.

eine X2 wurde noch NIE als Leistungskrone angesehen. Von der Pro Duo hat Mindfactory ganze 15 Stück verkauft.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/AMD+Radeon+Pro+Duo.html

ich kann nicht verstehen wieso da immer noch Geld für die Entwicklung versenk wird.

greetz
US

iuno
2017-04-28, 15:17:17
Da musst ja auch nichts gross entwickeln. Ein PCB mit 2 GPUs, PCIe Switch und Stromversorgung - ohne RAM.
Woher kommt ueberhaupt die Info von einer x2?

dargo
2017-04-28, 15:18:24
Ergibt heutzutage überhaupt keinen Sinn überhaupt noch Dual-Grafikkarten zu bauen. Es nutzt nichts. Die meisten Spiele laufen damit nicht mal anständig, von den µrucklern ganz zu schweigen.

Von VR hast du noch nichts gehört gell? Oder was glaubst du wofür die doppelte Nano kam?


Wer baut sich heutzutage noch freiwillig ne Dual GPU ein? Leistungskrone? Nvidia hat nichtmal ne Dual GPU und werden wahrscheinlich auch gar keine mehr bringen.

Wofür pflegt NV dann überhaupt noch die SLI Profile in ihren Treibern wenns eh keiner braucht? Du laberst mal wieder einen Quark.

vinacis_vivids
2017-04-28, 15:23:44
eine X2 wurde noch NIE als Leistungskrone angesehen. Von der Pro Duo hat Mindfactory ganze 15 Stück verkauft.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/AMD+Radeon+Pro+Duo.html

ich kann nicht verstehen wieso da immer noch Geld für die Entwicklung versenk wird.

greetz
US

Denke nicht, dass der Aufwand so Groß ist wenn die Chips einmal vom Band laufen.

Außerdem kann sich AMD damit schmücken eine doppelt so schnelle Karte zu haben als Nvidia's Pascal im Vollausbau. Diese werden ja auch im SLI betrieben von mehr als 15 Leuten.

Dann noch einige *world records* brechen. Hat schon seinen Sinn.

[MK2]Mythos
2017-04-28, 15:33:04
Ich schätze Vega 10 zwischen GTX 1070 und GTX 1080 ein. Bei Directx12 und extremen Kirschen dann mal nahe an einer 1080Ti, jedenfalls wohl ne sehr sehr schwankende Leistung.
:popcorn:

Linmoum
2017-04-28, 15:38:37
Hat er wahrscheinlich wieder von der Uni. ;)

5CH4CHT3L
2017-04-28, 15:41:27
Ich schätze Vega 10 zwischen GTX 1070 und GTX 1080 ein. Bei Directx12 und extremen Kirschen dann mal nahe an einer 1080Ti, jedenfalls wohl ne sehr sehr schwankende Leistung.
Wenn V10 zwischen der 1070 und der 1080 liegt mann kratzt die GPU gegen Volta völlig ab und AMD hats gründlich versaut. Da muss / wird schon mehr drin sein

Pirx
2017-04-28, 15:43:45
Wenn die "Prognose" die gleiche "Qualität" aufweist, wie die zu Ryzen, wird Vega demnach der absolute Überflieger.:lol:

DrumDub
2017-04-28, 16:00:46
perf/w spielt nur solange eine Rolle wie die Marktführer da besser sind. Sehen wir ja bei Ryzen.
Solange Intel da Vorteile hatte wurde jedes Watt auf die Goldwage gelegt. Jetzt wo Ryzen effizienter ist ist das auf einmal kaum mehr interessant. Weder in den Foren und schon gar nicht bei den Review-Seiten.
Aber ehrlich gesagt: Ob mein Maschinchen unter Vollast 30 W mehr oder weniger braucht interessiert mich nicht. 10 W mehr im Idle dagegen schon. gebe dir da völlig recht.


Leider habe ich Bedenken was die Leistung von Vega angeht. Wenn man da wirklich auf 1080 bis 1080Ti Niveau liegt, warum will AMD dann gleich eine Vega X2 nachschieben? davon habe ich bisher nix mitbekommen. zumindest nicht für den consumer markt. hpc ist was anderes.

uweskw
2017-04-28, 16:05:20
gebe dir da völlig recht.

davon habe ich bisher nix mitbekommen. zumindest nicht für den consumer markt. hpc ist was anderes.

war hier verlinkt

http://wccftech.com/amd-vega-10-20-slides-double-precision-performance-1500-mhz-vega-10-x2-2017/


http://cdn.wccftech.com/wp-content/uploads/2017/01/AMD-VEGA-10-specifications-840x458.jpg

greetz
US

X-Bow
2017-04-28, 16:22:59
war hier verlinkt

http://wccftech.com/amd-vega-10-20-slides-double-precision-performance-1500-mhz-vega-10-x2-2017/


http://cdn.wccftech.com/wp-content/uploads/2017/01/AMD-VEGA-10-specifications-840x458.jpg

greetz
US


Bisher habe ich den Zusammenhang mit ROCm und Vega immer nur für INSTINCT oder PRO gelesen.
Somit würde ich eher darauf tippen das die V10x2 in diese Richtung tendiert und nicht als "nVidia-Killer" entwickelt wird.
Außerdem steht da fürs zweite Halbjahr, und so wie wir AMD kennen wird es mit x2 bestimmt nichts vor Q4^^

iuno
2017-04-28, 16:28:34
ROCm ist ja auch der Compute Stack, in Konkurrenz zu CUDA und Tesla.
Aber dafuer muss die Folie auch erstmal stimmen/echt sein

robbitop
2017-04-28, 17:17:32
Hat er wahrscheinlich wieder von der Uni. ;)

Von der Baumschule von seinen GF Führungskräftekumpels. :D :D

Mortalvision
2017-04-28, 17:36:51
Ich habe das mit dem x2 auch als BigChip mit ~6000 Shadern in Erinnerung.

Dorn
2017-04-28, 17:59:16
Da sich ja AMD viel zeit für Vega lässt, glaubt ihr das es viele Custom Desings sofort am Start gibt?

basix
2017-04-28, 18:31:23
Da sich ja AMD viel zeit für Vega lässt, glaubt ihr das es viele Custom Desings sofort am Start gibt?

Glaskugel an: 42

BoMbY
2017-04-28, 21:26:43
Wunschdenken oder ein kleiner Fehler? (https://www.techpowerup.com/gpudb/2871/radeon-rx-vega) via kitguru (http://www.kitguru.net/components/graphic-cards/paul-taylor/__trashed/).

mili2110
2017-04-28, 21:37:12
30% Mehrleistung zur Fury X? Klingt unrealistisch.

dildo4u
2017-04-28, 21:41:06
Die Performance Liste taugt eh nix Benches@ 1080p.

BoMbY
2017-04-28, 21:42:05
Naja, die Frequenz und TDP stimmt jedenfalls nicht bei dem TPU-Eintrag. 12.5 TFlops Single Precision sollte Vega mindestens bringen als MI25 laut AMD, und alles spricht bisher dafür, dass die Karte daher mit mind. ~1500 MHz laufen muss.

Linmoum
2017-04-28, 21:43:58
Das ist bei TPU für Vega schon länger gelistet, nichts weiter als ein Platzhalter.

Die ganzen Daten basieren auf den früheren SiSoft/Compubench Einträgen.

http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdbe9dcebdaebcdbf82b294f194a999bfccf1c9&l=en
https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+687F%3AC1&testgroup=overall

iuno
2017-04-28, 22:47:59
Jo, der Eintrag ist schon lange da drin. Kein Grund fuer weitere Speku ;)
Steht ja uebrigens auch dran, dass es nur eine Schaetzung ist.

kdvd
2017-04-28, 23:01:15
30% Mehrleistung zur Fury X? Klingt unrealistisch.

Bitte nicht die Bezugspunkte vertauschen.
Die Mehrleistung von Vega ggü. Fury X betrüge 44,9%, wenn die Datenbank korrekt sein sollte.

-=Popeye=-
2017-04-28, 23:27:09
Wurde selbiges nicht schon von Polaris behauptet?

Was bei rum kam kennen wir alle... damals wurde in diversen Foren auch behautet das Polaris eine 1080 versägt... ähm, ne Pustekuchen.

Wenn Vega oberhalb einer stock 1080 rauskommt ist das viel aber mit der Ti oder XP wird es der Chip im Schnitt nicht aufnehmen können.

AffenJack
2017-04-28, 23:58:32
Wurde selbiges nicht schon von Polaris behauptet?

Was bei rum kam kennen wir alle... damals wurde in diversen Foren auch behautet das Polaris eine 1080 versägt... ähm, ne Pustekuchen.

Wenn Vega oberhalb einer stock 1080 rauskommt ist das viel aber mit der Ti oder XP wird es der Chip im Schnitt nicht aufnehmen können.

Es gibt immer Träumer, aber genauso muss man nun bei Vega nicht so pessimistisch sein. Da muss man einfach nur die Gflops vergleichen, die bei vor allem bei vielen neueren Spielen öfter durchschlagen. In meinen Augen gibt es grob diese Szenarien:

1080Ti :11,5 Gflops (CB Realtakt)

Vega:
Negativ: 10% langsamer pro Gflop als Pascal und 1525 mhz nur Turbotakt, real 1430 mhz: GTX1080TI -10%
Mittel: 5% langsamer/Gflop plus 1500mhz. Gleichschnell wie GTX1080Ti FE
Positiv : Gleichschnell pro Gflops, plus 1550 mhz. GTX1080Ti +10%, so schnell wie gute Costums also und noch schnellere Vega Customs möglich (Insofern Vega nicht eh eine Wasserkühlung bekommt).

Mehr als 10% langsamer ist für mich Schwarzmalerei und mehr als 10% schneller eher Träumerei, insofern die Taktraten auch der Realität entsprechen. Sollte man diese verfehlen oder drüber hinaus kommen, kann es da Abweichungen geben.