PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Der_Korken
2017-04-29, 00:57:04
Wurde selbiges nicht schon von Polaris behauptet?

Was bei rum kam kennen wir alle... damals wurde in diversen Foren auch behautet das Polaris eine 1080 versägt... ähm, ne Pustekuchen.

Das war aber zu einer Zeit, wo man gar nicht wusste wie groß der Polaris-Chip überhaupt wird. Man hatte eher mit einem Performance-Chip gerechnet. Als die 230mm² bekannt wurden, war klar, dass er mit GP104 nicht konkurrieren wird (abgesehen davon ist Pascal auch schneller ausgefallen als erwartet, weil niemand mit so extremen Taktraten gerechnet hat). Bei Vega weiß man, dass der Chip ~500mm² groß sein wird, also größer als GP102. Außerdem wird es diesmal die großen Umbrüche bei der Architektur geben, von denen man mal gehofft hatte, sie würden schon mit Polaris kommen. Irgendwer hat geschrieben, dass Vega fünf Jahre in der Entwicklung war und Polaris nur zwei (Fiji iirc sogar nur 1,5 Jahre). Die Ausgangslage ist also ganz anders als bei Polaris, der letztlich nur ein Shrink+Refresh war.

Schaffe89
2017-04-29, 01:29:30
Von VR hast du noch nichts gehört gell? Oder was glaubst du wofür die doppelte Nano kam?

Meine Güte, wen zum Henker interessiert VR? Das wird genauso baden gehen wie der 3D Kram.


Wofür pflegt NV dann überhaupt noch die SLI Profile in ihren Treibern wenns eh keiner braucht? Du laberst mal wieder einen Quark.


Für die Enthusiasten Kiddies die gute Frametimes gegen Müll eintauschen um ihren E-Penis zu vergrößern.
Mach doch mal ne Umfrage wer überhaupt noch Multi GPU nutzt.
Es gibt einfach zwei Möglichkeiten. AMD bringt die Karte nur für VR oder AMD bringt die Karte weil eine einzige nicht reicht um vorne zu sein. 2 Möglichkeiten.
Ich entscheide mich für Möglichkeit Nummer 2 und sofort vermutest du wieder AMD Hate...
Das nennt sich Spekulationsthread. Ich glaube jedenfalls nicht daran dass man die Flaschenhälse alle beseitigen wird, dafür ist das Marketing jetzt wo Nvidia ihr Pulver komplett verschossen hat, viel zu langweilig.

Wenn V10 zwischen der 1070 und der 1080 liegt mann kratzt die GPU gegen Volta völlig ab und AMD hats gründlich versaut. Da muss / wird schon mehr drin sein

Es kommt noch eine zweite Iteration von Vega mit 1 TBps.
Das ganze im zweiten Halbjahr. Es gibt also noch mehr Leistung.

dargo
2017-04-29, 08:15:26
Meine Güte, wen zum Henker interessiert VR?
Die Entwickler vielleicht? :uconf2:

Mit der Radeon Pro Duo adressiert AMD PC-Spieler nur sekundär. Die fehlende Rx-Einstufung im Namen deutet bereits an, dass sich der Hersteller auf den professionellen Markt konzentrieren möchte, in dem die Radeon Pro Duo als Entwicklerplattform dienen soll.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Test-1193883/

Pick
2017-04-29, 09:21:08
Wunschdenken oder ein kleiner Fehler? (https://www.techpowerup.com/gpudb/2871/radeon-rx-vega) via kitguru (http://www.kitguru.net/components/graphic-cards/paul-taylor/__trashed/).

Released: Apr 28th, 2017 :freak:;D

Botcruscher
2017-04-29, 12:19:25
Die Entwickler vielleicht? :uconf2:

Bezweifle ich. Die wandern wohl eher in Mining und für sonstige Berechnungen. Da limitiert die Zahl der PCIe. Für VR tun es zwei Karten ebenso.
Released: Apr 28th, 2017 :freak:;D
Fuck. Reviews verpennt.

Schaffe89
2017-04-29, 12:46:44
Nvidia wird genau wissen, warum sie die GTX 1080 noch 3% schneller gemacht haben um eben gleichauf mit einer Vega zu sein.

Screemer
2017-04-29, 12:49:27
Nvidia wird genau wissen, warum sie die GTX 1080 noch 3% schneller gemacht haben um eben gleichauf mit einer Vega zu sein.
:ugly: <- das ist verdammte messtoleranz

[MK2]Mythos
2017-04-29, 12:51:33
Nvidia wird genau wissen, warum sie die GTX 1080 noch 3% schneller gemacht haben um eben gleichauf mit einer Vega zu sein.
Alter, das wird ja immer besser! :O
Jetzt mal ernsthaft, glaubst du den Schrott eigentlich selber, den du da in die Tasten haust?

iuno
2017-04-29, 13:24:01
Nvidia wird genau wissen, warum sie die GTX 1080 noch 3% schneller gemacht haben um eben gleichauf mit einer Vega zu sein.

Hat dein Spekulatius eigentlich irgendein Gehalt oder schreibst du nur immer nieder was dir gerade so einfaellt?
Erst gestern lag Vega noch bei 1070-1080, heute schon bei der 1080 refresh. Und morgen? :rolleyes:
Ich schätze Vega 10 zwischen GTX 1070 und GTX 1080 ein.

danarcho
2017-04-29, 17:11:22
Wie kommt ihr eigentlich immer auf den Fiji-Vergleich und 4096 "Shader-Einheiten"?
Es ist doch bekannt, dass Vega 128 Float-Ops pro Compute Unit schafft und bei 64 NCUs macht das 8192 nach meiner Rechnung. Für V11 können die 4096 natürlich trotzdem noch stimmen.

iuno
2017-04-29, 17:26:12
Eine CU hat schon immer 128 FLOPs gemacht (16*4*2).
Zumal es IMHO auch wenig Sinn macht anzunehmen, ein Vega 11 haette "alte CUs" und man wuerde 8k SP in 500mm² unterbringen

Setsul
2017-04-29, 17:26:29
MI25 läuft also mit 763 MHz?
Oder MI25 ist V11 und V10 macht mal ganz locker 50 TFlops?

Biste da ganz sicher?

iuno
2017-04-29, 17:29:38
MI25 läuft also mit 763 MHz?
Wie kommt man auf solchen Quatsch?
128 FLOPS * 64 CUs * 763 MHz = 6.25 TFLOPs

Setsul
2017-04-29, 18:18:27
Bezogen auf danarcho. Sollte eigentlich offensichtlich sein.

basix
2017-04-29, 19:24:19
Diese ewige Diskussion verstehe ich einfach nicht. Eine grosse Vega soll 12.5 TFLOPs haben. Dass man sich damit mit der 1080 Ti rumprügeln würde und obendrauf Potential nach oben hat, sollte jedem mit einigermassen gesundem Menschenverstand logisch sein.

Begründung:

1080 Ti = ca. 2x RX580 @ 2440p als auch 4K
RX580 = 6.18 TFLOPs @ 1340MHz
12.5 TFLOPs = 2.02x 6.18 TFLOPs


Da ist noch nicht mal eine Architekturverbesserung eingeflossen und man kommt von den Rohdaten her in die Richtung einer 1080 Ti. Mir ist klar, dass nichts 100%ig skaliert. Bei einer neuen Architektur würde ich aber erwarten, dass sie besser nach oben skaliert als die alte (ergo mehr Shader werden besser ausgelastet als die selbe Anzahl Shader mit der alten Architektur). All das andere Zeug mit HBM, HBCC, Tiling etc. kommt noch dazu. Wenn eine Vega sich also nicht mit einer 1080 Ti anlegen kann, hat AMD einen ziemlichen Bock irgendwo in der Architektur geschossen. Da das bis zum Release niemand wissen kann, erübrigt sich meiner Meinung nach diese Diskussion.

Konkurrenzfähig mit Nvidias Top Produkten und mit Potential nach oben. Bei Fehlern im Design oder man erreicht die 12.5 TFLOPs nicht mit Potential nach unten.

Mich würden viel eher Diskussionen um die Technik an sich interessieren. Aber leider gibt AMD da seit Januar nicht so viel Preis :(

danarcho
2017-04-29, 19:36:39
Eine CU hat schon immer 128 FLOPs gemacht (16*4*2).
Zumal es IMHO auch wenig Sinn macht anzunehmen, ein Vega 11 haette "alte CUs" und man wuerde 8k SP in 500mm² unterbringen
Woher kommt denn bitte diese Aussage? Die Compute Units hatten immer nur 4x SIMD16. Korrigiert mich bitte, aber ich finde auf anhieb mehrere Quellen dafür.
Also entweder hat Vega 8192 "Shader-Einheiten" oder keine 64 NCUs, suchts euch aus.

Um mich klarer auszudrücken
Nach meinem Verständnis:
Eine CU in GCN1-GCN4 (Polaris) hat 4x SIMD16 = 64 "Shader-Einheiten"
Eine NCU in Vega hat laut Slides 128 Float-Ops per clock, also 128 "Shader-Einheiten"

TheGood
2017-04-29, 19:39:10
Genau, weil Jensen Huang, der CEO von Nvidia, der erste ist welcher die Chips nachdem Tape-Out in den Händen hält.
Dann geht es sofort in die Mikroanalyse im Nvidia Labor und AMDs Treiber-Entwicklung wird auch von Jensen Huang beaufsichtigt, sodass stets dafür Sorge getragen wird, dass die Präzision bei +/- 5% liegt.


Und AMD ist dabei zu Blöd um zu wissen, wo Nvidias Produkte sich befinden und kann keinen Chip entwickeln, der einen 314mm² Performance-Chip von Nvidia besiegen kann, trotz 512 GB/s und fast 500mm² Chipfläche.


Ist bei dir im fast jedem Forum überfällig, dein irrationaler Unsinn und das ständige baiten füllt jedes Forum mit Müll.
+1
Diese ewige Diskussion verstehe ich einfach nicht. Eine grosse Vega soll 12.5 TFLOPs haben. Dass man sich damit mit der 1080 Ti rumprügeln würde und obendrauf Potential nach oben hat, sollte jedem mit einigermassen gesundem Menschenverstand logisch sein.

Begründung:

1080 Ti = ca. 2x RX580 @ 2440p als auch 4K
RX580 = 6.18 TFLOPs @ 1340MHz
12.5 TFLOPs = 2.02x 6.18 TFLOPs


Da ist noch nicht mal eine Architekturverbesserung eingeflossen und man kommt von den Rohdaten her in die Richtung einer 1080 Ti. Mir ist klar, dass nichts 100%ig skaliert. Bei einer neuen Architektur würde ich aber erwarten, dass sie besser nach oben skaliert als die alte (ergo mehr Shader werden besser ausgelastet als die selbe Anzahl Shader mit der alten Architektur). All das andere Zeug mit HBM, HBCC, Tiling etc. kommt noch dazu. Wenn eine Vega sich also nicht mit einer 1080 Ti anlegen kann, hat AMD einen ziemlichen Bock irgendwo in der Architektur geschossen. Da das bis zum Release niemand wissen kann, erübrigt sich meiner Meinung nach diese Diskussion.

Konkurrenzfähig mit Nvidias Top Produkten und mit Potential nach oben. Bei Fehlern im Design oder man erreicht die 12.5 TFLOPs nicht mit Potential nach unten.

Mich würden viel eher Diskussionen um die Technik an sich interessieren. Aber leider gibt AMD da seit Januar nicht so viel Preis :(

So einfach ist das eben nicht, je weiter man noch oben will (an die machbare grenze) desto höher wird der aufwand. Einfach nur dinge zu verdoppeln und anhand dessen die Performance hochzurechnen ist schlichtweg Unfug. Denn dann läuft der chip woanders in eine Grenze rein.. Fiji hat das doch schon klar gezeigt.
AMD hat nichts falsch gemacht wenn Sie die 1080TI nicht schlagen. Sie müssen sich aber deutlich von der 1080 absetzen. Man geht nicht von heut auf morgen einfach wieder in den High End Bereich.
Von dem mal abgesehen ist es das wichtigste das Produkt gemessen an der Leistung perfekt am Markt zu positionieren und das sollten sie endlich mal tun.

PrivateCeralion
2017-04-29, 19:39:46
Woher kommt denn bitte diese Aussage? Die Compute Units hatten immer nur 4x SIMD16. Korrigiert mich bitte, aber ich finde auf anhieb mehrere Quellen dafür.
Also entweder hat Vega 8192 "Shader-Einheiten" oder keine 64 NCUs, suchts euch aus.

Also ich suche mir aus, das die Frequenz nicht stimmt :D

Setsul
2017-04-29, 19:45:57
@danarcho:
Es gibt etwas das nennt sich FMA.
Rechne doch einfach mal bei einer beliebigen Karte nach.

iuno
2017-04-29, 19:50:20
Woher kommt denn bitte diese Aussage? Die Compute Units hatten immer nur 4x SIMD16. Korrigiert mich bitte, aber ich finde auf anhieb mehrere Quellen dafür.
Also entweder hat Vega 8192 "Shader-Einheiten" oder keine 64 NCUs, suchts euch aus.

Um mich klarer auszudrücken
Nach meinem Verständnis:
Eine CU in GCN1-GCN4 (Polaris) hat 4x SIMD16 = 64 "Shader-Einheiten"
Eine NCU in Vega hat laut Slides 128 Float-Ops per clock, also 128 "Shader-Einheiten"

Ja, deshalb hat P10 auch nur 3 statt 6 TFLOPs, richtig? Schliesslich ist 36*64*~1300=~3 :rolleyes:

Jede ALU kann zwei Ops, multiply und add

danarcho
2017-04-29, 19:56:15
@danarcho:
Es gibt etwas das nennt sich FMA.
Rechne doch einfach mal bei einer beliebigen Karte nach.
Danke. Dann wären die Vega Slides aber mega missverständlich.

http://cdn.wccftech.com/wp-content/uploads/2017/01/Vega-Final-Presentation-29-768x432.jpg

Das würde sich demnach auf die half precision leistung beziehen und

http://cdn.wccftech.com/wp-content/uploads/2017/01/slides-27-840x473.jpg

das hier auf die FMA-Leistung. Was für ein Müll von Präsentation, aber ich bin wohl nicht die Zielgruppe.
Sie hätten auch einfach sagen können, dass die CUs gleich bleiben und nur ein paar packed instructions dazukommen.

iuno
2017-04-29, 19:57:24
Das obere Bild ist wirklich missverstaendlich, aber auch sonst ist das keine technische sondern eine Marketing-Praesentation.

Z.B. werden da ja auch 11 vs. 4 Triangles genannt waehrend der Mann auf der Praesentation iirc von 2x peak geometry throughput sprach.

Entropy
2017-04-29, 19:58:39
Um mich klarer auszudrücken
Nach meinem Verständnis:
Eine CU in GCN1-GCN4 (Polaris) hat 4x SIMD16 = 64 "Shader-Einheiten"
Eine NCU in Vega hat laut Slides 128 Float-Ops per clock, also 128 "Shader-Einheiten"

Jede "Shader Einheit" kann "bis zu" 2 Operationen pro Takt Ausführen. Das ist meistens auf Multiplikation und Addition bezogen und ist quasi Standard wie wir es bewerten. Es gibt natürlich Operationen wie Saturierung usw. die rechnerisch zu mehr "Flops" führen würden und in der Realität bist du selten bei diesen 2 Operationen pro Takt, aber am Ende des Tages ist das die Konvention die alle hernehmen um "Shader-Einheiten" zu vergleichen.

Ich weiss nicht, weshalb hier alle immer auf Egomane machen wenn jemand ein Detail nicht weiß, etwas anderes spekuliert oder gar etwas falsch in Erinnerung hatte. Teilt euer Wissen, wir sind nicht beim Patentamt.

basix
2017-04-29, 20:13:56
So einfach ist das eben nicht, je weiter man noch oben will (an die machbare grenze) desto höher wird der aufwand. Einfach nur dinge zu verdoppeln und anhand dessen die Performance hochzurechnen ist schlichtweg Unfug. Denn dann läuft der chip woanders in eine Grenze rein.. Fiji hat das doch schon klar gezeigt.
AMD hat nichts falsch gemacht wenn Sie die 1080TI nicht schlagen. Sie müssen sich aber deutlich von der 1080 absetzen. Man geht nicht von heut auf morgen einfach wieder in den High End Bereich.
Von dem mal abgesehen ist es das wichtigste das Produkt gemessen an der Leistung perfekt am Markt zu positionieren und das sollten sie endlich mal tun.

Alles richtig. Da gibt es nichts zu diskutieren. Nur wie gesagt, Vega != Polaris und ich hoffe du hast diesen Teil meines Posts auch gelesen. Neue und (hoffentlich auch) bessere Architektur. Da ist Fiji evtl. nicht das beste Beispiel. Man müsste Vega 10 eher mit einer 7970 gleichsetzen, da spätere Produkte noch mehr Shader haben werden als Vega 10. Auch die 7970 hatte schon mit einem etwas zu schwachen Frontend zu kämpfen, ich weiss. Diese Geschichte muss sich ja aber nicht wiederholen :)

Rampage 2
2017-04-30, 05:24:12
Und Anzahl der ROPs sollte ebenfalls wie bei Fiji 64 betragen. Hier setzt man auf den Takt und die Effizienzsteigerungen.

Dann müssen die Effizienzsteigerungen aber wirklich gewaltig sein - denn rein von der Rohleistung her wäre Vega nur 50% stärker als Fiji (1550MHz vs. 1050MHz bei gleicher Anzahl von ROPs) und gerade mal halb so schnell wie eine stark übertaktete GP102 (TXp: 192 Gpixel/sec., 1080Ti & TXP: 176 Gpixel/sec.). Wenn AMD das hinkriegen sollte, dann wäre das wirklich eine Meisterleistung:freak:

R2

TheGood
2017-04-30, 08:01:49
Alles richtig. Da gibt es nichts zu diskutieren. Nur wie gesagt, Vega != Polaris und ich hoffe du hast diesen Teil meines Posts auch gelesen. Neue und (hoffentlich auch) bessere Architektur. Da ist Fiji evtl. nicht das beste Beispiel. Man müsste Vega 10 eher mit einer 7970 gleichsetzen, da spätere Produkte noch mehr Shader haben werden als Vega 10. Auch die 7970 hatte schon mit einem etwas zu schwachen Frontend zu kämpfen, ich weiss. Diese Geschichte muss sich ja aber nicht wiederholen :)

Ja das ist klar, aber Fiji ist das Beispiel gewesen, bei welchem alles grösser weiter besser, eben nicht auf der Strasse ankam, weil es dann ganz andere Flaschenhälse und Probleme gab. Davon abgesehen ist aber Fiji von den Daten ganz ähnlich zu VEGA. Blos hat der auch noch profi Featuers drin die am Ende auch Gamerperformance kosten.
ES werden hier bewusst oder aus Unwissenheit Erwartungen geschürt die für VEGA nicht erreichbar sind. Das kann einfach nicht so stehengelassen werden.

Wenn es nachher ggf. doch 10% über 1080TI ist, können wir uns doch alle freuen.

=Floi=
2017-04-30, 08:39:32
Dann müssen die Effizienzsteigerungen aber wirklich gewaltig sein - denn rein von der Rohleistung her wäre Vega nur 50% stärker als Fiji (1550MHz vs. 1050MHz bei gleicher Anzahl von ROPs) und gerade mal halb so schnell wie eine stark übertaktete GP102 (TXp: 192 Gpixel/sec., 1080Ti & TXP: 176 Gpixel/sec.). Wenn AMD das hinkriegen sollte, dann wäre das wirklich eine Meisterleistung:freak:

R2

so eine aussage von dir ist schon komisch. schau dir NV an, was die aus den letzten 3 generationen rausgeholt haben. Die konnten die shaderanzahl sogar senken und fahren mittlerweile kreise um eine 780Ti.

fiiji hatte man wohl auch höher eingeschätzt, weil HBM1 in der kombination so gut wie nichts bringt. Ich denke AMD hat bei der optimierung der auslastung ein gigantisches potential.
Je mehr das frontend kann, desto weniger muss auch der treiber optimiert werden.

fondness
2017-04-30, 09:50:56
Je mehr das frontend kann, desto weniger muss auch der treiber optimiert werden.

So einfach ist das dann auch nicht. Nvidia holt extrem viel über die Treiber raus, das wird sehr gerne unterschätzt. Sie haben in der Vergangenheit häufig aus unterlegener Hardware eine konkurrenzfähige Performance gezaubert dank massiver Softwareoptimierungen.

HOT
2017-04-30, 10:49:58
Dann müssen die Effizienzsteigerungen aber wirklich gewaltig sein - denn rein von der Rohleistung her wäre Vega nur 50% stärker als Fiji (1550MHz vs. 1050MHz bei gleicher Anzahl von ROPs) und gerade mal halb so schnell wie eine stark übertaktete GP102 (TXp: 192 Gpixel/sec., 1080Ti & TXP: 176 Gpixel/sec.). Wenn AMD das hinkriegen sollte, dann wäre das wirklich eine Meisterleistung:freak:

R2
Na ja, die Effizienzsteigerung muss man sich schon Kepler -> Pascal vorstellen, vielleicht nur schlimmer, da sich Kepler ja ganz gut auslasten lies, Fiji jedoch nicht. Die meisten denken sich Fiji @Polaris, das trifft aber einfach nicht zu. Auch hat Vega nur von den Daten her mit Fiji was gemeinsam, das wars dann aber auch. "Fiji done right" finde ich eher irreführend.

basix
2017-04-30, 11:05:18
Wenn es nachher ggf. doch 10% über 1080TI ist, können wir uns doch alle freuen.

Ich bleibe dabei, Vega 10 wird auf Augenhöhe 1080 Ti liegen. Von den Leistungsdaten her und in Hinblick auf Polaris müsste man dort landen. In allen anderen Fällen hat AMD irgendwo einen Flaschenhals unterschätzt oder die kolportierten 12.5 TFLOPs waren eine Fehlinformation. Aber dazu sind wir ja im Speku-Thread :D

Zur Effizienzsteigerung: Nvidia hat +35% von Kepler auf Maxwell pro Takt und Shader geholt. In realen fällen ist es meistens ein bisschen weniger. Auch wenn wir nur von +20% bei Vega ausgehen ist es trotzdem noch ein schöner Boost. Bei der Energieeffizienz legte Maxwell noch mehr obendrauf als bei der IPC (ca. +50%).

Digidi
2017-04-30, 11:51:56
Z.B. werden da ja auch 11 vs. 4 Triangles genannt waehrend der Mann auf der Praesentation iirc von 2x peak geometry throughput sprach.

Hmm könnte das nicht vom Betrachtungspunkt abhängen. Von der Cpu können 11 Triangels angenommen werden. 3 werden Verworfen weil sie verborgen sind und 8 können dann auagegeben werden.

So ganz verstehe ich das auch nicht wie man mit 4 Rasterizern 8 Polygonen ausgehen kann. Das heißt ja man hat 8 Rasterizer und jeweils 2 Rasterizer befeuern 1/4 der Cus

horn 12
2017-04-30, 12:29:08
Vega Launch wahrscheinlich nächste Woche bis spätestens übernächster Woche...

@Ailuros müsste es exakt wissen :-)

aceCrasher
2017-04-30, 12:37:40
Vega Launch wahrscheinlich nächste Woche bis spätestens übernächster Woche...


Quelle?

[MK2]Mythos
2017-04-30, 12:44:38
Quelle?
Sein Kopf.

BoMbY
2017-04-30, 13:10:08
Mythos;11363509']Sein Kopf.

Ich würde eher auf ein anderes Körperteil tippen. Ansonsten ist morgen erstmal der Earnings Call, und am 16. ist glaube ich der FAD 2017. Ich denke spätestens beim FAD wird AMD einen genaueren Termin für Vega nennen.

horn 12
2017-04-30, 13:28:16
Die Custom GTX 1080 TI Vorstellung ist durch und nun kann AMD die Katze aus dem Sack lassen.
Hies ja dass diese Woche die Vega Karte bzw. einige Spiele Demos gezeigt werden.
Sollte also nimmer lange dauern bis wir handfesteres erfahren und auch einige Infos durchsickern.

5CH4CHT3L
2017-04-30, 13:36:38
Die Custom GTX 1080 TI Vorstellung ist durch und nun kann AMD die Katze aus dem Sack lassen.
Hies ja dass diese Woche die Vega Karte bzw. einige Spiele Demos gezeigt werden.
Wenn die Katze aber im Moment noch ein Kätzchen ist kann man sie nicht in die große Welt entlassen.

Hasenpfote
2017-04-30, 14:00:01
Ach Leute,
der Stern Vega ist 25 Lichtjahre entfernt, ergo 2.5. Vorstellung!
D.h. am 1.Mai gibt AMD überragende Geschäftzahlen bekannt (Aktien +50%), dann Vega-Release, wo sie 10% schneller als die 1080Ti für 399$ rauskommen (Aktien nochmal +50%) und verkauf ich 50 Aktien und kann ich endlich mein System kaufen :D :D :D

Linmoum
2017-04-30, 14:01:24
Sei vorsichtig, horn glaubt dir das sonst noch. ;)

TheGood
2017-04-30, 14:03:08
Ich bleibe dabei, Vega 10 wird auf Augenhöhe 1080 Ti liegen. Von den Leistungsdaten her und in Hinblick auf Polaris müsste man dort landen. In allen anderen Fällen hat AMD irgendwo einen Flaschenhals unterschätzt oder die kolportierten 12.5 TFLOPs waren eine Fehlinformation. Aber dazu sind wir ja im Speku-Thread :D

Zur Effizienzsteigerung: Nvidia hat +35% von Kepler auf Maxwell pro Takt und Shader geholt. In realen fällen ist es meistens ein bisschen weniger. Auch wenn wir nur von +20% bei Vega ausgehen ist es trotzdem noch ein schöner Boost. Bei der Energieeffizienz legte Maxwell noch mehr obendrauf als bei der IPC (ca. +50%).

ja aber das Problem ist, dass AMD halt aktuell nicht so effizient ist wie Nvidia und Sie aus Ihren TFLOPS einfach weniger rausholen. Es ist auch nicht anzunehmen, dass AMD das jetzt mit einem Schlag aufholt, sondern nur mit mehreren. VEGA muss ein grosser STep werden und danach zeitnah weiter verfeinert werden.

Und dann gilt es eben noch zu sehen, dass VEGA alle Profi Features im Bauch hat und da einiges an Fläche draufgeht und dies sicher auch Gaming Performance oder Effizienz kostet. Wenn das nicht wäre, wäre ich ja bei Dir, aber so hoffe ich dass Sie die 1080TI schlagen, aber ich glaube nicht dran.
Ich sehe VEGA im Durchschnitt bei 5-10% hinter der TI, was immer noch ein beachtlicher Schritt wäre und beim richtigen preispunkt eine gute Karte und perfekte Konkurrenz ist.

Der_Korken
2017-04-30, 15:13:38
ja aber das Problem ist, dass AMD halt aktuell nicht so effizient ist wie Nvidia und Sie aus Ihren TFLOPS einfach weniger rausholen. Es ist auch nicht anzunehmen, dass AMD das jetzt mit einem Schlag aufholt, sondern nur mit mehreren. VEGA muss ein grosser STep werden und danach zeitnah weiter verfeinert werden.

Das hat basix doch in seinem Post erklärt: Nvidia hat ausgehend von einer durchaus passablen Kepler-Architektur mal eben so +35% Leistung pro SP rausgeholt (inklusive Takt, +35% reine IPC sind doch etwas zu viel des Guten ;)) ohne Anstieg der Leistungsaufnahme pro SP (eher sogar weniger). Das alles im gleichen Fertigungsprozess und ohne Zunahme der Speicherbandbreite.

Verglichen mit Kepler ist Fiji zudem noch extrem schlecht ausbalanciert und sieht sogar gegen die vorigen AMD-Chips mies aus. Verbesserungspotenzial ist mehr als vorhanden. Man darf auch nicht vergessen, dass ein geshrinkter Fiji ausgehend von der Packdichte von Polaris irgendwo bei ~360mm² landen würde. V10 wird aber ~500mm² groß, könnte also +40% Transistoren gegenüber Fiji haben. Um das Teil langsamer als eine GTX1080 zu bekommen, müsste AMD eine Bulldozer-GPU gebaut haben.

PrivateCeralion
2017-04-30, 17:07:14
Ach Leute,
der Stern Vega ist 25 Lichtjahre entfernt, ergo 2.5. Vorstellung!
D.h. am 1.Mai gibt AMD überragende Geschäftzahlen bekannt (Aktien +50%), dann Vega-Release, wo sie 10% schneller als die 1080Ti für 399$ rauskommen (Aktien nochmal +50%) und verkauf ich 50 Aktien und kann ich endlich mein System kaufen :D :D :D


Genau genommen ist Vega 25.05 Lichtjahre Entfernt. Und das wäre auch ein AMD Typischer Donnerstag xD

BoMbY
2017-04-30, 18:20:48
687F:C1 mit 1200 MHz und 700 MHz Speichertakt im 3Dmark TimeSpy: http://www.3dmark.com/spy/1544741 (via Guru3D forum (http://forums.guru3d.com/showthread.php?p=5426384#post5426384))

gedi
2017-04-30, 18:29:48
687F:C1 mit 1200 MHz und 700 MHz Speichertakt im 3Dmark TimeSpy: http://www.3dmark.com/spy/1544741 (via Guru3D forum (http://forums.guru3d.com/showthread.php?p=5426384#post5426384))

Was wird das für eine Grafikkarte - V11?

robbitop
2017-04-30, 18:30:31
687F:C1 mit 1200 MHz und 700 MHz Speichertakt im 3Dmark TimeSpy: http://www.3dmark.com/spy/1544741 (via Guru3D forum (http://forums.guru3d.com/showthread.php?p=5426384#post5426384))

5950 Pts. Entspricht ~73 % einer 1080 Ti (nach erster Recherche). @1500 MHz wären es dann mit 7437 Pts -> 90 % einer 1080 Ti (8231 Pts).

edit: Rechenleistungsnormiert müssten bei V10 @1200 (normiert auf P10 - sind 4073 Pts) aber eigentlich schon 6833 Pts herauskommen.

BoMbY
2017-04-30, 18:35:50
Was wird das für eine Grafikkarte - V11?

Das ist ziemlich sicher Vega 10, ich weiß nur nicht ob das der volle Chip ist. Es gibt neben C1 auch noch 687F:C3 Sichtungen. Ich gehe fest davon aus, dass die finale Version mind. 1500/1000 MHz zeigen sollte.

[MK2]Mythos
2017-04-30, 18:41:45
Hier stand Blödsinn!.... Vorausgesetzt die 1500 Mhz sind weiterhin gesetzt. Klasse Fund auf jeden Fall!

AffenJack
2017-04-30, 18:42:12
5950 Pts. Entspricht ~73 % einer 1080 Ti (nach erster Recherche). @1500 MHz wären es dann mit 7437 Pts -> 90 % einer 1080 Ti (8231 Pts).

edit: Rechenleistungsnormiert müssten bei V10 @1200 (normiert auf P10 - sind 4073 Pts) aber eigentlich schon 6833 Pts herauskommen.

Größere Chips skalieren doch nie 100% mit der Leistung. Die Skalierung nimmt im oberen Bereich immer ab und außerdem hast du nur 700mhz HBM2 Takt. Das sind gerade mal 358 Gb/s statt 512 Gb/s wie bei Vega später.

Nakai
2017-04-30, 19:02:58
Eine Fury X ist bei etwa 5000 Pkt. Damit wäre V10 bei 20% mehr Takt, etwas 20% schneller. Das ist nicht solide.

BoMbY
2017-04-30, 19:05:06
Eine Fury X ist bei etwa 5000 Pkt. Damit wäre V10 bei 20% mehr Takt, etwas 20% schneller. Das ist nicht solide.

Die CPU spielt auch eine nicht unerhebliche Rolle: http://www.3dmark.com/compare/spy/1544741/spy/1529408

AffenJack
2017-04-30, 19:10:52
Eine Fury X ist bei etwa 5000 Pkt. Damit wäre V10 bei 20% mehr Takt, etwas 20% schneller. Das ist nicht solide.

Untertakte mal den Ram der Fury X um 30% und dann wirste wohl eher sehen, dass die nicht mehr gleich schnell sind. Tiled muss auch nicht sofort für Wunder bei der benötigten Bandbreite sorgen.

Haben wir hier nicht wen mit ner Fury der die @Standard und mit 30% weniger Bandbreite in Timespy benchen kann?

Nakai
2017-04-30, 19:23:10
Untertakte mal den Ram der Fury X um 30% und dann wirste wohl eher sehen, dass die nicht mehr gleich schnell sind. Tiled muss auch nicht sofort für Wunder bei der benötigten Bandbreite sorgen.

Haben wir hier nicht wen mit ner Fury der die @Standard und mit 30% weniger Bandbreite in Timespy benchen kann?

Wir wissen gar nicht, ob das was ausgelesen wurde überhaupt stimmt. Wird der Boosttakt angegeben oder der Basetakt?

Grundsätzlich liegt das Ergebnis eher auf GTX1070-Niveau. Eine V10XT wäre dann auf GTX1080-Level. Jedenfalls in Timespy.

Das passt gut mit den gezeigen Doom-Werten.

Linmoum
2017-04-30, 19:32:13
Wir wissen gar nicht, ob das was ausgelesen wurde überhaupt stimmt. Wird der Boosttakt angegeben oder der Basetakt?

Grundsätzlich liegt das Ergebnis eher auf GTX1070-Niveau. Eine V10XT wäre dann auf GTX1080-Level. Jedenfalls in Timespy.

Das passt gut mit den gezeigen Doom-Werten.
Bei Time Spy bzw. 3DMark im allgemeinen wird immer der Takt angegeben, mit dem die Karte auch lief. Also Boost.

Wir haben hier also 1200MHz und 358GB/s bei der Bandbreite, letzteres liegt mal eben 30% unter dem, was Big Vega haben wird.

aufkrawall
2017-04-30, 19:41:39
Bei Time Spy bzw. 3DMark im allgemeinen wird immer der Takt angegeben, mit dem die Karte auch lief. Also Boost.

Ist das wirklich so? afair schafft zumindest bei Nvidia es so gut wie kein Tool außer dem Inspector, den maximalen Boost richtig zu ermitteln. Ansonsten müsste man den Treiber nach dem tatsächlich anliegenden Takt abfragen, die Funktionalität dürften aber nur Tools wie Afterburner, GPU-Z etc. haben.

Nakai
2017-04-30, 19:52:08
Für mich sind die Ergebnisse einfach nicht beeindruckend. Falls der Chip komplett aktiviert war, sind die Ergebnisse nicht gut. Selbst wenn man 30%+ für einen hypothetischen 1,5~1,6 GHz mit vollen 1 GHz HBM2-Spechertakt annimt, wäre das zwar oberhalb einer GTX1080, aber einen GP102-Full wird man nicht erreichen.

Screemer
2017-04-30, 19:54:13
Und wenn das ein v11 ist? Ihr wisst doch nichts und schreibt schon wieder von nicht beeindruckend. :up:

Linmoum
2017-04-30, 19:54:58
Ist das wirklich so? afair schafft zumindest bei Nvidia es so gut wie kein Tool außer dem Inspector, den maximalen Boost richtig zu ermitteln. Ansonsten müsste man den Treiber nach dem tatsächlich anliegenden Takt abfragen, die Funktionalität dürften aber nur Tools wie Afterburner, GPU-Z etc. haben.
Ok, war vielleicht etwas falsch ausgedrückt, das mit dem ermitteln des genauen Boosts stimmt schon. Angegeben wird immer der "offizielle" Boost.

Also bei einer 480 Referenz zeigt dir 3DMark 1266MHz beim Takt, bei Custom XY einer 1080 mit offiziellem Boost von 1870MHz dann eben diesen. Bei OC logischerweise das, was du selbst eingestellt hast.

gedi
2017-04-30, 19:58:28
Ist das wirklich so? afair schafft zumindest bei Nvidia es so gut wie kein Tool außer dem Inspector, den maximalen Boost richtig zu ermitteln. Ansonsten müsste man den Treiber nach dem tatsächlich anliegenden Takt abfragen, die Funktionalität dürften aber nur Tools wie Afterburner, GPU-Z etc. haben.

Afair zeigt der 3dk schon den max. Boost an. Auf meinem NB taktet die 1070 dauerhaft mit 1.73G bei 0.8V und ich meine dieser Takt wird auch im Onlinebrowser angezeigt. Ansonsten finde ich das Ergebnis eher ernüchternd. Auf meinem NB habe ich einen Grafikscore von etwas über 6.1k, was für mich heißt, dass Vega wie eine 1080@2.1xG performen wird. Ich hätte mehr erwartet.

Nakai
2017-04-30, 20:03:15
Und wenn das ein v11 ist? Ihr wisst doch nichts und schreibt schon wieder von nicht beeindruckend. :up:

Das ist kein V11.

Schnoesel
2017-04-30, 20:03:32
Zum Vergleich:

FuryX@1100/500
R71800X @ stock
https://s16.postimg.org/og09dstvp/image.png
https://s11.postimg.org/r3hisea6r/image.png

Ich habe etwas mehr CPU score. Gleicher Prozessor gleiches Brett. Das Ergebnis beeindruckt noch nicht. Die Frage ist ja was wurde da gebencht.

Screemer
2017-04-30, 20:04:25
Das ist kein V11.
Erleuchte uns!

AffenJack
2017-04-30, 20:04:45
Muss man alles sehen, können auch weiterhin völlig unoptimierte Treiber sein, aber genauso kann das auch einfach nur Fake sein.

@Schnoesel, takte mal den Ram bitte auf 350mhz und bench dann nochmal falls du Zeit hast.

Schnoesel
2017-04-30, 20:10:00
Mein Speicher taktet doch bereits 200MHZ unter dem vom geposteten Ergebnis?!

500MHZ vs 700MHZ

Abgesehn davon Wattman bietet Speichertakt bei Fiji gar nicht an müsste ich also wenn dann mit Afterburner versuchen.

Screemer
2017-04-30, 20:13:09
Du müsstest 350mhz anlegen.

Linmoum
2017-04-30, 20:18:15
Mein Speicher taktet doch bereits 200MHZ unter dem vom geposteten Ergebnis?!

500MHZ vs 700MHZ

Abgesehn davon Wattman bietet Speichertakt bei Fiji gar nicht an müsste ich also wenn dann mit Afterburner versuchen.
Fiji hat vier Stacks, Vega zwei. Daher braucht Vega 1000MHz statt der 500MHz bei Fiji, um auf 512GB/s zu kommen. Mit den 700MHz aus dem Time Spy sind es daher nur 358GB/s. ;)

Schnoesel
2017-04-30, 20:20:34
Ah klar die Stacks. Dumm nur dass sich weder 350 noch 358 einstellen lassen. 500 ist sozusagen das Minimum auch wenn ich die offiziellen OC Limits erweitere.

r3ptil3
2017-04-30, 20:36:52
Die 3D Mark Werte klingen doch logisch.
Man muss sich nur das Video von Doom@4k auf ve.ga anschauen und eins und eins zusammenzählen.

Der_Korken
2017-04-30, 20:44:52
Wenn es wirklich auf Fiji-IPC hinausläuft, wie im 3DMark zu sehen, dann muss man sich schon fragen, was AMD sich bei Vega gedacht hat. Wie ich schon schrieb hat Vega geschätzt +40% Transistoren, wenn man die Packdichte von P10 annimmt und auf 500mm² hochrechnet. Klar ist da noch "Profi-Zeugs" drin, aber ganz ehrlich: Hawaii hatte 1:2 DP und hatte im Vergleich zu anderen Chips weder keinen auffällig Transitor-Count oder Die-Size. So teuer kann das nicht sein. Gut wir kennen den Stromverbrauch noch nicht, wenn der nur bei 200W liegt bei 1080Ti-10% sieht es wieder gut aus, aber ich bezweifel, dass uns AMD gerade beim Verbrauch positiv überraschen wird. Vielleicht war der reale Takt auch deutlich unter den 1200Mhz, da die Referenz 480 in der Praxis auch nur mit ~1150-1180Mhz statt 1266 lief und vielleicht läuft auch der Treiber noch nicht rund. Trotzdem sieht es aber - wenn die Ergebnisse stimmen - sehr ernüchternd aus.

dildo4u
2017-04-30, 20:49:16
AMD hat die Karte doch schon gezeigt keine Wakü mehr und nur ein Lüfter natürlich ist sie langsam,wenn die 580 schon 200 Watt zieht und AMD keine 300 Watt mehr wie bei Fury freigibt.

Linmoum
2017-04-30, 20:51:22
AMD hat die Karte doch schon gezeigt keine Wakü mehr und nur ein Lüfter natürlich ist sie langsam,wenn die 580 schon 200 Watt zieht und AMD keine 300 Watt mehr wie bei Fury freigibt.
Weil man von Polaris ja auch einfach auf Vega schließen kann, vor allem beim Verbrauch. :facepalm:

Screemer
2017-04-30, 20:59:49
Die üblichen verdächtigen naysayer sind schon wieder da. Das wird noch lustig bis zum release. Fehlen nicht mehr all zu viele.

reaperrr
2017-04-30, 21:13:01
AMD hat die Karte doch schon gezeigt keine Wakü mehr und nur ein Lüfter natürlich ist sie langsam,wenn die 580 schon 200 Watt zieht und AMD keine 300 Watt mehr wie bei Fury freigibt.
Fury X zieht unter Last trotz 160mm² mehr bei gleichem Takt ca. 90W weniger als die 390X, so groß ist allein schon der Effizienz-Vorteil von HBM gegenüber herkömmlichem G5-SI (jedenfalls bei AMD).
Selbst P10 wäre mit 1 Stack HBM2 wahrscheinlich um ca. 1/3 sparsamer und somit bei Perf/W konkurrenzfähig zur 1060-6G.

Gegenüber einem P10 x2 mit 512-bit SI spart Vega10 wahrscheinlich schon allein über 100W ein, außerdem hat V10 ja eben nicht doppelt so viele CUs wie ein P10x2, sondern 8 weniger.

Also selbst wenn sich an der Architektur gegenüber Polaris bis auf HBM2 kaum was getan hätte, würde V10 den Takt der 580 in unter 300W schaffen.

aufkrawall
2017-04-30, 21:20:59
Fury X zieht unter Last trotz 160mm² mehr bei gleichem Takt ca. 90W weniger als die 390X, so groß ist allein schon der Effizienz-Vorteil von HBM gegenüber herkömmlichem G5-SI (jedenfalls bei AMD).

Das täuscht, weil die 300er-Reihe so ineffizient eingestellt war und Hawaii zudem DP mit sich rum schleppt.

dargo
2017-04-30, 22:48:31
687F:C1 mit 1200 MHz und 700 MHz Speichertakt im 3Dmark TimeSpy: http://www.3dmark.com/spy/1544741 (via Guru3D forum (http://forums.guru3d.com/showthread.php?p=5426384#post5426384))
Ich spekuliere mal wild. :D

Das ist V11 mit 3072SPs (7,4 TFLOPs) und 358GB/s Bandbreite. Allerdings bin ich immer davon ausgegangen V11 kommt mit nur einem Stack. Offenbar dann doch zwei Stacks, dafür billigerer HBM2 mit weniger Takt.

iuno
2017-04-30, 23:06:09
Das täuscht, weil die 300er-Reihe so ineffizient eingestellt war
Fiji uebrigens auch ;p

Der_Korken
2017-04-30, 23:07:00
5950 Pts. Entspricht ~73 % einer 1080 Ti (nach erster Recherche). @1500 MHz wären es dann mit 7437 Pts -> 90 % einer 1080 Ti (8231 Pts).

edit: Rechenleistungsnormiert müssten bei V10 @1200 (normiert auf P10 - sind 4073 Pts) aber eigentlich schon 6833 Pts herauskommen.

Für die 1080Ti finde ich unterschiedliche Resultate.

Hier (https://www.heise.de/ct/ausgabe/2017-7-High-End-Grafikkarte-GeForce-GTX-1080-Ti-3652755.html) sind es ~8230 Punkte beim Gesamtscore.

Hier (http://www.hardware.fr/articles/957-7/benchmark-3dmark-fire-strike-time-spy.html) und hier (http://www.guru3d.com/articles-pages/geforce-gtx-1080-ti-review,30.html) sind es eher 9400-9500 Punkte. Bei ersterem beim Graphics Score, bei letzterem der Gesamtscore.

Nimmt man die 5700 Punkte (Graphics Score) von dem vermuteten V10 hätte man also nur gut 60% der 1080Ti.

Ich spekuliere mal wild. :D

Das ist V11 mit 3072SPs (7,4 TFLOPs) und 358GB/s Bandbreite. Allerdings bin ich immer davon ausgegangen V11 kommt mit nur einem Stack. Offenbar dann doch zwei Stacks, dafür billigerer HBM2 mit weniger Takt.

Ich glaube nicht, dass ein potenzieller V11 so dicht an V10 dran ist. Da würde der V10Pro (3584 SPs und weniger Takt?) schon vom V11XT kannibalisiert. Für V11 würden eher so 2560SPs passen. Mit dem höheren Takt und einer neuen Architektur sollte das eigentlich genug Abstand zu P10 sein. Es wäre vielleicht was anderes, wenn V10 1:2 DP könnte und V11 dadurch deutlich kleiner ausfallen könnte, aber für die 1:2 DP soll laut Gerüchten oberhalb von V10 noch irgendwann was kommen.

TheGood
2017-04-30, 23:16:45
hätte hätte Fahrradkette. Da werden wieder die Glaskugeln rausgeholt und irgendwas reinfabuliert und als Fakten verkauft. Einfach nur grausam....

OBrian
2017-04-30, 23:21:56
Also da sie Polaris 10 ja refreshed haben, wird diese Marktposition nicht durch eine "kleine Vega" oder sowas abgelöst, und da man keine zwei gleichschnellen Karten gleichzeitig im Markt haben will, bedeutet das, daß die Vegas überhaupt erst darüber anfangen. Man braucht ja auch eine, die ein bißchen schneller als eine 580 ist, nur eine Monsterkarte sehr weit drüber mit einer fetten Marktlücke dazwischen bringt ja nichts.

Mit ca. 350 GB/s wäre also mehr Bandbreite als bei der 580 da, aber nicht gleich übermäßig viel mehr. Bandbreite und Chipperformance müssen ja immer halbwegs passen, und um die 3072 Shader wären sicher passend dazu. Natürlich ist das keine Top-Karte, aber soll sie ja auch gar nicht sein, die ist für den Bereich grob 300 bis 450 € gedacht (gibt ja möglicherweise zwei Varianten davon).

Über solche frühen Testergebnisse mach ich mir eher wenig Gedanken, der Treiber ist ja in so einem Stadium immer nur halbgar. Immerhin zeigt es: Die Karte existiert und funktioniert.

Interessant ist bei so einer Karte, die nicht das extreme High-End darstellt, doch sowieso immer nur, wie sparsam ist sie und wie viel FPS kriegt man pro Euro? Solange man das nicht weiß, kann man die beliebig schlechtreden oder in den Himmel loben, das bringt alles nichts.

deekey777
2017-04-30, 23:24:32
Ach Leute,
der Stern Vega ist 25 Lichtjahre entfernt, ergo 2.5. Vorstellung!
D.h. am 1.Mai gibt AMD überragende Geschäftzahlen bekannt (Aktien +50%), dann Vega-Release, wo sie 10% schneller als die 1080Ti für 399$ rauskommen (Aktien nochmal +50%) und verkauf ich 50 Aktien und kann ich endlich mein System kaufen :D :D :D
US-amerikanischer Sprachraum und so.

Der_Korken
2017-04-30, 23:47:35
Mit ca. 350 GB/s wäre also mehr Bandbreite als bei der 580 da, aber nicht gleich übermäßig viel mehr. Bandbreite und Chipperformance müssen ja immer halbwegs passen, und um die 3072 Shader wären sicher passend dazu. Natürlich ist das keine Top-Karte, aber soll sie ja auch gar nicht sein, die ist für den Bereich grob 300 bis 450 € gedacht (gibt ja möglicherweise zwei Varianten davon).

Wenn schon ein Chip mit 4096SPs kommt, macht eine weitere mit 3072SPs imho keinen Sinn. Erstere wäre dann vielleicht 30% schneller und dazwischen muss auch noch eine Salvage-Karte des größeren Chips passen. Bei der 300er-Serie gab es das mit Tonga-Hawaii-Fiji zwar, aber da war Hawaii technisch eine Generation älter und hatte wegen der DP-Leistung eine Sonderstellung als Profichip. Strategisch wäre es also sinniger einen V11 näher an P10 zu platzieren, weil P10 früher ersetzt wird als V10. Man könnte beispielsweise irgendwann einen V12 zwischen P10 und P11 setzen und hätte dann zusammen mit V11 das komplette Polaris-Lineup ersetzt.

aufkrawall
2017-04-30, 23:54:59
Fiji uebrigens auch ;p
Hat AMD ja nicht für die Vernünftigen so gemacht, sondern wegen der Balkenlänge-Presse. :)
War halt nicht gerade eine Win-Win-Situation für sie. Irgendwo scheiterts dann halt daran, dass man vernünftige GCN-Chips wie Pitcairn und Hawaii nicht entsprechend nach oben oder unten skalieren konnte, so gesehen hat man sich die Suppe vs. die Konkurrenz selbst eingebrockt.

dargo
2017-05-01, 08:06:27
Ich glaube nicht, dass ein potenzieller V11 so dicht an V10 dran ist.
Dann ist es RX Vega Nano @V10. :biggrin:

Wenn schon ein Chip mit 4096SPs kommt, macht eine weitere mit 3072SPs imho keinen Sinn.
Als reine Gaming Karte imho schon.

OgrEGT
2017-05-01, 08:44:32
...

Hübie
2017-05-01, 09:07:27
Hö? 1536? Das ist GK104! GP106 hat 1280 ALUs.

OgrEGT
2017-05-01, 09:27:15
Hö? 1536? Das ist GK104! GP106 hat 1280 ALUs.
Stimmt 😀

HOT
2017-05-01, 10:19:14
Wenn schon ein Chip mit 4096SPs kommt, macht eine weitere mit 3072SPs imho keinen Sinn. Erstere wäre dann vielleicht 30% schneller und dazwischen muss auch noch eine Salvage-Karte des größeren Chips passen. Bei der 300er-Serie gab es das mit Tonga-Hawaii-Fiji zwar, aber da war Hawaii technisch eine Generation älter und hatte wegen der DP-Leistung eine Sonderstellung als Profichip. Strategisch wäre es also sinniger einen V11 näher an P10 zu platzieren, weil P10 früher ersetzt wird als V10. Man könnte beispielsweise irgendwann einen V12 zwischen P10 und P11 setzen und hätte dann zusammen mit V11 das komplette Polaris-Lineup ersetzt.
Hö? Macht der GP104 keinen Sinn, weil es einen GP102 gibt? Was das denn für ne bescheuerte Aussage...
Polaris wird nicht ersetzt wenn es einen Monat vor Vega refresht wird, das einfach BS. Polaris wird uns lange erhalten bleiben. Vega kann nur darüber stattfinden, was zwangsläufig bedeutet, dass Vega11 mindestens 30% über P10XTR angesiedelt sein muss. Dazu passen 3k Shader und 2 1,6GHz Stacks hervorragend.

Hawaii hat als Profichip seine Sonderstellung wegen 1:2 DP-Leistung. Etwas ähnliches muss AMD übrigens 2018 als Nachfolger bringen, also ist da sicherlich noch ein V12 zu erwarten, und zwar größer als V10.

Kriton
2017-05-01, 12:18:21
Für die 1080Ti finde ich unterschiedliche Resultate.

Hier (https://www.heise.de/ct/ausgabe/2017-7-High-End-Grafikkarte-GeForce-GTX-1080-Ti-3652755.html) sind es ~8230 Punkte beim Gesamtscore.

Hier (http://www.hardware.fr/articles/957-7/benchmark-3dmark-fire-strike-time-spy.html) und hier (http://www.guru3d.com/articles-pages/geforce-gtx-1080-ti-review,30.html) sind es eher 9400-9500 Punkte. Bei ersterem beim Graphics Score, bei letzterem der Gesamtscore.

Nimmt man die 5700 Punkte (Graphics Score) von dem vermuteten V10 hätte man also nur gut 60% der 1080Ti.



Ich glaube nicht, dass ein potenzieller V11 so dicht an V10 dran ist. Da würde der V10Pro (3584 SPs und weniger Takt?) schon vom V11XT kannibalisiert. Für V11 würden eher so 2560SPs passen. Mit dem höheren Takt und einer neuen Architektur sollte das eigentlich genug Abstand zu P10 sein. Es wäre vielleicht was anderes, wenn V10 1:2 DP könnte und V11 dadurch deutlich kleiner ausfallen könnte, aber für die 1:2 DP soll laut Gerüchten oberhalb von V10 noch irgendwann was kommen.

Das nennst Du dicht dran? Wenn wir davon ausgehen, dass V10 in der Nähe der 1080Ti ist (ich gehe nachfolgend mal von -10% aus), dann sind das, basierend auf Deinen 9400 Punkten für die 1080 Ti für den V11 70% der Leistung eines V10, bzw. V10 wäre 42% schneller als ein V11. Der Abstand ist meines Erachtens nach ausreichend. Das gilt IMHO selbst dann, wenn wir einen salvage einbeziehen, der noch einmal 10% langsamer wäre.

Der_Korken
2017-05-01, 14:28:29
Hö? Macht der GP104 keinen Sinn, weil es einen GP102 gibt? Was das denn für ne bescheuerte Aussage...
Polaris wird nicht ersetzt wenn es einen Monat vor Vega refresht wird, das einfach BS. Polaris wird uns lange erhalten bleiben. Vega kann nur darüber stattfinden, was zwangsläufig bedeutet, dass Vega11 mindestens 30% über P10XTR angesiedelt sein muss. Dazu passen 3k Shader und 2 1,6GHz Stacks hervorragend.

GP102 hat 50% mehr SPs als GP104 und schafft den gleichen Takt, was keine Selbstverständlichkeit ist. Außerdem hat GP102 50% mehr VRAM und Bandbreite. Das ist deutlich mehr als beim spekulierten V11 im Vergleich zu V10. Und zu Polaris habe nirgendwo geschrieben, dass V11 P10 ersetzt, sondern dass P10 vor V10 aus dem Markt ausscheiden wird und es deswegen sinniger wäre V11 dichter an P10 als an V10 zu platzieren, damit kein zu großes Loch entsteht, wenn man Polaris vom Markt nimmt.

Das nennst Du dicht dran? Wenn wir davon ausgehen, dass V10 in der Nähe der 1080Ti ist (ich gehe nachfolgend mal von -10% aus), dann sind das, basierend auf Deinen 9400 Punkten für die 1080 Ti für den V11 70% der Leistung eines V10, bzw. V10 wäre 42% schneller als ein V11. Der Abstand ist meines Erachtens nach ausreichend. Das gilt IMHO selbst dann, wenn wir einen salvage einbeziehen, der noch einmal 10% langsamer wäre.

Die 5700 Punkte beziehen sich auf einen unbekannten Vega-Chip @1200Mhz. Bei 1500Mhz käme er auf gut 7000 Punkte. 1080Ti-10% wären ~8500 Punkte. Das ist in meinen Augen schon dicht dran. Aber eigentlich bezog sich meine Aussage auf die Anzahl der SPs und nicht auf die Punkte, von denen man eh nicht weiß wie sie entstanden sind (3072SPs vs 3584SPs mit weniger Takt, bei vermutlich gleichem VRAM). Solche kleinen Abstände gab es bei Chips der gleichen Generation iirc noch nie. Höchstens bei GF110 und GF114, aber da war die DP-Leistung immerhin noch ein Alleinstellungsmerkmal des GF110 und es war 256bit vs 384bi SI.

gedi
2017-05-01, 14:36:57
Ich habe mir den Timespy-Score nochmals angesehen und ich glaube, dass Vega in GT2 im Schnitt mit 0.9G getaktet hat. Meine Vermutung basiert auf folgendem: GT2 drückt die Taktraten sowieso in den Keller (vor allem bei schlechter Kühlung) und zudem ist der Score/FPS unterirdisch schlecht. Zum Vergleich: Eine GTX1080 mit 2.13G macht hier afair ~50FPS.

Hübie
2017-05-01, 14:39:26
Mal ne Frage in die Runde: Ist der 3D Mark Time Spy denn eigentlich repräsentativ? Meine 980 Ti macht nämlich schon 5866 Punkte... :redface:

Locuza
2017-05-01, 14:44:41
Mal ne Frage in die Runde: Ist der 3D Mark Time Spy denn eigentlich repräsentativ? Meine 980 Ti macht nämlich schon 5866 Punkte... :redface:
Gegenfrage, ist das der aller erste Speku-Thread vor dem Launch einer GPU aller hier Anwesenden?

Schaffe89
2017-05-01, 15:02:23
Eventueller Vega Leak:

http://www.guru3d.com/news-story/possible-radeon-rx-vega-3dmark-time-spy-benchmark-result.htm

Die Salvage SKU scheinbar auf GTX 1070 Niveau.

Edit:

Ok, wurde scheinbar schon gepostet, daher veraltet.

Der_Korken
2017-05-01, 15:08:45
Eventueller Vega Leak:

http://www.guru3d.com/news-story/possible-radeon-rx-vega-3dmark-time-spy-benchmark-result.htm

Die Salvage SKU scheinbar auf GTX 1070 Niveau.

Die 3DMark-Werte wurden schon hier gepostet. Die 1200Mhz GPU-Takt passen allerdings nicht ins Bild. Man wird das Salvage-Modell wohl kaum so stark untertakten, sondern stattdessen SPs deaktivieren. Außerdem ist nicht klar ob es ein voller V10 war oder nicht.


@gedi: Wir kommst du gerade auf 900Mhz? Hast du 1500Mhz = 1080Ti gesetzt und dann runtergerechnet? 900Mhz bei 1200Mhz max. Boost wird man wenn überhaupt bei Powerviren wie Furmark o.ä. sehen.

gedi
2017-05-01, 15:10:14
Mal ne Frage in die Runde: Ist der 3D Mark Time Spy denn eigentlich repräsentativ? Meine 980 Ti macht nämlich schon 5866 Punkte... :redface:

Der Score passt imo relativ gut zur Performance, welche eine GPU (in 1080p) zu leisten im Stande ist.

980ti/1070 - FuryX 10%
1080ti - 1080 30%
1070 - 1080 20%
480/580 - 1060 pari

@derKorken
Der GT2 eignet sich eigentlich sehr gut um die Stabilität der Taktraten zu ermitteln. Eine GTX1080 mit unausgewogener Curve und Kühlung bricht dir in GT2 taktratentechnisch oft um über 100MHZ ein im Vergleich zu dem, was eigentlich anliegen sollte. Zudem gehe ich davon aus, dass es sich um die abgeklebte Vega-Variante handelt. Wenn ich mit meiner Vermutung recht behalten sollte, dann hat sich bei der IPC/Watt doch einiges getan im Vgl. zu Fury.

[MK2]Mythos
2017-05-01, 15:15:00
1,2 Ghz würden imho bedeuten dass die IPC im Vergleich zu Fiji gesunken wäre. ~20% höherer Takt und 10% höherer GPU Score...
Das muss wirklich irgendwas beschnittenes sein.

Schaffe89
2017-05-01, 15:20:03
Die 3DMark-Werte wurden schon hier gepostet. Die 1200Mhz GPU-Takt passen allerdings nicht ins Bild. Man wird das Salvage-Modell wohl kaum so stark untertakten, sondern stattdessen SPs deaktivieren. Außerdem ist nicht klar ob es ein voller V10 war oder nicht.

Ich tippe mal auf 3584 Shader inkl. 1200mhz Takt.
Das Topmodell bringt man dann mit 4096 Shadern und etwas mehr Takt und statt den 350 GB/s mit 410 GB/s und landet dann auf dem Niveau der GTX 1080, das würde ziemlich genau passen um die beiden Karten anzugreifen, leider halt dann mit einem viel zu großen Chip. Vega 11 wird dann wohl Polaris ersetzen und 5/10 % drauflegen.
Später bringt man dann ein Takt und Bandbreiten Update wenn Volta erscheint, damit man etwas gegen die neuen Midrange GPUs von Volta hat und etwas unter dem Niveau der alten GTX 1080Ti liegt.
Das würde gut zu der derzeitigen Situation passen, dass AMD nur die Mittelklasse und vll noch das Performancesegment von Nvidia angreifen kann.

Hübie
2017-05-01, 16:42:04
Gegenfrage, ist das der aller erste Speku-Thread vor dem Launch einer GPU aller hier Anwesenden?

A) War das legitime Frage
B) Ist die ernst gemeint
C) Um deine Frage zu beantworten: Nein!
und
D) Siehe gedi seine Antwort.

:tongue:

Der Score passt imo relativ gut zur Performance, welche eine GPU (in 1080p) zu leisten im Stande ist.

980ti/1070 - FuryX 10%
1080ti - 1080 30%
1070 - 1080 20%
480/580 - 1060 pari

Dankeschön. Hab mir da nie eine Übersicht gemacht und mal mit real world Performance verglichen. :up:

Schnitzl
2017-05-01, 17:10:43
Ich tippe mal auf 3584 Shader inkl. 1200mhz Takt.
Das Topmodell bringt man dann mit 4096 Shadern und etwas mehr Takt und statt den 350 GB/s mit 410 GB/s und landet dann auf dem Niveau der GTX 1080, das würde ziemlich genau passen um die beiden Karten anzugreifen, leider halt dann mit einem viel zu großen Chip. Vega 11 wird dann wohl Polaris ersetzen und 5/10 % drauflegen.
Später bringt man dann ein Takt und Bandbreiten Update wenn Volta erscheint, damit man etwas gegen die neuen Midrange GPUs von Volta hat und etwas unter dem Niveau der alten GTX 1080Ti liegt.
Das würde gut zu der derzeitigen Situation passen, dass AMD nur die Mittelklasse und vll noch das Performancesegment von Nvidia angreifen kann.
Das ist Blödsinn und das weisst du auch...vor allem das Fettgedruckte. Polaris wurde gerade refreshed!

Ich hätte da ne andere Spekulation:
Situation ist 580 hat 3DC 580%
570 hat 510%
560 hat 310%
--->
V11Salvage sollte um Sinn zu machen mind. 650, besser 700% haben
V11 full dann 750%
V10Salvage 900%
V10 full 950%

alles andere macht wenig Sinn bzw. ist nicht logisch. Ok AMD ist oftmals nicht logisch aber ich schätze das sollte das Minimum sein an Abständen sonst kann man Vega auch sein lassen.

MfG

iuno
2017-05-01, 17:33:45
Hat AMD ja nicht für die Vernünftigen so gemacht, sondern wegen der Balkenlänge-Presse. :)
War halt nicht gerade eine Win-Win-Situation für sie. Irgendwo scheiterts dann halt daran, dass man vernünftige GCN-Chips wie Pitcairn und Hawaii nicht entsprechend nach oben oder unten skalieren konnte

Fun fact: Schon im urspruenglichen GCN whitepaper stand folgendes drin:
The shader performance is quite scalable, so the real challenge lies with scaling the fixed function hardware.
Und trotzdem blieb fuer Fiji 4 Jahre spaeter nichts, als die shader voll aufzublasen ;p

Locuza
2017-05-01, 17:42:34
A) War das legitime Frage
B) Ist die ernst gemeint
C) Um deine Frage zu beantworten: Nein!
und
D) Siehe gedi seine Antwort.
[...]
Es war eine legitime Frage und zielt letztendlich darauf ab, wieso Gegenstände diskutiert werden, aus denen man am Ende des Tages sowieso nichts brauchbares extrahieren kann?
Wer diesen Zyklus schon häufiger mitgemacht hat, sollte doch einen anständigen Filter verwenden.

HOT
2017-05-01, 17:55:05
Eventueller Vega Leak:

http://www.guru3d.com/news-story/possible-radeon-rx-vega-3dmark-time-spy-benchmark-result.htm

Die Salvage SKU scheinbar auf GTX 1070 Niveau.

Edit:

Ok, wurde scheinbar schon gepostet, daher veraltet.
Sollten die werte echt sein, wird das V11 salvage sein.

horn 12
2017-05-01, 18:54:28
Rechne Vega klein wird sich 5-10% über einer GTX 1080 ansiedeln, ansonsten hat das ganze kaum Berechtigung.

reaperrr
2017-05-01, 18:57:50
Rechne Vega klein wird sich 5-10% über einer GTX 1080 ansiedeln, ansonsten hat das ganze kaum Berechtigung.
Streng genommen würde es reichen, wenn V11-XT die GTX 1070 schlägt und V11-Pro ~25-30% vor 580/1060 landet, dann könnte AMD schon solide Preise nehmen.

Hübie
2017-05-01, 20:15:20
Es war eine legitime Frage und zielt letztendlich darauf ab, wieso Gegenstände diskutiert werden, aus denen man am Ende des Tages sowieso nichts brauchbares extrahieren kann?
Wer diesen Zyklus schon häufiger mitgemacht hat, sollte doch einen anständigen Filter verwenden.

Time Spy war in vergangenen Zyklen kein Gegenstand, nutzt eine aktuelle API und ein aktuelles Featureset wie eben Asynchronous Compute. Dazu skaliert es mit CPU & GPU wie es scheint - je nachdem was man einstellt. Es geht um Wahrscheinlichkeiten und deren Eingrenzung. Ein cherry picked bench ist da weniger aussagekräftig, als ein Allrounder. Ich z.B. spiele viele verschieden Spiele und kann mit gesonderten Szenarien nix anfangen. WoW-Spieler wie mein bester Freund z.B. brauchen nur gucken, was besser geeignet ist für das jeweilige Szenario (triple-Monitor @Full HD oder einer mit 4k, VRAM-Bedarf, Budget usw.).
Du könntest mir also entweder die Frage beantworten oder eben nicht. Meine Frage zielte darauf ab, was man erwarten könnte, wenn dieser Benchmark repräsentativ ist. Steht sogar da. :redface:

Troyan
2017-05-01, 22:25:59
Aus AMDs Quartal-Ergebnis:
AMD's "Vega" GPU architecture is on track to launch in Q2[...]
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2268417

Wir haben nur noch zwei Monate in Q2 und ein "is on track" klingt schon fast nach, wie 30.06 um 23:59...

Screemer
2017-05-01, 22:35:29
Wir haben nur noch zwei Monate in Q2 und ein "is on track" klingt schon fast nach, wie 30.06 um 23:59...
:facepalm:

r3ptil3
2017-05-01, 22:39:08
Also wer jetzt noch glaubt "Big Vega" würde die GTX 1080 TI übertrumpfen... Sonst würde da stehen "fastest, best..." oder weiss ich was um die Aktien auch nur ein bisschen positiv beeinflussen zu können.

Botcruscher
2017-05-01, 22:42:45
1/3 ist aber auch schon rum. So ganz unrecht hat er mit seiner Trollierung nicht. Abgelaufene Zeiträume für zukünftige Ereignisse ist nun mal BWL- Geschwätz.

Also wer jetzt noch glaubt "Big Vega" würde die GTX 1080 TI übertrumpfen... Sonst würde da stehen "fastest, best..." oder weiss ich was um die Aktien auch nur ein bisschen positiv beeinflussen zu können.
Zur Leistung steht da aber null. Keine Ahnung wie du da auf umgekehrte Psychologie kommst. Nur ein Idiot würde konkrete Angaben machen und sich der Haftung aussetzen

uweskw
2017-05-02, 07:33:32
Außerdem langt es wenn vega mehr oder weniger in Schlagweite der 1080ti ist.

Greetz
US

Th3o
2017-05-02, 08:21:40
Würde AMD jetzt "fastest, best..." schreiben, käme gleich das Hype Geschrei. Egal wie man es macht, wer sucht der findet.

r3ptil3
2017-05-02, 09:59:18
Würde AMD jetzt "fastest, best..." schreiben, käme gleich das Hype Geschrei. Egal wie man es macht, wer sucht der findet.

Stimmt zwar, aber man sollte das auch in Verhältnis setzen mit dem was AMD sonst so rauslässt. "Poor Volta", usw. kommt mir da gerade in den Sinn. Wenn das so wäre, hätten sie auch in der Mitteilung keine Zurückhaltung walten lassen oder? Kann mich natürlich irren.

Wenn, wie einige behaupten, die Performance zwischen 1080 und 1080 TI liegt, würde ich das persönlich als ziemlich grossen Erfolg sehen.

Nur mal so als Beispiel was AMD in der Mitteilung über seine Prozessoren mitteilen lässt:
"AMD Ryzen 7: These 8-core, 16-thread processors bring innovation and choice back to the enthusiast PC market and include the world’s highest performing, and lowest powered 8-core desktop PC processors."


Und über Vega:
"AMD’s “Vega” GPU architecture is on track to launch in Q2, and has been designed from scratch to address the most data- and visually-intensive next-generation workloads with key architecture advancements including: a differentiated memory subsystem, next-generation geometry pipeline, new compute engine, and a new pixel engine"

Pirx
2017-05-02, 10:41:48
poor Voltage afair

Ryzen= auf dem Markt, Vega noch nicht

Leonidas
2017-05-02, 12:23:18
Exakt. Es müsste schon mit dem Teufel zugehen, wenn die RX Vega nicht wenigstens bei der Performance von 150-200% einer Fury X landet. Und mit 150% sind wir ganz grob bei einer 1080 Ti mit Standardtakt (je nach Benchmark natürlich).

Mythos;11354415']Selbst wenn Vega nur ein Fiji + 50% Takt wäre, wäre die 1080ti FE in Schlagdistanz!


Von Fury X zu 1080 Ti sind es genau +75%. 50% reichen da leider nicht. 50% für Vega 10 wäre in der Mitte zwischen 1080 (+32%) zu 1080Ti (+75%).
https://www.3dcenter.org/news/schneller-ultrahd-performance-ueberblick-der-281614nm-grafikkarten




Laut Steam hat sich die 1060 > 4x so oft verkauft wie die 480, bei späterem Markteintritt und längere Zeit höherem Preis der 1060.
So gesehen war die 480 natürlich ein ziemlicher Flop, oder wie will man das jetzt wieder schön reden?


Wird bei Steam die 1060 zwischen 3GB und 6GB unterschieden? Wäre ein erheblicher Vorteil der 1060 in dieser Stats, wenn man die (klar langsamere) 3GB-Version da der Hauptversion zuschlägt.

Interessant wäre aber auch eine Verkaufs-Stats RX470 vs. 1060-3GB.




Im leben kommt keine Vega sku auf dezierten Karten mit 4gb Speicher. Das wird man ehestens im notebookmarkt sehen aber im leben nicht auf Karten. Da kommt eher noch ne Vega sku mit gddr5 denn der phy ist garantiert hybrid. Da sponsor ich fürs nächste 3dctreffen 5 Kästen Tegernseer inkl. Transport sollte ich falsch liegen.


Schonmal bereitlegen. Vega 11 mit nur einem Stack ist von der Bandbreite derart limitiert, das da sicherlich auch 4-GB-Karten kommen werden. Und für Hybrid-Interfaces dürfte die Chipfläche zu schade sein. Das ist zwischen HBM und GDDR nicht mehr hybrid, sondern einfach nur doppelt vorhanden.




Ich weiss nicht, weshalb hier alle immer auf Egomane machen wenn jemand ein Detail nicht weiß, etwas anderes spekuliert oder gar etwas falsch in Erinnerung hatte. Teilt euer Wissen, wir sind nicht beim Patentamt.


:up:

Schaffe89
2017-05-02, 12:24:48
Wir haben nur noch zwei Monate in Q2 und ein "is on track" klingt schon fast nach, wie 30.06 um 23:59...

Vor allem weil da steht VEGA GPU Architecture. Es könnte Q2 als ergo auch nur eine Vorstellung der Architektur geben, ähnlich wie den 31.05.2016 bei Polaris.
Und es muss quasi Vega 10 sein. Von Vega 11 gibt es immernoch keinerlei gesicherte Informationen, ja nichtmal zum genutzten Speicher.
Schlägt Vega 11 vor Vega 10 auf wäre das eher eine Überraschung.

dargo
2017-05-02, 12:28:18
Von Fury X zu 1080 Ti sind es genau +75%. 50% reichen da leider nicht. 50% für Vega 10 wäre in der Mitte zwischen 1080 (+32%) zu 1080Ti (+75%).
https://www.3dcenter.org/news/schneller-ultrahd-performance-ueberblick-der-281614nm-grafikkarten

Bei CB sinds 67% in 4k.

Screemer
2017-05-02, 12:40:56
Schonmal bereitlegen. Vega 11 mit nur einem Stack ist von der Bandbreite derart limitiert, das da sicherlich auch 4-GB-Karten kommen werden. Und für Hybrid-Interfaces dürfte die Chipfläche zu schade sein. Das ist zwischen HBM und GDDR nicht mehr hybrid, sondern einfach nur doppelt vorhanden.
wird gemacht. ich ging zwar eigentlich von v10 aus. die einschränkung hätte ich vielleicht machen sollen. to bad :ugly:

Leonidas
2017-05-02, 13:29:20
Bei CB sinds 67% in 4k.


Deren Benchmarks fliessen bei mir mit ein. Nur das ich einen Schnitt aus 12-15 Hardwaretests bilde - und damit die logischerweise solidere Basis habe. Ohne damit der CB nahetreten zu wollen, die eine gute Arbeit machen.

BoMbY
2017-05-02, 13:46:58
Von Fury X zu 1080 Ti sind es genau +75%. 50% reichen da leider nicht. 50% für Vega 10 wäre in der Mitte zwischen 1080 (+32%) zu 1080Ti (+75%).
https://www.3dcenter.org/news/schneller-ultrahd-performance-ueberblick-der-281614nm-grafikkarten

Das kommt ganz auf den Benchmark bzw. Benchmark-Mix an. In Doom wird der Unterschied ganz anders aussehen als in TimeSpy (wo man ja weiß, dass zum Beispiel keinerlei Async Compute genutzt wird, was NVidia stark bevorteilt).

dildo4u
2017-05-02, 14:07:45
Das kommt ganz auf den Benchmark bzw. Benchmark-Mix an. In Doom wird der Unterschied ganz anders aussehen als in TimeSpy (wo man ja weiß, dass zum Beispiel keinerlei Async Compute genutzt wird, was NVidia stark bevorteilt).
Timespy nutzt Async Compute.

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

Tesselation killt Fury im zweiten Test.Hier ist die 480 nur 14% hinter Fury im ersten Test sind's 17%.

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/2/

mboeller
2017-05-02, 14:08:08
Stimmt zwar, aber man sollte das auch in Verhältnis setzen mit dem was AMD sonst so rauslässt. "Poor Volta", usw. kommt mir da gerade in den Sinn. Wenn das so wäre, hätten sie auch in der Mitteilung keine Zurückhaltung walten lassen oder? Kann mich natürlich irren.

Wenn, wie einige behaupten, die Performance zwischen 1080 und 1080 TI liegt, würde ich das persönlich als ziemlich grossen Erfolg sehen.

Nur mal so als Beispiel was AMD in der Mitteilung über seine Prozessoren mitteilen lässt:
"AMD Ryzen 7: These 8-core, 16-thread processors bring innovation and choice back to the enthusiast PC market and include the world’s highest performing, and lowest powered 8-core desktop PC processors."


Und über Vega:
"AMD’s “Vega” GPU architecture is on track to launch in Q2, and has been designed from scratch to address the most data- and visually-intensive next-generation workloads with key architecture advancements including: a differentiated memory subsystem, next-generation geometry pipeline, new compute engine, and a new pixel engine"

und jetzt schau mal in ihren Q4/2016 Report und schau was sie über Ryzen kurz vor dem Release geschrieben haben. Auch nicht wirklich "enthusiastisch" wie ich finde. Also auf die unterschiedliche Wortwahl würde ich nicht viel geben.

http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-eventDetails&EventId=5246442 -> "2016 Q4 Quarterly Earnings Release and Financial Tables"

BoMbY
2017-05-02, 14:18:09
Timespy nutzt Async Compute.

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/


Vielleicht verwechsle ich da was, aber gab es da nicht mal die klare Ansage von denen, dass die das nicht unterstützen? Abgesehen davon scheint es wohl im Standard Preset (d.h. in der kostenlosen Version) aus zu sein?

Edit: Ach nee, war nur eine NVidia-Optimierte Async Compute implementierung (http://www.pcgameshardware.de/DirectX-12-Software-255525/News/3DMark-Time-Spy-Asynchronous-Compute-Kritik-1201886/).

dildo4u
2017-05-02, 14:24:40
Der Bench ist schon ok die 580 ist dort schneller als die 1060,Vega sollte dort ordentlich aussehen da sie keine Tesschwäche mehr hat.

https://be.hardware.info/reviews/7337/9/amd-radeon-rx-570-en-rx-580-review-incl-4-way-crossfire-polaris-20-benchmarks-dx12n3dmark-time-spy

Locuza
2017-05-02, 14:48:10
[...]
Du könntest mir also entweder die Frage beantworten oder eben nicht. Meine Frage zielte darauf ab, was man erwarten könnte, wenn dieser Benchmark repräsentativ ist. Steht sogar da. :redface:
Du kannst eben nichts erwarten, weil die Vega-Resultate so oder so nicht verwertbar sind.

[...]
Edit: Ach nee, war nur eine NVidia-Optimierte Async Compute implementierung (http://www.pcgameshardware.de/DirectX-12-Software-255525/News/3DMark-Time-Spy-Asynchronous-Compute-Kritik-1201886/).
Async Compute wurde für einen relativen typischen Anwendungsfall verwendet und die Zuwächse sind unter Radeons ebenso größer, als unter Spielen, ich würde Abstand davon halten, dass Ganze als "Nvidia optimized" zu stigmatisieren.

Ab Seite 24:
http://s3.amazonaws.com/download-aws.futuremark.com/3DMark_Technical_Guide.pdf

Hübie
2017-05-02, 15:55:20
Der eine Fänboi sieht's so, der andere so. Mir ist es egal, solange die eigene Lösung schneller ist als das Konkurrenzprodukt. ;) Bisher war Fiji nur in einem Spiel so schnell wie meine GM200 und das war in AMDshes of the Singularity.

Und doch natürlich kann ich einiges erwarten, wenn Raja himself mal wieder die Werbetrommel rührt, der Start so spät erfolgt und dazu noch ein Video mit poor Volta aufgelegt wird. Die Erwartungen kommen ja nicht aus dem Nichts.
Dazu kommt noch das gezeigte und durchgesickerte Material. ;) Also 1080 + 10%, mal 20% sind drin. Mehr wohl nicht. Lass mich da gerne Überraschen...

Blediator16
2017-05-02, 16:08:11
Das Marketingteam möchte ein Schmunzeln aus dem Kunden entlocken und die Vögel in den Foren stürtzen sich auf das "poor Volta", als ob es um Leben und Tod geht. Meine Güte :rolleyes:

Hübie
2017-05-02, 16:14:31
Das ist halt sehr vollmundig. Wenn man so selbstsicher ist, sollte man auch liefern können. Die AMD Fänbois sehen das anders. Ich Wechsel nur wenn AMD liefert. Die gebrochenen Versprechen der Vergangenheit lassen jedoch jeden gesunden Verstand erst mal skeptisch, abwartend agieren bevor gehandelt wird. ;)

Mancko
2017-05-02, 16:20:30
Das ist halt sehr vollmundig. Wenn man so selbstsicher ist, sollte man auch liefern können. Die AMD Fänbois sehen das anders. Ich Wechsel nur wenn AMD liefert. Die gebrochenen Versprechen der Vergangenheit lassen jedoch jeden gesunden Verstand erst mal skeptisch, abwartend agieren bevor gehandelt wird. ;)

In der Tat wird auch AMD an den abgelieferten Ergebnisse im Vergleich zu den Aussagen gemessen. Beim letzten Mal war das ja mit "Months ahead, VR TAM und mobile efficiency etc." eher ein Schuss ins eigene Knie.

Blediator16
2017-05-02, 16:31:56
In der Tat wird auch AMD an den abgelieferten Ergebnisse im Vergleich zu den Aussagen gemessen. Beim letzten Mal war das ja mit "Months ahead, VR TAM und mobile efficiency etc." eher ein Schuss ins eigene Knie.

Das war in der Tat einer der größten PR Reinfälle in im letzten Jahren.


Edit: Vega ganz echt und kein fake :freak:

https://uploads.disquscdn.com/images/c09cc9c30e9189bc40602933432b8ec5fe96bfc3d685746f28fc0833814c5b62.png

Tamagothi
2017-05-02, 16:38:30
Falls das Stimmt kann sich die 1080ti ....:freak:

[MK2]Mythos
2017-05-02, 16:44:35
Falls das Stimmt kann sich die 1080ti ....:freak:
:facepalm:

dargo
2017-05-02, 16:49:13
Timespy nutzt Async Compute.

Das Pseudo-AC ist ein Witz.

dildo4u
2017-05-02, 16:50:00
Was spricht eigentlich dagegen das es eine Vega Version gibt die so schnell wie die 1070 ist?1060 und 1070 sind die meist verkauften neuen GPU's,AMD braucht was bei 400€.

http://store.steampowered.com/hwsurvey/directx/

Das Pseudo-AC ist ein Witz.
Die Sprünge sind Größer als bei allen DX12 Games.

Der übliche Platzhirsch in der Disziplin bleiben aber auch in diesem Fall die Radeon-Grafikkarten. Vor allem die Radeon R9 390 kann gut zulegen und wird um 16 Prozent schneller, dicht gefolgt von der Radeon R9 Fury X, die 15 Prozent Leistung gewinnt.

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

Troyan
2017-05-02, 16:51:28
Das Pseudo-AC ist ein Witz.

Immer wichtig, die Meinung eines Experten zu diesem Thema hier zu hören. ;D

Gipsel
2017-05-02, 16:59:30
Was spricht eigentlich dagegen das es eine Vega Version gibt die so schnell wie die 1070 ist?Nix. Deswegen kommt für den Bereich ja wohl auch Vega11.

Palpatin
2017-05-02, 17:07:57
Das im 350$ Bereich HBM2 etwas teuer sein könnte spricht halt etwas dagegen. Kann natürlich sein das es sich trozdem für AMD Rechnet einen 1070 Gegenspieler mit HBM2 für 350 rauszuhauen.

Hübie
2017-05-02, 17:22:26
Das Ergebnis erscheint mir ohne hin zu gering für V10 full fat. Die Frage wie repräsentativ der Benchmark ist, wurde weitgehend geklärt. Man kann da sehr einfach bescheißen (ins Positive wie Negative).

Gipsel
2017-05-02, 17:24:21
Das im 350$ Bereich HBM2 etwas teuer sein könnte spricht halt etwas dagegen. Kann natürlich sein das es sich trozdem für AMD Rechnet einen 1070 Gegenspieler mit HBM2 für 350 rauszuhauen.Nun, im Vergleich zu Fiji vielleicht nur grob halbe Die-Größe (maximal ~60%) und halbe Anzahl an HBM-Stacks (oder im Extremfall sogar nur einer?). Das sollte also auch für nicht viel mehr als den halben Preis zu produzieren und zu verkaufen sein. ;)

dildo4u
2017-05-02, 17:51:45
Das im 350$ Bereich HBM2 etwas teuer sein könnte spricht halt etwas dagegen. Kann natürlich sein das es sich trozdem für AMD Rechnet einen 1070 Gegenspieler mit HBM2 für 350 rauszuhauen.
Das passt schon nur erwarte ich da keine 8GB.AMD hat das Marketing für den HBM Cache ja schon begonnen,das ganze hervorzuheben macht vorallem Sinn wenn sie 400€ 4GB Karten verkaufen wollen.

Palpatin
2017-05-02, 17:59:05
Die Karte im Bench war aber 8GB und dürfte auch 2 Stacks gewesen sein. Performance etwas unterhalb 1070, mit Takt und Treiber Anpassung vermutlich gleichauf bis zu 10% schneller als 1070. ->350$. Würde perfekt passen. Ob halt dann noch was verdient ist. :confused:

Gipsel
2017-05-02, 18:02:39
Die Karte im Bench war aber 8GB und dürfte auch 2 Stacks gewesen sein. Performance etwas unterhalb 1070, mit Takt und Treiber Anpassung vermutlich gleichauf bis zu 10% schneller als 1070. ->350$. Würde perfekt passen. Ob halt dann noch was verdient ist. :confused:Welche Karte in welchem Bench? Das TimeSpy-Ding ist doch absolut unzuverlässig und unklar, was da überhaupt gebencht wurde. Da würde ich zu diesem Zeitpunkt nicht viel drauf geben.

5CH4CHT3L
2017-05-02, 18:15:50
Es bleibt ja auch noch GDDR5X für V11, da könne man sich mit einem 256bit Bus gut zwischen Polaris und V10 positionieren. Die Frage ist halt nur ob AMD an G5X rankommt. Wenn nicht, bleibt halt als billige Lösung noch 1 Stack HBM2 mit 4/8 GB, da wäre man aber wieder auf 256GB/s Bandbreite limitiert. Wenn man klassisch GDDR5 nehmen würde bräuchte man halt eine breitere Anbindung um sich von Polaris abzuheben, was Strom und Arbeit kostet

Gipsel
2017-05-02, 18:25:45
Es bleibt ja auch noch GDDR5X für V11, da könne man sich mit einem 256bit Bus gut zwischen Polaris und V10 positionieren. Die Frage ist halt nur ob AMD an G5X rankommt. Wenn nicht, bleibt halt als billige Lösung noch 1 Stack HBM2 mit 4/8 GB, da wäre man aber wieder auf 256GB/s Bandbreite limitiert.Mehr hat die GTX1070 auch nicht. Die Architekturverbesserungen von Vega müssen halt greifen, dann reicht das auch. Alternativ bieten sich 2 Stacks mit 700MHz an.

Hübie
2017-05-02, 18:28:35
Es bleibt ja auch noch GDDR5X für V11, da könne man sich mit einem 256bit Bus gut zwischen Polaris und V10 positionieren. Die Frage ist halt nur ob AMD an G5X rankommt. Wenn nicht, bleibt halt als billige Lösung noch 1 Stack HBM2 mit 4/8 GB, da wäre man aber wieder auf 256GB/s Bandbreite limitiert. Wenn man klassisch GDDR5 nehmen würde bräuchte man halt eine breitere Anbindung um sich von Polaris abzuheben, was Strom und Arbeit kostet

Warum sollte AMD da nicht heran kommen sollen? Zu kurze Arme? :confused:

5CH4CHT3L
2017-05-02, 18:54:06
Mehr hat die GTX1070 auch nicht. Die Architekturverbesserungen von Vega müssen halt greifen, dann reicht das auch. Alternativ bieten sich 2 Stacks mit 700MHz an.
Pascal kann aber mit Bandbreite sehr effektiv umgehen (wenn Vega da herankommt hast du aber recht), und 2 Stacks wären wieder ziemlich teuer für eine run 400€ Karte (auch wenn man den Chip einfach als V10 mit weniger shader konzipieren könnte und Entwicklungsarbeit spart)

@Hübie
keine Ahnung vielleicht geringe Verfügbarkeit oder so, Nvidia traut sich ja auch noch nicht an HBM2 für Verbraucher

Gipsel
2017-05-02, 18:59:01
Pascal kann aber mit Bandbreite sehr effektiv umgehen (wenn Vega da herankommt hast du aber recht), und 2 Stacks wären wieder ziemlich teuer für eine run 400€ KarteWie schon gesagt wären das halb so viele Stacks wie bei Fiji und vermutlich auch nur wenig mehr als grob die halbe Die-Size. Und wieviel muß man gerade für eine Fury bezahlen, wieviel zum Start? Unter 400€ sind da potentiell locker drin.
Und was die Bandbreite angeht: Die von AMD geteasten Änderungen mit Vega gehen zum großen Teil (sowohl Frontend mit Binning-Rasterizer als auch Backend mit am L2 hängenden ROPs) direkt in die Richtung von Bandbreitenersparnis. Die müssen das wie gesagt nur umsetzen.

5CH4CHT3L
2017-05-02, 19:08:46
Wie schon gesagt wären das halb so viele Stacks wie bei Fiji und vermutlich auch nur wenig mehr als grob die halbe Die-Size. Und wieviel muß man gerade für eine Fury bezahlen, wieviel zum Start? Unter 400€ sind da potentiell locker drin.
Und was die Bandbreite angeht: Die von AMD geteasten Änderungen mit Vega gehen zum großen Teil (sowohl Frontend mit Binning-Rasterizer als auch Backend mit am L2 hängenden ROPs) direkt in die Richtung von Bandbreitenersparnis. Die müssen das wie gesagt nur umsetzen.
Na dann hoffen wir mal auf das beste

dargo
2017-05-02, 19:28:50
Mehr hat die GTX1070 auch nicht. Die Architekturverbesserungen von Vega müssen halt greifen, dann reicht das auch. Alternativ bieten sich 2 Stacks mit 700MHz an.
Ich glaube auch immer mehr an zwei Stacks bei V11, dafür halt "low Cost HBM2".

5CH4CHT3L
2017-05-02, 19:59:30
Also wenn beide Ergebnisse stimmen würden, der Speicher keinen Einfluss auf die Performance hätte und der hohe score von einer voll freigeschalteter V10 GPU kommt, gilt die Rechnung für das schlechtere Ergebnis:

4096 Shader * 1600 MHz * x = 10158 Graphics Score
y Shader * 1200 MHz * x = 5721 Graphics Score

--> Die kleine GPU müsste mit ~3076 Shadern gelaufen sein

ist natürlich 100% Spekulation und sehr wahrscheinlich falsch

Hübie
2017-05-02, 20:18:22
@Hübie
keine Ahnung vielleicht geringe Verfügbarkeit oder so, Nvidia traut sich ja auch noch nicht an HBM2 für Verbraucher

Das liegt schlicht am Preis. Ein ansehnliches Prozentual der HBM-Stacks muss nachgearbeitet werden. Bisher ist auch nicht bekannt ob man überhaupt HBM2 für consumer bringen möchte. Das macht AMD aktuell im Alleingang (wobei die sich das wiederum weniger leisten könnten). Skurril, aber that's business. :freak:
Vega wird wohl auch "nur" mit 8 GB kommen, wobei ich das als ausreichend betrachte, wenn man bedenkt, wie künftig Speicher gehandhabt wird. Meine Hoffnung ist natürlich, dass man eben nicht per App implementieren, optimieren und Entwickler drangsalieren muss.

Tesseract
2017-05-02, 20:20:59
4096 Shader * 1600 MHz * x = 10158 Graphics Score

wo kommt dieser wert her?

ich hab gestern auch ein bischen rumgerechnet und die 5721 könnten möglicherweise der kleine vega im vollausbau mit AMD-typischen 2816 shadern sein. das wär dann etwa 23% bessere "IPC" als polaris was durchaus im bereich des realistischen liegt.

5CH4CHT3L
2017-05-02, 20:28:48
wo kommt dieser wert her?

ich hab gestern auch ein bischen rumgerechnet und die 5721 könnten möglicherweise der kleine vega im vollausbau mit AMD-typischen 2816 shadern sein. das wär dann etwa 23% bessere "IPC" als polaris was durchaus im bereich des realistischen liegt.
Der wert kommt von Blediator16 von der Seite davor:
https://uploads.disquscdn.com/images/c09cc9c30e9189bc40602933432b8ec5fe96bfc3d685746f28fc0833814c5b62.png

Tesseract
2017-05-02, 20:36:17
dann hat der kleine vega wohl 3072 (48*64) oder es ist ein ganz harter salvage.

Hübie
2017-05-02, 20:39:03
wo kommt dieser wert her?

ich hab gestern auch ein bischen rumgerechnet und die 5721 könnten möglicherweise der kleine vega im vollausbau mit AMD-typischen 2816 shadern sein. das wär dann etwa 23% bessere "IPC" als polaris was durchaus im bereich des realistischen liegt.

Dann käme man bei den spekulierten 1.500 MHz und 4096 ALU auf ~10.400 Pkt im Time Spy Benchmark. Das ist auf Augenhöhe mit der 1080 Ti. Ich glaub's zwar nicht, aber kategorisch ausschließen möchte ich's eben so wenig. :freak:

Edit: Das von Blediator16 war auch nur ein Scherz. Die 5721 wahrscheinlich auch. Nichts desto trotz kann da was dran sein.

Tesseract
2017-05-02, 20:44:56
die 5721 stehen aber in der datenbank, das zu faken wär schon deutlich mehr aufwand als mal eben photoshop anzuwerfen.

Raff
2017-05-02, 20:45:27
Nebenbei bemerkt: Wie kommt Vega 10 eigentlich auf die angeblichen 500+ Quadratmillimeter Die-Fläche, wenn nur 4.096 ALUs darin stecken sollen? So viele Füll-Transistoren, um mehr Takt zu stemmen, können's kaum sein. ;) Fette Caches? Was ist eure naheliegendste Vermutung?

MfG,
Raff

Tamagothi
2017-05-02, 20:49:08
CU's überarbeitet/Größer als vorher? DP?


dann hat der kleine vega wohl 3072 (48*64) oder es ist ein ganz harter salvage.

Gabs nicht mal ein gerücht das Hawaii 48 CU's hatt? Hawaii 2.0 :biggrin:

Locuza
2017-05-02, 20:54:06
Nebenbei bemerkt: Wie kommt Vega 10 eigentlich auf die angeblichen 500+ Quadratmillimeter Die-Fläche, wenn nur 4.096 ALUs darin stecken sollen? So viele Füll-Transistoren, um mehr Takt zu stemmen, können's kaum sein. ;) Fette Caches? Was ist eure naheliegendste Vermutung?

MfG,
Raff
Laut Golem meinte Raja Koduri Vega 10 wäre kleiner als 500mm², natürlich nicht viel.
Wenn man Fiji mit der selben Packdichte wie von Polaris 10 shrinken würde, würde man bei ~360mm² landen, eher weniger da die Packdichte von Fiji gegenüber Hawaii und Tonga höher lag.

Gegenüber GCN Gen 3 kommt natürlich alles von Gen 4 dazu und eben das neue Zeug von Gen 5.

Von Gen 4:

- Instruction Buffer sind größer geworden
- Intstruction Prefetch wird unterstützt
- Primitive Discard Accelerator
- Die Geometry-Engines puffern jetzt die meshes selber, nicht mehr der L2$.
- Die verbesserte Delta-Color-Compression

Von Gen 5:

- Draw-Stream-Binning-Rasterizer
- Der Rasterizer wird nun auch Conservative Rasterization unterstützen
- Die Instruction Buffer werden erneut vergrößert
- Die ALUs sollen eine höhere Taktrate unterstützen
- Die ALUs werden Double-Rate FP16 unterstützen, aktuell ist es nur Single-Rate und vermutlich ist vierfach Int8 auch etwas neues, was GCN Gen 4 noch nicht konnte
- Die Geometry-Engines werden den theoretischen Durchsatz von einem Dreieck auf 2,75 erhöhen (liest sich krude, gilt vielleicht nur für spezielle Fälle), was insgesamt 11 Dreiecke pro Takt bedeutet, anstatt 4 wie bei Fiji.
- Die ROPs sind nun die Clients vom L2$, weswegen AMD möglicherweise auch Rasterizer Ordered Views unterstützt, es könnte sein das deswegen der Flächenbedarf steigt.
- Da der Rasterizer jetzt Kacheln im L2$ speichert und auch die ROPs die Konsumenten vom L2$ sind, wird die Kapazität vom L2$ garantiert steigen, vermutlich von 2MB auf 4MB.
- Und AMD hat noch mehr Dinge getan, die aktuell noch nicht genannt wurden.

basix
2017-05-02, 20:55:10
Fette Caches? Was ist eure naheliegendste Vermutung?

Kannst zu Nvidia rüberschauen: GM107 hatte plötzlich 2MB L2$, mehr als damals GK110. Für das Tiling benötigt man mehr Cache, wie viel genau steht in den Sternen.

Schlussendlich wird es eine Kombination aus allem möglichen sein:

Mehr Cache = Höhere Datenlokalität = Höhere Performance & geringerer Energiebedarf
Neue Architektur = Neue Features = Mehr Transitoren
Höherer Takt = Mehr Transistoren (GNDs!)
Infinity Fabric
Packed Math
Ryzen hat ebenfalls zig Transistoren - Für was? Secret Sauce?
6K Shader ;D (4K war der Kleine Vega :uconf3:)

Raff
2017-05-02, 21:01:38
Ich danke euch für die schöne Zusammenfassung des bisher Bekannten. :up:

Und all das lässt tatsächlich hoffen, dass Vega fetzt. GP102 wird eine harte Nuss, aber wer weiß. Fiji war "imba", im negativen Sinn. Mit 4.096 ALUs und ~gleichem Takt wird's aber eher nix mit Faktor 2 gegenüber Polaris 10/20, den man für die Titan X(p) und GTX 1080 Ti braucht.

MfG,
Raff

Hübie
2017-05-02, 21:50:06
die 5721 stehen aber in der datenbank, das zu faken wär schon deutlich mehr aufwand als mal eben photoshop anzuwerfen.

BIOS mit Device ID flashen und dann die inf modden. Klar. Aufwand. Aber gibt so Heinis die nix besseres zu tun haben. :freak:

robbitop
2017-05-02, 22:17:26
Allein höhere Taktraten kosten ordentlich. Pascals Ausführungseinheiten haben kaum höhere IPC als Maxwells, sind aber iirc deutlich größer. Dafür lassen sie deutlich höhere Taktraten zu.

Digidi
2017-05-02, 23:15:17
AMD wird nicht viel an den CUs ändern, die sind spitze. Eine FuryX kommt da schon in Shaderlastigen Spielen mit Ihren 1000 MHZ an eine 1070 1080 Ran.

AMDs Hauptaugenmerk ist klar das Frontend und der HBCC. Alleine der neue und sehr komplexe rasterizer dürfte da doppelt so groß sein. Das mit denn 11 Polygonen hab ich noch nicht verstanden. In den Folien ist die Rede von mehr als dem doppelten Polygoneoutput. Wenn dass der "Output" ist, dann können wohl bis zu 11 Polygonen an die CUs ausgegeben werden und vorher vielleicht noch mehr Polygonen verworfen werden!?

Wie viel Platz wird den wohl der HBCC brauchen? Das Interface für HBM war ja sehr klein, aber für HBCC dürfte das riesig werden wenn der mehrere Speicherarten unterstützt.


Lustig ist das Nvidia wohl Probleme mit dem Rasterizer hat oder der Befüllung der Rasterizer. Bei der 1080 und der 1080ti herrscht Gleichstand beim Polygoneoutput, obwohl Gp102 zwei Rasterizer mehr hat als Gp104.

http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/3

Beide Nvidi Karten kommen hier in etwa auf 7,2 Polygonen pro Takt. Da wäre Vega mit 11 Polygonen pro Takt gut 40% schneller.

Auch hier wäre Mal interessant zu wissen ob die Ominöse Byoned3d Suite Culling betreibt denn ansonsten weiß ich nicht wie es Nvidia schafft mit 6 Rasterizer mehr als 6 Polygonen auszugeben.

=Floi=
2017-05-03, 02:41:34
ob das wirklich noch limitiert?!

robbitop
2017-05-03, 06:16:24
AMD kann die CUs aber nur selten auskasten. Bereits Polaris hat diese Front End Schwäche nicht mehr (siehe FullHD Leistung) und ist Rohleistungsnormiert dennoch ein gutes Stück langsamer als Pascal. Doom ist so ziemlich die Ausnahme. Doom wurde für gcn aber auch massiv angepasst. Vega soll laut AMDs eigener Folie die CUs seitens der Kontrollogik so verändert haben, dass die Auslastung der CUs steigen wird. Sicherlich analog zu Maxwell ggü Kepler.

Skysnake
2017-05-03, 07:34:25
Kepler hatte 192 Als,konnte an sich aber nur 128 mit den Shedulern befeuern. Maxwell hat das gefixt.

So einen Bock hat AMD nicht in ihrem Design

Korvaun
2017-05-03, 07:34:38
Ich sehe da ein paar entscheidende Punkte für die VEGA Performance:

1. Ist die GCN-Architektur endlich richtig modernisiert/verbessert?

2. Wieviel Takt ist schlussendlich wirklich möglich?

(3. Was "kostet" der dedizierte HPC-Computing-Kram an Fläche / Leistung(Takt) ?)

Sollte auch nur ein Punkt davon schlecht ausfallen wird das mit VEGA nicht wirklich was, zumindest aus "Spieler-Sicht"...

uweskw
2017-05-03, 09:07:47
Sieht doch mal ganz gut aus für Vega. Wenn der Preis jetzt auch noch um 600€ herum liegt, könnte es mal wieder richtig bergauf gehen mit AMD.
Bin ja mal auf die Reviews gespannt. Grade wegen der "nur" 8GB Speicher. Wenn die so effizient sind wie 4GB bei Fury, sollte es bis 8k keine Probleme geben.
Hoffentlich wird sich das via DSR/VSR schön verglichen.

greetz
US

Pirx
2017-05-03, 09:14:30
hmm der 2.5. war es also schon mal nicht, leider

r3ptil3
2017-05-03, 09:18:16
hmm der 2.5. war es also schon mal nicht, leider

Aus früheren Erfahrungen gab es doch meistens ein paar Tage vor den Reviews schon reichlich (erlaubtes) Bildmaterial und sonstige Leaks. Fehlt ja bislang noch alles.

Klingt fast schon nach Juni...

Pirx
2017-05-03, 09:24:15
Warum auch nicht, ich würde auch mit Ende Juni rechnen.

Dino-Fossil
2017-05-03, 11:17:19
In Anbetracht des offensichtlich wesentlich höheren Transistoren-Budgets bei Vega, ist im Vergleich zu Fiji wohl ziemlich alles offen.
Ich frage mich vor allem, wie viel davon hauptsächlich im professionellen Bereich nötig ist - es wäre jedenfalls sehr schade, wenn AMD die Spieler außen vor lässt und sich hauptsächlich darauf konzentriert (wie von einigen anscheinend vermutet).
Wenn allerdings ein guter Teil dafür genutzt wird, um höhere Taktraten und bessere Auslastung zu erreichen, kann Vega einiges reißen.

Gipsel
2017-05-03, 11:25:35
Was soll das denn groß sein, was ausschließlich für den professionellen Markt eingebaut wird? Double precision geht auf Vega10 nur mit 1/16 Rate. Das ist es also schon mal nicht.

iuno
2017-05-03, 11:32:44
INT8 ;p

Die infinity fabric wurde bei den ganzen Auflistungen noch gar nicht genannt. Die wird doch auch ein paar mm² und Transistoren brauchen

Gipsel
2017-05-03, 11:43:41
INT8 ;pINT8-ALUS siehst Du selbst mit einem Mikroskop kaum auf dem Die, so winzig sind die. Da kostet der Support einer zusätzlichen Instruktion in den Dekodern schon bald mehr ;).
Die infinity fabric wurde bei den ganzen Auflistungen noch gar nicht genannt. Die wird doch auch ein paar mm² und Transistoren brauchenDas kommt ja nicht wirklich zusätzlich drauf. Es ersetzt und vereinheitlicht praktisch die bisher verbauten Crossbars auf dem Chip (insbesondere zum Speicherinterface). Da wird es sicher ein wenig Overhead im Austausch gegen die gewonnene Flexibilität und Modularität geben, aber soo viel mehr Fläche dürfte das wohl kaum kosten (sonst würde sich die Integration ja nicht lohnen).

iuno
2017-05-03, 11:45:53
Sollte die nicht auch als externes interface fungieren, ähnlich wie NVLink?

Gipsel
2017-05-03, 11:54:17
Sollte die nicht auch als externes interface fungieren, ähnlich wie NVLink?Im Prinzip ist die IF wohl als ein Netzwerk ähnlich dem OSI-Modell organisiert. Das Protokoll der höheren Layer kann also über unterschiedliche Link-Layer laufen. Deshalb benutzt ja z.B. Naples umgewidmete PCIe-Links, um die Sockel kohärent miteinander zu verbinden. Wie die Links on-Die ausgeführt werden, wird davon also eher nicht beeinflußt. Prinzipiell geht man offenbar in die Richtung eines Network-on-Chip (NoC), was einfacher skalierbar ist als diskrete Crossbars.

BoMbY
2017-05-03, 11:56:48
Double precision geht auf Vega10 nur mit 1/16 Rate. Das ist es also schon mal nicht.

Ähh nein:

http://cdn.wccftech.com/wp-content/uploads/2017/01/slides-27-840x473.jpg

Double Precision ist konfigurierbar zwischen 1/2 und möglicherweise 1/16.

Gipsel
2017-05-03, 12:00:01
Ähh nein:

http://cdn.wccftech.com/wp-content/uploads/2017/01/slides-27-840x473.jpg

Double Precision ist konfigurierbar zwischen 1/2 und möglicherweise 1/16.
Ähh, doch. Deine Folie gilt für Vega allgemein (bei GCN ist die DP-Rate seit v1 immer konfigurierbar), ich sprach von Vega10. ;)
Edit: Vega20 soll dann 2018 angeblich mit 1/2 DP kommen.

HOT
2017-05-03, 12:01:22
V10 und V11 sind klassische reine Consumerchips. Das einzige, was da noch zusätzlich dran sein wird ist eine date fabric Verbindung. Wie sehen aber schon auf dem SummitRidge-Die, wie winzig die ist, das fällt also wohl kaum ins Gewicht. Ansonsten muss AMD noch einen zusätzlichen Chip liefern, der auch den Profibereich abdeckt und Hawaii bei der DP-Leistung ablöst. Das wird von V10/11 schlicht nicht geleistet. Und FP32/2xFP16/4xInt8 wird einfach das grundsätzliche Design der NCUs sein. Das wird da vollkommen egal sein, welcher Markt damit bedient wird.

Gipsel, nach der P20-Vorstellung halte ich davon nichts mehr. Vega20 ist garantiert auch nur ein Refresh von V10, natürlich weiterhin in 14/16nm. Zudem sind solch komplexe 7nm-Chips definitiv nicht vor 2019 zu erwarten, egal von welcher Foundry. Wenn AMD Hawaii ersetzt, dann durch einen ganz anderen Vega-Chip abseits von V10/11 bzw. V20/21.

Wie wärs mit einem Vega12 mit 80CUs und 12-48GB GDDR6? Das ist durchaus sinnvoll, da ein solcher Chip lange halten muss (bis 2022+) und die erste HBM-Generation sicherlichlich nicht so lange produziert wird wie GDDR6-Speicher.

Dino-Fossil
2017-05-03, 12:08:19
Was soll das denn groß sein, was ausschließlich für den professionellen Markt eingebaut wird? Double precision geht auf Vega10 nur mit 1/16 Rate. Das ist es also schon mal nicht.

Ich bin noch bisschen skeptisch mit dem HBCC. Denke viel von dessen Funktionalität zielt vor allem auf den professionellen Markt ab, aber vielleicht ist das auch eine unsinnige Annahme.

Aber seid ihr sicher, dass Vega10 ein eigenständiger Chip ist und nicht das gleiche Silikon, dass auch im professionellen Bereich verkauft wird?

BoMbY
2017-05-03, 12:09:38
Ähh, doch. Deine Folie gilt für Vega allgemein (bei GCN ist die DP-Rate seit v1 immer konfigurierbar), ich sprach von Vega10. ;)
Edit: Vega20 soll dann 2018 angeblich mit 1/2 DP kommen.

Und Deine Quelle dafür lautet? AMD hatte früher schon GPUs für Pro und Consumer Karten unterschiedlich konfiguriert.

Siehe zum Beispiel AMD FirePro™ W9100:

44 CUs, 5.24 TFLOPS SP und 2.62 TFLOPS DP ...

http://www.amd.com/en-us/products/graphics/workstation/firepro-3d/9100#2

Was kann das wohl sein?

PrivateCeralion
2017-05-03, 12:37:22
Mein Prof hat behauptet, dass erst Vega20 Double Precision von 1/2 hat.

Pirx
2017-05-03, 12:45:05
Mein Prof hat behauptet, dass erst Vega20 Double Precision von 1/2 hat.
du bist aber nicht mit Schaffe an der selben Uni, hoffe ich;)

PrivateCeralion
2017-05-03, 13:21:59
du bist aber nicht mit Schaffe an der selben Uni, hoffe ich;)

Ich glaube nicht :D
Wobei es mich zu sehr interessieren würde, wie er aus sieht. Aber im Gegensatz zu Schaffes Uni Kollegen macht mein Prof nur Aussagen, die öffentlich schon bekannt sind, da er niemals ein NDA brechen würde.

Gipsel
2017-05-03, 13:47:12
Aber seid ihr sicher, dass Vega10 ein eigenständiger Chip ist und nicht das gleiche Silikon, dass auch im professionellen Bereich verkauft wird?[Rechtschreib-Nazi]
englisch: silicone => deutsch: Silikon
englisch: silicon => deutsch: Silizium
Die Chips sind sicher nicht aus Silikon, auch wenn sie dann sehr flexibel wären. ;)
[/Rechtschreib-Nazi]

Zum Thema:
Natürlich wird der Vega10 Chip sowohl im professionellen Bereich (als MI 25) und im Consumer-Bereich verkauft.

Dino-Fossil
2017-05-03, 13:55:07
[Rechtschreib-Nazi]
englisch: silicone => deutsch: Silikon
englisch: silicon => deutsch: Silizium
Die Chips sind sicher nicht aus Silikon, auch wenn sie dann sehr flexibel wären. ;)
[/Rechtschreib-Nazi]

Zum Thema:
Natürlich wird der Vega10 Chip sowohl im professionellen Bereich (als MI 25) und im Consumer-Bereich verkauft.

Argh...das kommt davon, wenn man Beiträge zwischen Tür und Angel verfasst.

Gipsel
2017-05-03, 14:01:41
Und Deine Quelle dafür lautet?Die Folien für Vega10 (deren Daten ja später mit der offiziellen Ankündigung der Radeon Instinct MI25 praktisch bestätigt wurden).
AMD hatte früher schon GPUs für Pro und Consumer Karten unterschiedlich konfiguriert.Damit ist aber eine andere Art der Konfiguration als auf der Folie gemeint. Wie schon gesagt, beschreibt AMD bei GCN die DP-Rate schon immer als konfigurierbar. Das meint, daß beim Design einer GPU ausgewählt werden kann, welche Rate physisch eingebaut wird. Daß man das später im fertigen Produkt noch weiter einbremsen kann, bleibt davon ja unbenommen. Oder wie es das Original GCN-Whitepaper (zu GCN v1) ausdrückte:
Double precision and 32-bit integer instructions run at a reduced rate within a SIMD. The GCN Architecture is flexible and double precision performance varies from 1/2 to 1/16 of single precision performance, increasing the latency accordingly. The double precision and 32-bit integer performance can be configured for a specific GCN implementation, based on the target application.Dabei konnte keine einzige GCN v1 GPU DP mit 1/2 (Maximum war 1/4 mit Tahiti). Insofern ist Dein Beispiel mit Hawaii (1/8 für Consumer, 1/2 für Workstation/Server) für genau gar nichts gut.

BoMbY
2017-05-03, 14:04:10
Übrigens haben 687F:C1 und 687F:C3 beide scheinbar 64 CUs.

Für 687F:C1 laut Compubench (https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+687F%3AC1&testgroup=info): CL_DEVICE_MAX_COMPUTE_UNITS 64

Und für 687F:C3 laut Sandra (http://ranker.sisoftware.net/show_device.php?q=c9a598ae96a1e7dd9ead8becd1fccdeb99a494b2dbe6d7f199a491b7cff2c3 e580e5d8e8cebd80b8&l=en): Average Capacity 64CU

iuno
2017-05-03, 14:05:51
Im Prinzip ist die IF wohl als ein Netzwerk ähnlich dem OSI-Modell organisiert. Das Protokoll der höheren Layer kann also über unterschiedliche Link-Layer laufen. Deshalb benutzt ja z.B. Naples umgewidmete PCIe-Links, um die Sockel kohärent miteinander zu verbinden. Wie die Links on-Die ausgeführt werden, wird davon also eher nicht beeinflußt. Prinzipiell geht man offenbar in die Richtung eines Network-on-Chip (NoC), was einfacher skalierbar ist als diskrete Crossbars.
Meinst du das hat was mit der IF zu tun?
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/amdgpu/soc15d.h?h=drm-next-4.12&id=60508d3df2d2052881190ac82802a12cabcef53c
Ich kann damit nicht viel anfangen, aber das ist voellig neu und sieht nach einer Protokolldefinition aus :D

Uebrigens auch neu ist, dass der DRM Treiber jetzt mit dem PSP kommunizieren kann, was vermutlich fuer DRM Kram und HDCP verwendet werden soll.

Und ROCm 1.5 steht wie es aussieht auch mit Vega Support bereit.


------

Gab es eigentlich noch Zweifel daran, dass Vega in 14 nm (GF) kommt?
14 nm as well
https://youtu.be/x8LQjMQzt3k?t=111

BoMbY
2017-05-03, 14:06:03
Die Folien für Vega10 (deren Daten ja später mit der offiziellen Ankündigung der Radeon Instinct MI25 praktisch bestätigt wurden).
Damit ist aber eine andere Art der Konfiguration als auf der Folie gemeint. Wie schon gesagt, beschreibt AMD bei GCN die DP-Rate schon immer als konfigurierbar. Das meint, daß beim Design einer GPU ausgewählt werden kann, welche Rate physisch eingebaut wird. Daß man das später im fertigen Produkt noch weiter einbremsen kann, bleibt davon ja unbenommen. Oder wie es das Original GCN-Whitepaper (zu GCN v1) ausdrückte:
Dabei konnte keine einzige GCN v1 GPU DP mit 1/2 (Maximum war 1/4 mit Tahiti). Insofern ist Dein Beispiel mit Hawaii (1/8 für Consumer, 1/2 für Workstation/Server) für genau gar nichts gut.

Bitte, dann zeig doch die Folie auf der 1/16 steht, und wo steht, dass das was ganz anderes bei Vega ist, als das was man bisher gemacht hat?

Und Hawaii ist ganz offensichtlich GCN und kann ganz offensichtlich 1/2.

Gipsel
2017-05-03, 14:20:48
Bitte, dann zeig doch die Folie auf der 1/16 steht, und wo steht, dass das was ganz anderes bei Vega ist, als das was man bisher gemacht hat?
Niemand sagt, daß es was Anderes wäre, als AMD bei GCN schon immer mit den DP-Raten gemacht hat.
https://cdn.videocardz.com/1/2017/01/AMD-VEGA-10-specifications.jpg
Und Hawaii ist ganz offensichtlich GCN und kann ganz offensichtlich 1/2.Ich sehe da kein Argument Deinerseits. Tahiti ist auch GCN und kann 1/4. Pitcairn, CapeVerde, Tonga, Polaris10/11 sind GCN (verschiedener Generationen) und können 1/16 in Hardware.
Hast Du das Zitat aus dem Whitepaper zu GCN v1 (Tahiti, Pitcairn, CapeVerde) gelesen und verstanden? Die sprachen damals schon von bis zu 1/2 DP und keine GPU konnte es dann. Was es sagt ist, daß die Möglichkeit so eine GPU zu bauen existiert, der Bauskasten gibt das her (erst mit der späteren GCN v2 Iteration und Hawaii wurde das genutzt). Die DP-Rate bei GCN ist immer konfigurierbar im Sinne, daß AMD für eine bestimmte Implementation (also einen bestimmten Chip) eine bestimmte (maximale) DP-Rate auswählen kann. Das hindert AMD nicht daran, Chips mit maximal 1/16 DP zu bauen (z.B. Polaris und höchstwahrscheinlich auch Vega10) und andere Chips mit mehr (Tahiti, Hawaii). Das ist vielmehr der Grund dafür, warum das relativ einfach geht, ohne die CUs komplett neu zu designen.

iuno
2017-05-03, 14:26:41
Ich glaube du musst GCN v1 staerker hervorheben.

Wo wir schon dabei sind :ugly: letztens gab es auch auf Reddit einen Typen der gemeint hat, dass GCN dedizierte FP64 ALUs hat. Der Satz, dass die FP64 Rate "seit Vega" konfigurierbar ist hat ihm dann gesagt, dass diese dedizierten Einheiten auch zwei FP32 Ops/clock ausfuehren koennen. Er ging also dann irgendwie von 3x so hoher Leistung aus und musste das auf Reddit kundtun, was auch noch manche geschluckt haben :ugly:

Pirx
2017-05-03, 14:49:31
Was ist nun das Kriterium, daß Vega10 definitiv nur die 1/16-Rate in Hardware hat - in Anbetracht von Hawaii, der 1/2 bei nicht auffällig großem Die kann?

iuno
2017-05-03, 14:56:09
Es gibt kein Kriterium, sondern eine Annahme, die auf Slides basiert, deren Infos sich groesstenteils bestaetigt haben.

r3ptil3
2017-05-03, 15:06:57
Jemand eine Idee woher nun "699F:C1" kommt?

Datiert auf den 03.05.2017:
https://gfxbench.com/compare.jsp?benchmark=gfx40&D1=AMD+699F%3AC1&os1=Windows&api1=gl&hwtype1=dGPU&hwname1=AMD+699F%3AC1

Blediator16
2017-05-03, 15:09:58
Eine kleine APU vielleicht?

Iruwen
2017-05-03, 15:18:23
Das Marketingteam möchte ein Schmunzeln aus dem Kunden entlocken und die Vögel in den Foren stürtzen sich auf das "poor Volta", als ob es um Leben und Tod geht. Meine Güte :rolleyes:

War ja nicht nur das.

http://i.imgur.com/3o9QB1b.png

Das weckt natürlich Begehrlichkeiten.

Blediator16
2017-05-03, 15:20:16
War ja nicht nur das.

http://i.imgur.com/3o9QB1b.png

Das weckt natürlich Begehrlichkeiten.

Hast den Teil weggelassen, der zeigt, dass das auf den indischen VR Film bezogen war.
Wenn jemand in seiner eigenen Welt leben möchte und sich Dinge rein dichtet, die da nicht hingehören, dann ist das wohl deren eigenes Problem.

Screemer
2017-05-03, 15:27:00
War ja nicht nur das.

http://i.imgur.com/3o9QB1b.png

Das weckt natürlich Begehrlichkeiten.
Ist natürlich super, wenn man solche aussagen vollständig aus dem Kontext reißt. Es ging ganz eindeutig und völlig wertfrei gegenüber der Konkurrenz um folgendes: http://arkamediaworks.com/blog/tag/the-sword-of-baahubali/

MadManniMan
2017-05-03, 15:33:41
Drüben im Faden zu den Vega-10-Daten (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=580825) spekuliert man fröhlich darüber, dass es ein TB-Renderer würde - weiß man da tatsächlich was?

Der_Korken
2017-05-03, 15:40:52
Drüben im Faden zu den Vega-10-Daten (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=580825) spekuliert man fröhlich darüber, dass es ein TB-Renderer würde - weiß man da tatsächlich was?

Ziemlich sicher. Auch wenn AMD ihn Draw-Stream Binning Rasteizer nennt. Wie gut er funktioniert wissen wir natürlich erst beim Launch.

BoMbY
2017-05-03, 15:42:02
Niemand sagt, daß es was Anderes wäre, als AMD bei GCN schon immer mit den DP-Raten gemacht hat.
https://cdn.videocardz.com/1/2017/01/AMD-VEGA-10-specifications.jpg


Die Folie belegt nicht abschließend, dass Vega 10 ausschließlich 1/16 kann, nur dass die dort erwähnte SKU mit 1/16 geplant war. Da ging es vermutlich um die MI25 deren TFlop/s Target auch angepasst wurde in der Zwischenzeit. Ebenso wissen wir, dass es Konfigurationen mit anderen VRAM-Größen, als dort angegeben, geben wird. Abgesehen davon das manch einer bei den Folien schon groß "Fake" geschrien hat. Ich würde alleine darauf basiert jedenfalls kein finales Urteil bilden wollen.

BoMbY
2017-05-03, 15:45:18
Jemand eine Idee woher nun "699F:C1" kommt?

Datiert auf den 03.05.2017:
https://gfxbench.com/compare.jsp?benchmark=gfx40&D1=AMD+699F%3AC1&os1=Windows&api1=gl&hwtype1=dGPU&hwname1=AMD+699F%3AC1

699F ist eine Polaris 12 Variante (https://videocardz.com/64787/amd-polaris-12-spotted-in-linux-patches).

robbitop
2017-05-03, 15:49:58
@MMM
Der Rasterizer geht ein wenig in die Richtung. Analog Maxwell. Das macht aber noch lange keinen TBDR daraus. (der heute sicherlich nicht mehr vergleichsweise die Vorteile gegenüber einem IMR hätte wie noch zu Kyro 2 Zeiten)

Schaffe89
2017-05-03, 16:21:07
Woher hat man eigentlich das mit TBDR, also gesichert? Der Geometriedurchsatz wird wie bereits bei Maxwell mehr als verdoppelt mit 11 statt 4 Polygonen pro Takt, Maxwell hat den Durchsatz zu Kepler ebenso verdoppelt.
Ist mit TBDR der Vega Draw Stream Binning Rasterizer gemeint?

Screemer
2017-05-03, 16:40:23
ist zwar schon von gestern aber :ugly:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59886&d=1493822417
https://www.3dcenter.org/news/weitere-details-zu-amds-vega-10-ergeben-nahezu-vollstaendige-bestaetigte-hardware-daten

Grabhopser
2017-05-03, 16:48:19
Heir stand Müll...

5CH4CHT3L
2017-05-03, 16:48:36
ist zwar schon von gestern aber :ugly:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59886&d=1493822417
https://www.3dcenter.org/news/weitere-details-zu-amds-vega-10-ergeben-nahezu-vollstaendige-bestaetigte-hardware-daten
*Bei gleicher Architektur

Halt 40-50% mehr Takt und noch Architekturverbesserungen von 5-30% um mal einen sehr sehr groben Rahmen zu setzen

Locuza
2017-05-03, 16:59:21
Die Folie belegt nicht abschließend, dass Vega 10 ausschließlich 1/16 kann, nur dass die dort erwähnte SKU mit 1/16 geplant war. Da ging es vermutlich um die MI25 deren TFlop/s Target auch angepasst wurde in der Zwischenzeit. Ebenso wissen wir, dass es Konfigurationen mit anderen VRAM-Größen, als dort angegeben, geben wird. Abgesehen davon das manch einer bei den Folien schon groß "Fake" geschrien hat. Ich würde alleine darauf basiert jedenfalls kein finales Urteil bilden wollen.
Die Folie bezieht sich auf ROCm, dass ist allgemein die "neue" Radeon Open Compute Platform.
Für Vega 20 werden explizit 1/2 genannt, entsprechend ist das nicht nur auf eine SKU beschränkt gewesen, sondern es war eine allgemeine Angabe.
https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed

Die angegeben Daten entsprechen auch allen Gesicherten, die wir jetzt kennen und "HW Page Management Support" und "xGMI" hätte sich niemand einfach so ausdenken können, gerade letzteres wurde erst neulich das erste mal im Ryzen Programming Reference Guide genannt:
http://support.amd.com/TechDocs/54945_PPR_Family_17h_Models_00h-0Fh.pdf

iuno
2017-05-03, 17:01:43
https://electroiq.com/insights-from-leading-edge/category/uncategorized/page/6/

https://electroiq.com/insights-from-leading-edge/wp-content/uploads/sites/4/2016/03/Sys-plus-1.jpg
Fuer mich machen die Spekulationen um GDDR5X/6 bei V11 damit einfach keinen Sinn.
Sollte AMD sich nicht sicher sein, dass sie das mit der Bandbreite hinbekommen, haette man V10 vier Stacks geben koennen. V11 wuerde damit auch ein Stack reichen, um deutlich vor P10 zu landen.

Palpatin
2017-05-03, 17:04:45
*Bei gleicher Architektur

Halt 40-50% mehr Takt und noch Architekturverbesserungen von 5-30% um mal einen sehr sehr groben Rahmen zu setzen
Um die Euphorie etwas einzubremsen sollte man da halt noch bei gleicher Bandbreite hinzufügen. :rolleyes:

BoMbY
2017-05-03, 17:06:46
ist zwar schon von gestern aber :ugly:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59886&d=1493822417
https://www.3dcenter.org/news/weitere-details-zu-amds-vega-10-ergeben-nahezu-vollstaendige-bestaetigte-hardware-daten

Rohleistung == TFlops

Vega und Fiji mit gleichem Takt haben die gleiche Rohleistung (bei Single Precision). Vega wird bei gleichem Takt aber hoffentlich mehr FPS auf den Bildschirm bringen.

Unicous
2017-05-03, 17:13:25
RohleistungEN.


:facepalm:

5CH4CHT3L
2017-05-03, 17:31:25
RohleistungEN.


:facepalm:
Achsoo gleich mal überlesen.

Da beide Chips die gleiche Rohleistung haben gibt es nur eine (hier unbestimmte) Rohleistung. Wenn man von verschiedenen Werten reden würde müsste man allerdings Plural verwenden

iuno
2017-05-03, 17:36:30
Leo listet immer mehrere theoretischen Werte auf, z.B. die Fuellraten usw.
Ist doch kein Grund ein Drama draus zu machen.

dargo
2017-05-03, 17:51:58
Fuer mich machen die Spekulationen um GDDR5X/6 bei V11 damit einfach keinen Sinn.
Sollte AMD sich nicht sicher sein, dass sie das mit der Bandbreite hinbekommen, haette man V10 vier Stacks geben koennen. V11 wuerde damit auch ein Stack reichen, um deutlich vor P10 zu landen.
Die Aufschlüsselung der Kosten macht für mich keinen Sinn. Wie kann eine 596mm² GPU genau so viel kosten wie eine 438mm² GPU? :confused:

iuno
2017-05-03, 17:55:55
Vermutlich ging es da um die Kosten jeweils zum Release.

dargo
2017-05-03, 18:23:47
Ah ok... das macht wieder Sinn. :) Aber 80$ finde ich dennoch sehr wenig für fast 600mm².

Schaffe89
2017-05-03, 18:28:16
Fuer mich machen die Spekulationen um GDDR5X/6 bei V11 damit einfach keinen Sinn.

Du berücksichtigst damit zwar die Kosten aber nicht die yield rate des ganzen Konstrukts. Bei dem kompletten HBM Chip kann bedeutend mehr schief gehen und so kann man bei einem Fehler eigentlich gleich den ganzen Chip inkl. Interposer und gestackten Speicher in die Tonne werfen.

iuno
2017-05-03, 18:44:19
Man kauft nur ganze Stacks
N molded Known Good Stacked Die
Und dass beim Packaging oft (oder ueberhaupt) was kaputt geht, dafuer wuerde ich gerne Quellen sehen.

MadManniMan
2017-05-03, 19:05:03
Ziemlich sicher. Auch wenn AMD ihn Draw-Stream Binning Rasteizer nennt. Wie gut er funktioniert wissen wir natürlich erst beim Launch.

Das hat AMD getan? Und: sollte einem das was sagen? :D


@MMM
Der Rasterizer geht ein wenig in die Richtung. Analog Maxwell. Das macht aber noch lange keinen TBDR daraus. (der heute sicherlich nicht mehr vergleichsweise die Vorteile gegenüber einem IMR hätte wie noch zu Kyro 2 Zeiten)

Natürlich nicht TBDR, nur tile-based, soweit war das klar.

Also ein deutlicher Effizienz-Schub, hm?

Gipsel
2017-05-03, 19:12:33
Das hat AMD getan? Und: sollte einem das was sagen? :DJa, das haben sie in der Vega-Präsentation getan:

https://cdn.videocardz.com/1/2017/01/AMD-VEGA-VIDEOCARDZ-31.jpg

Und die Verbindung zum Tiling ergibt sich aus der dazugehörigen Beschreibung und wenn man weiß wie ein Tiler funktioniert. ;)

TGKlaus
2017-05-03, 19:14:47
Tut mir Leid,

aber wenn das stimmt, das bei gleichen Grunddaten und gleichem Takt nur die gleiche Performance rauskommt sollte man das komplette GrakaTeam feuern.

Ich hatte bisher nie in Betracht gezogen, das am Ende sowas auskommen könnte. :freak:

MadManniMan
2017-05-03, 19:21:00
Ja, das haben sie in der Vega-Präsentation getan:

https://cdn.videocardz.com/1/2017/01/AMD-VEGA-VIDEOCARDZ-31.jpg

Und die Verbindung zum Tiling ergibt sich aus der dazugehörigen Beschreibung und wenn man weiß wie ein Tiler funktioniert. ;)

Ah, danke! War komplett an mir vorbeigegangen. Also die Präsi.


Tut mir Leid,

aber wenn das stimmt, das bei gleichen Grunddaten und gleichem Takt nur die gleiche Performance rauskommt sollte man das komplette GrakaTeam feuern.

Ich hatte bisher nie in Betracht gezogen, das am Ende sowas auskommen könnte. :freak:

Naja, wenn TB, dann läuft das Ding schon :)

Setsul
2017-05-03, 19:51:43
@TGKlaus:
Rohleistung != Leistung.
680 und 6970 haben auch sehr ähnliche Rohleisungen und trotzdem kommt am Ende etwas völlig anderes raus.

Dass bei 4096 SPs bei gleichem Takt die gleiche Rohleistung entsteht ist völlig normal.
Aber Fiji taktet bei weitem nicht so hoch wie Vega es schaffen soll.
Es würde schließlich auch keiner sagen die 1070 ist sinnlos weil die 980 etwas mehr SPs hat und sich an der Architektur fast nichts geändert hat. Die sind bei gleichem Takt auch etwas gleich schnell, aber die 1070 taktet einfach sehr viel höher.

50% Takt sind nett, aber TB muss natürlich auch etwas reißen, sonst hat sich der Aufwand für die neue Architektur nicht gelohnt.

MadManniMan
2017-05-03, 20:06:15
Was war es denn, was Maxwell gegenüber Kepler so effizient gemacht hat? Bilde ich mir gerade auf den TB-Ansatz zuviel ein?

mczak
2017-05-03, 23:29:11
Was war es denn, was Maxwell gegenüber Kepler so effizient gemacht hat? Bilde ich mir gerade auf den TB-Ansatz zuviel ein?
Kepler hat vor allem 2 extrem offensichtliche Defizite was Effizienz angeht:
- die 192 ALUs pro SMX die man so gut wie gar nicht auslasten kann. Nicht umsonst hat Nvidia behauptet die 128 ALUs pro SMM in Maxwell würden 90% der Performance eines SMX erreichen.
- die 16 Overkill-TMUs eines SMX. Das wurde sogar schon bei Kepler selbst gefixt, gk2xx (gk208, gk20a) hatten nur noch 8 genau gleich wie bei Maxwell. gk20a kann man nicht vergleichen, gk208 aber schon, und der hat so gut wie gar keine Performance dadurch verloren gegenüber gk107 (und ist sehr deutlich kleiner, auch wenn man da natürlich berücksichtigen muss dass der bloss ein 64bit SI hat).
Wenn du Maxwell auf einer pro-SMX beziehungsweise pro-SMM Basis vergleichst statt pro ALU ist der doch gar nicht mehr so viel effizienter. Ich denke zumindest das ist genau so wichtig wie die Tile-Based Geschichten, mehr L2 Cache, bessere FBC, etc.

qa1L'
2017-05-04, 04:17:12
Rechne Vega klein wird sich 5-10% über einer GTX 1080 ansiedeln, ansonsten hat das ganze kaum Berechtigung.

irgendwie müsste auch die lücke zwischen vega und polaris geschlossen werden.... alles eine frage das preises.... aber sollte die performance des full chips nicht an die 1080ti rankommen wär das nicht so besonders für einen 500mm² chip samt hbm...

Loeschzwerg
2017-05-04, 06:57:15
Und dass beim Packaging oft (oder ueberhaupt) was kaputt geht, dafuer wuerde ich gerne Quellen sehen.

Ich meine mich erinnern zu können dass es von Amkor mal eine Folie zu den Assembly Yields gab und diese lag bei über 98%.

Hübie
2017-05-04, 07:22:22
Das Package ist weniger das Problem, da die BGA-Bumps recht einfach nach gearbeitet werden können. Beim HBM sieht es dagegen schon ganz anders aus. Geringe Mengen und verhältnismäßig hohe Fehlerquoten. Offizielle Zahlen gibt's da allerdings nicht, oder?

Pirx
2017-05-04, 07:25:05
... Geringe Mengen und verhältnismäßig hohe Fehlerquoten. ...
Wenn ein möglicherweise davor stehen würde, könnte man den Satz akzeptieren.

Skaven
2017-05-05, 00:00:17
Hallo zusammen,
habe mich neu angemeldet, um hier mitspekulieren zu können. Ich finde die Schätzungen und die Infos zu Vega sehr interessant, und ich möchte zur Abwechslung mal eine etwas andere Methode einwerfen, die Leistung von Vega zu schätzen (natürlich nur laienhaft Pi * Daumen ;-) ) - über die Energieeffizienz:

Nimmt man AMD Polaris und Nvidia Pascal her, dann kann man glaube ich sagen, das AMD selbst nach den verbesserungen im Treiber bei ~gleicher Leistung in der Effizienz noch 30% bis 35% hinter Pascal lag. Bei Vega sehe ich folgendes Potenzial:


5-10% durch verbesserten Fertigungsprozess gegenüber Polaris 2016.
15-25% durch Architekturverbesserungen, dazu gehören auch die für höhere Taktraten ausgelegten Rechenenheiten.
5% Pauschal für HBM-Einsatz statt GDDR.


Das ergibt wahrscheinlich 25-35% bessere Energieeffizienz als bei Polaris. Man darf also in guter Näherung annehmen, das AMD das Niveau von Pascal fast erreicht oder minimal übertrifft. Dann kann man davon ausgehen, das eine AMD Vega mit 225 Watt TDP auf jeden Fall schneller sein wird als die Nvidia GTX 1080, im Besten Fall etwa 20%.

Nun ist es so das ich persönlich nicht so der "Gamer" bin und wenig Lust habe, mir so ein Monster in den Rechner zu bauen. So etwa bis 150 Watt finde ich Grafikkarten interessant. Das heißt ich warte auf Vega 11. Ich denke, das zumindest die Salvage-Version der V11 in einer Version kommt, die unter 150W schluckt und für 1440p voll ausreichen wird - aber mal sehen... :smile:

Viele Grüße,
Skaven

Nachtrag: Natürlich darf man die "Energieeffizienz" von der ich hier spreche nicht so eng sehen. Statt über Fläche, Takt und Funktionseinheiten versuche ich zu schätzen, wieviel mehr Leistung AMD aus dem thermischen Budget herausholen kann.

Der_Korken
2017-05-05, 00:33:44
Nimmt man AMD Polaris und Nvidia Pascal her, dann kann man glaube ich sagen, das AMD selbst nach den verbesserungen im Treiber bei ~gleicher Leistung in der Effizienz noch 30% bis 35% hinter Pascal lag. Bei Vega sehe ich folgendes Potenzial:


5-10% durch verbesserten Fertigungsprozess gegenüber Polaris 2016.
15-25% durch Architekturverbesserungen, dazu gehören auch die für höhere Taktraten ausgelegten Rechenenheiten.
5% Pauschal für HBM-Einsatz statt GDDR.


Das ergibt wahrscheinlich 25-35% bessere Energieeffizienz als bei Polaris. Man darf also in guter Näherung annehmen, das AMD das Niveau von Pascal fast erreicht oder minimal übertrifft. Dann kann man davon ausgehen, das eine AMD Vega mit 225 Watt TDP auf jeden Fall schneller sein wird als die Nvidia GTX 1080, im Besten Fall etwa 20%.


Ich fürchte mit 30-35% hinter Pascal kommst du nicht hin. Eine RX580 verbraucht schon @stock fast so viel wie eine GTX1080, die aber locker 60% schneller ist. Energieeffizienz ist aber ziemlich relativ, da sie davon abhängt wie stark ein Chip taktmäßig ausgereizt wird.

15-20% mehr Effizienz allein aus der besseren Fertigung ist Unsinn. Die 580 holt gegenüber der 9 Monate älteren 480 etwa 50-100Mhz mehr Takt raus bei vermutlich gleichem oder leicht höherem Verbrauch, also bestenfalls +5% Effizienz. Dahingegen sind die +5% durch HBM imho viel zu tief gestapelt. Es wurde diverse Folien gepostet, die HBM 3x so effizient wie GDDR5 sehen, also Ersparnisse von vielleicht 50W. Das sind schon eher so 15-20%, die man insgesamt einspart (bei angesetzten 250-300W für V10).

Ansonsten macht es eigentlich wenig Sinn über den Verbrauch auf die Leistung von V10 zu schließen, da wir weder den Verbrauch noch die Effizienz von V10 kennen. Dafür kennen wir aber die Anzahl der Recheneinheiten und den Takt, sowie die Speicherbandbreite. Man sollte eher vorhandene Chips nehmen und aus den technischen Änderungen schätzen wie schnell der neue Chip wird. Fiji ist eine schöne Baseline, wo man den höheren Takt von V10 einfließen lassen kann. Das wären GPU-seitig +45% exklusive Architekturverbesserungen. Speicherseitig können wir von mindestens 410GB/s ausgehen, also 60% mehr als eine RX580. Die Minimalperformance sollte also etwa bei min(FuryX*1,45 ; RX580*1,6) liegen. Der Rest sind Architekturverbesserungen, die keiner von uns im Voraus genau quantifizieren kann.

Skaven
2017-05-05, 01:56:42
Hallo,

danke für die Antwort. Hier ein paar Kommentare dazu:

Ich fürchte mit 30-35% hinter Pascal kommst du nicht hin. Eine RX580 verbraucht schon @stock fast so viel wie eine GTX1080, die aber locker 60% schneller ist.

Ich habe dabei vor allem an RX 480 gegen GTX 1060 gedacht. Nach den Treiberverbesserungen hat die 480 noch ca. 35-40W mehr verbraucht als die 1060 und war dabei etwas langsamer. Daher kommen meine 30-35%.
Die 580 haben sie einfach noch stärker aus der Komfortzone getaktet, damit der Eindruck eines echten Refreshs entsteht.


15-20% mehr Effizienz allein aus der besseren Fertigung ist Unsinn.

Stimmt. Ich hatte aber auch von 5-10% geschrieben. Und nebenbei *muss* irgendein anderer Prozess zum Einsatz kommen oder sich ein Fortschritt in 5-10% Größenordnung manifestieren, denn sonst kann Vega die benötigten Taktraten nicht erreichen, ohne komplett ineffizient zu laufen. Aber natürlich ist meine Zahl irgendwie .. willkürlich, das stimmt schon.


Dahingegen sind die +5% durch HBM imho viel zu tief gestapelt. Es wurde diverse Folien gepostet, die HBM 3x so effizient wie GDDR5 sehen, also Ersparnisse von vielleicht 50W. Das sind schon eher so 15-20%, die man insgesamt einspart (bei angesetzten 250-300W für V10).


Ich kann mir persönlich nicht vorstellen das sich durch HBM 50W einsparen lassen. Ich habe mich aber auch nicht tief eingelesen. Je nach Szenario wird sich der Effizienzvorteil nicht immerzu maximal auswirken können. Daher sind 5% wahrscheinlich etwas wenig, aber 20% sind denke ich zu viel.


Man sollte eher vorhandene Chips nehmen und aus den technischen Änderungen schätzen wie schnell der neue Chip wird.

Ja, aber das macht ihr doch schon seit zig Seiten ... :wink:


Fiji ist eine schöne Baseline, wo man den höheren Takt von V10 einfließen lassen kann. Das wären GPU-seitig +45% exklusive Architekturverbesserungen. Speicherseitig können wir von mindestens 410GB/s ausgehen, also 60% mehr als eine RX580. Die Minimalperformance sollte also etwa bei min(FuryX*1,45 ; RX580*1,6) liegen. Der Rest sind Architekturverbesserungen, die keiner von uns im Voraus genau quantifizieren kann.

Nun, wenn GTX 1080 = RX 580 * 1,6 ("60% schneller" hast Du geschrieben) und Vega auch etwa 1,6 mal schneller als RX 580 ist, plus Architekturverbesserungen, liege ich mit meiner Schätzung doch gar nicht so schlecht :smile:

Skaven

iuno
2017-05-05, 03:13:52
Hallo und herzlich willkommen erstmal ;)
Und nebenbei *muss* irgendein anderer Prozess zum Einsatz kommen oder sich ein Fortschritt in 5-10% Größenordnung manifestieren, denn sonst kann Vega die benötigten Taktraten nicht erreichen, ohne komplett ineffizient zu laufen.
Das ist ein Irrtum, denn Nvidia schafft es mit Pascal im selben Prozess auch ein paar Hundert MHz hoeher zu takten als Polaris. Das ist also eher eine Sache des Designs und weniger des Fertigungsprozesses.

Ich kann mir persönlich nicht vorstellen das sich durch HBM 50W einsparen lassen. Ich habe mich aber auch nicht tief eingelesen. Je nach Szenario wird sich der Effizienzvorteil nicht immerzu maximal auswirken können. Daher sind 5% wahrscheinlich etwas wenig, aber 20% sind denke ich zu viel.
Du musst beruecksichtigen, dass es ein bestimmtes Ziel gibt was Bandbreite und Speichermenge angeht. Und um dieses Ziel zu erreichen setzt AMD auf HBM. Mit GDDR5 waere das Ziel auch zu erreichen, aber es sprengt dann eben andere Grenzen wie Chipgroesse oder Verbrauch.

Oder anders ausgedrueckt: Man muesste das SI 512 Bit breit bauen und mit 8 Gbps betreiben, so eine GPU gibt es heute ueberhaupt nicht. Entsprechend muss man auch von deutlich mehr Verbrauch ausgehen, als jede aktuelle Grafikkarte fuer den Speicher braucht.
Hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11358612#post11358612) habe ich erst vor kurzem was darueber geschrieben. Nvidia nennt da etwa grob 75 Watt fuer <500 GB/s bei GDDR5 und 40 Watt fuer >500 GB/s bei HBM1. Entsprechend sind die 50 Watt imho nicht so abwegig.
Und mit den Zahlen von AMD kommen die 50 W sogar ganz genau hin und das ebenfalls mit HBM1.

Korvaun
2017-05-05, 07:37:56
Für AMD kann es nur darum gehen bei relativ gleicher Die-Größe von V10/GP102 eine vergleichbare Leistung (auf das jeweilige Topmodell bezogen) zu erreichen. Dabei sollte der Verbrauch nicht völlig aus dem Ruder laufen. Sollte AMD das nicht einigermaßen hinbekommen werden sie gegen nV auch weiterhin wenig Chancen haben.

HOT
2017-05-05, 08:34:38
Na ja, die NCUs werden schon deutlich weniger pro Takt brauchen, sonst bekäme man wohl kaum höhere Taktraten hin.
Klar ist aber auch, dass AMD die Technik bei 14LPP an die Grenze treiben dürfte, wie immer. Wenn das Topmodell jetzt 300W braucht ist das eben so, das ist ja nicht so viel mehr als GP102.

Hübie
2017-05-05, 08:43:43
Gleich kommt jemand und deutet wieder auf das Kleiner-Zeichen hin. :rolleyes:

@Skaven: Herzlich Willkommen. :smile:
Mal ausgehend von der 580 Nitro und der 1080 Strix sind es sogar 64% mehr Verbrauch. Stock vs. Stock 44%. Gate-Pitch beider Prozesse ist etwa vergleichbar, aber das wars dann wohl auch schon. Von daher ist es schwierig Vergleiche anzustellen.
Viel wichtiger ist GND zur Reduktion von Störstrahlung und Emission sowie Isolatoren zwischen Datenleitungen. Kleine Caps helfen dann hohe Taktraten zu ermöglichen. Das muss so ein Prozess alles mitmachen können und vor allem muss man die Design-Regeln beachten (z.B. dual- oder gar quad-pattern). So ein Designer hat es jedenfalls sau schwer. :redface:
Der Prozess selber macht also kein Wunder.

HOT
2017-05-05, 13:29:46
Na ja, Polaris als Referenz zu nehmen ist denke ich unsinnig, weil Polaris eben noch das Problem der alten CUs hat. Das wird kaum vergleichbar sein. Von Polaris aus Schlüsse auf Vegas Verbrauch zu sehen halte ich für unzulässig.

5CH4CHT3L
2017-05-05, 15:17:03
Hatten wir schon den FireStrike Benchmark von der 1200 Core / 700 Speicher GPU?
http://www.3dmark.com/fs/12296284

17801 Graphics Score

Mangel76
2017-05-05, 15:22:01
Ich weiß nicht, wieso hier schon wieder gemutmaßt wird, dass VEGA nur bei der 1080 landet. Nach den 3dcenter-Daten liegt die 1080 30-40% vor der Fury X, die 1080 Ti etwa 70-75%.

Die Frage ist jetzt, wie schhlägt sich VEGA gegnüber Fiji? zunächst haben wir wohl rund 50% mehr Takt. Allein das (in Verbindung mit größerem Speicher, so dass hier in höheren Auflösungen nicht mehr gebremst wird) sollte auf jeden Fall reichen um die 1080 einzuholen und sogar zu überholen. Dazu kommen die ganzen Verbesserungen, von denen noch nicht kler ist, welche Auswirkungen sie haben. Was könnten die bringen?

- Höhere Geometrieleistung - war das nicht ein Hauptgrund dafür, warum die Fury in niedrigeren Auflösungen sich kaum gegenüber Hawaii hat absetzen können? Nur in hohen Auflösungen, wenn die Pxellast stärker als die Geometrielast steigt, kann sich Fiji absetzen. VEGA soll max. 2,75-fache Geometrieleistung bringen, was für eine bessere Auslastung der vielen CUs sorgen sollte. Damit allein sollte doch VEGA seine Leistung deutlich besser auf die Straße bringen können als Fiji.

- neuer Rasterizer - so wie ich das verstanden habe, geht AMD jetzt den Schritt, den NVIDIA von Kepler auf Maxwell gegangen ist und der dort zu einer massiven Effizienzsteigerung geführt hat. Warum sollte AMD das nicht auch hinbekommen? Zumindest sollte damit ebenfalls ein deutlicher Schub verbunden sein. Weiterhin habe ich es so verstanden, dass dadurch auch deutlich an Speicherzugriffen eingespart werden kann, so dass die gleichbleibende Bandbreite kein so großes Problem sein sollte.

- größere Cashes, gesteigerte Datenlokalität usw. - damit sollten doch einige Geschwindigkeits- und Effizienzsteigerungen drin sein.

- weitere Verbesserungen - HBCC ist für mich nicht einschätzbar - hat das auf die Leistung überhaupt einen Effekt oder nur auf die Speicherbelegung?

Unterm Strich braucht VEGA als etwa 75% mehr Leistung als Fiji um mit der 1080 Ti gleichzuziehen. Bringen die Verbesserungen nur 15% mehr Leistung pro Takt (das sind nichtmal 5% für jeden der ersten 3 Punkte! 1,05^3=1,158), so ist VEGA schon fast gleich auf (1,5 (Takt)*1,15 (IPC)=1,725), werden es insgesamt gar 20%, ist sie schon bei +80% gegenüber Fiji und damit vor 1080Ti.

Ich halte 20% Leistungssteigerung per Clock für durchaus machbar angesichts des ziemlich verhunsten Fiji-Designs und der Neuerungen von VEGA (gerade auch durch die Erfahrung mit Maxwell). Bleibt zu hoffen, dass die Treiber vernünftig werden und die Leistung zum Launch und nicht erst ein Jahr später verfügbar ist.

Habe ich mich irgendwo vertan? Dann korrigiert mich!

yamamoto_dc
2017-05-05, 16:10:30
Ich sehe das genauso, gehe davon aus das der große Vega deutlich vor der 1080Ti liegt. Die Frage ist eher, wie schnell NVIDIA reagieren kann und wieviel schneller dann Volta ist. Außerdem gehe ich davon aus, dass die breite Masse trotzdem weiter Geforce kauft, auch wenn AMD dann vielleicht mal ein halbes Jahr besser ist. Um also Marktanteile zu gewinnen muss AMD dauerhaft mithalten können.

Palpatin
2017-05-05, 16:36:53
Habe ich mich irgendwo vertan? Dann korrigiert mich!
Bandbreite von VEGA ist ja bekannt und nur geringfügig höher als 1080ti. Bei P10 braucht AMD noch deutlich mehr Bandbreite als NV um auf das selbe Ergebnis zu kommen. Wenn sie da aufgholt haben kann VEGA sicherlich die 1080ti einholen, aber ob es reicht um vorbeizuziehen glaub ich eher nicht.
Wenn man schneller als die Titan oder 1080ti wäre man auch blöd wenn man das nicht leaken würde um unentschloßene zum warten zu verleiten.

Dino-Fossil
2017-05-05, 16:39:06
Es hängt ja nicht nur an der Bandbreite, dass nVidia Karten bei gleicher Rohleistung teilweise schneller sind.

dildo4u
2017-05-05, 16:41:11
Bandbreite von VEGA ist ja bekannt und nur geringfügig höher als 1080ti. Bei P10 braucht AMD noch deutlich mehr Bandbreite als NV um auf das selbe Ergebnis zu kommen. Wenn sie da aufgholt haben kann VEGA sicherlich die 1080ti einholen, aber ob es reicht um vorbeizuziehen glaub ich eher nicht.
Wenn man schneller als die Titan oder 1080ti wäre man auch blöd wenn man das nicht leaken würde um unentschloßene zum warten zu verleiten.

Jup AMD hat z.b schon lange vor dem Launch Cinebench vom 1800X gezeigt um Intel Verkäufe zu verhindern. https://youtu.be/lH3R4kvyOY8?t=2m2s
Ich erwarte immer noch eine 500€ Karte genau das was sie damals mit zwei 480 geteasert haben.Die Mission war ein 4k PC für 1000$ zu ermöglichen.

MilesEdgeworth
2017-05-05, 16:41:49
Sollten die bisher aufgetauchten Ergebnisse auch nur ansatzweise die Realität wiederspiegeln würde es mich wundern, wenn bei Release auf einmal >= 1500 MHz Chiptakt drin sind.

Ich erinnere zwar nur ungern daran, aber vor dem Polaris Release gingen die Erwartungen auch völlig durch die Decke und dann kam wieder der Dämpfer als sich doch "nur" die vorsichtigen Annahmen bewahrheitet haben.
Konservative Schätzungen im Bereich der 1080 würde ich mal als vernünftigen Anhaltspunkt betrachten. Dann kann man zumindest nicht enttäuscht werden. :ugly:

Wenn ich das FireStrike Ergebnis richtig ausgewertet habe, liegt der "gebenchmarkte" Chip etwas unterhalb einer GTX 1080?

r3ptil3
2017-05-05, 16:50:10
Wenn ich das FireStrike Ergebnis richtig ausgewertet habe, liegt der "gebenchmarkte" Chip etwas unterhalb einer GTX 1080?

Weit weit drunter, praktisch gleichauf mit einer Fury X.

Der_Korken
2017-05-05, 17:15:59
Irgendwie muss ich gerade an den R600 denken. Neue Architektur, knapp doppelt so viele Transistoren wie der Vorgänger, doppeltes Speicherinterface. Heraus kam ein Rohrkrepierer, taktbereinigt fast nicht schneller als der R580 (in damaligen Tests) vor allem mit AA/AF, kaum Vorteile durch die hohe Speicherbandbreite, deutlicher Ansteig der Leistungsaufnahme (schlechtere Perf/W als R580) und vor allem: Deutlich langsamer als die Konkurrenz, die schon über ein halbes Jahr auf dem Markt war.

Bei Vega ist bisher alles nur Spekulation. Wenn die 3DMark-Benches aber bereits einen vollen V10 zeigen und er eine noch schlechtere IPC als Fiji hat, dann ist die Bezeichnung R600 2.0 schon angebracht. Natürlich kann es immer noch sein, dass das nur ein ES ist, wo vielleicht nur 48CUs aktiv waren mit 1200 statt 1500 Mhz Takt und der volle Chip trotzdem auf Augenhöhe mit der 1080Ti rauskommt. Langsam werde ich aber schon etwas nervös.

Gipsel
2017-05-05, 17:36:49
Wo hier schon die Benchmarkergebnisse diskutiert wurden (und Warnungen, daß dort noch entscheidenende Vega-Features deaktiviert sein könnten, beinahe ungehört verhallt sind) hier noch ein kleiner Abschnitt aus den Linux-Patches für Vega als Denkanstoß:
/* BinningMode enum
*/

typedef enum BinningMode {
BINNING_ALLOWED = 0x00000000,
FORCE_BINNING_ON = 0x00000001,
DISABLE_BINNING_USE_NEW_SC = 0x00000002,
DISABLE_BINNING_USE_LEGACY_SC = 0x00000003,
} BinningMode;

Hübie
2017-05-05, 17:49:00
Gibt es Ergebnisse von Linux-Benchmarks? :|