PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 [38] 39 40 41 42 43 44 45 46 47 48 49 50 51

AnarchX
2016-07-08, 16:53:52
Tesla (55nm) ~0.7(1.6GHz ALUs)
VLIW5 (55nm) max. 1GHz (RV790)
GCN (TSMC 28 HP): max. ~1,1 GHz
Kepler (TSMC 28 HP): max. ~1,2(?) GHz - GK110B/GTX 770
Maxwell (TSMC 28 HP): max. ~1,5 GHz
Pascal (TSMC 16 FF+): max. ~2 GHz
GCN (14 LPP): max. ~1,3 GHz

Dabei hatte ATi doch Fast14 für hohe Taktraten lizenziert: http://www.extremetech.com/extreme/55664-ati-licenses-intrinsity-tech-for-faster-chips ;)

Ravenhearth
2016-07-08, 16:56:27
Das hat man bei Bulldozer damals auch gesagt, schuld sei der Fertigungsprozess.
5 Jahre später nach 2011 müsste der 32nm Prozess doch jetzt rund laufen oder?
Trotzdem keine Verbesserungen bei den FXen.

Klar gab es die. Laut anandtech hat der FX-8320E von Ende 2014 ein Idle-to-AVX- Delta von 86W, der ursprüngliche FX-8150 von Ende 2011 hat 156W, dabei ist ersterer im Durchschnitt ähnlich schnell.

iuno
2016-07-08, 16:56:52
Danke, Kepler hatte ich nicht mehr so genau im Kopf.

@AnarchX: Ja, so weit bin ich auch nicht zurueckgegangen, da war das eh auch noch ein anderes Thema mit dem Shadertakt ;)

Das hat man bei Bulldozer damals auch gesagt, schuld sei der Fertigungsprozess.
5 Jahre später nach 2011 müsste der 32nm Prozess doch jetzt rund laufen oder?
Trotzdem keine Verbesserungen bei den FXen.

Klar gab es die. Laut anandtech hat der FX-8320E von Ende 2014 ein Idle-to-AVX- Delta von 86W, der ursprüngliche FX-8150 von Ende 2011 hat 156W, dabei ist ersterer im Durchschnitt ähnlich schnell.

Ihr bezieht euch auf anfaengliche Probleme, und laengerfristige Optimierungen die wohl jeder Fertigungsprozess hat. Gab es auch bei 28 HP und wird es wohl auch bei 14 LPP und 16 FF+ geben. Das hilft aber nicht, wenn einer der konkurrierenden Prozesse weit hinten liegt (worauf einige ja beharren)

illidan
2016-07-08, 16:57:56
Kepler hatte doch bereits keinen Hotclock mehr. :)

MR2
2016-07-08, 16:59:05
Das hat man bei Bulldozer damals auch gesagt, schuld sei der Fertigungsprozess.
5 Jahre später nach 2011 müsste der 32nm Prozess doch jetzt rund laufen oder?
Trotzdem keine Verbesserungen bei den FXen.
Und ich denke so wird es auch bei Polaris sein. Vielleicht mögen die Yields nicht stimmen, aber hätte AMD die GPU bei TSMC gefertigt, würde es wahrscheinlich auch nicht besser mit den Taktraten aussehen, vielleicht ein bisschen besser mit dem Strombedarf, aber GCN lässt sich nunmal nicht besonders gut takten, ähnlich wie der Phenom I damals. Selbst eine HD 7970 von 2012 ließ sich gut und gerne max auf 1250mhz bringen. Groß geändert hat sich mit der rx480 da nix, jetzt sinds ~1400mhz.

In die FX wird doch auch kein Geld mehr gesteckt. Machbar wäre sicher vieles Mittlerweile..Amd fehlts eben an Geld. Wenn Zen gut wird kommt wieder Kohle rein und die gpus werden davon profitieren.

Hübie
2016-07-08, 17:03:40
Es könnte schon allein daran liegen, dass NVIDIA seit langer Zeit viele unterschiedliche clockdomains hat und nutzt. Weiß nicht wie das bei AMD ist. Den Takt, den man im Afterburner etc einstellt betrifft nur die ALUs. 1800 MHz erreichte man ja "schon" in 40 nm mit Fermi. Das hatte man damals wohl zusammengelegt mit dem L2/ALU-Takt (hatten ja immer den Teiler 2).
Jetzt hat man auf jeden Fall:

GPC
ALU
L2
Frontend (Dispatcher, Scheduler...)
Displaydomain
VRAM-Interface
Timer
und bestimmt hab ich noch einen vergessen :D


Entsprechend hat man also ein komplexes "Netzwerk" zur Verteilung und Anbindung, aber es zahlt sich wohl aus.

iuno
2016-07-08, 17:13:03
Ernsthaft, die ALUs laufen da mit anderen Taktraten?
Waere mir neu, wuerde aber auch Sinn ergeben. Relativ gesehen bringt OC bei AMD mehr weil auch wirklich fast alles dran haengt, afaik.

Ich glaube aber, dass AMD das mit Polaris angegangen ist, auch was die Spannungen betrifft. Sicher bin ich nicht, aber aber auf den Beitrag ist glaube ich wieder keiner eingegangen. Das betrifft dann aber auch nicht das Frontend, ME/MECs, ALUs usw alles einzeln aber immerhin mal die UVD, VCE, MC, SAMU und eben die gfx Bloecke.

Gipsel
2016-07-08, 17:53:56
GCN (TSMC 28 HP): max. ~1,1 GHzAlso gab es nicht Pitcairns als Custom mit bis zu 1,2GHz ab Werk (Referenztakt war ja außer bei den allerersten Modellen schon 1,1GHz), wovon gar nicht so wenige 1,3GHz unter Luft schafften, sehr gute Exemplare auch noch ein Stückchen mehr? Und Tahiti gab es auch z.B. von Sapphire als Toxic mit 1,2GHz ab Werk. Kepler kam meines Wissens übrigens auch höher als 1,1Ghz (und Du meinst ja OC-Takte, wie an den 1,5GHz von Maxwell zu sehen).

Wie auch immer, daß die GCN-Karten eine etwas kürzere Pipeline als die nV-Pendants haben, ist ja kein Geheimnis. Dies hat natürlich Einfluß sowohl auf den Transistor- und Platzbedarf pro Einheit als auch die Taktbarkeit. Das physische Design und der Prozeß sind da nur zwei zusätzliche Faktoren (die allerdings schon recht wichtig sind).

Schaffe89
2016-07-08, 18:12:47
http://wccftech.com/amd-rx-490-dual-gpu/

Sollte die rx490 wirklich eine Dual GPU werden, dann kann man rechnen dass das Ding 340 Watt TDP hat ( 170 Watt für eine rx480 ), um gegen eine 180 Watt GTX1080 und gegen eine 150 watt GTX 1070 anzustinken.:confused:

Sollte das so kommen, fühl ich mich an die 3870x2 zurückerinnert, wobei die 3870 wenigstens was den Verbrauch anging konkurrenzfähig war.

StefanV
2016-07-08, 18:19:27
AFAIR gab es auch 7970er mit 1.2GHz, z.B. von Sapphire.
z.B. die hier:
https://www.caseking.de/sapphire-radeon-hd-7970-ghz-toxic-6144-mb-ddr5-pcie-3.0-minidp-gcsp-041.html

Von ASUS gab es AFAIR auch was in der Art...
Nur hat ASUS hier irgendwie wieder Mist gebaut, so dass die Karten nicht wirklich gut liefen...

Hakim
2016-07-08, 18:19:29
gibt es eigentlich neue Informationen bezüglich dem Video Decoder was mit einem Treiber nach gereicht werden soll? In den Notes zu den neuen Treibern steht noch nichts dazu.

MR2
2016-07-08, 18:21:40
http://wccftech.com/amd-rx-490-dual-gpu/

Sollte die rx490 wirklich eine Dual GPU werden, dann kann man rechnen dass das Ding 340 Watt TDP hat ( 170 Watt für eine rx480 ), um gegen eine 180 Watt GTX1080 und gegen eine 150 watt GTX 1070 anzustinken.:confused:

Sollte das so kommen, fühl ich mich an die 3870x2 zurückerinnert, wobei die 3870 wenigstens was den Verbrauch anging konkurrenzfähig war.

Eine wichtige Karte wie die 490 als Dual gpu Karte? Niemals....

Datarecovery09
2016-07-08, 18:26:49
@Schaffe89:
Hast du auch gelesen, auf welcher Basis WCCF diese Vermutung anstellt?
Ja klar, es ist absolut möglich dass das zutrifft, wie immer bei wilden Spekulationen... aber das sieht schon arg fragwürdig aus.^^

tdon
2016-07-08, 18:29:05
Klar gab es die. Laut anandtech hat der FX-8320E von Ende 2014 ein Idle-to-AVX- Delta von 86W, der ursprüngliche FX-8150 von Ende 2011 hat 156W, dabei ist ersterer im Durchschnitt ähnlich schnell.


Der Vergleich hinkt arg. Das eine ist die Top CPU der ersten Bulldozer Version mit 125W TDP, die sicher nicht auf Effizienz getrimmt war, das andere eine mittelschnelle "Stromsparversion" mit 95W TDP der zweiten Bulldozer Generation.

Das schlechte Abschneiden von Polaris kann nicht nur am Prozess liegen, zum Beispiel ist der miese Verbrauch beim Videoschauen der Architektur geschuldet.

Unicous
2016-07-08, 18:37:28
Schon traurig, dass hier immer noch nicht angekommen ist, dass WTF-Tech mit gequirlter (und vor Allem geklauter) Scheiße Geld verdient. Und selbst wenn die 490 eine Dual-GPU ist, fußen ihre "Analysen" auf nichts als Bullshit.

Das wird auch deutlich bei diesem Satz:

Vega 10 by recent reports is too early in the development stage to have made it out to the FOC testing phase.

Was bitte soll eine "Free Of Charge (https://en.wikipedia.org/wiki/Free_of_charge)" testing phase genau sein?:rolleyes:


Die Typen sind nichts als human web crawler... aber nicht mit den entsprechenden Algorithmen ausgestattet um die Informationen einordnen zu können.:freak:

Hübie
2016-07-08, 18:52:10
AFAIR gab es auch 7970er mit 1.2GHz, z.B. von Sapphire.
z.B. die hier:
https://www.caseking.de/sapphire-radeon-hd-7970-ghz-toxic-6144-mb-ddr5-pcie-3.0-minidp-gcsp-041.html

Von ASUS gab es AFAIR auch was in der Art...
Nur hat ASUS hier irgendwie wieder Mist gebaut, so dass die Karten nicht wirklich gut liefen...

Hahahaaaaa:
Doch es geht sogar noch mehr! Wenn der stolze Besitzer den "Lethal Boost Button" auf der Karte drückt und den PC neustartet, liegen wahnsinnige 1.100 MHz Base und 1.200 MHz Boost Clock an

Sry4OT

iuno
2016-07-08, 18:55:26
Ist doch voellig egal wie hoch genau die besten Karten gingen. Es ging um die grobe Einordnung der Verhaeltnisse zueinander.

@MR2: warum soll eine 490 mehr oder weniger wichtig sein als alles andere? Es ist nur der Marketing Name, wir wissen noch ueberhaupt nicht was dahinter steckt. Es ist durchaus moeglich, dass es 2*P10 ist.

@Hakim: nein, it's done when it's done :usad:

Hübie
2016-07-08, 19:01:23
@iuno: Was meintest du in dem Beitrag mit die ALUs haben anderen Takt? Auf welche Architektur beziehst du dich jetzt und anders als was? Glaube bei NV40 fing man an mehrere Domains einzuführen. Bei Fermi war es dann ein 2:1 aus ALUs/Frontend. Wobei ich gerade nicht weiß welche Teile noch auf 772 MHz liefen. Bin noch etwas stramm von gestern :freak:

Ravenhearth
2016-07-08, 19:03:06
Der Vergleich hinkt arg. Das eine ist die Top CPU der ersten Bulldozer Version mit 125W TDP, die sicher nicht auf Effizienz getrimmt war, das andere eine mittelschnelle "Stromsparversion" mit 95W TDP der zweiten Bulldozer Generation.

Na und? Die Behauptung war, dass es keine Verbesserungen beim Stromverbrauch gab, aber die gab es (bei gleicher Leistung).

Der_Korken
2016-07-08, 19:24:49
Also gab es nicht Pitcairns als Custom mit bis zu 1,2GHz ab Werk (Referenztakt war ja außer bei den allerersten Modellen schon 1,1GHz), wovon gar nicht so wenige 1,3GHz unter Luft schafften, sehr gute Exemplare auch noch ein Stückchen mehr? Und Tahiti gab es auch z.B. von Sapphire als Toxic mit 1,2GHz ab Werk.

Das würde ja bedeuten, dass sich die Taktbarkeit mit jeder GCN-Iteration verschlechtert hat. Das ist mir bisher gar nicht so richtig aufgefallen.

Schaffe89
2016-07-08, 21:23:43
warum soll eine 490 mehr oder weniger wichtig sein als alles andere? Es ist nur der Marketing Name, wir wissen noch ueberhaupt nicht was dahinter steckt. Es ist durchaus moeglich, dass es 2*P10 ist.


Bleibt aus meiner Sicht nur eine Dual GPU übrig, was anderes gibt das Angebot von AMD nicht her.

von Richthofen
2016-07-08, 21:28:32
Diesen Stunt gab es im übrigen schon einmal bei AMD: Nach dem R600 Flop (analog zu Fiji) backte man erst einmal kleinere Brötchen in Form der 3870 und führte dieser später doppelt aus (3870 X2), ehe man später nach dem überbrücken der Durststrecke wieder zum Gegenschlag (RV770 aka 4870) ausholen konnte.
Hoffentlich wird so etwas nicht abermals notwendig.

Der_Korken
2016-07-08, 22:06:46
Diesen Stunt gab es im übrigen schon einmal bei AMD: Nach dem R600 Flop (analog zu Fiji) backte man erst einmal kleinere Brötchen in Form der 3870 und führte dieser später doppelt aus (3870 X2), ehe man später nach dem überbrücken der Durststrecke wieder zum Gegenschlag (RV770 aka 4870) ausholen konnte.
Hoffentlich wird so etwas nicht abermals notwendig.

Wenn 6 Monate später wieder ein "RV770" kommt, wäre eine Dual-480 als Zwischenlösung zu verschmerzen :cool:.

USS-VOYAGER
2016-07-08, 22:19:44
Aber bitte nicht 100-200€ teurer als zwei einzelne Karten...

robbitop
2016-07-08, 22:24:34
Ich denke nicht dass bei einer aktuellen mArch von NV nur die ALU wie bei G80, Tesla uns Fermi auf einer Hotclock laufen. Wenn Pixel und Texelfüllraten dazu nicht passen würden hätte das sicher bereits jemand gemerkt.

ilibilly
2016-07-08, 22:55:20
Wenn bei amd die luft raus in sachen taktrate dann sollten sie halt in die breite gehen,wenn vega mit 4096 daherkommt dann reicht das nichtmal an eine gtx 1070 ran,wie geoß wäre denn ein chip mit sagen wir 6000 sp's ?
Ich meine eine rx480 crossfire mit insgesamt 4600 shader reicht nichtmal an ne einzelne gtx 1080 ran mit 2500 shader,um mithalten zu können bräuchte man schon immer das doppelte zum nvidia pendanten.
Bei 1060 mit 1280 shader dasselbe spiel,ca 10% schneller,zieht man 10% shader ab sind wir bei ca 1150 shader und derselben performance wie rx480
Irgendwas muss ja bei der gcn architektur faul sein wenn man die PS sprich teraflops nicht in frames ummüzen kann.

MorPheuZ
2016-07-09, 01:02:04
Es gibt nur einen Weg: Vega 10 stellt sich gegen GP104 und ev. einen hypothetischen Vega 11 für alles darüber. Die Frage ist wie NV die Spitze gestaltet. Es sind noch zwei Chips im Rennen...

matty2580
2016-07-09, 08:55:14
Die neue Titan kommt ja schon angeblich Mitte August zur Gamescom.
Das wird natürlich wieder ein sehr teurer Spaß werden für wenige Spieler bei denen Geld nicht ganz so wichtig ist.
Dann ist die Messlatte aber die neue Titan und nicht mehr der GP 104.
Leo hat das schon richtig eingeschätzt. Im High-End-Segment wird es AMD dieses Mal nicht leicht haben.
Und die GTX 1060 setzt AMD zusätzlich unter Druck in der Mittelklasse.

Mortalvision
2016-07-09, 09:41:58
Klopf, klopf! Es ist nicht die GCN Architektur, es ist die verdammte Packdichte der Chips!

Der_Korken
2016-07-09, 11:03:00
Klopf, klopf! Es ist nicht die GCN Architektur, es ist die verdammte Packdichte der Chips!

Die ist bei AMD aber nicht mal 10% höher als bei Nvidia. Also wird wohl auch der Takt nicht mehr als 10% steigen, sonst würde AMD ja Perf/mm² liegen lassen.

AnarchX
2016-07-09, 11:18:38
AMD packt mehr ALUs/TMUs auf die gleiche Fläche.

Hübie
2016-07-09, 11:28:26
Ich denke nicht dass bei einer aktuellen mArch von NV nur die ALU wie bei G80, Tesla uns Fermi auf einer Hotclock laufen. Wenn Pixel und Texelfüllraten dazu nicht passen würden hätte das sicher bereits jemand gemerkt.

Im Grunde ein kompletter SM der da im Takt hochgezogen wird, wenn man im Afterburner & Co übertaktet. Bin aber nicht sicher ob da nicht doch irgendwo ein weiterer PLL sitzt.

Thunder99
2016-07-09, 12:07:10
GCN müssen sie ja so dicht packen damit mehr Einheiten rein passen. Dafür kann das Design nicht so hoch takten. Will man mehr Takt haben müssten die Einheiten runter und Effizienz hoch. Das kann AMD noch nicht daher müssen die Einheiten Anzahl rauf. Ein Teufelskreislauf :freak:

Erst mit einem erfolgreichen Testchip in echt oder Simulation kann den Kreis durchbrechen. So macht man nur inkrementelle Verbesserungen und keine Radikalen :wink:

Agent117
2016-07-09, 13:04:35
Erst mit einem erfolgreichen Testchip in echt oder Simulation kann den Kreis durchbrechen. So macht man nur inkrementelle Verbesserungen und keine Radikalen :wink:

Wahrscheinlich ist das dann wirklich der Punkt wo das Entwicklungsbudget fehlt.
Polaris soll ja sehr viele Verbesserungen enthalten aber es kommt IPC-mäßig in Spielen fast nix bei rum.
In den Design Teams werden schon fähige Leute sitzen und es wird viele gute Ideen geben, wie auch bei Nvidia. Nur kann AMD dann wahrscheinlich wirklich davon weniger umsetzen weil man es sich nicht leisten kann ein zu großes Risiko einzugehen.
Ich vermute neben den nicht ganz optimalen GF-Prozess aber noch mehr die Treiberabteilung hinter dem Polaris "Desaster". Man hatte sich einfach mehr IPC erhofft aus den Verbesserungen.

Thunder99
2016-07-09, 13:43:10
"Desaster" würde ich es nicht benennen. Eher mit den Schwierigkeiten das Design zu optimieren.

Evt überrascht uns ja AMD mit Vega :D

fondness
2016-07-09, 14:22:22
Ohne in den "GCN-Hate" einzusteigen, aber was soll man da noch belegen?

GCN (TSMC 28 HP): max. ~1,1 GHz
Kepler (TSMC 28 HP): max. ~1,1(?) GHz
Maxwell (TSMC 28 HP): max. ~1,5 GHz
Pascal (TSMC 16 FF+): max. ~2 GHz
GCN (14 LPP): max. ~1,3 GHz

Nvidia baut irgendwo "einfachere" Chips und kann hoeher takten, bei niedrigeren Spannungen. Das war vorher schon absehbar, weil NV einfach mal bei der gleichen Fertigungstechnologie das Maximum um die 50% (!) angehoben hat. Klar bringt die Fertigung ein bisschen was, man verschafft sich auch wieder Luft aber alles auf GF (bzw. Samsung oder 14 LPP) zu schieben ist voellig daneben.

Deine Angaben sind nicht wirklich konsistent, ich würde sagen das kommt eher hin:

GCN (TSMC 28 HP): max. ~1,2 GHz
Kepler (TSMC 28 HP): max. ~1,25 GHz
Maxwell (TSMC 28 HP): max. ~1,5 GHz
Pascal (TSMC 16 FF+): max. ~2 GHz
GCN (14 LPP): max. ~1,4(+) GHz -> Customs abwarten, es soll allerdings Designs geben, die bereits default sehr nah an 1,4Ghz takten.

Digidi
2016-07-09, 14:37:22
Nvdia kann zwar hoch takten. Aber was bringt es Ihnen wenn sie nur lausige 1280 Shader haben? Das bringt denen Nichts!

Man kann es ja am 3d mark Firestrike erkennen wo extrem Takte der GTX 1080 keine GTX 980 ti schlagen können! Es fehlt einfach an Shadern.

AnarchX
2016-07-09, 14:47:31
Nvdia kann zwar hoch takten. Aber was bringt es Ihnen wenn sie nur lausige 1280 Shader haben? Das bringt denen Nichts!

Am Ende kommt eine konkurrenzfähig Leistung heraus. Und >2GHz wirken wohl besser als >2000SPs.
Wenn AMD nicht noch ein Taktwunder mit reifender Prozessqualität erfährt, ist die Designentscheidung von Nvidia nicht wirklich zu kritisieren.

Thunder99
2016-07-09, 14:56:07
Nvdia kann zwar hoch takten. Aber was bringt es Ihnen wenn sie nur lausige 1280 Shader haben? Das bringt denen Nichts!

Man kann es ja am 3d mark Firestrike erkennen wo extrem Takte der GTX 1080 keine GTX 980 ti schlagen können! Es fehlt einfach an Shadern.
Es gibt immer Konstellationen wo ein breiteres Design besser ist. Aber im Schnitt zersägt die 1080 jede Maxwell Karte :wink: Es kommt drauf an was in Spielen rum kommt und nicht in einem synthetischen Test

-/\-CruNcher-/\-
2016-07-09, 15:05:28
Am Ende kommt eine konkurrenzfähig Leistung heraus. Und >2GHz wirken wohl besser als >2000SPs.
Wenn AMD nicht noch ein Taktwunder mit reifender Prozessqualität erfährt, ist die Designentscheidung von Nvidia nicht wirklich zu kritisieren.

In veralteteten Single Threaded Workloads richtig ;)
Oh wie hab ich diese Diskussion damals bei Unix und CPUs geliebt ;)

Du merkst doch selbst das Nvidia nur Zeit Gewinnen möchte.

Es gibt darüber wenige Tests bis so gut wie gar keine aber schonmal selber geschaut was der Takt bei GameWorks innerhalb des Boost Systems z.b überhaupt bewirkt ausser instabilität ?

iuno
2016-07-09, 15:10:24
Deine Angaben sind nicht wirklich konsistent, ich würde sagen das kommt eher hin:
Wie schon mehrfach gesagt war das nur sehr grob und ich wurde ja auch schon mehrfach berichtigt ;)

Nvdia kann zwar hoch takten. Aber was bringt es Ihnen wenn sie nur lausige 1280 Shader haben? Das bringt denen Nichts!
Nichts, ausser dass sie mit weniger breiten Chips gegen breitere ankommen und effizienter sind?!
Wer spielt FurMark?
Klar, beim Computing ist es auch wieder was anderes, aber darum geht es weder bei allen Pascals ausser GP100, noch bei Polaris.

-/\-CruNcher-/\-
2016-07-09, 15:16:10
Ja die Shader Skalierung und der Verbrauchsgewinn gehört ja zur Produktstrategie nach den Tegra Optimierungen seit Maxwell, ganz öffentlich im Interview geäussert von unserem Petersen gegenüber Carsten Spille damals zum GTX 750/750 TI launch ;)

Wie gesagt 1060 TI wenns blöd läuft, zahlt es eben der User ;)

StefanV
2016-07-09, 18:08:14
GCN müssen sie ja so dicht packen damit mehr Einheiten rein passen. Dafür kann das Design nicht so hoch takten. Will man mehr Takt haben müssten die Einheiten runter und Effizienz hoch. Das kann AMD noch nicht daher müssen die Einheiten Anzahl rauf. Ein Teufelskreislauf :freak:
Wasn quatsch...

Nur so zur Info: Weniger EInheiten = weniger Verbrauch bei gleichem Takt. Und, wie es scheint, ist momentan wohl das SPeicherinterface ein großes Problem. Und AMD kann ev. gar keine Lust haben, hier noch viel Energie rein zu investieren, da man mit HBM plant, sobald möglich/verfügbar...

Und dass sich niedriger taktende Designs dichter packen lassen, sollte einfach mal klar sein, siehe z.B. die Puma Kerne.

Aber einfach zu behaupten, dass AMD keine hoch taktenden Designs hin bekommt, ist einfach mal völlig an den Haaren herbei gezogen!
Schau dir doch mal Bulldozer an, die takten schon relativ hoch, das ist aber auch 'ne ganz andere Baustelle als die Taktregionen von Grafikkarten.

AMD kann also sehr wohl hoch taktende Designs, nur im Grafiksegment haben sie sich bisher eher dagegen entschieden, da hochtaktende Designs auch mehr Transistoren benötigen, mehr fläche usw. UNd da kann deren Ansicht schlicht sein, dass das sinnvoller ist.

Außerdem hat AMD schon mal mit ihren 'schlangen, breiten' Designs nVidia mit ihren Hochtaktdesigns gebügelt. Ist aber schon 'nen paar Wochen her, die Zeit der GTX 280 und Radeon HD4870...

Und was weißt du denn schon über VEGA? Woher weißt du, dass der nicht deutlich flotter werden wird als GP104??
Nur weil Fiji nicht so besonders toll war und die Leistung nicht auf die Straße bringen konnte?!

StefanV
2016-07-09, 18:12:34
Am Ende kommt eine konkurrenzfähig Leistung heraus. Und >2GHz wirken wohl besser als >2000SPs.
Wenn AMD nicht noch ein Taktwunder mit reifender Prozessqualität erfährt, ist die Designentscheidung von Nvidia nicht wirklich zu kritisieren.
Ja, genau wie damals R300 vs. nV30...
Da war der nVidia CHip ja auch deutlich höher getaktet und scheinbar genau so schnell - bis dann die ganzen DX9 Spiele kamen und das bewiesen, was keiner glauben wollte. Nämlich, dass die nVidia Chips in dem Punkt Shader ziemlicher Mist sind. Insbesondere da man damals auch keine von den TMUs unabhängigen ALUs hatte, im Gegensatz zu ATi...

Und momentan erinnert die ganze Sache schon ein wenig an R300 vs. nV30:
AMD hat deutlich mehr Rohleistung, es kommt eine neue 3D Schnittstelle und man weiß, dass die AMD Chips darunter deutlich besser laufen können als unter der alten....

Denn letztendlich sind die nV Karten nur aufgrund nVidias Treiberarbeit, oder wenn man böse wäre, würde man hier von Treibercheats sprechen, flotter als der Rest. Und das siehst du auch immer wieder, wenn ein Chip EOL geht, nicht mehr so besonders unterstützt wird und man den in neuen Spielen, die neue Dinge implementiert haben, gegen die damals gleichwertigen AMD Chips stellt...
Und das sind seltsamerweise gerade die Gameworks Titlel, in denen eine GTX 680 sich dann mit den Pitcairn Karten rumschlägt...

Und man erzählt immer wieder die gleichen Dinge, die man damals auch zu NV30 vs. R300 Zeiten gebracht hat: Es ist unwichtig, bringt ja doch nichts, weil nVidia das ja eh nicht hat usw usf...


Aber das alles gehört hier nicht hin, da das hier ein AMD THread ist, in dem es nicht um Dinge gehen sollte, die nVidia macht!
In den nVidia Threads wird ja auch nicht ständig von AMD geredet, warum muss das hier immer der Fall sein?!

illidan
2016-07-09, 18:12:46
Polaris -> Vega müsste schon so sein wie Kepler -> Maxwell, um eine Chance gegen Pascal zu haben.
Wie wahrscheinlich das ist, darf jeder für sich selbst entscheiden...

StefanV
2016-07-09, 18:16:35
Ja und was hat AMD zu VEGA gesagt?!

RICHTIG, dass bei VEGA einige Dinge überarbeitet werden werden, die bei Polaris nicht überarbeitet wurden...
Und, wie immer, werden die nächsten Treiber noch 'nen bisserl nachlegen, da einige neue DInge drin sind, die noch nicht 'totoptimiert' sind...

Disco_STFU
2016-07-09, 18:36:45
Trotz allem befürchte ich einen Rückstand von Vega wie Fuji zu den großen Maxwellern...

Setsul
2016-07-09, 18:39:00
Bitte warnen falls ich hier zu weit vom Thema abkomme.

Das sind hauptsächlich Gedankenspiele, keine Ahnung wie ihr das so einschätzt, aber meine Überlegung geht so:

Annahme: Die Namensschema Präsentationsfolie ist echt und richtig.

Daraus ergibt sich dann:
1. AMD will eine RX 490 rausbringen.
2. Die 490 hat >256bit.

Wenn AMD nicht mindestens 40 CUs und 384bit irgendwo auf Polaris 10 versteckt hat fällt der Chip als Kandidat weg. Tahiti ist langsamer, wäre also Schwachsinn. Hawaii / Grenada gnadenlos hochgetaktet wäre zwar schneller aber mMn auch Schwachsinn. Fiji rebrand mit 4GB oberhalb der 8GB RX 480 zu platzieren sähe komisch aus, wäre aber möglich. Preislich (unterhalb der 1070) dürften Interposer und HBM aber recht unangenehm werden.

Damit bleiben nur 2 Möglichkeiten:
Entweder Vega 10 oder 2 Chips.
2 mal Polaris 10 entsprechend zusammengestaucht in der Leistungsaufnahme wäre definitiv möglich. Alle anderen Chips wäre nicht wirklich sinnvoll.
Falls es Vega 10 ist wirft das auch wieder Fragen auf.
1. Interposer und HBM2 Preis / Verfügbarkeit. Wenn AMD nicht einen Haufen HBM2 im Keller gefunden hat sollten sie die 490 nicht in der Menge produzieren können, in der sie sie verkaufen wollen.
2. Warum nur ein Modell? 495 wäre ja nur eine Revision also kein Platz für 2.
3. AMD hatte HBM2 für 2017 angekündigt, da wäre dann 5er Serie angebrachter.

Also abgesehen von plötzlichem HBM2 Überfluss und gleichzeitig erbärmlichen yields für Vega 10, sodass man nur einen salvage chip bringen kann und nicht salvage + full, sehe ich einfach keine Möglichkeit wie die 490 Vega 10 mit HBM2 sein soll.

Und daraus ergibt sich, dass, außer wenn AMD uns einen Fiji rebrand reindrückt, die 490 entweder 2 mal Polaris 10 ist oder Vega 10 mit GDDR5.

Dual Polaris 10 ist absolut machbar, aber in dem Preissegment wäre sehr ungewöhnlich und so wie die Treiber für die 480 momentan aussehen ist etwas so treiberabhängiges wie CF wirklich keine gute Idee. 2 Chips a la MCM aneinander zu kleben habe ich preislich auch meine Bedenken.

Theoretisch könnte man bei Vega 10 "einfach" noch ein GDDR5(X?) interface dazupacken, die Gesamtfläche ist dann immernoch recht akzeptabel. Die Frage ist wie AMD vorher die Yields eingeschätzt hat. Wenn man damit rechnet das HBM2 und ein neuer Prozess recht unangenehm werden könnten, dann könnte das recht attraktiv gewirkt haben. 10% weniger dies pro wafer, aber dafür werden alle Ausfälle durch HBM2 und eventuell ein paar die für die normale salvage Version nicht genügend funktionierende CUs haben verwertbar.

HarryHirsch
2016-07-09, 18:39:47
so wie es aussieht haben sie es jetzt sogar bei den gpus geschafft den anschluss zur konkurrenz zu verlieren...

Agent117
2016-07-09, 18:45:16
Die Frage ist nur wann AMD genau wusste, dass Polaris IPC mäßig in Spielen versagt. Ich übertreibe ein biszchen aber deren Ziel war bestimmt nicht nur 970 Performance sondern Richtung 980 bei 1150Mhz. Und bei 390 Leistung in 1080P @1190Mhz Schnitt hat die RX480 immerhin 8% mehr Rechenleistung. Irgendwas ist leicht schiefgelaufen und ich vermute mal die Treiberabteilung und HW-Designer haben aneinander vorbeigearbeitet und der Eine konnte das vom Anderen nicht so gut nutzen bzw. implementieren wie erhofft. Kann aber auch BS sein passt aber am besten zu dem was AMD im Vorfeld über Polaris sagte.

Hoffentlich wirkt sich das nicht so stark auf Vega aus, ich befürchte aber schon.

-/\-CruNcher-/\-
2016-07-09, 18:47:19
Polaris -> Vega müsste schon so sein wie Kepler -> Maxwell, um eine Chance gegen Pascal zu haben.
Wie wahrscheinlich das ist, darf jeder für sich selbst entscheiden...

Wenn AMD den selben Aufwand wie in die Fury/Nano steckt dann erwarte ich ein absolutes Hammer Endprodukt mit der jetzigen Polaris Basis und weiter optimierter DCC sowie Powertune und Glofo fixes bis dahin :)

Raff
2016-07-09, 18:58:21
Evtl. wandern sie mit dem Design auch zurück zu TSMC, wer weiß. ;) Das müsste dann aber so langsam leaken, immerhin baut man diese Dinge nicht von heute auf morgen hin.

MfG,
Raff

-/\-CruNcher-/\-
2016-07-09, 19:01:33
Nie im Leben man hat das ganze nicht ohne Grund mit Samsung erarbeitet um nun das ganze als Fail zu verlieren, der Wechsel wäre das Eingeständnis deswegen absolut unglaubwürdig das man seine R&D investments als second sieht.
Und wie du sagst das wurde alles nicht von heute auf Morgen hingebaut um jetzt die Abhängigkeit bei einem der wichtigsten Produkte wieder einzugestehen, das wäre ein wirklich herber Rückschlag für beide.

Vor allem aber gegen Intel.

Raff
2016-07-09, 19:04:15
Sunk costs are sunk. ;) Ich würde gerne in eine Parallelwelt reisen, um dort einen Polaris 10 von TSMC zu sehen (d. h. keinen Port mit den jetzigen Erkenntnissen).

MfG,
Raff

Hakim
2016-07-09, 19:12:35
Kann man eigentlich richtig davon ausgehen das die Energieeffizienz Problematik wegen Glofo liegt?

-/\-CruNcher-/\-
2016-07-09, 19:15:26
Man holt sich eher noch mehr Verstärkung aus Indien ins Boot was ja geschehen ist und hoffentlich teils bei Vega schon eingeflossen ;)

Thunder99
2016-07-09, 19:16:31
Jetzt wartet doch mal ab bis die Treiber reifen und schreibt nicht sofort Polaris als fail ab... So schlimm ist er nun auch wieder nicht.

Vega wird sowieso viel interessanter für die meisten :)

ChaosTM
2016-07-09, 19:16:39
Ich erinnere mich noch gut an 7900GTX vs 1900XT(X) vor ca. 10 Jahren.
Beim Release war die NV Karte noch einen Hauch schneller bzw auf Augenhöhe mit der Konkurrenz. Nach einen Jahr lag die ATI dann im Schnitt um 40-50% voran und erreichte in einigen Spielen gar die doppelte Performance.

Das war natürlich ein Extremfall aber eine ähnliche Tendenz sieht man seither bei jeder neuen Generation.
In einem Jahr wissen wir mehr..

MikePayne
2016-07-09, 19:23:46
Ich erinnere mich noch gut an 7900GTX vs 1900XT(X) vor ca. 10 Jahren.
Beim Release war die NV Karte noch einen Hauch schneller bzw auf Augenhöhe mit der Konkurrenz. Nach einen Jahr lag die ATI dann im Schnitt um 40-50% voran und erreichte in einigen Spielen gar die doppelte Performance.

Das war natürlich ein Extremfall aber eine ähnliche Tendenz sieht man seither bei jeder neuen Generation.
In einem Jahr wissen wir mehr..


Aufgrund der wenigen Shader und bei der 1060er aufgrund des geringen Speichers machen die "günstigen" nvidia Karten (wenn man über 2017 nachdenkt) sicher bald schlapp.
Werden wieder viele abstreiten, dass AMD Karten länger halten und nach Jahren performant bleiben - scheint ja die wenigsten zu interessieren.

Boah, was heise.de für einen Müll bzgl. der RX 480 postet ist ja nicht mehr feierlich...

http://www.heise.de/newsticker/meldung/PCI-SIG-Radeon-RX-480-darf-PCIe-Logo-noch-nicht-tragen-3262762.html

-/\-CruNcher-/\-
2016-07-09, 19:34:04
Jetzt wartet doch mal ab bis die Treiber reifen und schreibt nicht sofort Polaris als fail ab... So schlimm ist er nun auch wieder nicht.

Vega wird sowieso viel interessanter für die meisten :)

Ja aber die erste harte Probe steht kurz bevor die GTX 1060 das wird auf den ersten Blick nicht gut aussehen :(
Nvidia wird nicht noch einmal so eine absichtlich verhunzte Balance wie bei der GTX 960 präsentieren auch da sie die GTX 1070 nicht so pushen müssen wie noch die GTX 970 um ihren Preis zu rechtfertigen und vor allem werden sie alles optimieren was geht um bei Review start als absoluter Sieger da zu stehen.

Für 200€ mehr muss AMD mit Vega schon was bieten der Druck ist da extrem Hoch.

Und vor allem müssen die AMD Treiber Ingeniuere bis zum GTX 1060 Review release und VEGA leisten ohne ende.

Die GTX 1060 hat jedenfalls wieder das Potenzial eine neue GTX 460 zu werden was mit der GTX 960 absolut nicht der Fall war.

Thunder99
2016-07-09, 19:34:53
Bei dem angesetzten Preis der 1060 ist das AMD Produkt dennoch besser (P/L)

dildo4u
2016-07-09, 19:43:48
Bei dem angesetzten Preis der 1060 ist das AMD Produkt dennoch besser (P/L)
Die 1060 hat vermutlich deutlich mehr Luft beim OC,ich erwarte das sie ziemlich gleich dastehen was (P/L) angeht. Erst mit OC kämpft die 970 z.b mit der 390,und diesmal liegt die Nvidia schon ohne OC vorne.

Birdman
2016-07-09, 19:52:45
Kann man eigentlich richtig davon ausgehen das die Energieeffizienz Problematik wegen Glofo liegt?
Nein, die Warscheinlichkeit dass dieses Gerücht zutrifft ist sehr gering.

Das ganze ist nur eine "Argument" das vor allem von der roten Fraktion gerne angebracht wird, wenn es um die Frage nach dem Grund der im Maxwell/Pascal Vergleich, schlechten Taktbarbeit und trotzdem hohen Voltage-Level des Polaris Chips geht. (wohl weil man hier die Schuld von AMD weg auf einen Dritten schieben kann)

Dorn
2016-07-09, 20:13:38
Nein, die Warscheinlichkeit dass dieses Gerücht zutrifft ist sehr gering.

Das ganze ist nur eine "Argument" das vor allem von der roten Fraktion gerne angebracht wird, wenn es um die Frage nach dem Grund der im Maxwell/Pascal Vergleich, schlechten Taktbarbeit und trotzdem hohen Voltage-Level des Polaris Chips geht. (wohl weil man hier die Schuld von AMD weg auf einen Dritten schieben kann)

Naja so einfach ist das nun auch wieder nicht. TSMC hat viel mehr Erfahrung als Globalfoundries und wie schon Raff geschrieben hat würde ich auch gerne in einem anderem Universum eine Polaris von TSMC gefertigt sehen. Keine Frage GCN braucht so oder so mehr Watt egal von wem das Produkt letztendlich gefertigt wird als Maxwell oder Pascal. Hier hat nvidia einfach im Bereich R&D viel, viel mehr Budget zu Verfügung. Edit natürlich in allen Bereichen. :cool::wink:

Thunder99
2016-07-09, 20:18:07
Die 1060 hat vermutlich deutlich mehr Luft beim OC,ich erwarte das sie ziemlich gleich dastehen was (P/L) angeht. Erst mit OC kämpft die 970 z.b mit der 390,und diesmal liegt die Nvidia schon ohne OC vorne.
Äh, nein in Bezug aufs Kämpfen gegen 970 und 390! ;)

https://www.computerbase.de/2016-06/radeon-rx-480-test/5/#abschnitt_benchmarks_in_1920__1080_und_2560__1440

Referenz gegen Referenz liegt die 480 auf Augenhöhe mit der 970 und 390 :wink:
Wie es dann bei der 1060 wird sieht man ja am Preis. Aber das ist sowieso OT

Ist denn eigentlich schon was durchgesickert was außer HBM2 noch bei Vega anders wird?

Birdman
2016-07-09, 20:38:04
Wie es dann bei der 1060 wird sieht man ja am Preis. Aber das ist sowieso OT
In der Theorie gewinnt die 1060 jeglichen Vergleich.

- nV proklamiert 15% mehr Performance als RX480
- nV proklamiert 279€ für die 1060 Custom was nur 4% mehr ist als das was man aktuell für die billigste 480/8g zahlt.


Nur was die proklamierten Hersteller/Custom Preisangaben von nV wert sind, sieht man ja bei der 1070/1080....
Darüberhinaus steht noch die Frage nach den 15% im Raum. Bei den 1080/1070 Performance Teasers haben sie zwar eher tief gestapelt, doch das muss hier nun nicht gleich sein. (da im Gegensatz zu den vorher genannten nicht im konkurenzlosen Bereich wo es keine Rolle gespielt hat)

Trap
2016-07-09, 20:49:40
In der Theorie gewinnt die 1060 jeglichen Vergleich.
Vesa adaptive sync support - [ ]

Schaffe89
2016-07-09, 20:50:52
Problem. Und AMD kann ev. gar keine Lust haben, hier noch viel Energie rein zu investieren, da man mit HBM plant, sobald möglich/verfügbar...

Unwahrscheinlich, AMD muss ja jetzt mit Polaris Geld scheffeln, zudem ist GDDR5 deutlich billiger, das heißt die günstigen Karten muss man wohl sowieso damit versorgen.
AMD hätte einfach Hawai shrinken sollen, das ist der beste Chip den AMD gebaut hat seit Jahren, nach der HD5870.
Seicht mehr Takt ~1100mhz, dafür den Vollausbau mit 2816 Shadern und GDDR5 mit ~4000mhz draufgepackt und schon reicht es auch die rx480 zu schlagen, bei wohl auch 170 Watt TDP.
Bandbreite hätte das Teil dann enorm und wäre für 4K gegen eine GTX 1070 definitiv noch interessant geworden, vor allen in Directx12.
Die GTX 1060 hätte keinen Stich gemacht und man hätte das teurer verkaufen können.

Thunder99
2016-07-09, 21:09:02
Wäre durchaus interessant geworden. Das Erbe von Hawaii+ wird aber eher Vega werden oder Polaris mit mehr Treiber Feinschliff? :confused:

Langlay
2016-07-09, 21:25:27
Nichts wäre draus geworden. 512bit GDDR5 Speicherinterface wird nicht in einen Chip <250mm² passen.

Birdman
2016-07-09, 21:26:04
Vesa adaptive sync support - [ ]
hat die AMD auch nicht ;D

AMD hat FreeSync, nVidia hat GSync und Adaptive vSync, irgendwelche Alleinstellungsmerkmale haben beide Hersteller, sind aber kaum vergleichbar und hier nicht Gegenstand des Themas
Ich gebe langfrist zwar FreeSync den Vorzug, technisch gesehen ist GSync zur Zeit aber die deutlich bessere Lösung.

Screemer
2016-07-09, 21:51:47
warum wird hier eigentlich mehr zur 1060 als zu gcn diskutiert?

iuno
2016-07-09, 21:51:56
@Birdman: Was fuer ein Unsinn. Adaptive Sync = FreeSync. Das eine ist offizieller Standard der VESA, das andere der Marketingname von AMD, die Technik ist dieselbe. Adaptive V-Sync ist Triple Buffering (was es schon seit Ewigkeiten gibt).

Ein Hawaii shrink waere auch nicht interessanter geworden. Klar, dann haette man den Fertigungsvorteil 1:1 rauslesen koennen, aber was bringts?
Dazu passt ein 512 Bit SI nicht in so einen kleinen Chip, wie Langlay schon sagt. Man haette dann schon wenigstens GDDR5X fuer 44 CUs gebraucht.

Gimmick
2016-07-09, 22:33:30
@Birdman: Was fuer ein Unsinn. Adaptive Sync = FreeSync. Das eine ist offizieller Standard der VESA, das andere der Marketingname von AMD, die Technik ist dieselbe. Adaptive V-Sync ist Triple Buffering (was es schon seit Ewigkeiten gibt).


Adaptiv VSync deaktiviert den VSync bei FPS unterhalb der Monitorrefreshrate. Mit Triplebuffering hat das nix zu tun.

iuno
2016-07-09, 22:39:53
Stimmt, ist aber auch alt.
Was ich meinte War Fast-Sync.

Ist hier aber eh OT

Unicous
2016-07-10, 02:15:07
Die Frage ist nur wann AMD genau wusste, dass Polaris IPC mäßig in Spielen versagt. Ich übertreibe ein biszchen aber deren Ziel war bestimmt nicht nur 970 Performance sondern Richtung 980 bei 1150Mhz. Und bei 390 Leistung in 1080P @1190Mhz Schnitt hat die RX480 immerhin 8% mehr Rechenleistung. Irgendwas ist leicht schiefgelaufen und ich vermute mal die Treiberabteilung und HW-Designer haben aneinander vorbeigearbeitet und der Eine konnte das vom Anderen nicht so gut nutzen bzw. implementieren wie erhofft. Kann aber auch BS sein passt aber am besten zu dem was AMD im Vorfeld über Polaris sagte.

Hoffentlich wirkt sich das nicht so stark auf Vega aus, ich befürchte aber schon.

Du übertreibst ein bisschen viel aber generell stimme ich dahingehend zu, dass sie ihre IMHO ihre Performance-Ziele nicht erreicht haben. Ich schätze, dass sie rein vom Takt her auf ca. 1,4 GHz hingearbeitet haben, GF das aber durch mutmaßlich beschissene Yields und vergleichsweise zu hoher Spannung (bislang?) unmöglich macht. Ich könnte mir durchaus vorstellen, dass hier noch die ein oder andere Boost-Variante in den kommenden Monaten kommt. Mit dem Treiber hat das meiner Meinung nach wenig zu tun, denn die können ja auch erst final geschrieben werden wenn man das Endprodukt im Haus hat.

Schaffe89
2016-07-10, 03:13:23
Polaris ist ja mehr oder weniger der Vorbote für Vega.
Vega dürfte außer HBM keine Großartigen Veränderungen beinhalten, von daher ist es relativ wahrscheinlich dass auch Vega relativ schlecht wird, die Frage ist, ob man die Fury X damit knacken wird.

iuno
2016-07-10, 04:26:58
Und schon wieder GF gebashe...
P10 hängt ja jetzt schon oft an der Bandbreite, glaubst du wirklich das war mit 1,4 GHz geplant?
IMHO war es genau so als GM204 Konkurrenz geplant, nur kam es letztlich etwas spät* und man musste mit Takt und Spannung weiter hoch als es ihnen lieb war, wohl auch weil die Konkurrenz schon bereit ist. Das passt auch völlig zu der "Problematik" mit der Leistungsaufnahme.
Davon ab macht der Chip wieder bei ~10% OC zu, wie schon immer seit gcn. Ich verstehe die Argumentation nicht, warum es an der Fertigung liegen soll.

* ja, Mitte 2016 war angesagt, aber erst relativ spät. Zu Beginn der Planung hat man vielleicht auf einen früheren Zeitraum gehofft, auch ggü. der Konkurrenz wieder.


Ich erwarte auch nicht viele Neuerungen von Vega gegenüber Polaris. Man muss auch auf jeden Fall hpc/Profi Funktionen (zurück)bringen. Aber Fiji als Maßstab ist schon übertrieb pessimistisch.

fondness
2016-07-10, 09:59:31
Davon ab macht der Chip wieder bei ~10% OC zu, wie schon immer seit gcn.

Ich will ja nichts sagen, aber auch Pascal macht nach ~10% OC "zu", bei den Custom geht häufig nicht mal mehr 5%.

Schon eine Referenz GTX1080 boostet bis 1886Mhz, und es gibt genug die keine 2Ghz erreichen - das wären gerade mal 6%.

Zergra
2016-07-10, 10:17:38
Polaris ist ja mehr oder weniger der Vorbote für Vega.
Vega dürfte außer HBM keine Großartigen Veränderungen beinhalten, von daher ist es relativ wahrscheinlich dass auch Vega relativ schlecht wird, die Frage ist, ob man die Fury X damit knacken wird.
Sagt wer ? Vega könnte auch ein komplett neu entwickelter Chip sein. Daher Polaris wurde erstmal als Zwischenlösung gebaut, weil Vega enorm spät kommt ?

Setsul
2016-07-10, 10:24:41
Ich dachte die größeren Veränderungen sollten eher mit Vega kommen?

Polaris hauptsächlich Effizienz und mit der niedrigeren Bandbreite umgehen und das Ganze auf einem neuen Prozess und erst bei Vega dann größere Umbauten.


Klar weiß man nicht wieviel jetzt an Global Foundries liegt oder nicht liegt, aber ich glaube das größte Problem von Polaris ist die Packdichte. Ob Polaris nicht genügend höhere IPC hatte und deshalb Taktraten und Spannung über Gebühr hochgeschoben wurden weiß man nicht, aber daran liegt es wohl nicht. Egal ob Polaris für 1266 MHz oder weniger gedacht war, es bleibt das gleiche Problem: Wenn nVidia, die sowieso weniger rohe Rechenleistung brauchen, 40-50% höhere Taktraten fahren kann, bei normalen Spannungen, bringen einem 20-25% höhere Packdichte einfach herzlich wenig. Ein größerer Chip tut sich einfach schwer effizienter zu sein.

Das läuft letztendlich natürlich wieder auf Effizienz raus. Wenn Polaris 10 die gesamt Karte 130-140W bräuchte, könnte man locker die 1266 MHz halten und die Effizienz sähe wesentlich besser aus.


Zu Vega 10 vs Fury X:
Sollte Vega 10 tatsächlich 4096 Shader haben, müsste schon ziemlich viel schief laufen um langsamer zu sein als die Fury X. Entweder viel niedrige Taktraten oder GCN 5 langsamer als GCN 3 oder eine Kombination von beidem. Das wäre schon so erbärmlich, dass man auch gleich einpacken könnte.

Die Frage ist wie groß wird das Ding?

Mal grob überschlagsmäßig gerechnet bringt nVidia die Transistoren 70-75% dichter auf 16nm. Dazu doch recht deutlich höhere Taktraten.
Bei AMD sind die Taktraten nicht so stark gestiegen, was aber zu erwarten ist wenn man auf Packdichte geht. Das Problem ist die Dichte ist nur ungefähr um 65% gestiegen. Da läuft doch irgendwas falsch.

Undertaker
2016-07-10, 10:33:19
Ich will ja nichts sagen, aber auch Pascal macht nach ~10% OC "zu", bei den Custom geht häufig nicht mal mehr 5%.

Schon eine Referenz GTX1080 boostet bis 1886Mhz, und es gibt genug die keine 2Ghz erreichen - das wären gerade mal 6%.

Du musst schon Langzeitwerte mit Langzeitwerten vergleichen, um eine sinnvolle Aussage treffen zu können. Dann sprechen wir von 1785 MHz (https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast) zu bis zu 1987 MHz (https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/3/#abschnitt_wer_knackt_die_20ghzmarke) bei den Partnermodellen. Das sind 11,3 % zzgl. OC-Potential (was hier leider nicht getestet wurde).

In Relation dazu müsste die RX 480 ausgehend von ~1.190 MHz Durchschnittsboost bei den schnellsten Partnermodellen mit stabilen 1.324 MHz takten.

fondness
2016-07-10, 10:34:54
Du musst schon Langzeitwerte mit Langzeitwerten vergleichen, um eine sinnvolle Aussage treffen zu können.


Wenn ich das maximale OC-Potential haben will IMO nein. "Langzeitwerte" sind ja nur eine Frage von PT+TT.

In Relation dazu müsste die RX 480 ausgehend von ~1.190 MHz Durchschnittsboost bei den schnellsten Partnermodellen mit stabilen 1.324 MHz takten.

Und warum sollte das nicht möglich sein? Partnermodelle sollen mit 1350Mhz+ laufen.

Raff
2016-07-10, 10:34:59
Und schon wieder GF gebashe...
P10 hängt ja jetzt schon oft an der Bandbreite, glaubst du wirklich das war mit 1,4 GHz geplant?
IMHO war es genau so als GM204 Konkurrenz geplant, nur kam es letztlich etwas spät* und man musste mit Takt und Spannung weiter hoch als es ihnen lieb war, wohl auch weil die Konkurrenz schon bereit ist. Das passt auch völlig zu der "Problematik" mit der Leistungsaufnahme.
Davon ab macht der Chip wieder bei ~10% OC zu, wie schon immer seit gcn. Ich verstehe die Argumentation nicht, warum es an der Fertigung liegen soll. [...]

Ich habe den Jahresanfang 2012 (Start von GCN und 28 nm) ganz anders in Erinnerung. Gefühlt lief jede Wald-und-Wiesen-7970 mit dem Overdrive-Limit von 1.125 MHz stabil, wenn man ihr nur genügend Kühlung gab. Der Chip war für 925 MHz spezifiziert. Etwas später, als man die Spannung erhöhen konnte, waren auch 1,2 GHz kein Problem, wieder mit vernünftiger Kühlung. So ein Exemplar habe ich noch hier legen, müsste ich mal wieder einbauen und durch ein paar Benchmarks jagen. :) Pitcairn folgte kurz darauf, wurde für 1.000 MHz spezifiziert und ließ sich ebenfalls auf rund 1,2 GHz takten. Bei Polaris ist der Puffer wesentlich geringer, an +20 Prozent ist da nicht zu denken. Und 28 nm war 2012 gewiss unreif, wie es 16 und 14 nm gerade auch sind. Ich bleibe dabei, dass es an der Fertigung liegen muss.

MfG,
Raff

Undertaker
2016-07-10, 10:36:45
Und warum sollte das nicht möglich sein? Partnermodelle sollen mit 1350Mhz+ laufen.

Ich habe nur geschrieben sie "müssten", ob sie das tatsächlich tun habe ich gar nicht angesprochen. :)

Der beworbene Takt sagt in Zeiten von PT/TT erst einmal nichts aus.

fondness
2016-07-10, 10:38:19
Ich habe nur geschrieben sie "müssten", ob sie das tatsächlich tun habe ich gar nicht angesprochen. :)

Der beworbene Takt sagt in Zeiten von PT/TT erst einmal nichts aus.

Partnermodelle haben in der Regel ein ausreichend großes PT+TT um den Takt zu halten.

P10 lässt sich also eher besser übertakten als Pascal, Kritik daran ist völlig unangebracht.

-/\-CruNcher-/\-
2016-07-10, 10:39:03
Du musst schon Langzeitwerte mit Langzeitwerten vergleichen, um eine sinnvolle Aussage treffen zu können. Dann sprechen wir von 1785 MHz (https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast) zu bis zu 1987 MHz (https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/3/#abschnitt_wer_knackt_die_20ghzmarke) bei den Partnermodellen. Das sind 11,3 % zzgl. OC-Potential (was hier leider nicht getestet wurde).

In Relation dazu müsste die RX 480 ausgehend von ~1.190 MHz Durchschnittsboost bei den schnellsten Partnermodellen mit stabilen 1.324 MHz takten.

Wird anscheinend erreicht nur muss man hier davon ausgehen das das Taktverhalten nicht überwacht wurde ;)

zh2svARKcDM


Ich will ja nichts sagen, aber auch Pascal macht nach ~10% OC "zu", bei den Custom geht häufig nicht mal mehr 5%.

Schon eine Referenz GTX1080 boostet bis 1886Mhz, und es gibt genug die keine 2Ghz erreichen - das wären gerade mal 6%.

Schau mal in den Treiber Thread was da gerade als Bug gemeldet wird ;)

...brings hier mal rein:
Treiber macht bei einigen mit Oculus Streß - sobald HMDs aktiviert werden gehen Pascals ne Booststufe runter! (auf 16XXMHz)

...ist bereits bei nVidia gemeldet.

Grüße
S@uDepp



When Nvidia performs bad and AMD performs good everyone says that this is a horrible port hehe


Übrigens stimme ich da absolut zu dieses Spiel ist von Grund auf GCN DX12 optimiert und ein parade beispiel dafür ;)

Und hinter dieser Performance steckt Microsoft das ist ihr Ziel diese Ansprüche werden sie bei jedem Partner verfolgen für UWP DX12.

Nvidia muss diese mit der GTX 1060 liefern auf dem i5 und wenn nicht sogar i3.

Tamagothi
2016-07-10, 10:46:29
Ich glaube das der Kleine Vega keine 4k Shader haben wird. Ich tippe eher auf 3584 (56 CU's).

Wenn man sich die 280X/390X anschaut sind bei 37,5% mehr CU's 50% Leistung drinnen.

Undertaker
2016-07-10, 10:56:13
Partnermodelle haben in der Regel ein ausreichend großes PT+TT um den Takt zu halten.

P10 lässt sich also eher besser übertakten als Pascal, Kritik daran ist völlig unangebracht.

Entweder ich habe es übersehen oder du hast Infos, die andere noch nicht haben – ich kenne jedenfalls keinen Test, in dem eine RX480-Partnerkarte mit stabilen 1324 MHz vermessen wurde. Die Pascal-Partnerkarten im obigen Link waren allesamt(!) PT-limitiert, was aus Gründen der Energieeffizienz auch sinnvoll ist.

Wenn man das Limit anhebt, gehen die Partnerkarten natürlich noch weiter. Die Zotac, die auch bei CB vertreten war, wurde z.B. mit 2121 MHz (http://www.golem.de/news/geforce-gtx-1080-1070-im-test-zotac-kann-geforce-besser-als-nvidia-1606-121600-7.html) stabilem Boost vermessen. Wieder umgemünzt auf die RX 480 wären das 1414 MHz. Mal schauen, ob das drin ist oder nicht.

Edit: Unfug, ich muss mich komplett korrigieren. Ich habe bei CB die Default-Werte mit den max. PT/TT-Zahlen durcheinander geworfen. Hier noch einmal die korrigierten, realen Boost-Zahlen:

Referenz: ~1610 MHz
OC-Modelle: bis 1987 MHz (+23,4 %)
OC: bis 2121 MHz (+31,7 %)

Umgerechnet auf die RX 480 ergibt das:

Referenz: ~1190 MHz
OC-Modelle: 1468 MHz
OC: 1567 MHz

Das ist wohl guten Gewissens als vollkommen utopisch anzusehen.

w0mbat
2016-07-10, 11:29:21
Ich bin gerade echt auf die RX 470 gespannt. Wenn die wirklich mit 2048 Shadern kommt wären das nicht mal 300 weniger als auf der RX 480 und bei einem vollem 256-bit SI muss der Takt deutlich niedriger sein. Etwas OC und eine 8GB version und so weit kann die RX 480 nicht mehr davor liegen. Wird vielleicht insg. die bessere Karte.

MadPenguin
2016-07-10, 12:34:33
Ich bin gerade echt auf die RX 470 gespannt. Wenn die wirklich mit 2048 Shadern kommt wären das nicht mal 300 weniger als auf der RX 480 und bei einem vollem 256-bit SI muss der Takt deutlich niedriger sein. Etwas OC und eine 8GB version und so weit kann die RX 480 nicht mehr davor liegen. Wird vielleicht insg. die bessere Karte.

http://www.ashesofthesingularity.com/metaverse#/personas/2f2bbf4c-a58b-4c88-a817-71d8c18e6d51/match-details/446cd478-4521-4acd-a715-6b537f876590

As usual AoS. Ich glaube auch, dass die 470 gut wird.

Gorkon
2016-07-10, 12:42:42
Ich habe den Jahresanfang 2012 (Start von GCN und 28 nm) ganz anders in Erinnerung. Gefühlt lief jede Wald-und-Wiesen-7970 mit dem Overdrive-Limit von 1.125 MHz stabil, wenn man ihr nur genügend Kühlung gab. Der Chip war für 925 MHz spezifiziert. Etwas später, als man die Spannung erhöhen konnte, waren auch 1,2 GHz kein Problem, wieder mit vernünftiger Kühlung. So ein Exemplar habe ich noch hier legen, müsste ich mal wieder einbauen und durch ein paar Benchmarks jagen. :) Pitcairn folgte kurz darauf, wurde für 1.000 MHz spezifiziert und ließ sich ebenfalls auf rund 1,2 GHz takten. Bei Polaris ist der Puffer wesentlich geringer, an +20 Prozent ist da nicht zu denken. Und 28 nm war 2012 gewiss unreif, wie es 16 und 14 nm gerade auch sind. Ich bleibe dabei, dass es an der Fertigung liegen muss.

MfG,
Raff
Aber es wurde ja auch nicht wirklich besser mit Hawaii, Tonga oder gar Fiji. Ich glaube einfach, dass das GCN-Design in dieser Form da einfach Taktmäßig am Ende ist. Beide, AMD und nV, haben jeweils von 28nm > GloFo 14 / TSMC 16 ~70% Energieersparnis rausgeholt, also kann es der Punkt schon mal nicht sein. GCN hat afaik eine viel kürze Pipeline als Maxwell / Pascal, also ist man da eh schon Taktraten-limitiert, P4 vs. K8 lässt grüßen ;)

Evtl. schmeisst AMD aber auch einfach den unnötigen Ballast nicht aus ihren Gamer-Chips wie nV raus...kostet ja auch alles nochmal extra Geld was einfach nicht da ist. Das frisst ja wiederum auch nochmal Strom.

Am Ende ist GCN ja im Endeffekt eigentlich keiner "Gamer-µArch" sondern voll auf GPGPU aus. Reiner Zufall, dass man damit auch daddeln kann :freak:

Unicous
2016-07-10, 12:47:05
@iuno

Das "Gebashe" oder wie ich es nenne qualifizierte Meinung, :wink: basierend auf jahrelanger "Missfertigung", wird auch so schnell nicht aufhören. Der Prozess war mal wieder viel zu spät HVM-ready bzw. überhaupt hat es ewig gedauert (im Vergleich zu Samsung und TSMC) bis sie den Prozess überhaupt zum Laufen bekommen haben, während bei den Anderen schon massenhaft Chips vom Band liefen. Wenn der Typ aus dem Reinraum recht hat und die Yields so beschissen sind und bei Samsung vergleichsweise mehr als doppelt so gut sind (kommt natürlich darauf an um welchen Chip es sich da handelte) ist das nun mal ein bedeutender Faktor. Und der Chip ist weder riesig noch extrem kompliziert um diese angeblichen Yieldraten zu rechtfertigen. Wir sind hier ja nicht bei IBM die froh sind wenn 1, 2 Chips auf dem Wafer voll funktionsfähig sind.:freak:

Bei solchen Yieldraten muss man wirklich jeden Chip als 480 verkaufen und kann sich die "schlechten" nicht für salvage SKUs aufheben. Könnte durchaus sein, das deswegen auch der Start der 470 nicht erfolgt ist. Und warum Polaris 11 auf sich warten lässt, würde ich auch gerne mal wissen. Es wurde ja unlängst behauptet, dass es da auch Probleme gibt.

Agent117
2016-07-10, 12:54:50
Mit dem Treiber hat das meiner Meinung nach wenig zu tun, denn die können ja auch erst final geschrieben werden wenn man das Endprodukt im Haus hat.

Richtig, das dürfte laut den Zauba Listungen so im Oktober bis November letzten jahres gewesen sein. Wenig zu tun halt ich aber trotzdem für etwas untertrieben. Man setzt sich ja zusammen wenn man Architekturänderungen vornimmt und überlegt: was bringt zum Beispiel ein L0 Instruction Buffer; wie gut kann der vom Treiber zum Performancegewinn genutzt werden. Hat man dann die Hardware im Haus sagt man bis zum Launch Mitte 2016 müssen wir es treiberseitig hinbekommen die neuen Architekturveränderungen in mehr Performance umsetzen. Man weiß aber noch nicht genau wo man rauskommt. Vlt funktioniert das eine nicht so gut wie erhofft oder man stellt fest dass Hardware und Software in einigen Details nicht optimal aufeinander abgestimmt wurden und auch Treiberarbeit nicht mehr viel bringt.....

Natürlich kann es bei Polaris auch noch an der Fertigung; im Grunde wissen wir ja auch garnichts, außer nichtmal handfest dass wohl mal 1150Mhz geplant waren.

Und 28 nm war 2012 gewiss unreif, wie es 16 und 14 nm gerade auch sind. Ich bleibe dabei, dass es an der Fertigung liegen muss.

MfG,
Raff

Halte ich nach wie vor für unwahrscheinlich dass es überwiegend daran liegt aber iuno brachte ja das Argument mit GDR5X. Wenn Polaris das nicht unterstützt sollte es eher weniger an der Fertigung liegen, da man dann bei noch höheren Taktraten bandbreitenlimitiert wäre; ist nur die Frage wie es sich bei niedrigeren Taktraten und mehr IPC bandbreitenmäßig verhält, so ganz blicke ich da nicht durch, das lässt sich so einfach garnicht beantworte mMn. Sicher ist nur mehr braucht Takt mehr Bandbreite.

Schaffe89
2016-07-10, 14:00:41
@iuno
Könnte durchaus sein, das deswegen auch der Start der 470 nicht erfolgt ist. Und warum Polaris 11 auf sich warten lässt, würde ich auch gerne mal wissen. Es wurde ja unlängst behauptet, dass es da auch Probleme gibt.

Es wird einfach daran liegen dass sich AMD mal wieder auf Globalfoundries eingelassen hat und die zusammen mit dem steinzeitlichen GCN Design ( In punkto Leistungsaufnahme Idle/Video ), einfach zusammen diesen Flop ergeben.

Sollte Vega wirklich wieder bei Globalfoundries gefertigt werden, habe ich keine Hoffnung dass das Ding weit vor einer Fury X liegt, vielleicht 10% damit dann zwischen einer GTX 1070 und GTX1080 mit dem größeren Chhip und teurem HBM.

Thunder99
2016-07-10, 14:41:00
Glaube eher das Vega von TSMC kommt wie vorher Fiji.

Die hohe Taktbarkeit von Polaris würde ich mal bezweifeln. Packdichte und evt Prozessprobleme sprechen nicht dafür. Aber wenn wir von Partnerkarten >1350MHz sehen finde ich das schon in Ordnung wenn im es mit OC nicht über 14xx geht. Bandbreite gibt es ja nicht im Übermaß :freak:

Nebenbei erledigt sich das Video und Mehrmonitor Leistungsaufnahme Problem durch HBM. Sieht man an Fiji

StefanV
2016-07-10, 15:19:42
Glaube eher das Vega von TSMC kommt wie vorher Fiji.
Nein, wurde doch schon bestätigt, dass der von GF kommt.

Zumal TSMC auch nicht wirklich viel Kapazität hat, GF aber schon...
Eher geht man zu Samsung und lässt von denen was fertigen.

Was auch möglich ist, ist SOI bei VEGA...

Und dass andere Prozesse ziemlicher Mist waren, lag zum Teil auch an IBM, die das ganze Zeugs verbrochen haben...

Thunder99
2016-07-10, 15:46:58
Ok dann bin ich mal gespannt. Erste Erfahrungen gibt es ja dann von P10/11. Da kann Vega ja nur davon profitieren (hoffe ich) :)

Fuchs
2016-07-10, 15:49:29
Ja, genau wie damals R300 vs. nV30...
Da war der nVidia CHip ja auch deutlich höher getaktet und scheinbar genau so schnell - bis dann die ganzen DX9 Spiele kamen und das bewiesen, was keiner glauben wollte. Nämlich, dass die nVidia Chips in dem Punkt Shader ziemlicher Mist sind. Insbesondere da man damals auch keine von den TMUs unabhängigen ALUs hatte, im Gegensatz zu ATi...

Und momentan erinnert die ganze Sache schon ein wenig an R300 vs. nV30:
AMD hat deutlich mehr Rohleistung, es kommt eine neue 3D Schnittstelle und man weiß, dass die AMD Chips darunter deutlich besser laufen können als unter der alten....

Denn letztendlich sind die nV Karten nur aufgrund nVidias Treiberarbeit, oder wenn man böse wäre, würde man hier von Treibercheats sprechen, flotter als der Rest. Und das siehst du auch immer wieder, wenn ein Chip EOL geht, nicht mehr so besonders unterstützt wird und man den in neuen Spielen, die neue Dinge implementiert haben, gegen die damals gleichwertigen AMD Chips stellt...
Und das sind seltsamerweise gerade die Gameworks Titlel, in denen eine GTX 680 sich dann mit den Pitcairn Karten rumschlägt...

(...)


Richtig guter Post. :D Ich lese hier ja meistens nur mit, doch dein Geschreibsel musste ich doch glatt nochmal hervorkramen. Ich hatte eine eine 9800 Pro (R300) und jetzt seit vier Jahren eine 7870 (Pitcairn) und kann das von dir beschriebene Schicksal beider Karten nur bestätigen: Langlebig!

Nützt mir nicht viel ein Produkt zu kaufen, dem nach hinten raus deutlich der Atem fehlt. Insbesondere geht das Argument fehl, dass man nach zwei Jahren ja eh aufrüsten würde und dann die schon mehrfach in den letzten Jahren auftretenden produktspezifischen Mängel eines Nvidia-Beschleunigers nicht ins Gewicht fielen..

Aufgrund einiger mich nachdenklich stimmenden Fundamentaldaten der beiden konkurrierenden Produkte komme ich nicht umhin, dieselben Parallelen zu ziehen wie du, Stefan. Hätte ich nur nicht so gut und fundiert ausdrücken können Danke dafür.

Thunder99
2016-07-10, 16:02:04
Nur das bringt herzlich wenig wenn am Anfang das Produkt nicht gekauft wird wie das Produkt der Konkurrenz. Möge AMD am Anfang stärker sein mit ihren Produkten damit sie nicht noch mehr in Schwierigkeiten kommen.

AMD sollte demnach sehr bald mit einem guten Vega kommen um noch Marktanteile generieren zu können. Man könnte auch durch gewollte Leaks potentielle Käufer in dem Preissegment davon abhalten schon jetzt eine Nvidia Karte zu kaufen

Fuchs
2016-07-10, 16:15:27
Letztlich liegt das - wie du meines Erachtens komplett richtig einordnest - auch ein wenig am Marketing. Ich beklage mich aber nicht darüber, dass ich durch richtige Entscheidungen Geld gespart und nach hinten raus messbar mehr Leistung im Gaming-Pc habe.

Ist ja nicht grundsätzlich in jeder Generation so gewesen. Diesmal scheint es aber ähnlich zu werden und ich habe vor, zusätzlich die Synergie-Effekte, die sich aus den verbauten Chips in der aktuellen Konsolengeneration ergeben werden, mitzunehmen.

Agent117
2016-07-10, 16:27:52
Nein, wurde doch schon bestätigt, dass der von GF kommt.

Zumal TSMC auch nicht wirklich viel Kapazität hat, GF aber schon...
Eher geht man zu Samsung und lässt von denen was fertigen.


Wo wurde das bestätigt, das habe ich so noch nie gehört?

Ich würde eher sagen dass Vega ziemlich sicher bei TSMC kommt.
Mann hat dort jahrelange Erfahrung in der Zusammenarbeit, AMD hat gute Kontakte dorthin und eine Produktionsstraße für HBM mit TSMC am laufen.

Darüberhinaus ist es sicher schlechter alleine von GF abhängig zu sein als von TSMC oder was macht AMD wenn GF mit 10nm deutlich später drann ist als TSMC, wäre bei denen ja nicht das erste mal, und Nvidia ihr Lineup dann einfach man ein Dreivierteljahr früher rausbringt?

GF für kleinere volumenlastigere Chips und TSMC für Richtung High-End macht doch viel Sinn auch wegen den Waferabkommen mit GF.

Thunder99
2016-07-10, 16:34:42
Letztlich liegt das - wie du meines Erachtens komplett richtig einordnest - auch ein wenig am Marketing. Ich beklage mich aber nicht darüber, dass ich durch richtige Entscheidungen Geld gespart und nach hinten raus messbar mehr Leistung im Gaming-Pc habe.

Ist ja nicht grundsätzlich in jeder Generation so gewesen. Diesmal scheint es aber ähnlich zu werden und ich habe vor, zusätzlich die Synergie-Effekte, die sich aus den verbauten Chips in der aktuellen Konsolengeneration ergeben werden, mitzunehmen.
Und AMD muss/müsste das so kommunizieren damit die Leute den Mehrwert sehen :).

Ich sollte mich mal für die Marketingabteilung bewerben ;D :freak:

Locuza
2016-07-10, 16:45:07
Wo wurde das bestätigt, das habe ich so noch nie gehört?

Bei heise gab es beim Prozessorgeflüster etwas dazu:
Hergestellt wird Naples so wie Polaris und demnächst Vega in dem von Samsung lizenzierten 14-nm-FinFet-Prozess bei Globalfoundries in New York.
http://www.heise.de/ct/ausgabe/2016-15-Von-Makro-Mega-und-Mikroprozessoren-3254991.html

Kommt jetzt darauf an, ob die Information verlässlich ist.

Der_Korken
2016-07-10, 16:55:12
GCN hat afaik eine viel kürze Pipeline als Maxwell / Pascal, also ist man da eh schon Taktraten-limitiert, P4 vs. K8 lässt grüßen ;)

Evtl. schmeisst AMD aber auch einfach den unnötigen Ballast nicht aus ihren Gamer-Chips wie nV raus...kostet ja auch alles nochmal extra Geld was einfach nicht da ist. Das frisst ja wiederum auch nochmal Strom.

Am Ende ist GCN ja im Endeffekt eigentlich keiner "Gamer-µArch" sondern voll auf GPGPU aus. Reiner Zufall, dass man damit auch daddeln kann :freak:

Der K8 hatte gegenüber dem P4 wenigstens eine deutlich höhere IPC, sodass der Mehrtakt meist ausgeglichen wurde. Bei GCN vs Pascal ist es aber genau andersrum: Mehr Takt UND mehr IPC.

Was genau bringt im Kontext von Grafikberechnungen eigentlich eine kürzere Pipeline, abgesehen von eventuell weniger Transistoren? Bei CPUs geht (zumindest nach meiner Vorstellung) bei langen Pipelines die IPC runter, weil die Latenz steigt und branch misses die ganze Pipeline flushen. Wäre das bei GPUs überhaupt ein Problem, wenn man sowieso zig mal so viele Threads wie CUs hat und immer ausweichen kann? Irgendwas muss AMD sich bei der kurzen Pipeline gedacht haben, wenn die schon so sehr auf den Takt drückt.

Fuchs
2016-07-10, 17:06:40
Und AMD muss/müsste das so kommunizieren damit die Leute den Mehrwert sehen :).

Ich sollte mich mal für die Marketingabteilung bewerben ;D :freak:

:uconf2: Doppelbewerbung!!!11einself

Das merken ja zum Glück auch ein paar Leute mehr. Wieviel Aufmerksamkeit AMD derzeit bekommt, lässt sich ja allein schon an der Länge des Threads hier ablesen. Ist zwar nicht repräsentativ aber sei's drum.

Deinen oben erbetenen gezielten Teaser gab es ja schließlich auch bereits mit der RX490. Wenn der shadercount wie erwartet nochmal anzieht, ist bei mir wohl die Entscheidung eher 470 / 490...

Setsul
2016-07-10, 18:01:20
Bezüglich Vega bei GF:
Hergestellt wird Naples so wie Polaris und demnächst Vega in dem von Samsung lizenzierten 14-nm-FinFet-Prozess bei Globalfoundries in New York.

Findige Leute haben übrigens auf den Importlisten von Taiwan nach Bangalore/Indien am 8. und 20. Juni schon diverse Test-Boards mit Naple-Prozessoren mit 2,4 GHz Takt entdeckt – wenn auch nur mit USB 2.0.
Vega könnte ich verstehen wenn die Chips von ASE kommmen wegen Interposer / HBM, aber für ganz normale CPUs hätte ich eher erwartet dass GF damit selbst zurecht kommt bzw. es eher in die USA outsourced und die Chips nicht zweimal um die halbe Welt fliegt.

Historisch gesehen hatte AMD alle GPUs bei TSMC und die CPUs bei GF, APUs bei beiden. Durch Polaris sollten sie eigentlich genug Wafer bei GF haben, dann zusätzlich zu den CPUs auch noch die restlichen GPUs zu GF zu verlagern, gerade wenn sie durch Polaris (und frühere Erfahrung, Phenom und Bulldozer lassen grüßen) schon wissen dass GF 14nm nicht so das Gelbe vom Ei ist, klingt nicht wirklich sinnvoll.
Wenn man annimmt, dass AMD einigermaßen sinnvoll vorgeht gibt es eigentlich nur zwei Möglichkeiten:
1. Polaris zu GF wegen Verträgen, damit Zen zu TSMC kann. Die restlichen GPUs bleiben bei TSMC, nachdem man dort auch die ersten und einzigen GPUs mit HBM gebaut hat und nVidia dort die ersten und einzigen GPUs mit HBM2 baut.
2. GF 14nm ist so großartig und viel besser als TSMC 16nm, dass AMD sich entschieden hat alles bei GF bauen zu lassen. Beim Apple A9 siehts eher nach dem Gegenteil aus und das war Samsung. Also entweder ist GF 14nm besser als Samsung 14nm (momentan hört man eher das Gegenteil) oder AMD steckte schon zu tief drin als sie gemerkt haben, dass GF 14nm nicht ganz das Wahre ist. Oder eben Möglichkeit 1.

Wir werden ja sehen.


Bezüglich GCN und pipelines:
Ich vermute mal die Idee war "dümmere", einfachere und damit kleinere Einheiten, dafür mehr davon. Dann hat man mehr Rohleistung. Der Treiber sollte dann die Intelligenz mitbringen und alles ist gut. Siehe 7970 und 680. Ähnliche Größe, ähnlicher Takt, aber deutlich mehr Leistung auf Seiten der 7970, selbst wenn man den größeren Die rausrechnet, aber die niedrigeren Taktraten drinnen lässt. In der Praxis hat das Ganze dann nicht so gut funktioniert. Treiber sind nicht so einfach und dann hat man erstmal nur mehr Hardware die nichts tut aber trotzdem Strom frisst.
Und von da an steckt man einfach drin, wie bei Bulldozer. Man weiß jetzt, dass das Konzept nicht so funktioniert wie gedacht, aber man kann sich nicht einfach über Nacht eine neue Architektur aus dem Hut zaubern.

Man kann dann natürlich auf Packdichte gehen und dafür Taktrate opfern um Strom zu sparen, aber das funktioniert momentan anscheinend auch nicht so wirklich, die Dichte scheint nicht viel höher als bei nVidia (+8%) aber die Taktraten leiden trotzdem. Die Frage ist liegt das and GF oder nicht.
Ich hoffe (und nehme auch an), dass AMD nicht einfach Polaris 10 verdoppelt, was ja theoretisch möglich wäre mit HBM2, sondern noch mehr in Richtung "intelligenteres" GCN geht, wie schon bei Polaris mit dem primitive discard accelerator.

Thunder99
2016-07-10, 18:07:38
Deshalb wird ja Vega so spannend weil wir so gut wie gar nichts wissen :D

Der_Korken
2016-07-10, 18:15:56
Die Idee mit vielen kleinen und "dummen" ALUs ist ja nicht unbedingt schlecht, wenn man sieht, dass man bei hohen Auflösungen (die in Zukunft immer häufiger werden) oder mit DX12/Vulkan trotzdem eine gute Auslastung hinbekommt. Das ganze kann aber nur funktionieren, wenn man mehr Flops/mm² und mehr Flops/W als der Konkurrent hat, damit man wenigstens in der Theorie irgendwo einen Vorteil hat. Mit Tahiti/Hawaii gegen Kepler ging das noch auf und man kann die Konkurrenz heute i.d.R. schlagen. Mit Maxwell ging der Verbrauchsvorteil dahin und mit Pascal auch die Flops/mm².

Hätte P10 bei gleichem Verbrauch, Fläche und Takt z.B. 3072SPs hinbekommen (Wunschdenken, ich weiß), sähe es trotz der geringen Taktraten sehr gut aus, weil man durch die Rohleistung in Zukunft noch das Potenzial hätte an einer GTX1070 vorbeizuziehen.

Complicated
2016-07-10, 18:44:50
Ich würde eher sagen dass Vega ziemlich sicher bei TSMC kommt.
Mann hat dort jahrelange Erfahrung in der Zusammenarbeit, AMD hat gute Kontakte dorthin und eine Produktionsstraße für HBM mit TSMC am laufen.
AMD hat eine HBM Produktion mit Amkor und GF. Ob der dort verbaute Chip von TSMC kommt oder von GF kommt ist sicher kein Vorteil für TSMC.

@GF 14nm
Ich kann manches Argument nicht nachvollziehen, das GFs 14nm als schlechter darstellen als TSMCs 16nm. Bei 28nm hat AMD nach 3 Generationen GCN einen enormen Rückstand an Effizienz auf dem selben Prozess wie Nvidia gehabt. Nun ist dieser Rückstand mit dem Shrink beider deutlich geschrumpft mit der GCN4 Generation, und dennoch wird der 14nm Prozess jetzt schlecht geredet. TSMCs 28nm waren da nicht unbedingt besser für AMDs Design geeignet im Verhältnis zu Nvidias Design.

-/\-CruNcher-/\-
2016-07-10, 18:49:47
Und AMD muss/müsste das so kommunizieren damit die Leute den Mehrwert sehen :).

Ich sollte mich mal für die Marketingabteilung bewerben ;D :freak:

Was denkst du macht AMD seit dem Konsolen Gewinn nichts anderes ;)

Als Jensen da oben stand beim 1080 Launch musste auch er das so verkünden das war schon das beste Marketing überhaupt, achte mal auf seinen Gesichtsausdruck mit dem Wissen das dort keine Nvidia GPU mehr eine Rolle spielt und man sich AMD nun teils anpassen muss ;)

Langlay
2016-07-10, 18:51:43
Hätte P10 bei gleichem Verbrauch, Fläche und Takt z.B. 3072SPs hinbekommen (Wunschdenken, ich weiß), sähe es trotz der geringen Taktraten sehr gut aus, weil man durch die Rohleistung in Zukunft noch das Potenzial hätte an einer GTX1070 vorbeizuziehen.

Ist doch Bullshit. Der GP106 ist der Gegner, nicht eine Karte die das 2 fache kostet. Und soweit weg wird der nicht rauskommen, das man in 2-3 Jahren nicht vielleicht doch schneller ist als GP106.

Der_Korken
2016-07-10, 18:55:53
@Complicated: Ich finde nicht, dass AMD nennenswert aufgeholt hätte durch 14nm. Bei Perf/W liegt Nvidia nach wie vor ca. 60% vorne, was etwa dem Verhältnis von Hawaii und GM204 entspricht. Perf/mm² war bei GM204 leicht besser und ist auch bei GP104 leicht besser gegenüber P10. Um +/-10% will ich mich da gar nicht streiten.

Edit:

Ist doch Bullshit. Der GP106 ist der Gegner, nicht eine Karte die das 2 fache kostet. Und soweit weg wird der nicht rauskommen, das man in 2-3 Jahren nicht vielleicht doch schneller ist als GP106.

Um den Preis geht es mir gar nicht, es sei denn ein Salvage GP104 (314mm²) kostet tatsächlich in der Produktion doppelt so viel wie ein voller P10 (232mm²). Das halte ich aber für unwahrscheinlich, sondern denke eher, dass die 1070 mit deutlich mehr Marge verkauft wird. Da man sowas aber nicht weiß, würde ich mich eher an Perf/mm² halten und eben an Perf/W, wenn man die Effizienz beurteilen will.

-/\-CruNcher-/\-
2016-07-10, 19:01:00
Was bringt dir das Stromsparen wenn die Experience darunter zu sehr leidet nicht mehr viel du brauchst die richtige Balance ;)
Ein user wird eher minmal mehr Watt in Kauf nehmen als ein schlechteres Experience das garantiere ich dir und mit VR wird Latenz sowieso die Kronjuwele die alle erreichen wollen ;)

Unicous
2016-07-10, 19:02:36
Bei heise gab es beim Prozessorgeflüster etwas dazu:

http://www.heise.de/ct/ausgabe/2016-15-Von-Makro-Mega-und-Mikroprozessoren-3254991.html

Kommt jetzt darauf an, ob die Information verlässlich ist.

Bei Stillers Geflüster ist leider gar nichts mehr sicher. Früher hat der Stiller gerne mal ein paar Dinger rausgehauen, die man so weder im Netz noch bei anderen Publikationen fand. Heutzutage lässt er sich schon dazu herab das Hörensagen von WTF-Tech kritiklos abzutippen.

Das einzige was man aus dem Geflüster ziehen kann, ist die (halbgare) Bestätigung, dass es Naples gibt und dass er bereits als A0 herumgereicht wird(fraglich aber ist weiterhin aus wie vielen Zeppelinen sich Naples zusammensetzt, wenn Naples nur als Codename für x-Zeppelin Dies steht, dann ist irgendwie logisch, dass es Silizium gibt:wink:).

Aber das ist ja hier eher OT.:freak:

Setsul
2016-07-10, 19:07:29
@Der_Korken
Ja, gerade mit low level APIs geht das Konzept besser auf. Langfristig sieht man ja dass GCN sich recht gut schlägt, aber beim Launch und einige Zeit danach hat man momentan eben unter DX11 geringere Leistung bei höherer CPU-Last durch den Treiber. Ich wage mal zu behaupten, dass das deutlich änders aussähe wenn AMD genauso viel Zeit und Geld in die Treiber stecken könnte wie nVidia. Konnte man aber damals als GCN entworfen wurde noch nicht vorraussehen, dass eine treiberintensive Architektur zum Problem werden würde. AMD hatte werde erwartet noch gehofft Bulldozer in den Sand zu setzen und Stellen streichen zu müssen. Ist im Nachhinein natürlich als unglücklich zu erkennen.


Und ja, das denke ich das Problem bei P10. Entweder zu groß für den Takt oder zu langsam für die Größe. Die Frage ist wieder wieviel davon kann man auf GF schieben.

Ich habs für den Vergleich mal durchgerechnet vor Kurzem, bin mir aber nicht mehr ganz sicher bei den Zahlen.
Auf 28nm hatte AMD ungefähr 8% mehr Transistoren pro Fläche, auf 14nm sinds 7%. Eigentlich sollte Samsung / GF 14nm dichter aber stromhungriger sein. Gleichzeitig hat AMD viel weniger an Takt gewonnnen als nVidia. Irgendwas läuft da enorm falsch.
Wäre P10 um die 200mm² bei 140W für die ganze Karte wäre das ok. Oder bei gleicher Größe und Verbrauch 40 CUs dann könnte man auch gut damit leben. Den Rest könnte man dann damit erklären, dass es GF verbockt hat und wir eigentlich >100 MHz mehr sehen sollten bei gleichem Verbrauch.


Ich wollte erst sagen 3072 SPs auf 232mm² sind utopisch aber wenn mans mal durchrechnet ist das nicht allzu weit von einem sehr guten Ergebnis entfernt. 44 CUs wäre das beste was man sich hätte erhoffen können. Wenn man dann rechnet dass bei der 1070 25% vom chip abgezwackt werden wäre das dann etwas niedrigere Leistung pro Fläche als nVidia.

Aber so wie es ist muss AMD entweder etwas falsch gemacht haben oder GF 14nm ist wirklich unterirdisch. Wenn sich das bestätigt und Vega tatsächlich bei GF ist sehe ich fürchterliche Probleme.

@Complicated
Wieso Amkor? Ich dachte ASE. Solange die GPUs aus Taiwan kommen (laut Zauba) ist es mMn immernoch ein Vorteil für TSMC. GF hat 14nm nur in NY.

-/\-CruNcher-/\-
2016-07-10, 19:14:23
Nvidia kann den Takt je nach Workload auch nicht halten das ist myth sobald du viel Cuda reinhaust war es das mit hohem takt und hier gibt es selbst eingebaute barriers von Nvidia die dann greifen und einzig dir roher Shadercount die Performance liefern zumal dir ja immer mehr die Latenzen in den himmel jagen und alles mitreisen.

Bei der GTX 970 musst du dann auch noch aufpassen die DWM alokation nicht anzurühren sonst wird es noch lustiger.

Thunder99
2016-07-10, 19:16:02
Der Prozess wird wohl eher am wenigsten daran Schuld sein sondern eher das "stromfressende" GCN Design wenn man es taktet.

Langlay
2016-07-10, 19:21:34
Um den Preis geht es mir gar nicht, es sei denn ein Salvage GP104 (314mm²) kostet tatsächlich in der Produktion doppelt so viel wie ein voller P10 (232mm²). Das halte ich aber für unwahrscheinlich, sondern denke eher, dass die 1070 mit deutlich mehr Marge verkauft wird. Da man sowas aber nicht weiß, würde ich mich eher an Perf/mm² halten und eben an Perf/W, wenn man die Effizienz beurteilen will.

Trotzdem ist das nen Apfel Birnen Vergleich. Der Chip der P10 flächenmässig am nächsten kommt ist eben nicht der GP104 sondern der GP106.


@Setsul ne native 1070 wäre keine 25% kleiner als ne GTX1080. Speicherinterfaces, Displaycontroller usw. werden ja nicht kleiner.

Der_Korken
2016-07-10, 19:40:18
Trotzdem ist das nen Apfel Birnen Vergleich. Der Chip der P10 flächenmässig am nächsten kommt ist eben nicht der GP104 sondern der GP106.

Ich vergleiche die beiden Chips gar nicht und fordere auch von AMD gar nicht mit P10 eine 1070 zu schlagen. Ich wollte nur aufzeigen, dass eine "thin ALU"-Strategie durchaus gut sein kann, wenn man dadurch mehr Flops pro mm² und W erreicht, als der Konkurrent. Statt zu wenig Takt könnte P10 auch einfach zu wenig CUs haben.

Setsul
2016-07-10, 20:00:52
@Langlay
Davon bin ich auch nicht ausgegangen.
Aber wenn mans runterrechnet wäre ein hypothetischer 1920 SPs, 192bit Pascal so in der Richtung 250mm². Hätte AMD 2560 SPs auf 232mm² oder 2816 SPs auf 250mm² untergebracht dann wäre das bei den Taktraten immernoch nicht ganz so schnell, aber von der Leistung pro Fläche nahe genug dran um konkurrenzfähig zu sein.

Langlay
2016-07-10, 20:23:39
@Langlay
Davon bin ich auch nicht ausgegangen.
Aber wenn mans runterrechnet wäre ein hypothetischer 1920 SPs, 192bit Pascal so in der Richtung 250mm². Hätte AMD 2560 SPs auf 232mm² oder 2816 SPs auf 250mm² untergebracht dann wäre das bei den Taktraten immernoch nicht ganz so schnell, aber von der Leistung pro Fläche nahe genug dran um konkurrenzfähig zu sein.

Diese 1070 mit 192 Bit GDDR5 wäre auch spürbar langsamer als die erhältliche 1070 mit 256bit Interface.

Setsul
2016-07-10, 20:38:10
Ich hab nichts von GDDR5 gesagt. Würde auch nichts am Vergleich ändern weil 40 oder sogar 44 CUs auch Probleme mit der Bandbreite bekommen.
Oder viel wichtiger: 22% mehr SPs gleichen keine 40% Vorsprung aus.

Thunder99
2016-07-10, 23:00:21
Sagen wir mal so. Evt hat AMD gar keinen Zugriff auf GDDR5X zur dieser Zeit (evt im Chip und oder kein Zugriff auf die benötigte Mege)? Deshalb "nur" 2304 SPs und GGDR5 und dann Vega mit HBM :confused:

Complicated
2016-07-10, 23:11:43
@Complicated
Wieso Amkor? Ich dachte ASE. Solange die GPUs aus Taiwan kommen (laut Zauba) ist es mMn immernoch ein Vorteil für TSMC. GF hat 14nm nur in NY.
Hab nochmal nachgeschaut. Es waren Amkor, ASE und UMC...jedenfalls kein TSMC dabei. Danke für den Hinweis.
http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs

Langlay
2016-07-10, 23:13:54
Naja es wird wohl auch Gründe geben wieso nur die GTX1080 GDDR5X hat und die GTX1060 ein 192bit GDDDR5 interface hat und kein 128bit GDDR5X Interface.

Und das wird wohl schlicht der Preis sein. GDDR5X ist wird noch schlicht zu teuer für Karten in dem Preissegment sein.

Setsul
2016-07-10, 23:59:00
@Thunder99
"Mitte 2016" hat einen früheren Termin vermuten lassen. Wenn man dann bedenkt dass Polaris 10 größere Mengen bräuchte als nur die GTX 1080 und auch noch etwas früher geplant war, hat man wohl damit gerechnet nicht genug GDDR5X zu bekommen. Selbst wenn man bei Micron optimistisch war (wenn ich mich richtig erinnere haben die ersten Test samples schon 13Gbps geschafft) hätte AMD aufgrund der Menge für die 470 wahrscheinlich GDDR5 nehmen müssen. Dann ist den Implementierungsaufwand und das Risiko am Ende wegen Micron nicht genug 480er liefern zu können einfach zu groß.

Zusätzlich natürlich das Gleiche wie bei der 1060. GDDR5X scheint sich in dem Preissegment nicht zu lohnen. Ob das jetzt am Preis oder Menge liegt ist egal, ein breiteres SI mit GDDR5 scheint momentan noch die bessere Wahl zu sein.

Vega 10 mit HBM nehme ich an ist einfach eine Sache der Einfachkeit. Vega 11 braucht höchstwahrscheinlich die vollen 1024GB/s. 12Gbps GDDR5X mit 512 bit kommen "nur" auf 768GB/s und man hat wieder das Problem, dass ein 512 bit SI und 16 RAM chips einfach viel zu viel Strom und Platz (Die und PCB) fressen. Wenn man sich dann wegen Preis oder Verfügbarkeit gegen GDDR5X für Polaris 10 entschieden hat lohnt es sich einfach nicht mehr nur für Vega 10 GDDR5X zu implementieren.
2048 bit 8GB HBM2 für Vega 10, für Vega 11 dann alles verdoppeln was verdoppelt werden kann/muss, sprich im Idealfall SPs usw. und eben das SI. 4096 bit 16GB HBM2 und fertig.

@Complicated
Ohne mich jetzt weiter zu informieren, einfach mal geraten:
Interposer von UMC, die sollten ja genug Kapazität auf irgendeinem uralten Prozess übrig haben.
Zusammenbau dann bei Amkor.
Tests bei ASE.
Dann hätte ich das richtig in Erinnerung gehabt, dass die Chips letztendlich von ASE kommen.

GF hat entsprechende Partner vor Ort bzw. kann selbst Interposer herstellen. Das große Fragezeichen ist (falls Vega überhaupt bei GF ist) bleibt AMD bei der Kombination oder lässt man es bei GF machen, die noch keine direkte Erfahrung damit haben? Es hat sich natürlich bewährt aber man müsste es um die halbe Welt schicken.

Müsste man einfach mal herausfinden (z.B. Zauba) woher die Karten kommen. Ich tippe aber immernoch auf Taiwan.

@Langlay
Es könnte genauso gut die Menge sein. Micron hat mit der Produktion erst diesen Sommer angefangen.

Hübie
2016-07-11, 00:23:00
Weder Aufwand noch Speicher sind großartig anders als GDDR5. Kapazität ist eigentlich weniger das Problem, da die gleichen Fertigungsanlagen genutzt werden. Man stellt on demand von Flash auf DRAM und so auch GDDR5/5X. Vermutlich hat AMD deutlich zu spät Wind von der Show mit NVIDIA bekommen haben.

Thunder99
2016-07-11, 00:29:52
Btw, willkommen im Forum :)

Sehe es aber auch so als wahrscheinlich an :)

Langlay
2016-07-11, 01:19:34
@Langlay
Es könnte genauso gut die Menge sein. Micron hat mit der Produktion erst diesen Sommer angefangen.

Menge und Preis ist miteinander verbunden. Menge klein + Nachfrage hoch = hoher Preis und andersrum.

Complicated
2016-07-11, 03:47:59
@Complicated
Ohne mich jetzt weiter zu informieren, einfach mal geraten:
Interposer von UMC, die sollten ja genug Kapazität auf irgendeinem uralten Prozess übrig haben.
Zusammenbau dann bei Amkor.
Tests bei ASE.
Dann hätte ich das richtig in Erinnerung gehabt, dass die Chips letztendlich von ASE kommen.

GF hat entsprechende Partner vor Ort bzw. kann selbst Interposer herstellen.Korrekt, und der Partner von GF ist Amkor. Details hier: http://www.amkor.com/go/2-5D

HOT
2016-07-11, 10:07:45
Sagen wir mal so. Evt hat AMD gar keinen Zugriff auf GDDR5X zur dieser Zeit (evt im Chip und oder kein Zugriff auf die benötigte Mege)? Deshalb "nur" 2304 SPs und GGDR5 und dann Vega mit HBM :confused:
Dass der Chip bei 1,2GHz, maximal 1,4GHz landen sollte, sollte mittlerweile auch klar sein. Die Custom-Designs werden ihre 1,325 bzw. 1,35GHz auch halten, damit wär die Speicherbandbreite mMn genau richtig ausgelastet. Das liegt natürlich nicht am Prozess, auch das mit den Yields ist kompletter Blödsinn mMn, solche Behauptungen gibts auf der anderen Seite ja auch - purer BS mMn und völlig unlogisch. GP106 und P10 sind absolute Massenprodukte und auch für OEMs wichtig. Beide werden sicherlich mit über 90% Yield produziert, oder sie wären verschoben worden, denn sowas kann sich keiner bei solch günstigen Massenprodukten leisten.
GCN braucht einfach mehr Saft als die so stark auf Takt optimierten und auf DX11-Workloads spezialisierten Paxwell-Chips (mit Ausnahme von GP100 natürlich), das ist der ganze Witz. Zudem sollte man nicht vergessen: GP104-200 bietet den gleichen Speicher wie P10. GCN als solches wird architekturbedingt einfach mehr Bandbreite brauchen als Paxwell, auch das braucht mehr Saft, erst recht bei MCs die auf 4GHz laufen müssen. Das ist alles mMn kein Hexenwerk. P10/11 ist nunmal immer noch GCN und AMD hat P10/11 brutal auf Kostenreduktion designt, das ist der ganze Witz.

Thunder99
2016-07-11, 10:13:08
So wie GCN 1.2 Tonga ist und GCN 1.2.1 Fiji erwarte ich auch Verbesserungen der 4th Generation von GCN bei Vega. HBM wird da sicher helfen wie auch die Erfahrungen mit Fiji. Nur zu welchem Preis (für den Endkunden)... Zwischen 400-600€ ist alles drin (Salvage und Full Karte)

tm0975
2016-07-11, 10:26:33
die von amd vorhergesagte effizienzsteigerung von polaris zu vega ist allein durch hbm nicht erreichbar. bei der fertigung wird es wohl auch bei glofo bleiben, so dass es sich um architekturverbeserungen handeln wird. oder einfach mal spannung runter. aber darauf scheint ja amd nicht zu stehen...

kennt sich jemand bei der chip-validierung aus? wird jeder chip einzeln getestet? wäre es nicht möglich, die spoannung etwas individueller zu handbaen oder vorzuselektieren?

HOT
2016-07-11, 10:26:56
Die Preise werden nur anfangs so hoch sein. V10 Salvage ist ja der Nachfolger im Geiste von Tahiti und wird sicherlich recht zügig auf 350€ fallen, i.Ü. genau wie die derzeit völlig überteuerte 1070. HBM hin oder her. Ich hab auch die große Hoffnung, dass man mit nur 2 HBM-Stacks mächtig Strom einspart, den der Chip dann wieder verbraten kann. Klar sollte aber auch sein, dass man deutlich über 200W rauskommen wird mit dem Chip, aber da ist er ja bei den Custom 1080 in guter Gesellschaft.

Botcruscher
2016-07-11, 10:32:55
bei solch günstigen Massenprodukten
Günstig ist relativ. 232 läppische mm² sind alles andere als günstig.
G200(b) mit seinen 576/470... Selbst Hawaii war in Form der 290 schon auf 230€.
Für die 200mm² stehen bei NV bald 280 Listenpreis an. Keine Ahnung in welcher Welt das günstig und vor allem Massenmarkt sein soll. Womöglich wenn die 4G Version von Polaris für unter 150€ in den Bürokisten steckt. Für den dominierenden Notebookmarkt haben wir noch überhaupt nichts gesehen.

Setsul
2016-07-11, 10:33:06
@Thunder99
Danke.

@Langlay
Klar, ich meinte nur dass GDDR5X nicht unbedingt teurer ist als GDDR5 (wenn man Verbrauch und SI miteinrechnet), was aber nichts bringt wenn Micron momentan entweder mehr mit GDDR5 verdienen kann oder die Kapazitäten einfach vertraglich gebunden sind.
Natürlich geht es letztendlich immer um Geld, künstlich Verknappung ist da relativ direkt, aber bei Auslastung ist es völlig anders, da müsste man durch höheren Preis Vertragsstrafen und den potentiellen Verlust von Kunden ausgleichen. Den Preissprung kann sich keiner leisten.

Letztendlich denke ich mal, dass es die richtige Entscheidung war. Wenn sich GDDR5X für die 1070 nicht lohnt, lohnt es sich bei einer GPU die ein Drittel billiger ist erst recht nicht.

@Complicated
So wie es aussieht könnte GF höchstens den Interposer herstellen, der Rest bliebe beim Alten.
Keiner der Partner die 2.5D machen haben Produktionsstandorte in den USA. Wenn man sowieso alles nach Asien verschicken muss gibts keinen Grund irgendwas zu verändern.

HOT
2016-07-11, 10:47:10
Günstig ist relativ. 232 läppische mm² sind alles andere als günstig.
G200(b) mit seinen 576/470... Selbst Hawaii war in Form der 290 schon auf 230€.
Für die 200mm² stehen bei NV bald 280 Listenpreis an. Keine Ahnung in welcher Welt das günstig und vor allem Massenmarkt sein soll. Womöglich wenn die 4G Version von Polaris für unter 150€ in den Bürokisten steckt. Für den dominierenden Notebookmarkt haben wir noch überhaupt nichts gesehen.
Ja nun, das Produkt ist ja nicht mal draußen. Die Preisanpassungen kommen noch, keine Sorge. Und was du schreibst ist nicht korrekt. Bis auf ganz weniger Ausnahmen war Hawaii immer über 280€. P10 dürfte in etwa soviel kosten wie Tahiti, das PCB ist sicherlich günstiger. Man hat also nicht viel Spielraum.

@Setsul
Micron ist z.Z. einziger Anbieter für den RAM und dieser RAM ermöglicht erst die 1080. Die werden sich den ordentlich vergolden lassen, bis andere Anbieter auf den Markt kommen, was mMn nicht allzu lange dauern wird.

Lurtz
2016-07-11, 11:15:24
Arbeitet AMD eigentlich an einer komplett neuen Architektur oder wird es bei Iterationen von GCN bleiben?

Isen
2016-07-11, 11:16:53
GCN bleibt Verbesserungen/Änderungen halt.

-/\-CruNcher-/\-
2016-07-11, 11:25:53
Naja es wird wohl auch Gründe geben wieso nur die GTX1080 GDDR5X hat und die GTX1060 ein 192bit GDDDR5 interface hat und kein 128bit GDDR5X Interface.

Und das wird wohl schlicht der Preis sein. GDDR5X ist wird noch schlicht zu teuer für Karten in dem Preissegment sein.

Preis und vor allem Sinn das Produkt so zu gestallten wenn es eh schon relativ Energie effizient ist und in den Simulationen aussreichend Performance liefert und Polaris 10 in den meisten "normalen" Workloads schlägt und vor allem nochmal Bandbreite gewonnen werden konnte durch die optimierte DCC die ja auch R&D Kosten verursacht hat.
Bei alle dem ist man absolut nicht zwangsläufig gezwungen das Produkt für diese Zielgruppe mit GDDR5X auszustatten.
Vor allem wenn eben die Review Workloads alle Positiv ausfallen oder zumindest der Großteil brauch Nvidia keine Angst haben weiter denkt keiner ;)
Ach ja und schön ist es natürlich immer für die Zielgruppe wenn der OC Schiebregler schön ausserhalb der Balance geschoben werden kann und der Chip schön am schwitzen ist ;)

Complicated
2016-07-11, 11:29:56
Navi soll wohl eine neue Architektur bekommen nach Vega.

Gipsel
2016-07-11, 11:30:13
Arbeitet AMD eigentlich an einer komplett neuen Architektur oder wird es bei Iterationen von GCN bleiben?Die Core-Architektur von GCN ist eigentlich super. Die wird man nicht so schnell aufgeben. Am Drumherum muß man stricken, und natürlich an der physischen Implementation (also wie genau das Design in Transistoren "übersetzt" wird), aber prinzipiell ist an GCN nichts auszusetzen.

@Complicated: Um wieviel wollen wir wetten, daß Navi GCN Gen6 wird? ;)

HOT
2016-07-11, 11:32:12
Arbeitet AMD eigentlich an einer komplett neuen Architektur oder wird es bei Iterationen von GCN bleiben?
Navi:
- voll modular, erfordert also neue oder zumindest stark veränderte Architektur
- komplett neuer Speicher (>HBM2) (vollständig integriert? Würde sich ja bei modular schon fast anbieten, 4GB pro Chip oder sowas)
- wahrscheinlich GloFo 7nm (10FF mit FDSOI)

iuno
2016-07-11, 11:44:02
kennt sich jemand bei der chip-validierung aus? wird jeder chip einzeln getestet? wäre es nicht möglich, die spoannung etwas individueller zu handbaen oder vorzuselektieren?
Nicht wirklich...
Die Spannungen sind aber bereits von Chip zu Chip unterschiedlich. Basierend auf der Guete des Chips ist standardmaessig etwas mehr oder weniger Spannung pro DPM State drauf, allerdings spielt sich das natuerlich in recht engen Grenzen und eher statisch ab.
Nvidia macht das etwas besser/feiner mit dem Boost Mechanismus, aber afaiu wird das auch nicht vorab so "eingebrannt" sondern dynamisch ermittelt. Das sollte bei AMD einfach noch besser funktionieren aber jeden Chip nochmal einzeln auf die minimale stabile Spannung zu testen waere wohl klar zu viel Aufwand

Sunrise
2016-07-11, 13:34:05
Gibt es bei GCN eigentlich von irgendwem eine tiefere Analyse, was genau da jetzt (selbst bei Polaris) so stark limitiert? Wenn ich mir mal rein die Grunddaten von GP106 ggü. P10 anschaue, was ist der Grund, warum AMD soviel mehr von allem benötigt?

Bei den ROPs scheinen die AMD-ROPs ja "besser" zu sein, wenn ich Gipsel richtig verstanden habe, ebenso scheinen ja die ALUs (bei gleichem Takt) mittlerweile Ähnliches zu leisten.

Wir wissen, dass scheinbar die DCC bei AMD noch deutlich schlechter ist, da NV mit weniger auszukommen scheint. Was aber ist der Grund, warum NV gerademal 80 TMUs (derzeit noch spekulativ) bei einem ~200-250mm² Chip benötigt, AMD aber schon 144. Das ist nämlich fast das Doppelte. Oder ist P10 da einfach massiv oversized?

Sind die weniger Einheiten bei NV einfach "intelligenter" ausgelastet, während die Einheiten bei AMD entweder zu oft stallen (warten müssen) oder sind die einfach "einfacher aufgebaut" und leisten daher weniger. Kann da jemand was dazu sagen? Wie gesagt, mal ganz unabhängig von Taktraten und Stromverbrauch. Mir geht es da eher um die reinen Daten der Einheiten und deren Leistungsfähigkeit im Gesamtkonstrukt.

Schreibt "GCN" denn vor, wieviele Einheiten im Verhältnis zueinander verbaut werden müssen?

Thunder99
2016-07-11, 13:49:09
Intelligenter ausgelastet ist die HW von Nvidia schon denke ich. Bei AMD wenn die GCN Verbesserungen greifen bringt ja auch mehr auf die Straße und mit AC ja deutlich mehr im Vergleich zu Nvidia. Gipsel und Co können das aber sicher besser ausführen woran es wahrscheinlich hängen mag

Dural
2016-07-11, 14:09:54
Einheiten dazu packen kann jeder, die Einheiten auch Effizient zu gestalten eben nicht. Den das ist eben gerade das teure in der Entwicklung.

Übrigens ist dies schon seit Jahren so, kann mich gar nicht daran erinnern wann NV pro Einheit nicht ganz oben war. Das müsste wohl bei R300 / FX zeiten gewessen sein, ohne Gewähr.

HOT
2016-07-11, 14:21:23
Ich tippe auf Software. Ich vermute auch, dass Paxwell von Treiberseite aus einfacher zu optimieren ist. NV wird immernoch haufenweise Einzeloptimierung machen, während AMD das eben nicht (mehr) macht. Hinzu kommt das Drawcall-Problem des DX11-Treibers. AMD hat so viele Softwarebaustellen, da wird man den Treiber zwar vernünftig aber universell gestalten.

StefanV
2016-07-11, 14:28:33
Gibt es bei GCN eigentlich von irgendwem eine tiefere Analyse, was genau da jetzt (selbst bei Polaris) so stark limitiert? Wenn ich mir mal rein die Grunddaten von GP106 ggü. P10 anschaue, was ist der Grund, warum AMD soviel mehr von allem benötigt?
Erst einmal müsste festgestellt werden, ob GCN und die nV Chips überhuapt (annähernd) das gleiche rendern und nicht z.B. der Code von nVidia komplett getauscht wurde, so dass etwas ganz anderes berechnet wird, als der Entwickler vorgesehen hat.

Alpha Tier hat ja vor langer Zeit etwas in diese Richtung angedeutet (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10623834&postcount=2008).

Und wenn der eine solche Dinge macht, der andere aber nicht, sollte einleuchten, warum der eine scheinbar besser da steht, oder?

HOT
2016-07-11, 14:45:44
Letztendlich lohnt sich das Shaderreplacement aber, erst recht, wenn man die Strategie auf alle AAA-Titel anwendet. Das wird NV echt Ressourcen kosten, aber es zahlt sich bei der Marktmacht eben aus. AMD scheint das seit Omega überhaupt nicht mehr zu machen, jedenfalls ist das mein Eindruck.

Tarkin
2016-07-11, 14:51:33
Günstig ist relativ. 232 läppische mm² sind alles andere als günstig.
G200(b) mit seinen 576/470... Selbst Hawaii war in Form der 290 schon auf 230€.
Für die 200mm² stehen bei NV bald 280 Listenpreis an. Keine Ahnung in welcher Welt das günstig und vor allem Massenmarkt sein soll. Womöglich wenn die 4G Version von Polaris für unter 150€ in den Bürokisten steckt. Für den dominierenden Notebookmarkt haben wir noch überhaupt nichts gesehen.

Die hohen Preise liegen hauptsächlich am gestiegenen Dollar-Kurs zum Euro

Locuza
2016-07-11, 14:52:17
Gibt es bei GCN eigentlich von irgendwem eine tiefere Analyse, was genau da jetzt (selbst bei Polaris) so stark limitiert?
Was ich bisher so mitbekommen habe oder was man sieht:

- Nvidia fährt seit Maxwell wesentlich höhere Taktraten und das bei annehmbarer Effizienz, dass Design und/oder die Optimierung in diese Richtung ist Nvidia offensichtlich sehr gelungen.
- Nvidias Thread-Group-Größe liegt bei 32 Threads und nicht 64 wie bei AMD.
Das scheint Nvidia in einigen Anwendungsfällen sehr zu helfen, da sie weniger Leerlauf haben, bezahlen müssen sie das mit mehr Ansteuerungslogik.
- Nvidia ist weiterhin bei der effektiven Geometrie-Effizienz und Leistung vorne.
- Die DCC scheint im besten Fall auch effektiver als bei AMD zu arbeiten.
- Nvidia hat seit Maxwell scheinbar keinen reinen Immediate-Renderer mehr, sondern die ersten Schritte zu einer Hybrid-Form gemacht:

Ah but it's much more subtle on Maxwell. Maxwell implements a sort of immediate mode tiling that reorders shaders and ROPs to a TBDR-style pattern where possible over some window of geometry (up to ~1k triangles ish IIRC although it's SKU dependent). Within a tile, it doesn't need to go the "external" ROPs, similar to TBDRs which don't even have ROPs. Write a ROP benchmark on a very small texture that fits entirely in one tile (say 64x64 or so) and see it far exceed it's theoretical ROP throughput :) Most ROP benchmarks use large triangles and thus don't see this effect, but it definitely offsets some of the disparity in more realistic geometry configurations.
https://forum.beyond3d.com/posts/1919927/

- Die Software ist auch ein großer Faktor was die Performance und Effizienz angeht.
Wenn der Shader-Compiler den Code suboptimal übersetzt, können z.B. mehr Register verbraucht werden als nötig, die Performance ist geringer und ebenso die Effizienz.
Sebastian Aaltonen (Damals Entwickler bei einem Ubisoft Studio) meinte vor einiger Zeit das man auf den Konsolen bessere Compiler-Ergebnisse sieht und das es AMD besonders helfen würde, dort mehr Arbeit zu investieren.

- DX12 beweist auch das AMDs Treiber allgemein nicht immer mithalten kann.

Insgesamt ist es aber nicht so verwunderlich, wieso Nvidia insgesamt besser dasteht.
Finanzielle Stabilität, stabile Führungspositionen, großes R&D Budget vs. eben nicht.
AMD hat auch sehr viele gute Mitarbeiter an die Konkurrenten verloren.
Das schlägt sich dann am Ende alles hier und da in den Produkten nieder.

HOT
2016-07-11, 15:11:21
Sehr gute Erklärung. Danke Locuza :D.
Wir haben also ein strukturelles Problem. Die Hardware-Macken ließen sich sicherlich ausbügeln oder fallen nicht derart ins Gewicht, aber die Softwareseite lässt sich nicht so einfach beheben, zumal sich die meisten wirklich guten Programmierer in dem Bereich sicherlich da sind, wo es mehr zu holen gibt, Geld und Prestige. Und das gibts nunmal nur bei NV und vielleicht noch Intel. Ist ein bisschen wie Monopoly, NV hat die Parkstrasse und Schlossallee.

Gipsel
2016-07-11, 15:21:17
Gibt es bei GCN eigentlich von irgendwem eine tiefere Analyse, was genau da jetzt (selbst bei Polaris) so stark limitiert? Wenn ich mir mal rein die Grunddaten von GP106 ggü. P10 anschaue, was ist der Grund, warum AMD soviel mehr von allem benötigt?Taktkorrigiert hat man gar nicht viel mehr von Allem, bei einigen Dingen ja auch (mehr oder weniger deutlich) weniger.
Aber sicher gibt es Flaschenhälse, die je nach Szenario mal mehr oder weniger zum Tragen kommen. Aber der Reihe nach:
Bei den ROPs scheinen die AMD-ROPs ja "besser" zu sein, wenn ich Gipsel richtig verstanden habe, ebenso scheinen ja die ALUs (bei gleichem Takt) mittlerweile Ähnliches zu leisten.Die ROPs sind insofern besser, als daß sie bei den HDR-Formaten einen höheren Durchsatz als die nV-Pendants haben. Dies kann aber nie und nimmer reichen, um den taktkorrigiert mehr als doppelten Durchsatz z.B. von GP106 zu kompensieren (32 ROPs * 1,2Ghz = 38 GPixel/s vs. 48 ROPs * 1,7GHz = 82 GPixel/s). Zumal ja nicht nur der reine in Füllratentests meßbare Durchsatz wichtig ist (das ist ja gewissermaßen best case), sondern in realen Szenarien auch noch eine Vielzahl anderer Dinge mit reinspielen, wie z.B. die Effizienz des Cachings beim jeweils vorliegenden Zugriffsmuster.
Und um wieviel die ALU-Leistung durch die Änderungen z.B. an den Instruction Buffern und den L1-I$ mitsamt Prefetching im Schnitt gestiegen ist, entzieht sich ja bisher der genauen Prüfung (man müßte eine RX470 mit 32CUs und 32ROPs an 256Bit gegen eine 380X mit ebenfalls 32CUs und 32 ROPs an 256Bit mit angepaßten Takten antreten lassen). Und das dürfte auch recht stark schwanken, je nach Spiel und den genauen Umständen. Die Vergleiche zu Hawaii oder gar GM204/GP106 sind noch mal schwieriger.
Wir wissen, dass scheinbar die DCC bei AMD noch deutlich schlechter ist, da NV mit weniger auszukommen scheint.Was an vielen Sachen liegen kann, nicht nur der durchschnittlichen Kompressionsrate des DCC. Stichworte wären z.B. wieder das Caching oder auch, ob z.B. die TMUs direkt das komprimierte Framebufferformat lesen können oder nicht und ob sie dies direkt aus den Caches tun könnten (bei AMD geht das nicht, da die ROPs separate Caches haben, was zwar auch Vorteile bietet [interne Bandbreite], aber auf der anderen Seite auch Nachteile wie diese).
Was aber ist der Grund, warum NV gerademal 80 TMUs (derzeit noch spekulativ) bei einem ~200-250mm² Chip benötigt, AMD aber schon 144. Das ist nämlich fast das Doppelte. Oder ist P10 da einfach massiv oversized?Jetzt berücksichtige mal noch den Takt! die 144 TMUs laufen im Schnitt in einem Spiel wohl standardmäßig kaum über 1,2GHz. Die 80TMUs des GP106 dürften im Schnitt locker mit 1,7GHz daherkommen. Schon bleibt von dem Vorsprung gar nicht mehr so viel übrig. Dazu kommt dann noch, daß die nV-TMUs die doppelte Bandbreite zu den L1-Caches nutzen können und bei bestimmten Texturformaten die doppelte Filterrate haben (das ist praktisch die umgekehrte Situation wie bei den ROPs). Alles zusammen ist der Unterschied da im Schnitt nicht groß und je nach Situation mal das eine, mal das andere besser.
Sind die weniger Einheiten bei NV einfach "intelligenter" ausgelastet, während die Einheiten bei AMD entweder zu oft stallen (warten müssen) oder sind die einfach "einfacher aufgebaut" und leisten daher weniger. Kann da jemand was dazu sagen? Wie gesagt, mal ganz unabhängig von Taktraten und Stromverbrauch. Mir geht es da eher um die reinen Daten der Einheiten und deren Leistungsfähigkeit im Gesamtkonstrukt.Jetzt kommen wir zu einem interessanten aber zugegebenermaßen für mich auch etwas spekulativem Bereich. Bei den Speicherzugriffen könnte nV (über die höhere Bandbreite in den SMs hinaus) vielleicht etwas flexibler sein, je nachdem was Pascal da noch geändert hat (Scoreboard statt dependency counter?). Aber ehrlich gesagt glaube ich da nur in wenigen Fällen an wesentliche Auswirkungen (vermutlich hauptsächlich bei skalaren Speicherzugriffen [da funktioniert das mit den dependency countern suboptimal], aber das ist schwer vergleichbar, da nV diese Möglichkeit so gar nicht hat).

Allgemein würde ich vermuten, daß wenn man direkt mit ISA-Code (also mit Assembler-Mnemonics) arbeiten würde, GCN doch recht viele nette Feature besitzt, die man nutzen könnte, um pro Takt sehr effizienten Code zu schreiben. Das macht aber aus naheliegenden Gründen kaum einer, sondern man überläßt das einem Compiler. Und nach dem was man so hört (gab z.B. schon Diskussionen bei B3D darüber), sind doch eine Menge Leute unzufrieden mit dem, was dieser ausspuckt. Es ist z.B. schwer, die Nutzung bestimmter Features von GCN aus einer Hochsprache (also HLSL/GLSL) zu triggern (der Compiler erzeugt also prinzipiell ineffizienten Code, Intrinsics könnten da zukünftig helfen, weil man damit dem Compiler mehr oder weniger explizit anweist, eine bestimmte Instruktion zu benutzen), man hat z.B. keine wirkliche Kontrolle darüber, was in Skalarregistern oder Vektorregistern abgelegt wird und irgendwelche Tricks, die man sich mit der Skalareinheit überlegen könnte, verhindert der Compiler recht wirksam.
Der Punkt würde hauptsächlich helfen, wenn sich jemand die Zeit nimmt, einen speziell für GCN entworfenen Shaderpfad zu entwickeln (bzw. zumindest den vorhandenen nach ein paar niedrig hängenden Früchten durchsucht), das ist also vielleicht eher eine Nische (oder der Compiler wird cleverer, um ein paar entsprechende Szenarien zu erkennen). Ein allgemeiner Punkt mit potentiell breiteren Auswirkungen ist das schlechte und oft unvorhersehbare (erratische?) Optimierungsverhalten des Shadercompilers. Manchmal erzeugen wohl schon minimale Änderungen am Code deutlich unterschiedlich performende Shader. Generell tendiert der Shadercompiler wohl dazu, die Anzahl der Instruktionen zu minimieren, auch wenn das bedeutet, daß sehr viele Register belegt werden. Dies ist aber oft kontraproduktiv auf einer Architektur, die durchsatzoptimiert ist und dazu eben viele gleichzeitig laufende Wavefronts benötigt. Wenn deswegen weniger Wavefronts auf einer CU laufen, verschlechtert das die Möglichkeiten zum Verstecken der Latenzen langwieriger Operationen (wie Speicherzugriffen). Im schlimmsten Fall führt das dazu, daß etwas, was eigentlich durchsatzlimitiert sein sollte, dann doch eher latenzlimitiert wird, weil man schlicht nicht genügend Operationen aus genügend Wavefronts parallel am Laufen halten kann, um die Latenzen zu überbrücken. Hier scheint nVs Shadercompiler besser ausbalanciert. Trotzdem AMD eigentlich größere Registerfiles/ALU hat (die größeren Wavefronts heben diesen potentiellen Vorteil wieder etwas auf), scheint die Größe bei AMD deutlich eher zu limitieren.
Und es gibt sicher noch eine ganze Menge anderer Faktoren, deren exaktes Zusammenspiel sehr wichtig ist, um auf die beobachtete Performance-Charakteristik zu kommen.
Schreibt "GCN" denn vor, wieviele Einheiten im Verhältnis zueinander verbaut werden müssen?Der Grundaufbau der CUs ist ziemlich fest: 4 SIMDs mit einer Skalareinheit, einem LDS und 4 TMUs. Nur Letztere könnte man vielleicht (wenn man es unbedingt will) ohne eine komplette Umkrempelung halbieren oder verdoppeln, das macht aber aus meiner Sicht nicht so viel Sinn. Die CUs würde ich also vom Grundkonzept als recht fest ansehen. Der Rest ist frei skalierbar (also wie viele ROPs, wie breit das Speicherinterface ist, wie breit das Frontend etc. pp. ist ziemlich unabhängig von der Anzahl der CUs [es sollte aber mindestens so viele CUs geben, wie es Shaderengines gibt ;)]).

|MatMan|
2016-07-11, 15:55:52
Die Core-Architektur von GCN ist eigentlich super. Die wird man nicht so schnell aufgeben. Am Drumherum muß man stricken, und natürlich an der physischen Implementation (also wie genau das Design in Transistoren "übersetzt" wird), aber prinzipiell ist an GCN nichts auszusetzen.

Du hast mal vor einiger Zeit erklärt wie bei GCN die Latenzen der Instruktionen (z.B. mul = 4 Takte) mit der Ansteuerlogik / Scheduler zusammenhängen. Ich hab das im Detail nicht mehr im Kopf und auf die Schnelle nicht gefunden. Aus der Erinnerung passte ziemlich gut und wirkte elegant. Bei nVidia schienen sich die Latenzen einzelner Instruktionen deutlicher zu unterscheiden und änderten sich auch auch mal von Generation zu Generation, was das Scheduling sicherlich komplexer macht. Lässt sich daher nVidia's Ansatz besser auf Takt optimieren als der eher starre von GCN?

Sunrise
2016-07-11, 16:22:34
Danke an Locuza und Gipsel für die sehr ausführlichen Antworten!

...Der Grundaufbau der CUs ist ziemlich fest: 4 SIMDs mit einer Skalareinheit, einem LDS und 4 TMUs. Nur Letztere könnte man vielleicht (wenn man es unbedingt will) ohne eine komplette Umkrempelung halbieren oder verdoppeln, das macht aber aus meiner Sicht nicht so viel Sinn. Die CUs würde ich also vom Grundkonzept als recht fest ansehen. Der Rest ist frei skalierbar (also wie viele ROPs, wie breit das Speicherinterface ist, wie breit das Frontend etc. pp. ist ziemlich unabhängig von der Anzahl der CUs [es sollte aber mindestens so viele CUs geben, wie es Shaderengines gibt ;)]).
Bedeutet das auch, dass man bei AMD die SIMDs/ALUs nicht unabhängig von dem Rest der CU mit Takt ansprechen kann? Ist hier deiner Meinung nach eine Ursache für das schlechtere "Taktverhalten" bei AMD zu suchen?

Gipsel
2016-07-11, 16:24:00
Du hast mal vor einiger Zeit erklärt wie bei GCN die Latenzen der Instruktionen (z.B. mul = 4 Takte) mit der Ansteuerlogik / Scheduler zusammenhängen. Ich hab das im Detail nicht mehr im Kopf und auf die Schnelle nicht gefunden. Aus der Erinnerung passte ziemlich gut und wirkte elegant. Bei nVidia schienen sich die Latenzen einzelner Instruktionen deutlicher zu unterscheiden und änderten sich auch auch mal von Generation zu Generation, was das Scheduling sicherlich komplexer macht. Lässt sich daher nVidia's Ansatz besser auf Takt optimieren als der eher starre von GCN?
NVidia hat sich seit Fermi in gewisser Weise einigen Prinzipien hinter dem Design von GCN angenähert. Die Latenzen der ALU-Instruktionen sind bei nV jetzt ebenfalls recht fest (typischerweise 6 Takte) und deutlich kürzer als z.B. noch bei Fermi (irgendwas zwischen 18 und 24 Takten für die meisten Instruktionen, einige aber auch länger). Das Scheduling der ALU-Instruktionen bei nV erfolgt nicht mehr dynamisch nach einem Scoreboardingsystem (wie noch bei Fermi, was man offenbar als ziemliche Fehlentscheidung akzeptiert hat) sondern ist praktisch statisch, d.h. vom Compiler determiniert, der im Codestream eingebettet Hints an den Scheduler gibt (funktioniert im Prinzip wohl ähnlich wie die dependency counter für Speicherzugriffe bei GCN), welche Instruktionen zusammen laufen können (bei GCN fehlt das für ALU-Instruktionen, da durch Latenz=Durchsatz keine Abhängigkeiten existieren können [zumindest für die allermeisten ALU-Instruktionen]).

Insofern bleibt wesentlich nur die kürzere ALU-Pipeline (nV: 6 Takte, AMD: 4 Takte) und noch so ein paar Extrafeatures von GCN (Broadcasts eines Skalarregisters oder LDS-Werts an die Vektor-ALUs), die eventuell die Frequenz limitieren könnten (je nachdem, wie früh man das in der Pipeline anstoßen kann).

HOT
2016-07-11, 16:39:54
Stellt sich die Frage, inwieweit sich NV GCN dann mit Volta noch weiter annähert. Mehr Einheiten pro mm² sind ja wohl schon als erhärtbare Info gesetzt. Und es stellt sich auch die Frage, inwiefern sich AMD weiterbewegen wird, oder ob Navi sogar wieder weniger Flexibilität bringen wird als GCN heute (was AMD untypisch wäre, aber schon im Prinzip bei Zen durchexerziert hat, indem man sich an den Katzen orientiert hat). Es wird sehr spannend.
Danke Gipsel für die Ausführungen.

Gipsel
2016-07-11, 16:40:39
Bedeutet das auch, dass man bei AMD die SIMDs/ALUs nicht unabhängig von dem Rest der CU mit Takt ansprechen kann? Ist hier deiner Meinung nach eine Ursache für das schlechtere "Taktverhalten" bei AMD zu suchen?Wenn man will und entsprechenden Aufwand treibt, kann man schon ein paar Dinge voneinander taktmäßig entkoppeln. Allerdings gibt es das nicht zum Nulltarif. Verschiedene Taktdomains, die viele Daten austauschen müssen, kosten nicht nur Diefläche, sondern teilweise auch Effizienz. Dies trifft z.B. auf TMUs zu, die man mit anderem Takt betreiben wollte als die ALUs (Vektor-ALUs und Skalar-Alu müssen synchron laufen, sonst kann man gleich so ziemlich Alles über den Haufen werfen). Oft ist es dann besser, das Meiste synchron laufen zu lassen (spart Diefläche und auch ein wenig Strom) und jeden Teil auf den gemeinsamen Zieltakt zu optimieren, so daß kein Teil vor dem anderen ins Taktlimit läuft, sprich, daß die kritischen Pfade in allen Teilen gleich lang sind (das spart am Ende Strom).
Nur in eng umrissenden Fällen lohnen sich wohl verschiedene Taktdomänen (z.B. beim Uncore/Speichercontroller) wirklich.

Sunrise
2016-07-11, 17:07:52
- Nvidia hat seit Maxwell scheinbar keinen reinen Immediate-Renderer mehr, sondern die ersten Schritte zu einer Hybrid-Form gemacht:

https://forum.beyond3d.com/posts/1919927/
Interessant. Das hatte Ailuros schon vor Jahren mal angedeutet, wenn mich mein Gedächtnis gerade nicht trügt.

Was wäre denn der nächste logische Schritt, nachdem dieser Schritt schon erfolgt ist?

d2kx
2016-07-12, 01:29:30
Capsaicin Siggraph (https://www.eventbrite.ca/e/capsaicin-siggraph-tickets-26465087790?sf30708592=1)
25.07.2016

Siggraph Capsaicin is just around the corner!

Known as the chemical compound that gives chili peppers their intense heat, Capsaicin excites the nervous system, producing endorphins that result in a mild addition that encourages you to want more, much like the exciting announcements and experiences Radeon Technologies Group have planned this year at Siggraph.

Capsaicin Siggraph will reveal new, industry changing graphics technologies and partnerships that will shape the CG community and to the rest of the World for years to come.

High-profile guest speakers presenting future insights and technologies exclusively to the Capsaicin audience
Never before seen VR technologies announcements to redefine the term “truly immersive VR experiences”
Industry changing, next generation “Polaris” graphics technologies designed to bring stable and affordable 3D graphics to the world
New and exciting partner announcements to inspire and benefit the entire CG and developer community

Capsaicin Siggraph will reshape the future of the graphics community and this is your chance to be where it all started.

Nightspider
2016-07-12, 01:41:16
Was meint ihr ob AMD dort vllt ein paar kleine Details zur Vega Architektur preisgeben wird oder ob Polaris noch ein paar versteckte (Shader) Features (für Vulkan?) haben wird?

Auf die Siggraph bin ich alleine schon wegen DICE (BF1) gespannt.

Unrockstar
2016-07-12, 08:54:37
"Desaster" würde ich es nicht benennen. Eher mit den Schwierigkeiten das Design zu optimieren.

Evt überrascht uns ja AMD mit Vega :D
Was hälst du von der Theorie, dass die GCN4 Leistungen derzeit Brach liegen und nur GCN2 angesprochen wird? (treiberseitig)
Im CB sagt ja der (ich glaube es war Wolfgang) mal sowas vonwegen geiles Jahr für AMD, wobei ich da eher an Sarkasmus glaube. Oder aber P10 ist ein rein DX12 optimiertes Design und man muss unter DX11 mit der Performance leben und er bezog sich auf DX12

Ich werde mir wohl nen 480 von Sapphire kaufen, aber auch ich merke dass er das gleiche Problem hat wie Fury.. Die Leistung kommt nicht auf die Straße.

y33H@
2016-07-12, 09:12:33
Das war Volker, der alte Zyniker ;D

Locuza
2016-07-12, 09:21:41
Was wäre denn der nächste logische Schritt, nachdem dieser Schritt schon erfolgt ist?
Vielleicht zu erst einmal ein paar PR-Folien und offizielle Informationen? ;D
Ich selber habe mich mit dem Thema aber nicht beschäftigt, logisch anzunehmen ist aber natürlich wie immer das es einen Schritt weiter geht oder verbessert wird.
Maxwell scheint ein Limit zu haben bis zu welchem er das ganze sortiert, dass könnte Nvidia erhöhen.

Als Querverweis sind dann wohl einfach Artikel zu den mobilen GPUs geeignet, PowerVR, Mali und Adreno können bzw. arbeiten alle als TBDR soweit ich weiß.
http://www.anandtech.com/show/10375/arm-unveils-bifrost-and-mali-g71/3

ARMs neue Bifrost Architektur ist ein interessanter Artikel.
Die Schrittweise der Hersteller ähnelt sich in vielen Punkten.
Mehr oder weniger aktuell, was ARM bei Bifrost verbessert hat um die Effizienz vom Tiler zu erhöhen:
But perhaps more significant is that ARM has implemented a micro-triangle discard accelerator into Bifrost. By eliminating sub-pixel triangles that can’t be seen early on, ARM no longer needs to store those tringles in the tiler, further reducing memory needs. Overall, ARM is reporting that Bifrost’s tiler changes are reducing tiler memory consumption by up to 95%.

Ich meine Andrew Lauritzen von Intel hat darauf spekuliert, dass in der Zukunft vermutlich die Desktop-Hersteller eine hybride Form implementieren werden, um einen besseren Kompromiss zu finden.

Aber zurück zu AMD, Videocardz zeigt eine neue Folie von einem Event in Australien:
http://cdn.videocardz.com/1/2016/07/AMD-GPU-Roadmap-July-2016-900x534.jpg
http://videocardz.com/62117/amd-confirms-radeon-rx-470-and-rx-460-specifications

Thunder99
2016-07-12, 10:42:04
Was hälst du von der Theorie, dass die GCN4 Leistungen derzeit Brach liegen und nur GCN2 angesprochen wird? (treiberseitig)
Im CB sagt ja der (ich glaube es war Wolfgang) mal sowas vonwegen geiles Jahr für AMD, wobei ich da eher an Sarkasmus glaube. Oder aber P10 ist ein rein DX12 optimiertes Design und man muss unter DX11 mit der Performance leben und er bezog sich auf DX12

Ich werde mir wohl nen 480 von Sapphire kaufen, aber auch ich merke dass er das gleiche Problem hat wie Fury.. Die Leistung kommt nicht auf die Straße.
Das ist nicht auszuschließen, dass noch Potential über den Treiber freigesetzt werden kann. Laut den CB Messungen bringt Polaris in FHD die Performance besser auf die Straße als alle anderen GCN Chips

Custom Karten könnten also ein gutes Paket schnüren wo nur die Effizienz darunter leiden wird :freak: Aber was sind +30W bei einer spürbaren Mehrperformance :)

HOT
2016-07-12, 11:58:07
Vielleicht zu erst einmal ein paar PR-Folien und offizielle Informationen? ;D
Ich selber habe mich mit dem Thema aber nicht beschäftigt, logisch anzunehmen ist aber natürlich wie immer das es einen Schritt weiter geht oder verbessert wird.
Maxwell scheint ein Limit zu haben bis zu welchem er das ganze sortiert, dass könnte Nvidia erhöhen.

Als Querverweis sind dann wohl einfach Artikel zu den mobilen GPUs geeignet, PowerVR, Mali und Adreno können bzw. arbeiten alle als TBDR soweit ich weiß.
http://www.anandtech.com/show/10375/arm-unveils-bifrost-and-mali-g71/3

ARMs neue Bifrost Architektur ist ein interessanter Artikel.
Die Schrittweise der Hersteller ähnelt sich in vielen Punkten.
Mehr oder weniger aktuell, was ARM bei Bifrost verbessert hat um die Effizienz vom Tiler zu erhöhen:


Ich meine Andrew Lauritzen von Intel hat darauf spekuliert, dass in der Zukunft vermutlich die Desktop-Hersteller eine hybride Form implementieren werden, um einen besseren Kompromiss zu finden.

Aber zurück zu AMD, Videocardz zeigt eine neue Folie von einem Event in Australien:
http://cdn.videocardz.com/1/2016/07/AMD-GPU-Roadmap-July-2016-900x534.jpg
http://videocardz.com/62117/amd-confirms-radeon-rx-470-and-rx-460-specifications

Wenn man ganz streng ist und P10 als Fixpunkt nimmt würde nach der Roadmap Vega tatsächlich noch 2016 erscheinen.

tm0975
2016-07-12, 12:35:33
Wenn man ganz streng ist und P10 als Fixpunkt nimmt würde nach der Roadmap Vega tatsächlich noch 2016 erscheinen.
das war auch mein gedanke, als ich mir die folie angeschaut habe. zudem ist der effizenzsprung von polaris zu vega sehr oredntlich, wenn man mit dem sprung von 28 nm zu polaris vergleicht.

Sunrise
2016-07-12, 13:16:13
Das sieht anhand der Folie wirklich danach aus, dass Vega noch 2016 kommt, wenn auch knapp. Dass Vega einige Effizienzverbesserungen erhalten wird, hatten wir ja bereits auf der älteren Folie gesehen, allerdings bin ich mir nicht sicher, ob man die Abstände direkt übertragen kann.

Das sieht mir rein optisch nämlich nach 75% mehr Performance/W aus, das wäre schon ein ziemlicher Hammer, und da ich nicht weiß, woher AMD die nehmen will, bleibe ich erstmal extrem skeptisch. Denn HBM2 alleine reicht da nicht aus.

Agent117
2016-07-12, 13:29:40
Das sieht anhand der Folie wirklich danach aus, dass Vega noch 2016 kommt, wenn auch knapp. Dass Vega einige Effizienzverbesserungen erhalten wird, hatten wir ja bereits auf der älteren Folie gesehen, allerdings bin ich mir nicht sicher, ob man die Abstände direkt übertragen kann.

Das sieht mir rein optisch nämlich nach 75% mehr Performance/W aus, das wäre schon ein ziemlicher Hammer, und da ich nicht weiß, woher AMD die nehmen will, bleibe ich erstmal extrem skeptisch. Denn HBM2 alleine reicht da nicht aus.

Ich hatte das als die Folie das erste Mal präsentiert wurde mal ausgemessen. Von den Abständen hher ergibt sich folgendes, wenn Polaris 150% über GCN@28nm liegt.

Vega ist 40% effizienter als Polaris, Navi ist nochmal 30% effizienter als Vega.

Nun hat sich die Situation mit dem Polaris Launch ja etwas verändert.
Die RX 480 legte nur ca 70% zu und die 150% bezogen sich laut AMD auf einen Vergleich zwischen 280M? und Polaris 11 Mobile (sogar 180% laut AMD).
Das ist natürlich absolute Rosinenpickerei dann gewesen von AMD.

Da Vega aber nach der neuen Folie nur High End ist, könnte AMD bei Vega solche Rosinenpickerei nur mit einer Vega Nano betreiben. Die hätte dann eine mehr als doppelt so hohe Perf/W wie die RX 480:smile:.
Unter der Vorraussetzung dass AMD irgendwie hält was die Folie verspricht gibt es keinen schlechteren Fall.
Im besten Fall wird auch non Nano Vega doppelt so effizient wie die RX 480 und 30 - 40% effizienter als Polaris 11 Mobile.

dildo4u
2016-07-12, 13:29:44
Das sieht anhand der Folie wirklich danach aus, dass Vega noch 2016 kommt, wenn auch knapp. Dass Vega einige Effizienzverbesserungen erhalten wird, hatten wir ja bereits auf der älteren Folie gesehen, allerdings bin ich mir nicht sicher, ob man die Abstände direkt übertragen kann.

Das sieht mir rein optisch nämlich nach 75% mehr Performance/W aus, das wäre schon ein ziemlicher Hammer, und da ich nicht weiß, woher AMD die nehmen will, bleibe ich erstmal extrem skeptisch. Denn HBM2 alleine reicht da nicht aus.
Takt senken bringt ne Menge bei AMD,Fury Nano hat ca die selbe Pro Watt Leistung wie Polaris.

M4xw0lf
2016-07-12, 13:30:52
Takt senken bringt ne Menge bei AMD,Fury Nano hat ca die selbe Pro Watt Leistung wie Polaris.
Spannung, nicht Takt.

iuno
2016-07-12, 13:43:11
Spannung, nicht Takt.
Why not both? :P

Die Folie mit der Roadmap wurde neu gemacht und zeigt dasselbe wie die zuvor gesehene. Ich sehe das zumindest als Bestaetigung dafuer, dass Vega noch fuer das Jahresende geplant ist. Ob das mit dem Marktstart in 2016 noch hinkommt, ist aber natuerlich weiterhin offen, ist ja auch noch lange hin...

Eine gute und eine schlechte Nachricht von der Folie mit der 460:

http://cdn.videocardz.com/1/2016/07/AMD-Radeon-RX-460-Specifications-900x494.jpg

+ es gibt wohl doch ein anstaendiges Referenzdesign, nicht das mit dem Mini-Luefter, was so nach OEM Ware aussah (selbst wenn die Kuehlung reicht...)
- RX 460 weiterhin nur mit 2 und nicht mit 4 GiB genannt

Edit: OK, habe gerade in die Originalquelle reingeschaut...
Er sagt, das sei nur ein Mockup. Und dass die Karte in den kommenden "Wochen/Monaten" verfuegbar wird :usad:

Auch ein interessantes Detail: die 480 war hier zum Launch (!) noch mit (>)224 GB/s angegeben, also 7 Gbps GDDR5. Offenbar wurde da bis zuletzt geschraubt

http://i.imgur.com/IDObG0b.png

Sinnvoll oder nicht, die 470 soll auch mit 8 GiB moeglich sein, dahingehend gibt es also immerhin keine Beschraenkung seitens AMD.

Dino-Fossil
2016-07-12, 14:31:11
Nun hat sich die Situation mit dem Polaris Launch ja etwas verändert.
Die RX 480 legte nur ca 70% zu und die 150% bezogen sich laut AMD auf einen Vergleich zwischen 280M? und Polaris 11 Mobile (sogar 180% laut AMD).
Das ist natürlich absolute Rosinenpickerei dann gewesen von AMD.

Jein.
Es gab auch eine entsprechende Rechnung für P10 - zwischen einer 270X und einer 470.
Dabei kam man dann auf die auch für mobile/P11 kolportierten "2,8x".

Allerdings gab es auch da nur eine sehr abenteuerliche Rechnung:
Die Leistungsaufnahme der 270X wurde mit 180W angegeben, einen Wert, den man im Spielebetrieb selten bis nie sehen wird, denke ich. Die der 470 mit 110W (und da die 480 ihre angegebenen 150W auch um ca 15W überschreitet, könnte die 470 am Ende durchaus auf 120-130W kommen.
Danach wurden die erzielten Werte in einigen Benchmarks miteinander verglichen und AMD befand, dass niedrigere Leistungsaufnahme + höhere fps zusammen eine "2,8x" Steigerung ergeben.

Ich erwarte die 470 zwar effizienter als die 480, aber die 2,8x bleiben vermutlich reines Wunschdenken/Marketing - möglicherweise auch im mobile-Bereich.

Zergra
2016-07-12, 14:35:18
Das sieht mir rein optisch nämlich nach 75% mehr Performance/W aus, das wäre schon ein ziemlicher Hammer, und da ich nicht weiß, woher AMD die nehmen will, bleibe ich erstmal extrem skeptisch. Denn HBM2 alleine reicht da nicht aus.
Ich finde das sind eher 2.5x vs 3.5 also weniger als 50% mehr Performance/W.

Sunrise
2016-07-12, 14:53:39
...Da Vega aber nach der neuen Folie nur High End ist, könnte AMD bei Vega solche Rosinenpickerei nur mit einer Vega Nano betreiben. Die hätte dann eine mehr als doppelt so hohe Perf/W wie die RX 480:smile:.
Stimmt, daran hatte ich noch garnicht gedacht. Wenn man die Spannung/Takt auf Vega mit einer Art Vega nano begrenzt dürfte man genau den Schwachpunkt der zu hohen Spannung nicht mehr haben und dann würde natürlich auch die Perf/W enorm ansteigen. Dann wären 40% eigentlich nicht mehr so viel, da ja auch HBM2 mit an Bord sein wird.

AMD bräuchte etwa sowas, um auch mit NV konkurrieren zu können:

Vega10 X (250-275W) - 8GB HBM2 - $599 US (>GTX1080) (Wasser)
Vega10 (175W-225W) - 8GB HBM2 - $499 US (=GTX1080) (Luft)
Vega10 nano (120-150W) - 8GB HBM2 - $399 US (>=GTX1070) (Luft)

Die Preise habe ich absichtlich tiefer gesetzt, da AMD angreifen muss. Mit "nur" einem 2048bit HBM2-Interface dürfte das gegen NVs 256bit GDDR5X-Premium-SI auch zu machen sein, auch wenn AMD nicht die Margen fahren können wird wie NV. Die Diegröße dürfte sich damit etwa um 50-75% erhöhen (~350-380mm²).

Vega11 wäre dann AMDs GPU für den professionellen Markt (deutlich mehr DP-Performance) und dieser könnte dann auch gegen GP102 gerichtet sein mit derzeit sehr spekulativen 6144 ALUs und bis 16GB HBM2, mit einer späteren Variante mit optional 32GB HBM2. Dies wäre dann auch der passende Hawaii-Nachfolger, allerdings mit >500mm².

Preislich wäre Vega10 so problemlos absetzbar (Gaming, Workstation, SP-Performance/W) und Vega11 könnte aufgrund der höheren DP-Leistung auch in mehreren Märkten verkauft werden. Da Vega10 aber viel wichtiger ist, wird Vega10 aber natürlich zuerst kommen.

Loeschzwerg
2016-07-12, 15:46:28
+ es gibt wohl doch ein anstaendiges Referenzdesign, nicht das mit dem Mini-Luefter, was so nach OEM Ware aussah (selbst wenn die Kuehlung reicht...)
- RX 460 weiterhin nur mit 2 und nicht mit 4 GiB genannt

Edit: OK, habe gerade in die Originalquelle reingeschaut...
Er sagt, das sei nur ein Mockup. Und dass die Karte in den kommenden "Wochen/Monaten" verfuegbar wird :usad:


Bäähh, das dauert viel zu lange und 4 GiB sind Pflicht :(

Hübie
2016-07-12, 16:10:44
Es fällt mir immer noch sehr schwer an 6144 ALUs zu glauben... Wie groß kann die Enttäuschung werden wenn man es etwas über die 1080 schafft?

Der_Korken
2016-07-12, 16:15:05
Warum sollten 6144SPs nicht gehen? An der Die-Größe wird es nicht scheitern. P10 hat ca. 10SPs/mm², aber da hängt auch viel Ballast I/O-Ballast dran, der gerade wegen HBM kaum mitwächst. Außerdem ist die Architektur an sich schon stark bei Compute, d.h. man muss nicht befürchten, dass dafür plötzlich massiv Die-Space draufgeht wie bei GP102 vs GP100. Unter 600mm² sollte locker drin sein.

Hübie
2016-07-12, 16:21:07
Wenn du ein ausgewogenes Design willst musst du alles skalieren lassen. Also auch die HWS/ACE, ROPs, Caches, Register, PDN usw usf. Locker wird es bestimmt nicht. Mir fehlen da aber auch Bezugsgrößen der beiden Prozesse von GF und TSMC.
Wart einfach mal ab.

Nightspider
2016-07-12, 16:26:35
Mich würde es ja auch nicht wundern wenn die Packdichte bei TSMC etwas höher ist.

Falls Vega also tatsächlich bei TSMC gefertigt wird wird das schon nochmal ein paar Vorteile bringen bei Effizienz und eventuell auch bei Packdichte.


Es fällt mir immer noch sehr schwer an 6144 ALUs zu glauben... Wie groß kann die Enttäuschung werden wenn man es etwas über die 1080 schafft?

Du meinst die Enttäuschung bei Nvidia Jüngern wenn Vega in Vulkan Titeln die 1080ti verhaut und deutlich weniger kostet? :biggrin:

Unrockstar
2016-07-12, 16:29:51
Das ist nicht auszuschließen, dass noch Potential über den Treiber freigesetzt werden kann. Laut den CB Messungen bringt Polaris in FHD die Performance besser auf die Straße als alle anderen GCN Chips

Custom Karten könnten also ein gutes Paket schnüren wo nur die Effizienz darunter leiden wird :freak: Aber was sind +30W bei einer spürbaren Mehrperformance :)
Die Preisfrage dazu ist aber:
Warum ist Taktbereinigt GCN2 und GCN4 auf Gleichstand? Wenn AMD da etwas verbessert hat, grade am Frontend müsste eigentlich hinten 10-15% mehr Power rauskommen. Erschlag mich wenn ich falsch liege, aber Rechnerisch ist Taktbereinigt davon nichts zu sehen.

tdon
2016-07-12, 16:32:50
Ich finde das sind eher 2.5x vs 3.5 also weniger als 50% mehr Performance/W.


Jetzt müssen wir davon noch den Marketingaufschlag abrechnen.

Complicated
2016-07-12, 16:38:49
Vega11 wäre dann AMDs GPU für den professionellen Markt (deutlich mehr DP-Performance) und dieser könnte dann auch gegen GP102 gerichtet sein mit derzeit sehr spekulativen 6144 ALUs und bis 16GB HBM2, mit einer späteren Variante mit optional 32GB HBM2. Dies wäre dann auch der passende Hawaii-Nachfolger, allerdings mit >500mm².
Es erscheint mir nicht sonderlich schlüßig mit einem für Profis verbessertem DP-lastigen Design gegen einen auf Gaming optimierten und balastfreien GP102 antreten zu wollen. Dafür müsste der Effizienzsprung enorm sein bei Vega11. Ich denke nicht, dass in diese Richtung entwickelt wurde.

Sunrise
2016-07-12, 16:59:48
Es erscheint mir nicht sonderlich schlüßig mit einem für Profis verbessertem DP-lastigen Design gegen einen auf Gaming optimierten und balastfreien GP102 antreten zu wollen. Dafür müsste der Effizienzsprung enorm sein bei Vega11. Ich denke nicht, dass in diese Richtung entwickelt wurde.
Wenn du nur einen Chip für alle Märkte fertigen kannst ist das schon schlüssig, andernfalls re-finanziert sich das für AMD nicht. Hawaii ist zudem auch heute noch ein exzellenter Gaming-Chip, gerade jetzt mit Doom-Vulkan-Patch zu sehen. Den Luxus den NV hat kann und wird sich AMD nicht gönnen.

Complicated
2016-07-12, 17:54:15
Und doch ist die Effizienz für Gamer heute ein nicht weg zu diskutierender Punkt in der Kaufentscheidung. Dies zu ignorieren spart nichts ein. Man sieht doch den Hype um die RX480, mit 160W ist es ein Flop und bei 130W wäre es der Heilsbringer. AMD kann sich kaum leisten gegen GP102 mit einem Profichip anzutreten, zumal sie das gar nicht müssen. AMD baut an einer HPC-APU, welche diese DP-Leistung deutlich eher bringen kann. Es sind zwar nur 2048 Shader bei Zeppelin verbaut,wo das Gesamtprodukt vermarkte wird muss sich erst noch zeigen. V11 wird wohl eher ein auf Gaming optimierter Chip sein, wenn er überhaupt über Vega10 angesiedelt ist und nicht darunter.

V10 kann immer noch von oben direkt gegen GP102 einsteigen, was mit einer HPC-APU in der Pipeline und einem V11 wie du ihn beachreibst am wahrscheinlichsten erscheint. Nicht unmöglich, doch dann wäre V10 schneller einzuordnen als V11, der seine DP Einheiten als Ballast auf dem Chip hat.

fondness
2016-07-12, 18:12:06
GCN ist vieles, nur keine reine Gaming-Architektur, das ist wahrscheinlich auch das größte Problem von AMD. GCN ist sehr ähnlich aufgebaut wie GP100. DP macht da auch nicht mehr den großen Unterschied.

y33H@
2016-07-12, 18:44:05
Auch ein interessantes Detail: die 480 war hier zum Launch (!) noch mit (>)224 GB/s angegeben, also 7 Gbps GDDR5. Offenbar wurde da bis zuletzt geschraubt.Nö, das ist auch so im Review-Deck drin, bezieht sich auf die 7 Gbps der 4-GByte-Version.

Locuza
2016-07-12, 19:40:25
Die Preisfrage dazu ist aber:
Warum ist Taktbereinigt GCN2 und GCN4 auf Gleichstand?
Ist GCN Gen 2 definitiv nicht.
Mit der kommenden RX 470 (Gen 4) sollte man sehr gute Vergleiche vs. die R9 480 (Gen 3) anstellen können und mit der RX 460 gegen die R7 260X (Gen 2).
Die theoretischen Tests sind ja schon durch, Gen 4 bietet die beste Delta-Color-Compression, dass beste Frontend (Tessellation) und die CUs leisten sicher auch noch ein paar % mehr.
Gegenüber Gen 2 beträgt der Vorsprung gewiss ein üppiges Stück.

StefanV
2016-07-12, 20:00:22
Ist GCN Gen 2 definitiv nicht.
Mit der kommenden RX 470 (Gen 4) sollte man sehr gute Vergleiche vs. die R9 480 (Gen 3)
Ich nehme mal an, dass du hier RX 480 gegen R9-380(X) meintest, oder??

kuj0n
2016-07-12, 20:03:21
Rx 480 ist auch Gen 4

http://cdn.videocardz.com/1/2016/06/Radeon-RX-480-Presentation-VideoCardz_com-1-1-900x506.jpg

Virtual
2016-07-12, 20:13:57
Und doch ist die Effizienz für Gamer heute ein nicht weg zu diskutierender Punkt in der Kaufentscheidung. Dies zu ignorieren spart nichts ein. Man sieht doch den Hype um die RX480, mit 160W ist es ein Flop und bei 130W wäre es der Heilsbringer. ...
Genau hier steckt wieder das totale Versagen des AMD Marketing bei der Präsentation der RX 480. Das vermutliche Leistungsziel (>GTX 970) hat absolute Top-Priorität. So ein Blödsinn! Und leider hat auch GCN4 keine bessere Implementierung zwecks Erreichbarkeit höherer Taktfrequenzen bekommen, sozusagen keine aufwändige 'Handarbeit' zur Optimierung insbesondere kritischer Pfade. Man hat sich nur auf den neuen Prozess bei GF verlassen, der alleine offensichtlich nicht für das angestrebte Leistungsziel ausreicht, ohne alle anderen Kriterien wie Leistungsaufnahme und Overclocking-Potential zu kompromittieren. Wenn sie sich dessen bewusst waren, dann hätte AMD an Stelle des letzten Quäntchen Performance herauszukitzeln lieber auf eine Leistung knapp unterhalb der GTX970 zielen sollen, um damit Spannung und Takt auf Niveau zu senken, dass wenigstens die Erwartungen an Effizienz und Overclocking Potential erfüllt. Die GTX 970 nicht ganz erreicht zu haben, hätte beim angesetzen Mainstream-Preis das Preis/Leistungsverhältnis nicht wesentlich verschlechtert, aber ein sonst rundes Produkt ergeben, das sicher auch keine PCI-E Specs verletzt hätte.

Achill
2016-07-12, 20:33:15
Genau hier steckt wieder das totale Versagen des AMD Marketing bei der Präsentation der RX 480. Das vermutliche Leistungsziel (>GTX 970) hat absolute Top-Priorität. So ein Blödsinn! Und leider hat auch GCN4 keine bessere Implementierung zwecks Erreichbarkeit höherer Taktfrequenzen bekommen, sozusagen keine aufwändige 'Handarbeit' zur Optimierung insbesondere kritischer Pfade. Man hat sich nur auf den neuen Prozess bei GF verlassen, der alleine offensichtlich nicht für das angestrebte Leistungsziel ausreicht, ohne alle anderen Kriterien wie Leistungsaufnahme und Overclocking-Potential zu kompromittieren. Wenn sie sich dessen bewusst waren, dann hätte AMD an Stelle des letzten Quäntchen Performance herauszukitzeln lieber auf eine Leistung knapp unterhalb der GTX970 zielen sollen, um damit Spannung und Takt auf Niveau zu senken, dass wenigstens die Erwartungen an Effizienz und Overclocking Potential erfüllt. Die GTX 970 nicht ganz erreicht zu haben, hätte beim angesetzen Mainstream-Preis das Preis/Leistungsverhältnis nicht wesentlich verschlechtert, aber ein sonst rundes Produkt ergeben, das sicher auch keine PCI-E Specs verletzt hätte.

Das Problem ist hier, man redet von zwei verschiedenen 970 Typen. Beim Verbrauch wird gern (indirekt) auf die Werte des Ref.Designs bezug genommen, bei vielen Tests im Netzt zur 480 ist es dann aber ein OC Modell welches dann doch mehr Verbraucht.

Das Ziel der 480 ist nicht die 970 sondern in der Nähe (drüber/drunter) bzgl. der 1060 zu sein. Die 970 ist doch nur 3.5+0.5=❤ ... daher 'uffn Sack jehauen'.

Unrockstar
2016-07-12, 20:33:42
Ist GCN Gen 2 definitiv nicht.
Mit der kommenden RX 470 (Gen 4) sollte man sehr gute Vergleiche vs. die R9 480 (Gen 3) anstellen können und mit der RX 460 gegen die R7 260X (Gen 2).
Die theoretischen Tests sind ja schon durch, Gen 4 bietet die beste Delta-Color-Compression, dass beste Frontend (Tessellation) und die CUs leisten sicher auch noch ein paar % mehr.
Gegenüber Gen 2 beträgt der Vorsprung gewiss ein üppiges Stück.

Dafür muss man ja nur ne 380 gegen ne 480 messen.. Meinetwegen nimm noch ne 280 dazu wobei diese ja wesentlich mehr ROPs hat.

Wie würde denn eine 380 und eine 480 auf dem gleichen Takt von sagen wir mal 1000Mhz sich schlagen?

Felixxz2
2016-07-12, 20:45:44
470 gegen Tahiti wäre in der Tat ein sehr interessanter Test. Beide auf selben Takt und Bandbreite bringen und schon semieht man sehr genau wo verbessert wurde.

Virtual
2016-07-12, 20:51:29
Das Problem ist hier, man redet von zwei verschiedenen 970 Typen. Beim Verbrauch wird gern (indirekt) auf die Werte des Ref.Designs bezug genommen, bei vielen Tests im Netzt zur 480 ist es dann aber ein OC Modell welches dann doch mehr Verbraucht.

Das Ziel der 480 ist nicht die 970 sondern in der Nähe (drüber/drunter) bzgl. der 1060 zu sein. Die 970 ist doch nur 3.5+0.5=❤ ...
Das Ziel, die GTX 1060 zu erreichen, war gänzlich unrealistisch, denn AMD konnte, ohne Hellsehen zu müssen annehmen, dass NV genüsslich wartet, bis AMD die RX 480 'Katze aus dem Sack' gelassen hat, um sich dann problemlos und passend für (fast) alle Kriterien der Zocker (Leistung(-saufnahme), Overclocking-Potential und Preis(/Leistung)) in Szene zu setzen. Neee! Das AMD-Marketing muss unterlaufen sein, sonst würden sie die Situation einfach besser einschätzen, selbst wenn die Prästentation der GTX 1080, die auch eine klare Einschätzung der erreichbaren Taktfrequenzen der GTX 1060 möglich machte, zu knapp vor dem Release gewesen war, um noch etwas an den RX 480 Specs ändern zu können. Ein rundes und vor allen Dingen effizientes Produkt zu bauen, insbesondere wenn man noch für den großen Effizienz-Hype selbst verantwortlich ist, ihn quasi selbst getriggert hat, wäre das Mindeste gewesen, damit der Launch ein Erfolg wird. Das AMD-Marketing ist underlaufen, denn soooo blöd kann man einfach nicht handeln, wenn die Szene halbwegs kennt.

Der_Korken
2016-07-12, 20:53:12
Dafür muss man ja nur ne 380 gegen ne 480 messen.. Meinetwegen nimm noch ne 280 dazu wobei diese ja wesentlich mehr ROPs hat.

Wie würde denn eine 380 und eine 480 auf dem gleichen Takt von sagen wir mal 1000Mhz sich schlagen?

Die 280 hat auch 32 ROPs. Es wäre aber wirklich schön, wenn sich jemand die Mühe machen würde und 280X, 380X und 470 gegeneinander testen würde. Mit gleichem Takt (1Ghz) und Speicherbandbreite (384bit@4Ghz und 256bit@6Ghz) würde man genau sehen, welcher Sprung wo Vorteile gebracht hat. Dazu könnte man schauen, welche Architektur wie stark mit dem Speichertakt skaliert, um zu sehen ob DCC wirklich viel gebracht hat oder nicht.

Butterfly
2016-07-12, 21:13:29
Das Ziel, die GTX 1060 zu erreichen, war gänzlich unrealistisch, denn AMD konnte, ohne Hellsehen zu müssen annehmen, dass NV genüsslich wartet, bis AMD die RX 480 'Katze aus dem Sack' gelassen hat, um sich dann problemlos und passend für (fast) alle Kriterien der Zocker (Leistung(-saufnahme), Overclocking-Potential und Preis(/Leistung)) in Szene zu setzen. Neee! Das AMD-Marketing muss unterlaufen sein, sonst würden sie die Situation einfach besser einschätzen, selbst wenn die Prästentation der GTX 1080, die auch eine klare Einschätzung der erreichbaren Taktfrequenzen der GTX 1060 möglich machte, zu knapp vor dem Release gewesen war, um noch etwas an den RX 480 Specs ändern zu können. Ein rundes und vor allen Dingen effizientes Produkt zu bauen, insbesondere wenn man noch für den großen Effizienz-Hype selbst verantwortlich ist, ihn quasi selbst getriggert hat, wäre das Mindeste gewesen, damit der Launch ein Erfolg wird. Das AMD-Marketing ist underlaufen, denn soooo blöd kann man einfach nicht handeln, wenn die Szene halbwegs kennt.
Ich sehe in der fett gedruckten Formel keine Bildqualität, spielt diese keine Rolle?
Das wäre genau im Sinne wie ich nvidia´s Marketing inzwischen Einschätze! :rolleyes:

Achill
2016-07-12, 21:14:33
Das Ziel, die GTX 1060 zu erreichen, war gänzlich unrealistisch, denn AMD konnte, ohne Hellsehen zu müssen annehmen, dass NV genüsslich wartet, bis AMD die RX 480 'Katze aus dem Sack' gelassen hat, um sich dann problemlos und passend für (fast) alle Kriterien der Zocker (Leistung(-saufnahme), Overclocking-Potential und Preis(/Leistung)) in Szene zu setzen. Neee! Das AMD-Marketing muss unterlaufen sein, sonst würden sie die Situation einfach besser einschätzen, selbst wenn die Prästentation der GTX 1080, die auch eine klare Einschätzung der erreichbaren Taktfrequenzen der GTX 1060 möglich machte, zu knapp vor dem Release gewesen war, um noch etwas an den RX 480 Specs ändern zu können. Ein rundes und vor allen Dingen effizientes Produkt zu bauen, insbesondere wenn man noch für den großen Effizienz-Hype selbst verantwortlich ist, ihn quasi selbst getriggert hat, wäre das Mindeste gewesen, damit der Launch ein Erfolg wird. Das AMD-Marketing ist underlaufen, denn soooo blöd kann man einfach nicht handeln, wenn die Szene halbwegs kennt.

Werden wir sehen, die 1060 hat 66% der Shader-Power und 77% der Bandbreite einer 1070. Damit wird diese bei (z.B. unter Annahme der Werte von CB (https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#diagramm-performancerating-2560-1440)) bei 70-80% landen und damit ähnlich zu 390 bis 980 sein. Damit dann auch in Reichweite der 480.
Was wie wo was noch mit OC geht werden wir auch sehen...

Locuza
2016-07-12, 21:20:41
Ich nehme mal an, dass du hier RX 480 gegen R9-380(X) meintest, oder??
Die RX 470 ist ein direkter Vergleich, da Sie 32 CUs besitzt, also 2048 ALUs, 128 TMUs und 32 ROPs, die identische Konfiguration welche auch die 380X auffährt.
Die RX 480 besitzt ein paar CUs/TMUs mehr und müsste weiter runter im Takt um theoretisch auf die gleichen Werte zu kommen, praktisch hat das aber wahrscheinlich größere Auswirkungen, da der Workload auf ein breiteres System verteilt wird.


Wie würde denn eine 380 und eine 480 auf dem gleichen Takt von sagen wir mal 1000Mhz sich schlagen?
Das können die Hardware-Seiten ja bald herausfinden, sie muss sich aber definitiv schlechter schlagen, ansonsten hätte AMD bei der neuen Generation stellenweise bei der Leistung abbauen müssen und dafür gibt es keine Anhaltspunkte.

Mit gleichem Takt (1Ghz) und Speicherbandbreite (384bit@4Ghz und 256bit@6Ghz
Von solchen Vergleichen bin ich kein besonderer Liebhaber, da die Bandbreite zwar die selbe ist, aber nicht die absoluten Latenzen.
Ebenso fällt die Lastverteilung anders aus.
Das hat sicherlich ein paar Prozent Einfluss.
Deswegen wäre mir so etwas wie die 470 vs. 380X lieber.

Computerbase hat übrigens einen groben Annäherungsvergleich mit Hawaii erstellt, wo die Rechenleistung und Bandbreite entsprechend gedrosselt wurde:
https://www.computerbase.de/2016-06/radeon-rx-480-test/13/#diagramm-polaris-architektur-1920-1080-benchmark-part-1

Da gibt es natürlich praktisch große Unterschiede, wie die Lastverteilung über X-Einheiten, die größere Anzahl an ROPs, die effektiven Latenzen und deren Performanceauswirkungen.
Aber am Ende kam ein Plus von 6% für Polaris heraus, einige Spiele haben aber teils große Ausweichungen nach oben und unten gezeigt.
Mit der RX 470 (Gen 4) vs. 380X (Gen 3) und der RX 460 (Gen 4) vs. 260X (Gen 2) gibt es hoffentlich wesentlich genauere Tests, wobei beim letzteren sich vielleicht niemand die Mühe macht.

Virtual
2016-07-12, 21:37:59
Ich sehe in der fett gedruckten Formel keine Bildqualität, spielt diese keine Rolle?
Das wäre genau im Sinne wie ich nvidia´s Marketing inzwischen Einschätze! :rolleyes:Die Bildqualität spielt eine große Rolle, oder sagen wir besser, spielte eine große Rolle. Schon lange gibt es keine nennenswerte, Marketing-relevante Diskussionen darüber, ob die Radeon oder Geforce einen besseres AA oder anisotropen Filter bieten. Selbst die früheren Treiber-Schummelein zur Optimierung der Performance auf Kosten der Bildqualität sind 'out' und keiner Überprüfung oder gar Diskussion würdig. Heute geht's eher um Software Zusätze wie NVidias Gameworks oder AMDs Hairworks. Oder gibt es in den vielen Tests zur RX 480 oder GTX 1080 noch eine relevante Diskussion der Bildqualität? Die Kritierien der Reviewer haben sich an die für Zocker heute wichtigen Punkte angepasst, bzw. an die Vorgaben von AMD oder NVidia in deren Review-Guides . Nach wie vor die Balkenlänge in verschiedenen Auflösungen, die Lautheit der Lüfter, die Leistungsaufnahme in verschiedenen Betriebsmodi und Games, das Overclocking mit Boost und darüber hinaus ... das ist, was heute zählt und was ein Marketing berücksichtigen muss. Tja, hier ist das NVidia-Marketing einfach nur deutlich versierter.

scully1234
2016-07-12, 21:41:59
wie NVidias Gameworks oder AMDs Hairworks. .

wusste gar nicht das sie das lizensiert haben, du meinst wohl eher TressFX:smile:

Virtual
2016-07-12, 21:42:22
Werden wir sehen, die 1060 hat 66% der Shader-Power und 77% der Bandbreite einer 1070. Damit wird diese bei (z.B. unter Annahme der Werte von CB (https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#diagramm-performancerating-2560-1440)) bei 70-80% landen und damit ähnlich zu 390 bis 980 sein. Damit dann auch in Reichweite der 480.
Was wie wo was noch mit OC geht werden wir auch sehen...
Ja, noch ist die 'GTX 1060 Katze nicht aus dem Sack'. Wir werden in einer Woche mehr wissen ... aber ganz unabhängig davon, wäre AMD gut beraten gewesen, das Effizient-Versprechen wirklich einzulösen, um nicht den (berechtigten) Spott aller NV-Jünger auf sich zu ziehen. Ein guter Angriff sollte immer ohne relevante eigene Schwächen vorgetragen werden.

Virtual
2016-07-12, 21:43:11
wusste gar nicht das sie das lizensiert haben, du meinst wohl eher TressFX:smile: Ja, richtig! - Ich hätte es in Anführungzeichen setzen sollen.

Complicated
2016-07-12, 21:46:02
Heute fehlen Nvidia komplette Objekte in manchen Treiber. Das wird als überlegenes Culling dann verkauft....

Die GTX 1060 ist jetzt schon enorm unter Druck. Und das liegt am Preispunkt. AMD hat die Custom Designs in der Hinterhand und wird alles dafür tun um die 1060 mit erscheinen bei der Performance ebenfalls unter Druck zu setzten.

Virtual
2016-07-12, 21:47:46
Heute fehlen Nvidia komplette Objekte in manchen Treiber. Das wird als überlegenes Culling dann verkauft....
Ja, gut möglich, aber eben nicht mehr in der Meinungsmache relevant, leider!

scully1234
2016-07-12, 21:47:47
Was wie wo was noch mit OC geht werden wir auch sehen...

Als ob man sich das nicht schon anhand der schon veröffentlichten Chips ausmalen könnte wo der Status Quo sich einpegelt...

Unrockstar
2016-07-12, 21:50:52
Die 280 hat auch 32 ROPs.
Stimmt da war was..
Ja ne 380(X), 470 und 280 vergleichen wäre Intressant.. Mein Wehmutstropfen ist, dass AMD mit Polaris keinen neuen Pitcairn designt hat. Es bleibt zu hoffen dass man mit Treiberverbesserungen die 980 noch Knackt und dass die Yield besser wird damit auch die Spannungen runtergehen und die Preise. So wie es aussieht machen ja fast alle Karten 1.05V mit (Bis auf das Tin Sample der PCGH ;D)
Ebenso finde ich hochgradig Intressant ob Vega 10 als 490 kommt oder ob AMD noch ein paar CUs in der P10 versteckt hat, oder ob es Gar einen beschnittenen P10 mal 2 geben wird, wobei das gegen die Nomenklausur der RX spräche
Auch Intressant wäre P10 mit GDDR5X, dürfte sicherlich dann noch was gehen an der Performance..

Was aber für die 1060 Spricht: AMD wird sich keinen Preisbattle mit der 1060 liefern, man muss Geld verdienen UND Marktanteile.. Also vermutlich wird es ne GTX 1060 als Custom für 300€++ geben und ne 480 für 250-270€. Nen Preiskampf würde AMD nicht überleben.

Virtual
2016-07-12, 21:53:47
Die Nano auf Fiji-Basis war ein guter Ansatz, dummerweise durch den gut 150 Euro zu hohen Release-Preis versaut. Nun stimmt bei der RX 480 der Preis und sie versauen es über die Leistungsaufnahme. Oh Gott! Was ist nötig, damit AMD daraus eine richtige Schlussfolgerung zieht, um endlich einen Verkaufsschlager landen zu können.

Complicated
2016-07-12, 21:58:48
Ich spekuliere, dass Vega 10 ein GP102 Konkurrent wird. Und zusätzlich kommt eine Dual RX 490. Später kommt mit Vega 11 eine Single GPU auf diesem Performancepunkt mit verbesserten Profifunktionen um die Fiji-Klasse abzulösen. Die Reihenfolge erscheint mir sinnvoll bzgl. Yield Entwicklung und Lebenszyklus der Fijis.

Hübie
2016-07-12, 21:58:50
GCN ist vieles, nur keine reine Gaming-Architektur, das ist wahrscheinlich auch das größte Problem von AMD. GCN ist sehr ähnlich aufgebaut wie GP100. DP macht da auch nicht mehr den großen Unterschied.

Umgekehrt. GP100 nähert sich dem GCN-Design an. Mit dem Unterschied keine dedizierten FP64-ALUs auf jeglichen GCN-Designs zu haben, was neben den vielen Speichern noch einmal Energie verbrät (umwandelt*).

*für die Klugscheißer

Unrockstar
2016-07-12, 22:05:18
Die Nano auf Fiji-Basis war ein guter Ansatz, dummerweise durch den gut 150 Euro zu hohen Release-Preis versaut. Nun stimmt bei der RX 480 der Preis und sie versauen es über die Leistungsaufnahme. Oh Gott! Was ist nötig, damit AMD daraus eine richtige Schlussfolgerung zieht, um endlich einen Verkaufsschlager landen zu können.

Stell dir mal vor wie laut die Fanboys gegröhlt hätten wenn es eine 970 mit 8GB bei 130W geworden wäre.. AMD musste an die 390/X herankommen.. Sonst hätten die Viralen Nvidianer und die Hardcore AMDler denen die Bude angezündet :D

Mir wäre auch eine 130W P10 auf 970 Niveau lieber gewesen und die Customs dann eben 175W und mehr..

@die Architekturprofis
Wäre es möglich bei GCN den HPC Ballast einfach wegzuschneiden? Oder ist das zu tief in GCN verankert?

scully1234
2016-07-12, 22:05:37
Die GTX 1060 ist jetzt schon enorm unter Druck. Und das liegt am Preispunkt. AMD hat die Custom Designs in der Hinterhand und wird alles dafür tun um die 1060 mit erscheinen bei der Performance ebenfalls unter Druck zu setzten.

Was soll das für ein ''Druck'' sein, über den Preis hat man sich seit Jahren schon definiert ,das ist jetzt nix ultimativ neues

Spezifikationen zu überfahren, spricht eher dafür, das ein gewisses Maß an Unsicherheit bestand/besteht.

Ob das ausreicht um den Druck zu erzeugen der dir da vorschwebt???

Hübie
2016-07-12, 22:10:43
@die Architekturprofis
Wäre es möglich bei GCN den HPC Ballast einfach wegzuschneiden? Oder ist das zu tief in GCN verankert?

Definiere in dem Kontext mal HPC-Ballast. Für FP64 loopen die ALUs bspw. Wie willst das wegschneiden? Man könnte die Architektur weniger Flexibel machen. Dann kannst du Energie sparen.
Es ist wohl nicht jedem klar, aber die ganzen bewegten Bits sind letztendlich Ladeströme die wandern und interpretiert werden müssen. Das kostet halt elektrische Energie. :freak:

Virtual
2016-07-12, 22:12:40
Ich spekuliere, dass Vega 10 ein GP102 Konkurrent wird. Und zusätzlich kommt eine Dual RX 490. Später kommt mit Vega 11 eine Single GPU auf diesem Performancepunkt mit verbesserten Profifunktionen um die Fiji-Klasse abzulösen. Die Reihenfolge erscheint mir sinnvoll bzgl. Yield Entwicklung und Lebenszyklus der Fijis.
GP102/104/106 stammen alle aus einer gemeinsamen Retorte. Alle haben die quasi gleich IP. Ok, mal abgesehen vom Speicherinterface (GDDR5(x) bzw. 192Bit statt 128 Bit bei GP106) gibt es zwischen den GPUs zur den relevanten Unterschied der Anzahl GPCs. Es ist nicht verwunderlich, wenn alle drei GPUs noch diesen Sommer in die Verkaufsregale wandern. Vega10 hat HBM und vermutlich noch ein paar GCN-Verbesserungen. Nennen wir es einfach GCN5. Niemand muss sich wundern, wenn AMD noch bis 2017 benötigt, um bei deren geschrumpften Entwicklungsbudget 2016 keinen Vega-Chip auf die Beine stellt, weil dieser eben wahrscheinlich nicht aus der Retorte kommt. Dabei hätte der Retorten-Ansatz von NV bei AMDs knapper Kasse gut getan. Noch ein strategischer Flop von AMD.

Butterfly
2016-07-12, 22:17:45
Die Bildqualität spielt eine große Rolle, oder sagen wir besser, spielte eine große Rolle.

Und wo sind die Bild Vergleiche die alle user sehen können?
Wenn ich früher gewusst hätte, das Radeon ein besseres Bild auf den selben Monitor zaubert, hätte ich nvidia viel früher den Laufpass gegeben.

Aber nein, sowas wird nicht veröffentlich damit man schön die Masse lenken kann. ;)

Tja, dann mal viel vergnügen mit der GTX 1060 aber Bitte nicht hier, dafür wird ein extra Thread erstellt, Danke!

Virtual
2016-07-12, 22:19:22
Stell dir mal vor wie laut die Fanboys gegröhlt hätten wenn es eine 970 mit 8GB bei 130W geworden wäre.. AMD musste an die 390/X herankommen.. Sonst hätten die Viralen Nvidianer und die Hardcore AMDler denen die Bude angezündet :D

Mir wäre auch eine 130W P10 auf 970 Niveau lieber gewesen und die Customs dann eben 175W und mehr..

@die Architekturprofis
Wäre es möglich bei GCN den HPC Ballast einfach wegzuschneiden? Oder ist das zu tief in GCN verankert?Gefühlt (imho) haben die letzten 5% Performance aktuell nicht annähernd das 'Verkaufsgewicht' von geringer Leistungsaufnahme und hohem Overclocking Potential. Es werden zu Anfang (Release-Reviews) fast immer "Founder-Editions", also Reference-Boards, miteinander verglichen. Die Custom-Designs kommen in Roundups später und sind nicht mehr so relevant für Meinungsmache. Wenigstens beim Thema Kühlung und Lautstärke hat AMD nicht gänzlich versagt.

scully1234
2016-07-12, 22:19:31
Architektur weniger Flexibel machen. Dann kannst du Energie sparen.


Ein finanzieller Aspekt für eine angepasste Architektur spielt da sicher mitunter auch ne entscheidende Rolle

Nvidia hat sich das mit GP102 ,sicher von nem BWLer 1000 mal im Werdegang ,auf nem Hochleistungsrechner simulieren lassen ,bevor man diesen Weg einschlug:P=)

Ob sich solch ein Risiko trägt bei den derzeitigen Marktanteilen...

moBi
2016-07-12, 22:23:08
Bezüglich Energie wird P11 sehr interessant. Im Gegensatz zu P10 kann der einzelne CUs dynamisch abschalten. Bei Teillasst dürfte das ordentlich was bringen.

Virtual
2016-07-12, 22:24:31
Und wo sind die Bild Vergleiche die alle user sehen können?
Wenn ich früher gewusst hätte, das Radeon ein besseres Bild auf den selben Monitor zaubert, hätte ich nvidia viel früher den Laufpass gegeben.

Aber nein, sowas wird nicht veröffentlich damit man schön die Masse lenken kann. ;)

Tja, dann mal viel vergnügen mit der GTX 1060 aber Bitte nicht hier, dafür wird ein extra Thread erstellt, Danke!Ich warte auf Vega 10/11 und vergleiche dann die unbeschnittenen Vegas mit der GTX 1080(Ti). Eine neue Chance für AMD es richtig zu machen. GCN alleine ist eine zweite Chance wert. Mal schauen, ob AMD (ATI) doch zu einer Überraschung fähig ist, so wie schon ein paar Mal in der Vergangenheit.

Sunrise
2016-07-12, 22:28:09
Ich spekuliere, dass Vega 10 ein GP102 Konkurrent wird.
Nein, aus dem einfachen Grund, dass Vega10 Greenland ist, dieser 4096 ALUs bekommt und du damit rein von der Rohleistung keinen GP102 angreifen kannst, der min. nochmal 30% schneller ist (effektiv 50% mehr Einheiten) als GP104.

Vega10 wird bestenfalls etwas über GP104 landen, mehr ist unrealistisch. Erst Vega11 wird schnell genug sein, um GP102 angreifen zu können.

Screemer
2016-07-12, 22:34:40
WARUM zum geier lese ich hier schon wieder 1,5 seiten nur zeug über nvidia? dachte schon ich bin im pascal thread. ach nein bin ich nicht!

Rincewind
2016-07-12, 22:35:57
Ich habe mal ne blöde Frage: Gibt es eigentlich Radialventilatoren, die mit den Custom kommen? Rein technisch drückt ja der Radi die warme Luft direkt raus aus dem Gehäuse, während der Axial einen Teil einfach nur innerhalb des Gehäuses verwirbelt.

Hübie
2016-07-12, 22:37:04
Ein finanzieller Aspekt für eine angepasste Architektur spielt da sicher mitunter auch ne entscheidende Rolle

Nvidia hat sich das mit GP102 ,sicher von nem BWLer 1000 mal im Werdegang ,auf nem Hochleistungsrechner simulieren lassen ,bevor man diesen Weg einschlug:P=)

Ob sich solch ein Risiko trägt bei den derzeitigen Marktanteilen...

Es wird wohl schon einfacher sein, eine µArch hoch- oder herunter zu skalieren. Die Gesamtkosten daran aufzusplitten und widerzuspiegeln ist jedoch zu kompliziert als dass ich dir eine qualifizierte Antwort geben könnte. Aber ja, du wirst schon gar nicht so falsch liegen.
Wieso AMD ständig in die Bresche springt, ist mir eh schleierhaft. Versteh mal einer die Leute die da schalten, walten und lenken. :freak:

Ich habe mal ne blöde Frage: Gibt es eigentlich Radialventilatoren, die mit den Custom kommen? Rein technisch drückt ja der Radi die warme Luft direkt raus aus dem Gehäuse, während der Axial einen Teil einfach nur innerhalb des Gehäuses verwirbelt.

Weiß zwar nicht von welcher Karte du sprichst, da es hier um Architektur geht, aber vermutlich meinst du die RX 480. Da ist bisher nichts in der Richtung angekündigt worden. ASUS hatte da bspw. mal ein paar Ausflüge:

https://abload.de/img/asus_970_turboacxwz.jpg (http://abload.de/image.php?img=asus_970_turboacxwz.jpg)

Vielleicht kommt so etwas ja wieder.

Virtual
2016-07-12, 22:38:55
Nein, aus dem einfachen Grund, dass Vega10 Greenland ist, dieser 4096 ALUs bekommt und du damit rein von der Rohleistung keinen GP102 angreifen kannst, der min. nochmal 30% schneller ist (effektiv 50% mehr Einheiten) als GP104.

Vega10 wird bestenfalls etwas über GP104 landen, mehr ist unrealistisch. Erst Vega11 wird schnell genug sein, um GP102 angreifen zu können. ... und wenn AMD Vega11 preislich und leistungstechnisch (nicht zu viel Takt und Spannung) gut plaziert wird, dann sollte das bei den kolportierten Preisvorstellungen für Titan und GTX 1080Ti kein Problem sein.

Schaffe89
2016-07-12, 22:40:07
Die Nano auf Fiji-Basis war ein guter Ansatz, dummerweise durch den gut 150 Euro zu hohen Release-Preis versaut. Nun stimmt bei der RX 480 der Preis und sie versauen es über die Leistungsaufnahme. Oh Gott! Was ist nötig, damit AMD daraus eine richtige Schlussfolgerung zieht, um endlich einen Verkaufsschlager landen zu können.

Wahrscheinlich steht AMD noch viel zu wenig unter Druck damit sie mal ein gutes Produkt abliefern, oder die falschen Leute sitzen an den Hebeln.
Ich meine es hätte auch gereicht einfach exakt bei einer GTX 970 herauszukommen und dafür ein besseres OC Potenzial zu bieten und den Rest dann den Partnern zu überlassen oder generell die Referenzkarten mal komplett einzustampfen und einfach nur ein gutes und kaum erhältliches Referenzdesign, das in Sachen Verbrauch, Hitze, Lautstärke überzeugt und dann einfach kaum zu vertreiben und die Partner ranzulassen.

Wen hätte s gestört, wenn die rx480 jetzt erst herausgekommen wäre, niemanden.

Virtual
2016-07-12, 22:43:21
WARUM zum geier lese ich hier schon wieder 1,5 seiten nur zeug über nvidia? dachte schon ich bin im pascal thread. ach nein bin ich nicht!Naja, es geht schon um die Radeons der 4xx Generation, mal zur Abwechelung um deren clevere Platzierung im Markt an Stelle von Tech-Speku zu Vega10/11, was über die Polaris Erkenntnisse hinaus (wohl keine Speku mehr) nicht besser als Kaffeesatzleserei ist. Ein Vergleich mit NVs Methoden liegt das wohl nahe.

Rincewind
2016-07-12, 22:45:04
Es wird wohl schon einfacher sein, eine µArch hoch- oder herunter zu skalieren. Die Gesamtkosten daran aufzusplitten und widerzuspiegeln ist jedoch zu kompliziert als dass ich dir eine qualifizierte Antwort geben könnte. Aber ja, du wirst schon gar nicht so falsch liegen.
Wieso AMD ständig in die Bresche springt, ist mir eh schleierhaft. Versteh mal einer die Leute die da schalten, walten und lenken. :freak:



Weiß zwar nicht von welcher Karte du sprichst, da es hier um Architektur geht, aber vermutlich meinst du die RX 480. Da ist bisher nichts in der Richtung angekündigt worden. ASUS hatte da bspw. mal ein paar Ausflüge:

https://abload.de/img/asus_970_turboacxwz.jpg (http://abload.de/image.php?img=asus_970_turboacxwz.jpg)

Vielleicht kommt so etwas ja wieder.

ja, natürlich beziehe ich mich auf die 480.

Schaffe89
2016-07-12, 22:47:06
Heute fehlen Nvidia komplette Objekte in manchen Treiber. Das wird als überlegenes Culling dann verkauft...

Ich glaube echt du leidest mit deinen Aussagen unter massivem Realitätsverlust.:eek:
Wen interessiert das bitte?

Die GTX 1060 ist jetzt schon enorm unter Druck. Und das liegt am Preispunkt

Wenn man noch 1 und 1 zusammenzählen kann dann würde man sehen, dass die 1060 effizienter und günstiger zu produzieren ist und es folglich überhaupt keinen Druck bei Nvidia gibt, die paar rx480 die verkauft werden, werden immernoch mit GTX 970gern verkauft, wer die Mindfactory Verkaufszahlen zusammenrechnen kann und die Customdesigns kommen wohl gleichzeitg von AMD und NV auf den Markt.
Den Druck gibt es dann ausschließlich bei AMD, da sie weder Performance noch High End Karte liefern können und das wahrscheinlich über ein halbes Jahr lang und die Margen beim rx480 Chip, wenn ich die fetten Kühler bei den Partnern schon wieder sehe weit im Keller sind, vor allem dann wenn Nvidia mit dem kleineren Chip und unkomplizierteren Kühlern wieder viel mehr Marge nehmen kann.

Selbst wenn AMD mit dem Rücken zur Wand steht, phantasierst du noch daraus, Nvidia stehe unter Druck... wie man das denken kann, echt keinen schimmer.:confused:

Mittlerweile gehe ich davon aus, dass Nvidia die GTX 1050 noch vor AMD´s rx470 released.

Sunrise
2016-07-12, 22:49:14
... und wenn AMD Vega11 preislich und leistungstechnisch (nicht zu viel Takt und Spannung) gut plaziert wird, dann sollte das bei den kolportierten Preisvorstellungen für Titan und GTX 1080Ti kein Problem sein.
Richtig, denn wenn NV wirklich $999 und $1399 für GP102 verlangt, hat AMD da mehr als genügend Preisspielraum für so eine komplexe GPU wie Vega11.

Vega10 wird diejenigen Käufer ansprechen, die endlich wieder nach AMD High-End dürsten, und dabei bezahlbarer bleiben, als NV, bei vergleichbarer Leistung.

Schaffe89
2016-07-12, 22:56:52
Sofern es AMD schafft, die GTX 1070 und GTX 1080 zu schlagen, bei dem schwachen Polaris 10 Chip muss man erstmal schauen ob das in einem einigermaßen vernünftigen Energiebudget zu machen ist.
Wenn AMD dafür 250 Watt TDP benötigt, dann ist AMD schon wieder bei den meisten durchgefallen und die Reviews bescheinigen AMD die mittlerweile gewohnt schlechtere Effizienz.

Hakim
2016-07-12, 23:08:16
ich denke im Enthusiast Segment (Vega 11) spielt der Verbrauch nicht so extrem eine Rolle. Bei High-end achten bestimmt noch einige darauf

scully1234
2016-07-12, 23:10:57
Die Effizienz weniger, aber die hat nun mal negative Mitbringsel ,wenn sie in Summe unverhältnismäßig hoch ist

Lautheit,Abwaerme, OC Potential ec pp

Sunrise
2016-07-12, 23:13:29
Polaris ist so schlecht nicht, nur aufgrund der RX480, der aufgrund des GDDR5-Interfaces 8Gbps-Module die enorm Strom fressen benötigt, ebenso der IMC, damit der Chip nicht an der Bandbreite/Speicher-Durchsatz verhungert.

Man sieht bereits an der RX470, die minimal weniger Einheiten und nur die Hälfte Speicher hat, dass diese mit gerademal 110W ggü. 150W bei der RX480 auskommt. Polaris sieht damit direkt _deutlich_ besser aus.

Wenn man mit 8GB HBM2 da deutlich sparen kann, muss man die 110W hernehmen (2048 ALUs) und grob verdoppeln (4096 ALUs). So kommt man etwa auf 225W bei Vega10 und ähnlichem Takt. Das ist zwar eine Milchmädchenrechnung, aber erst da wird man sehen, dass Polaris bzw. Vega so schlecht nicht sind.

Und ob man bei einem High-End-Chip jetzt 40W oder 45W bei min. gleicher Leistung bei billigerem Preis mehr verbraucht (GP104, 180W), interessiert wohl niemanden.

Und da sind etwaige Verbesserungen bei Vega noch nichtmal eingerechnet.

Virtual
2016-07-12, 23:17:03
Sofern es AMD schafft, die GTX 1070 und GTX 1080 zu schlagen, bei dem schwachen Polaris 10 Chip muss man erstmal schauen ob das in einem einigermaßen vernünftigen Energiebudget zu machen ist.
Wenn AMD dafür 250 Watt TDP benötigt, dann ist AMD schon wieder bei den meisten durchgefallen und die Reviews bescheinigen AMD die mittlerweile gewohnt schlechtere Effizienz.
Was heißt es die GTX 1070/1080 zu schlagen? Nein, deine Annahme stimmt zwar mit dem aktuellen AMD-Marketing überein und ist genauso falsch. Auf default müssen die Balken nicht länger sein, sondern nur der Preispunkt und die Leistungsaufnahme inkl. Overclockingpotential muss stimmen, um eine "Editors Choice" zu bekommen. Genau nur das reicht aus, um die GTX 1070/1080 zu "schlagen". Für 10% weniger Leistung kaufe ich (und wohl andere) gerne um 20% günstiger ein, wenn dazu auch die Leistungsaufnahme nicht durch die Decke geht, oder man selbst mit Overclocking (und nicht Undervolting) darüber entscheiden kann. Das ist der richtige Ansatz, um fast alle Sternchen in den Reviews zu bekommen. Und nicht umgekehrt, wie der flasche Polaris-Ansatz auf Vega übertragen. Der Ansatz der Nano bei richtigem Preispunkt wäre weit besser. Warum soll der Ansatz der Nano nicht auf alle Vega-Varianten übertragen werden können?

Hakim
2016-07-12, 23:18:49
jo, ist auch wenn eher für Kühlung und entsprechende Lautstärke wichtig. Aber sollte Vega nicht noch eine Schiebe gegenüber Polaris bezüglich Effizienz drauf packen? Wenn noch HBM bei Vega 11 dazu kommt und TSMC ihre Arbeit besser macht wie Gofo könnte schon was bei raus kommen.

Rincewind
2016-07-12, 23:19:37
Ist der Stromverbrauch wirklich für PC-Spieler interessant?

Eigentlich ist es (für mich) doch vollkommen egal, ob die Grafikkarte 150...300 Watt verbraucht. Drauf geschissen! Wenn ich spiele, ist es doch vollkommen egal, was die Karte an Saft zieht, Hauptsache es ruckelt nix.

Oder unterschätze ich die Energieeinsparung im allgemeinen?

Verflucht, manchmal kann ich echt naiv sein. :D

StefanV
2016-07-12, 23:20:17
Ich habe mal ne blöde Frage: Gibt es eigentlich Radialventilatoren, die mit den Custom kommen? Rein technisch drückt ja der Radi die warme Luft direkt raus aus dem Gehäuse, während der Axial einen Teil einfach nur innerhalb des Gehäuses verwirbelt.
Das Problem bei den 'DHE' Designs ist schlicht, dass der eine Lüfter einen deutlich geringeren Luftdurchsatz als ein üblicher Single Axiallüfter hat. Dadurch brauchst hohe Drehzahlen, für gleichen Durchsatz.

Dazu kommt, dass der DHE Kühler auch einen deutlich höheren Luftwiderstand hat, als bisherige non DHE Kühler.

Kurz:
Es ist besser, wenn dein Gehäuse einen Seitenlüfter auf Höhe der Steckkarten hat. Der bringt einiges, auch wenn immer gegenteiliges behauptet wird, was aber eben nicht stimmt...

Hakim
2016-07-12, 23:24:58
Ist der Stromverbrauch wirklich für PC-Spieler interessant?

nicht direkt, vor allem nicht im High-end und drüber. Nur die entsprechenden Nebeneffekte bei viel Abwärme.

Bei mir persönlich ist es aber Tatsächlich ein Thema weil mein PC in der Regel nonstop an ist und die TV -Karte nebenbei läuft. Da macht es schon was aus ob die Grafikkarte 10-15W oder 50-60W in meinen Persönlichen Idle verbraucht. Daher bin ich immer noch auf den Treiber gespannt der da Abhilfe bringen soll.

bbott
2016-07-12, 23:37:00
Ist der Stromverbrauch wirklich für PC-Spieler interessant?

Ja, es hat (starke) Auswirkungen auf Lautstärke, Gehäuse-Temp (Lebensdauer Komponenten,...), Raum-Temp (im Sommer bei >30°C im Schatten, da hätte ich gerne einen Rechner unter 50W), Stromkosten, uvm.

Es ist aus Ökologischer und Ökonomischer Sicht sinnvoll weniger zu Verbrauchen.

Virtual
2016-07-12, 23:44:24
Ist der Stromverbrauch wirklich für PC-Spieler interessant?

Eigentlich ist es (für mich) doch vollkommen egal, ob die Grafikkarte 150...300 Watt verbraucht. Drauf geschissen! Wenn ich spiele, ist es doch vollkommen egal, was die Karte an Saft zieht, Hauptsache es ruckelt nix.

Oder unterschätze ich die Energieeinsparung im allgemeinen?

Verflucht, manchmal kann ich echt naiv sein. :D
Ist der Stromverbrauch über den Nutzungszeitraum der GraKa tatsächlich kostentechnisch relevant? -> Zumeist nein, hängt aber von der Nutzung ab.
Ist der Stromverbrauch als Verkaufsargument relevant? -> Ja, mittlerweile schon, weil er durch mehr oder weniger realistische Rechnung dazu stilisiert wurde.

Allerdings ist die Auswirkung von hoher Leistungsaufnahme relevant für den (Kosten-)Aufwand zur Kühlung, das sich u.a. daraus ergebende Overclocking-Potential und natürlich die subjektiv wahrgenommene Geräuschkulisse.
Eine leise, effiziente und kostengünstige Vega-Lösung ist eine ernsthafte Konkurrenz zu den Pascals. Der Vergleich reduziert sich einzig auf Leistung pro Euro. Für viele Zocker (inkl. meiner Wenigkeit) eine attraktive Metrik für eine Kaufentscheidung.

Der_Korken
2016-07-12, 23:51:12
Im Enthusiast-Bereich ist der Verbrauch durchaus wichtig, denn bei 300W ist schlicht und ergreifend Schluss. Alles darüber lässt sich mit Luft nicht mehr vernünftig kühlen. Wenn man die 300W bereits mit einem ~350mm²-Performance-Chip verbrät, dann wird man mit der Architektur keinen >500mm² Highend-Chip mehr hinbekommen, auch wenn der Die-Space da wäre.

Felixxz2
2016-07-12, 23:51:14
Jemand die Doom Benchmaks gesehen? Wenn das noch in dem ein oder anderen Spiel passiert dann haben wir völlig andere Vorzeichen. 1070 keine Chance gegen die Fury X in 1080p.....
Das könnte! in Zukunft die Entscheidung zwischen 1060 und 480 doch massiv beeinflussen.

w0mbat
2016-07-12, 23:59:50
Ich bin gespannt wie es bei Deus Ex: MD unter DX12 aussehen wird.

Langlay
2016-07-13, 00:02:10
Im Enthusiast-Bereich ist der Verbrauch durchaus wichtig, denn bei 300W ist schlicht und ergreifend Schluss. Alles darüber lässt sich mit Luft nicht mehr vernünftig kühlen. Wenn man die 300W bereits mit einem ~350mm²-Performance-Chip verbrät, dann wird man mit der Architektur keinen >500mm² Highend-Chip mehr hinbekommen, auch wenn der Die-Space da wäre.

Ist doch aber wenig wahrscheinlich das Vega10 300W verbraucht. Das würde ja heissen das Vega10 genausoviel Strom wie Fuji verbrauchen würde trotz kleiner Fertigung.

Rincewind
2016-07-13, 00:09:00
Ich verstehe ja, dass 24/7-Nutzer auf den Stromverbrauch achten, aber...
- wir in Deutschland haben die größten Preise pro kW/h, trotzdem macht kaum jemand ein Update von z.B. 390 auf 480. Die Investition mag Strom einsparen, aber bevor 250€ sich amortisieren muss man sehr viel spielen. ;-)
- der "normale" User schaut auf Balken, P/L mag hier eine Referenz zu sein (weniger der Stromverbrauch)!
- die Meisten fragen sich, habe ich mehr FPS? Wenn ja, was kostet mich das?
- Ich habe eine 390 mit Freesync-Monitor und 8 GB bei einem "alten" übertakteten 2600K. Natürlich verbraucht die 390 mehr als eine 480er-Grafikkarte, aber ab wann amortisiert sich das?

Schaffe89
2016-07-13, 00:12:13
Daher bin ich immer noch auf den Treiber gespannt der da Abhilfe bringen soll.

Ich habe da so eine Vorahnung, dass der Treiber dazu nie kommen wird.:mad:

Achim_Anders
2016-07-13, 00:14:47
@Felixxz2 Aber doch eher bei einer kleinen informierten Minderheit. Die meisten Testpacours der großen Zeitschriften haben zu 90% DX11 Spiele und als DX12 Spiel Tomb Raider, welches wohl kein aussagekräftiges, zukunftweisendes DX12 darstellt.
Das macht ja stand heute auch noch Sinn, da nun einmal fast alle aktuellen Spiele (Stand Mitte 2016) noch auf DX11 Basis laufen. Und so lange wird sich (leider) auch nichts in dem Glauben der Masse ändern, dass Nvidia besser als AMD ist. Das die AMD Graka für 300€ iwann man schneller als die zeitgleich verfügbare Nvidia 300€ Karte werden kann, spielt für die wenigsten eine Rolle.
Dies ist nicht nur wegen der neuen Low-Level Apis, sondern auch da die AMD häufig eine viel größere Rohleistung haben. "Achtung Spekulation meinerseits": Das führt nun schon seit GCN 1.0 dazu, dass die AMD "besser" altern, aber schlechter "aktuell" sind. Natürlich werden die in den zu ihrer Zeit aktuellen Spielen nicht schneller. Aber es scheint doch so zu sein, dass neuere Spiele (also Spiele die 2-3 Jahre nach dem GPU Release erscheinen.) schneller drauf laufen als bei den Nvidias Pedants. Das testet aber leider keine (große) Seite. Es ist wohl einfach leider viel zu viel Aufwand, das wirklich mal systematisch und strukturell nachzustellen und nachzuprüfen.

Es gibt lediglich bei Reddit diesen Thread: https://www.reddit.com/r/Amd/comments/4kfhhn/amd_cards_ageing_better_than_kepler_and_even/

Ist halt ohne Spieleangabe oder sonstige (schnell erkennbare) Transparenz.


Ergo: Man kann natürlich einfach auf Vulkan Wetten. Falls sich das durchsetzt werden vor allem die AMD Karten nochmal einen richtigen Boost bekommen.
Sinnvoller ist aber wohl einfach abzuwägen, wie lange man seine Grafikkarte behalten möchte. Falls man sowieso alle 2 Jahre die Karte wechselt macht man mit der Nvidia (falls die preislich dasselbe kostet und schneller ist.) wohl wenig verkehrt. (Siehe 970, die 2 Jahre gut durchgehalten hat.) Wenn man die Grafikkarte aber länger nutzen möchte, würde ich intuitiv eher Richtung AMD tendieren. (Wobei man jetzt auch erstmal die 1060 und RX480 Customs abwarten kann, um dann jeweils eine vernünftige Entscheidung treffen zu können.

Der_Korken
2016-07-13, 00:25:39
Ist doch aber wenig wahrscheinlich das Vega10 300W verbraucht. Das würde ja heissen das Vega10 genausoviel Strom wie Fuji verbrauchen würde trotz kleiner Fertigung.

Das wäre in der Tat eine Katastrophe. Ich bezog mich aber nur auf die Anmerkung, dass Stromverbrauch im Highend-Bereich egal wäre.

Ich verstehe ja, dass 24/7-Nutzer auf den Stromverbrauch achten, aber...
- wir in Deutschland haben die größten Preise pro kW/h, trotzdem macht kaum jemand ein Update von z.B. 390 auf 480. Die Investition mag Strom einsparen, aber bevor 250€ sich amortisieren muss man sehr viel spielen. ;-)

Wie schon bereits gesagt wurde, geht es bei sparsamen Karten nicht um die niedrigere Stromrechnung, sondern darum, dass sich sparsame Karten leichter kühlen lassen. Dadurch sind sie entweder leiser oder lassen sich besser OCen. Wer in einem warmen Zimmer hockt (Dachgeschoss), nimmt das kühlere Zimmer auch noch gerne mit.