PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 [46] 47 48 49 50 51

Korvaun
2016-09-22, 13:09:49
2 Chips pro Jahr reichen eigentlich aus, wenn die passend für den Markt erscheinen. Die 2 Chips sollten dann auch eher Mainstream/High-End sein, dann kann man im darauffolgenden Jahr diese Chips als Rebrands weiter unten im Portfolie wieder rausbringen.

Hat halt für AMD leider nicht gepasst diese Strategie aktuell. Es war für AMD dringenst nötig moderne "Ersatzchips" für alles ab 390X abwärts auf den Markt zu bringen. Die Teile sind seit Verfügbarkeit des 16nm Verfahrens extrem veraltet insbesondere was die Leistungsaufnahme angeht. Polaris 10/11 sind nicht toll, aber aktuell ok und vor allem wesentlich besser als der alte Kram.

Es hat dann halt nicht mehr gereicht einen Highend Chip parallel auch noch auf den Markt zu bringen. Das ist für die Zukunft natürlich nicht so gut da man nV doch enorm hinterherhinkt im HighEnd+

maximus_hertus
2016-09-22, 13:10:09
Kann man abschätzen, in welcher Preisliga Vega 10 zu erwerben sein wird?
Danke im Voraus.

Da laut AMD ein High-End-Ethusiasten Produkt wird man wohl bei mindestens 400 USD anfangen = ca. 450 Euro. Für die kleinste Salvage Variante.

Ob es so kommen wird? Das werden wir wohl erst zum oder ganz kurz vor Launch erfahren. Gerade die UVPs werden fast immer unmittelbar zum Launch festgelegt.

PrivateCeralion
2016-09-22, 13:12:55
Da liegst du jetzt aber wahrscheinlich falsch. Das ganze Board und die Spannungsversorgung samt Kuehler kosten wohl aehnlich (150W gegenueber 180W TDP ist jetzt kein riesiger Unterschied).

NVIDIA verlangt dafuer $700, AMD $300. NVIDIA hat also vor Steuern $400 mehr Umsatz pro Karte.

Ein 300mm 16FF Wafer kostet angeblich um die $5000. Bei 200 Chips pro Wafer bei GP104 sind wir also bei $25. Dazu kommen dann natuerlich noch packaging, loeten, etc. Aber ueber $50 mehr sind's eher nicht bei GP104 gegenueber Ellesmere. GDDR5X ist teuerer als GDDR5, aber sicher auch keine hundert Dollar.

Mit einer Yield von 100% kommt man auf 26,7 Dollar pro Chip. Dies ist aber sehr unwahrscheinlich. Im Momentanen Status würde ich von einer Yield von 60% bis 80% ausgehen. Das wären im Worst Case 44 Dollar pro Chip. Um die Yield-Rate zu verbessern werden manche zu einer GTX 1070 beschnitten, was natürlich den Verkaufspreis senkt.

Ailuros
2016-09-22, 13:19:04
Momentan zumindest sind =/>60% yields fuer >400mm2 dies unter allen FF Prozessen verdammt optimistisches Wunschdenken. Darunter ist es meistens schweratmend in der Mitte.

Auf die jeglichen Kosten-Schaetzungen gehe ich ueberhaupt nicht ein denn es ist sowieso wieder von vorne bis hinten falsch. Ohne tools und co. mitzuberechnen kostet ein GP104 heute ueber 2.5x Mal so viel herzustellen als ihr Euch selber einreden wollt.

Ailuros
2016-09-22, 13:35:58
@Ailuros: Rohleistung ist schön und gut, aber bei fps/mm² liegt AMD hinten.

Brainfart ich hatte beim tippen nicht die 201mm2 des GP106 im Hinterkopf sondern um einiges mehr. Trotzdem bewegt der Unterschied auch keine Baeume; dort wo es wirklich mehr "schmerzt" ist perf/transistor da hier der GP106 mit fast +30% im Vorsprung liegt. Kann man aber kinderleicht auf Frequenzen zurueckleiten zum groessten Teil und sich den ganzen bunten Rest einfach sparen.

Ich BIN positiv eingestellt und hoffe trotz allem dass Vega da Aenderungen liefert wo Polaris wenig bis gar nichts Neues lieferte. U.a:

* ROP blending
* Geometry culling
* Caching
* Rasterizing

Sind sie auf diese Wehwehchen eingegangen, dann wird auch das Ganze um einiges effizienter und die perf/transistor ist sehenswert gestiegen. Wenn nicht dann eben das uebliche *yawn-yeahrightsureok* wie bei Polaris.

iuno
2016-09-22, 13:38:34
Ich hoffe, Vega kommt von TSMC, sonst sehe ich ebenfalls keine Taktraten in dem Bereich von 1,5GHz.
Ich habe das schon oft geschrieben, aber TSMC alleine "rettet" AMD sicher nicht. Selbst wenn sich 16FF+ fuer Vega bestaetigen sollte, muss man vorsichtig bleiben.
Fakt ist, dass AMD mit 14LPP genau dieselben Probleme hat wie schon zuvor mit 28HP und man das bei Maxwell und Pascal so nicht sieht.

Vega@TSMC muss nicht zwangslaeufig deutlich besser sein als bei GF, dafuer aber vermutlich deutlich teurer. Ich verstehe nicht, wieso AMD das machen soll, wenn man an das WSA und die anderen Kunden denkt. Oder geht irgendwer davon aus, dass Summit Ridge+Polaris alle 14LPP Kapazitaeten staerker ausbuchen als Apple, Nvidia usw. diejenigen von 16FF+?

Nakai
2016-09-22, 13:54:04
Wer sagt das denn überhaupt? Ist doch per se schon Unfug und Bedarf keines weiteren Kommentar. Wenn dem so wäre könnte man einach Fiji mit HBM2 paaren. :freak:

Ich hege einfach weiterhin Zweifel daran, dass Vega GP102 toppen wird können. Das hält die Erwartung unten.

Nochmal, ich gehe auch davon aus, dass Vega durch architekturelle Verbesserungen, die Perf/W gegenüber Polaris steigern wird.

Wenn ich von P10 auf V10 extrapolieren, landet man schon wieder auf fast 300W und das geht nicht.

Und klar V10 würde ich eher zwischen GP102 und GP104 einsortieren, mit dem Hang eher zu GP104.

@Ailuros:
Und weil Du mein vorigens ninja-edit nicht aufgefangen hast: ich bezweifle ERNSTHAFT dass jemand Fudo mehr als 24 TFLOPs FP16 zugesteckt hat. Von FP32 bzw. FP64 war wohl nirgends die Rede und WhyCry hat einfach den Mist weitergestrickt. Wie waere es mit einem irrem scenario von 4/8/16 TFLOPs bei einer runden ~1GHz Frequenz und man erreicht die bunten 24 TFLOPs via mGPU mit niedrigerer Frequenz?

Bei 225W TDP und 4 TFLOPs DP hat man uebrigens 17.8 GFLOPs FP64/W, bei der mGPU sogar bei 20.0 GFLOPs FP64/W.

Ich glaube einfach, dass AMD Vega nach oben prügeln muss, um nicht gegen GP104 anzustinken. Aber es gibt noch viel zu viele Unbekannte. Ich denke V10 wird von TSMC kommen müssen, einfach um die gleiche HBM-Produktionslinie von Fiji wiederzuverwenden. 16FF+ wird aber ein Stück besser sein, als 14LPP. Eine Packdichte zwischen 25~27,5MioTransen/mm2 ist realistisch. Ich denke mit HBM1/2 ist die W/mm² auf einen Faktor von etwa 0,5 beschränkt. Evtl kann man ein Stück höher gehen, aber recht viel mehr als 225W TDP kann ich mir nicht vorstellen (bei ~400mm²).

Den Sprung von TSMC 28HP/M auf 16FF+ kann man gut seitens dem LineUp von NV extrapolieren. Also etwa 75% höhere Packdichte und ungefähr 75% Mehrperformance/mm². Kurz, Fiji in 16FF+ wäre etwa ~340mm² groß und könnte den Takt noch etwas anheben. Ich lasse mal jegliche architekurelle Verbesserungen außen vor, welche Polaris schon etwas besser erscheinen lassen.

Hübie
2016-09-22, 13:58:39
Nochmal, ich gehe auch davon aus, dass Vega durch architekturelle Verbesserungen, die Perf/W gegenüber Polaris steigern wird.

Hast du meinen Beitrag nicht verstanden:confused: Wer sagt dass die IPC durch HBM2 steigt? Konnte ich bisher nirgends von jemanden lesen (okay vielleicht eins, zwei Trolle).
Ist doch auch quatsch einfach mit wehenden Fahnen HBM2 anzuführen, wenn schon eindeutige slides veröffentlicht wurden, in denen drin stand, dass ROPs, ACEs (->CP), Tesselator, Rasterizer und auch das Interface als solches erneuert werden. Das meinte ich mit Quatsch. ;) Also keine Sorge ich bin voll bei dir.

Nakai
2016-09-22, 14:02:46
Hast du meinen Beitrag nicht verstanden:confused: Wer sagt dass die IPC durch HBM2 steigt? Konnte ich bisher nirgends von jemanden lesen (okay vielleicht eins, zwei Trolle).
Ist doch auch quatsch einfach mit wehenden Fahnen HBM2 anzuführen, wenn schon eindeutige slides veröffentlicht wurden, in denen drin stand, dass ROPs, ACEs (->CP), Tesselator, Rasterizer und auch das Interface als solches erneuert werden. Das meinte ich mit Quatsch. ;) Also keine Sorge ich bin voll bei dir.

Gut, dann bin ich beruhigt. Ich dachte das gleiche von deinem Post.;D

PrivateCeralion
2016-09-22, 14:15:11
Ohne tools und co. mitzuberechnen kostet

Das auf jedenfall! Da gibt es ein gutes VHDL Programm, was 100.000 USD pro Person pro Jahr kostet. Und die Person, die das Programm bedienen kann kostet wahrscheinlich nochmal das doppelte im Jahr. Die Aussage, dass Nvidia 3 Milliarden in die Entwicklung von allen Pascall Chips gesteckt hat ist ziemlich wahrscheinlich war.


Aber ich bin gespannt auf die nächsten Quartalszahlen von AMD und Nvidia. Da wird sich richtig zeigen, welcher Prozess profitabel ist.

Ailuros
2016-09-22, 14:22:54
Das auf jedenfall! Da gibt es ein gutes VHDL Programm, was 100.000 USD pro Person pro Jahr kostet. Und die Person, die das Programm bedienen kann kostet wahrscheinlich nochmal das doppelte im Jahr. Die Aussage, dass Nvidia 3 Milliarden in die Entwicklung von allen Pascall Chips gesteckt hat ist ziemlich wahrscheinlich war.


Aber ich bin gespannt auf die nächsten Quartalszahlen von AMD und Nvidia. Da wird sich richtig zeigen, welcher Prozess profitabel ist.

Tja der springende Punkt ist dass selbst 44 viel zu wenig ist fuer 104 Herstellung. Steck noch mal grosszuegig die Haelfte dazu und denk dran wie viel dann noch NV pro chip verlangt je nach bin ;)

Setsul
2016-09-22, 14:24:15
@Ailuros: Frequenzen hängen eben auch an der Dichte. Wenn Vega 10 tatsächlich bei ~460mm² landet, sollte man das Problem los sein. Mit HBM hat man dann effektiv auch etwas mehr Platz als beim GP102, also da ähnliche Leistung herauszubekommen ist wirklich kein Ding der Unmöglichkeit.
Keine Probleme mit der Bandbreite dank HBM, dann hängt es wirklich nur an perf/Flop und da stimme ich dir auch voll zu, das sieht sehr gut aus.

Vom technischen her und was es in Zukunft für AMD bedeutet gefällt mir die Variante wesentlich besser als die Holzhammer-Methode mit 6k SPs. Ich hab nur meine Schwierigkeiten damit den Chip ins Konzept bezüglich APUs und Reihenfolge/Launch Date einzuordnen.

@Nakai: Mein Stand war, dass Amkor die Dies auf den Interposer gebracht hat, nicht TSMC. Irre ich mich da?

Elkinator
2016-09-22, 14:30:28
Das dürfte AMD auch etwas günstiger als NVIDIA bekommen.

http://www.amd.com/en-us/press-releases/Pages/amd-and-synopsys-2014sep18.aspx

Nakai
2016-09-22, 14:52:51
@Nakai: Mein Stand war, dass Amkor die Dies auf den Interposer gebracht hat, nicht TSMC. Irre ich mich da?

Das ist richtig, aber ich weiß nicht, ob Amkor von TSMC so einfach auf GF wechseln kann oder will, sei es wegen Verträgen oder weil die Produktionspipeline für GF über dementsprechend ausgebaut ist.

TSMC ist für V10 einfach naheliegender, als GF.

Ich lege meine Hand ins Feuer, dass Vega10 kleiner als 460mm² ist. Ich würde eher irgendwas zwischen 350~400mm² schätzen.

Complicated
2016-09-22, 16:35:12
Schon in 28nm hat Amkor mit GF kooperiert:
http://www.amkor.com/go/2-5D

stinki
2016-09-22, 17:02:06
Eigentlich macht AMD doch genau das, was sie die letzten Jahre immer gemacht haben. Immer einen (1) Chip bringen der eine größere Performance hat als die, die sie schon haben.

Polaris10 hat Hawaii ersetzt (wenigstens so in etwa von der Performance her, Ziel war ca. 6TFlops)
Vega11 wird Fiji ersetzen (wenigstens so in etwa wahrscheinlich, Ziel ist wohl ca. 9TFlops)
und Vega10 wird der neue top-performance Chip (Ziel ist wohl ca. 12TFlops)

Und AMD preist die Chips dann einfach so wie es im Vergleich zu Nvidia gerade passt.

Der nächste Chip wird dann Vega20 (Ziel wahrscheinlich 15-16TFlops mit höherem Takt), der dann einfach über Vega10 eingeordnet wird. Also wie immer schön ein Chip über und nach dem anderen wie die letzten Jahre auch schon.

Korvaun
2016-09-22, 17:06:56
Laut den Gerüchte-News auf der Frontpage kommt ja nu Vega10 nicht mehr im 1.Quartal 2017 sondern im 1 Halbjahr 2017. Dualchip-Variante dann erst im 2H2017... Bedeutet bei AMD also 30.Juni2017 für Vega10 und Ende2017 für DualVega10... Supi AMD, ihr habts drauf ;)

Setsul
2016-09-22, 17:09:51
@Nakai: Ich nehme an das sollte kein Problem sein.
TSMC für Vega ist nicht wirklich offensichtlich. GF dürfte billiger sein pro Wafer und sehr viel billiger wenn man mit Vega und Zen APUs auf einem Die bauen will. Wenn Vega erst auf 16FF ist, bräuchte man praktisch ein Redesign. Wenn man stattdessen die APU bei TSMC fertigen lässt muss man das Ganze natürlich mit Zen machen.

Die große Frage ist doch ob Vega 10 der größere oder der kleinere Chip ist. Der kleinere ist garantiert <400mm².

Complicated
2016-09-22, 17:18:56
AMD will mit Navi ein "skalierbares" Design in 2018 bieten. Darunter kann man natürlich vieles verstehen, doch wenn man die Indizien zusammen addiert ergibt das IMHO schon eine Marschrichtung die mit den Vega Infos Übereinstimmung liegt:

Nimmt man an, dass "skalierbar" bedeutet, dass Mulit-GPUs auf einem Interposer mit HBM2 (oder NextGen-Memory) beliebig kombinierbar sind um die Leistung zu steigern. Dieses Designziel hat AMD langfristig heraus gegeben mit dem Start des 2,5-Stackings. Nun versucht man verstärkt Dual-GPUs zu verbessern und nicht in Vergessenheit geraten zu lassen, damit Entwickler in Software diese weiter berücksichtigen (oder zukünftig sogar stärker, da die Arbeit aus dem treiber in die Software wandert mit Low-Level APIs.)
Dafür wurde eine Radeon Pro Duo gelaunched, deshalb wurden 2 RX480 mit einer GTX1080 verglichen vor dem Launch. Aus dem März:
http://www.eteknix.com/amds-raja-koduri-talks-future-developments-capsaicin/
Koduri also see the future of gaming being dual-GPU cards. With Crossfire and SLI, dual GPU cards were abstracted away as one on the driver level. Because of this, performance widely varies for each game and support requires more work on the driver side. For DX12 and Vulkan, the developer can now choose to implement multi-GPU support themselves and build it into the game for much greater performance. While the transition won’t fully take place till 2017-2019, AMD wants developers to start getting used to the idea and getting ready.

Auch hier: http://www.pcper.com/news/Graphics-Cards/AMDs-Raja-Koduri-talks-moving-past-CrossFire-smaller-GPU-dies-HBM2-and-more
With changes in Moore’s Law and the realities of process technology and processor construction, multi-GPU is going to be more important for the entire product stack, not just the extreme enthusiast crowd. Why? Because realities are dictating that GPU vendors build smaller, more power efficient GPUs, and to scale performance overall, multi-GPU solutions need to be efficient and plentiful. The “economics of the smaller die” are much better for AMD (and we assume NVIDIA) and by 2017-2019, this is the reality and will be how graphics performance will scale.

Hier werden noch Dual-GPUs kommen und ich denke AMD wird damit überraschen wollen, indem sie bei allen DX12 Games verstärkt an der Entwicklerfront dafür sorgen, dass genügend Dual-GPU Implementierungen vorhanden sind wenn die ersten Consumer Dual-GPUs in den Benchmarks getestet werden. Hier könnte Vega20 der Wegbereiter für Navi werden.

Die Fertigungskosten für große Dies werden in 7 nm einfach nicht mehr auf den Kunden umlegbar sein.

Dino-Fossil
2016-09-22, 17:25:35
Das klingt schon interessant, aber ich hoffe sie verrennen sich nicht damit, wie es leider zum Teil mit Bulldozer und den APUs der Fall war.

Schöner wäre es, wenn möglichst wenig (bis keine) Arbeit auf Entwicklerseite nötig wäre um so einen GPU-Verbund effektiv anzusprechen.

Elkinator
2016-09-22, 17:26:55
Microsoft will es den Entwicklern auch etwas erleichtern grundlegende Unterstützung für Multi-GPU zu bieten.

http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Microsoft-Multi-GPU-Layer-Crossfire-SLI-1201082/

Complicated
2016-09-22, 18:23:09
Auf der Roadmap der CryEngine ist ebenfalls Vulkan für das November Update ab Version 5.3 angekündigt und Multi-GPU Support in DX12 ab Februar (zur GDC 2017) mit Version 5.4:
https://www.cryengine.com/roadmap

Schaffe89
2016-09-22, 18:42:55
Also wie immer schön ein Chip über und nach dem anderen wie die letzten Jahre auch schon.

Nur diese Strategie führt früher oder später in die Insolvenz, wenn man die älteren Chips die leistungsmäßig und IP mäßig dem aktuellsten nachstehen, dann noch weiterverkaufen muss.
Nvidia wird spätestens mit Pascal wieder ein ganzes Lineup bringen, und AMD will dann mit den "alten" Chips dagegenhalten? Sowas wird und kann nicht funktionieren. AMD benötigt dringend Geld um diese Stategie schnellstmöglich wieder in den Mülleimer zu werfen.

Wenn das die Planung von Koduri sein soll als er sagte "Polaris is a Chip for the next three to four years" na dann prost Mahlzeit.;(

Soll dann pro Jahr 1 Chip nur noch kommen?

Bedeutet bei AMD also 30.Juni2017 für Vega10 und Ende2017 für DualVega10... Supi AMD, ihr habts drauf

Ich würds nicht ganz so negativ sehen, aber sowas passiert halt wenn man keine Gelder mehr hat, dann konzentriert man sich pro Jahr nur noch auf einen einzigen Chip und verliert so großflächig Absatzmärkte und kann dann auch keinen Gewinn mehr machen, ein Teufelskreis.
Wobei man schon sagen muss dass man bei AMD recht gut beraten ist, Releasetermine eher negativ so weit wie möglich nach hinten zu schieben, wenn man die Dreistigkeit haben sollte zu spekulieren, aber dann kriegste ganz hart auf die Finger gehauen hier.:tongue:

Isen
2016-09-22, 18:48:42
Schaffe, wenn das für dich alles so klar und eindeutig ist, wie du es seit einigen Wochen durch die Foren Propagierst, wieso behältst du das denn dann nicht für dich und wettest auf die Pleite?
Lässt sich langfristig ne menge Kohle mit machen :-)

Kann dir doch völlig egal sein was mit AMD passiert, bist eh kein Kunde und willst es auch nicht.
Oder ist dir nur langweilig und willst nur rum bellen?
Über ungelegte Eier derart intensiv über sämtliche Foren zu Fabulieren muss schon mit einem Grund daherkommen. Für Nothing tut man das jedenfalls nicht, es sei denn man ist Arbeitslos und hat sonst nix zutun.


@ #11269

wird wohl auch so ablaufen. Ausbeute pro Wafer ist damit erheblich besser und man kann sich auch früher 7nm erlauben.

Hübie
2016-09-22, 18:48:57
Vor allem ist Polaris jetzt schon zu lahm X-D Na ja aber bei Vega seh ich da schon Potenzial.
Insolvenz wird aber nicht passieren, so lang die Gelder fließen.

Isen
2016-09-22, 18:55:50
Polaris ist mehr die OEM schleuder ( 460/470 vor allem)
In den Vertriebskanäle hinter den Kulissen gingen die Monate vorher reihenweise zu den Großabnehmern.
Mit dem Release in den Retail Markt ging das von AMD geplante Ziel nicht mehr auf, Nachfrage konnte nicht für beide befriedigt werden, weswegen man den Retail Markt erstmal in der Prio. runterstufte. Arbeitet echt keiner in den Vertriebskanälen? Für die Presse kann man das durchaus nachvollziehen, halt nur ein paar Anrufe. Wundert mich, offensichtlich genug das ganze, und ich steck da nur mit einem halben Bein drin und bekam das schon relativ gut mit.

Schaffe89
2016-09-22, 18:56:09
Schaffe, wenn das für dich alles so klar und eindeutig ist, wie du es seit einigen Wochen durch die Foren Propagierst, wieso behältst du das denn dann nicht für dich und wettest auf die Pleite?

Ich wette nicht auf eine Pleite, sondern ich sage das Gegenteil von den Leuten die glauben dass solch eine Strategie "schlau" wäre und man damit etwas gewinnen würde, das ist imho Schadensbegrenzung. Bitte benenne doch auch diese Leute die alles immer bei AMD für gut halten.

Oder ist dir nur langweilig und willst du rum bellen?

Eigentlich, nervt nur dein ständiges persönlich werden. Wenn jemand kritisch ist und sagt dass diese Strategie wie schon zu Hawai Zeiten nicht zielführend sein kann, dann ist das lediglich meine Ansicht. Wenn du denkst dass diese Strategie AMD "retten" wird, dann kannst du das gerne überall verbreiten, mich juckt das nicht die Bohne. Kann ja jeder anders sehen.

Nimmt man an, dass "skalierbar" bedeutet, dass Mulit-GPUs auf einem Interposer mit HBM2 (oder NextGen-Memory) beliebig kombinierbar sind um die Leistung zu steigern. Dieses Designziel hat AMD langfristig heraus gegeben mit dem Start des 2,5-Stackings. Nun versucht man verstärkt Dual-GPUs zu verbessern und nicht in Vergessenheit geraten zu lassen, damit Entwickler in Software diese weiter berücksichtigen (oder zukünftig sogar stärker, da die Arbeit aus dem treiber in die Software wandert mit Low-Level APIs.)
Dafür wurde eine Radeon Pro Duo gelaunched, deshalb wurden 2 RX480 mit einer GTX1080 verglichen vor dem Launch. Aus dem März:

Wäre das nicht irgendwie ein bisschen überraschend auf Multi GPU´s mit Interposern hinzuarbeiten? Ich mein diese Gerüche dass AMD das plant gibts ja schon länger.
Nvidia ist gerade dabei sich von Multi GPU wegzubewegen (nur noch Dual SLI), da die Unterstützung meiner Ansicht nach kompliziert und einfach unnötig ist und auch langfristig zu problembehaftet ist. Mein Eindruck ist dass AMD für Multi GPU´s relativ wenig tut und man sich das Thema lediglich warmhält, aus welchen Gründen auch immer.

Ich denke die Koduri Aussagen sind eher ein PR Stunt für Polaris, weil man dort Dual GPU brauchte um etwas gegen eine GTX 1080 zu haben. Der Grund warum man ein Dual GPU Setup zeigte, war einfach nur der, weil eine GPU eben langsam ausgesehen hätte und weil man sich auf den Preis fixiert hatte.

Hier werden noch Dual-GPUs kommen und ich denke AMD wird damit überraschen wollen, indem sie bei allen DX12 Games verstärkt an der Entwicklerfront dafür sorgen, dass genügend Dual-GPU Implementierungen vorhanden sind wenn die ersten Consumer Dual-GPUs in den Benchmarks getestet werden.

Ist wohl eher Marketing, weil man keinen leistungsfähigen Single Chip haben wird ( oder es zumindest befürchtet) und jetzt schießt man sich auf das Thema so ein bisschen ein imho. Dual GPU oder solche stunts ergeben sowieso nur mit High end Karten Sinn. AMD sieht auch mit Midrange GPU CF eine gute Lösung, das kann doch nicht deren ernst sein.

Da können die noch so viele Entwickler schicken und unterstützen, die meisten Spiele supporten Dual GPU mittlerweile nurnoch mit späten Patches oder unzureichenden Frametimes, wenn das nur bei den teuren AAA Games dann kommt dann bringts insgesamt ja nix.

Complicated
2016-09-22, 19:08:20
@Schaffe
Da dir AMDs Strategie anscheinend völlig unbekannt ist, wie kannst du diese dann beurteilen oder kritisieren?
><((((*>

Skysnake
2016-09-22, 19:26:01
Wie kann man etwas verschenken was man nicht hat? Mir ist nicht eine größere Installation bekannt die auf AMD setzt oder gesetzt hat. Nvidia hat inzwischen ein dermaßen starkes Ökosystem aufgebaut daß nicht einmal Intel einen Stich macht. AMD sollte seine knappen Mittel lieber aussichtsreicheren Märkten widmen, als irgendwelchen HPC Gespinsten hinterherzujagen.
In Frankfurt der L-CSC, dann eine größere Installation bei Shell (?) und in Australien für die Auswertung von Teleskopdaten.

nVidia ist in so manchem System vertreten, aber das hat zuletzt auch schwer nachgelassen, vor allem wurden kaum noch neue Systeme gebaut, und wenn, dann sind GPUs meines Wissens nach immer nur in Teilen vorhanden. So was wie Titan im ORNL habe ich nicht mehr gesehen, außer halt das Ding in der Schweiz, das auch umgerüstet wird.

Insgesamt ist da aber verdammt die Luft raus. Bei vielen Meldungen, wo es um GPUs von nVidia in HPC Systemen geht, wird nur ein kleiner Bruchteil der Nodes mit Karten oft ausgerüstet. So genau wird da halt oft nur nicht hingeschaut :rolleyes:

EDIT:
Ach und noch was. Man sollte auch nicht vergessen, das Blue Waters etwa so schnell sein wird wie Titan, und das als reine CPU maschine von AMD. Nur ist das Ding halt nicht in der Top500 aufgeführt, weil die nicht einsehen den Benchmark auf der Kiste laufen zu lassen.

AMD ist praktisch nicht mehr existent im HPC, aber das geht ALLEN! anderen quasi genau so....

fondness
2016-09-22, 19:33:52
Was hier manche nicht bewusst zu sein scheint: Nehmen wir an die Angaben von Videochardz stimmen. Hawaii für Gamer kam im Oktober 2013. Hawaii für Server kam im August 2014, also fast ein Jahr später. Videochardz schreibt explizit, dass ihre Daten aus einer Server-Roadmap stammen. Auf was ich hinaus will: Nur weil Vega für Server vielleicht erst H2/2017 kommt oder Navi 2019, heißt dass noch lange nicht, dass die entsprechenden Gaming-Pendants nicht deutlich früher kommen können.

Schaffe89
2016-09-22, 19:34:02
@Schaffe
Da dir AMDs Strategie anscheinend völlig unbekannt ist, wie kannst du diese dann beurteilen oder kritisieren?
><((((*>

Du spekulierst gerade auf Interposer aufgrund von ein paar vagen Aussagen zur Skalierbarkeit von Navi die du mit Links spekulativ zusammensuchst und ich sage dass das unwahrscheinlich ist, weil Multi GPU nur Probleme statt Erfolge bringt, selbst mit Interposern. Du beurteilst hier doch genauso und sogar ziemlich albern, weil du sogar Hinweise dafür in einer Marketingpräsentation suchst, in der AMD wegen des Preises zwei rx480 gegen eine GTX 1080 gestellt hatte, dass man weiterhin auf Dual GPU´s setzen will. Das macht man imho nur wenn man keine konkurrenzfähig schnelle Single GPU aufweisen kann, notgedrungen.

Complicated
2016-09-22, 19:37:59
Da ist überhaupt nichts spekuliert, sondern die strategische Marschroute zitiert von dem Chef der Radeon-Group. IMHO wirst du keine Quelle hier verlinken die eine höhere Glaubwürdigkeit zu dem Thema darstellen kann. Ach so ich vergaß - Quellen verlinkst du ja grundsätzlich nicht.
Das macht man wenn man weiss, dass ein 7nm Prozess die Kosten nach oben treibt wenn man mehr Performance auf eine GPU bringen will.

Setsul
2016-09-22, 19:50:17
Multi GPU mit Interposer hat noch andere Vorteile.

Mit etwas Trickserei, wenn man mit einem oder keinem HBM Stack / HMC pro Die auskommt, kann man sich aus 4 Dies eine GPU mit >1000mm² bauen. Bestenfalls um die 1200mm², je nachdem ob gewisse Sachen doppelt vorhanden sind oder ob man 2 verschiedene Dies verwendet. Theoretisch noch mehr, aber dann gibts unangenehme Einschränkungen. Mit multi field wäre es dann natürlich wieder praktisch unbegrenzt, aber irgendwann wird es natürlich zu unhandlich und die Effizienz lässt sich auch nicht beliebig durch niedrigere Taktraten erhöhen um unter 300W zu bleiben.

Wenn man das Ding auch noch dazu bringen kann sich wie eine einzige GPU zu verhalten, dann kann man je nachdem wie viel Overhead man bereit ist in Kauf zu nehmen eine ganze Generation mit nur 1 oder 2 Dies abdecken. Wenn man bedenkt wie stark die Entwicklungskosten pro Die steigen mit jedem Shrink und wie wenig verschiedene Dies AMD auflegen kann/will ist das natürlich ideal.

yamamoto_dc
2016-09-22, 19:56:24
Zusätzlich hat man noch den Vorteil dass man einen Chip über eine ganze Bandbreite von Produktklassen nutzen kann. Dadurch vereinfacht sich die Produktions-, Absatzplanung und die Supply Chain enorm. Wenn ein Karte nicht so gut läuft, braucht man die Chips nicht zu verramschen, sondern nutzt sie in einer anderen.

Complicated
2016-09-22, 20:12:27
Zumal auch bei VR Dual-GPUs optimal genutzt werden können zukünftig.

Agent117
2016-09-22, 20:13:40
Wie gesagt AMD forscht wohl schon seit längerem an sowas.

https://www.computerbase.de/2015-08/amd-fiji-vom-ersten-schritt-zum-fertigen-produkt-in-8.5-jahren/

Zitat von da:
"Der nun bereits deutlich größere Grafikchip bestand dabei intern eigentlich aus vier kleineren GPUs, die jeweils mit ihrem eigenen Speichercontroller einen einzelnen Speicherchip ansprechen konnten"

Sinn macht das natürlich alles sehr viel. Ist nur die Frage ab welchen Datum es wirtschaftlich ist. Es ist sicherlich aus wirtschaftlicher Sicht kein Problem einen Kombo aus 3 oder 4 Chips im Entuisastensegment für über 500€ zu verkaufen;
ein einzelner Chip bräuchte dann aber auch Interposer + 1 HBM Stack und das für unter 200€ wird wohl erst 2018 wirtschaftlich, wenn sich HBM bis dahin gut entwickelt was die Abnehmer und Produktionsstraßen Interposer + Stacking+... betrifft.

Foobar2001
2016-09-22, 22:30:12
Uhm, das ist jetzt aber eine ziemlich gewagte Aussage mal wieder. Zwei Dies zu einem zu verbinden mit den ganzen Rasterizer-Abhaengigkeiten usw. ist alles andere als trivial. Ist das wirklich gesichert?

Schaffe89
2016-09-22, 23:19:04
Da ist überhaupt nichts spekuliert, sondern die strategische Marschroute zitiert von dem Chef der Radeon-Group.

Also das ganze mal ein bisschen aufgedröselt was dein Post enthielt.

"Koduri also see the future of gaming being dual-GPU cards. With Crossfire and SLI, dual GPU cards were abstracted away as one on the driver level. Because of this, performance widely varies for each game and support requires more work on the driver side. For DX12 and Vulkan, the developer can now choose to implement multi-GPU support themselves and build it into the game for much greater performance."

Es wechselt mehr oder weniger die Verantwortung von AMD/Nvidia zu den Entwicklern, ob diese SLI/Crossfire bzw Directx12 Multi GPU Adapter implementieren. Entwickler haben hier logischer Weise ein eher deutlich gedämpfteres Interesse solche Nebensächlichkeiten zu implementieren, heißt ergo eine Entwicklung hin zu Multi GPU nachdem SLI/CF und Multi GPU die letzten Jahre immer mehr eingeschlafen sind, Nvidia nurnoch SLI mit zwei GPU´s anbietet, wie gesagt recht fraglich.

AMD´s Ambitionen haben eher mehr etwas mit VR aktuell zu tun was deren Dual Fijii Experiment angeht und eher weniger mit dem handelsüblichen Multi GPU Spielereien, Koduri sagt auch selbst, dass dies einfacher zu realisieren ist, da jede GPU für ein seperates Bild zuständig ist.

Dafür wurde eine Radeon Pro Duo gelaunched, deshalb wurden 2 RX480 mit einer GTX1080 verglichen vor dem Launch.

Dass diese Ausrichtung die man da anpeilt ergo etwas mit der Pro Duo oder dem Crossfire der rx480 zu tun hat, ist daher eher weniger wahrscheinlich, deswegen schrieb ich das auch vorher schon.

IMHO wirst du keine Quelle hier verlinken die eine höhere Glaubwürdigkeit zu dem Thema darstellen kann.

Ich habe in deinen Quellen die du angegeben hast, weder im Interview noch im Fließtext etwas gefunden was wirklch dafür sprechen würde.:uconf2:
Dort geht es nur um Marketingfloskeln und eher mehr um VR, statt um zukünftiges Crossfire oder besser gesagt "beyond Crossifre" Multi GPU Adapter, schon gar nicht wird von einer Skalierbarkeit von Navi hinsichtlich deinem vermuteten Interposern gesprochen.

Ach so ich vergaß - Quellen verlinkst du ja grundsätzlich nicht.

Wenn man Quellen verlinkt die prinzipiell gar nix aussagen, für was verlinkt man da welche? Und ich sagte deine Äußerungen sind hochspekulativ und ja wir sind hier ja auch in einem Spekulationsforum.
Wenn AMD das Designziel langfristig herausgegeben hat, ist das natürlich toll, davon gelesen habe ich nichts und in deinen Quellen wird das auch nicht mit Navi oder mit dem was dort gesprochen/geschrieben wurde verknüpft.

Und dann kommst du mit

"Da ist überhaupt nichts spekuliert,"

Naja, eh klar.:confused: Prinzipiell redet er hier von Dual GPU´s, ganz passend zu zwei rx480, die nur im Crossfire etwas gegen Nvidias Portfolio reißen können.
Für meine Begriffe fokussiert er sich da auf VR+Crossfire mit 2 GPU´s da die Rechenleistung von Vega und Polaris erstmal nicht gegen Nvidia Produkte ausreichend ist.



Die GPUs werden per Interposer verbunden und funktionieren dann wie eine einzige große native GPU.


Aha, was du nicht sagst und das soll alles schon mit Navi 2018/2019 kommen so wie Complicated davon überzeugt ist?

Screemer
2016-09-22, 23:41:27
Das gabs schon 2013 auf testchips. Was spricht da gegen navi? Die logic für die zusammenarbeit der dice wird imho aber nicht im interposer liegen, auch wenn man diesen durchsus mit logic und nicht nur intercinnects ausstatten könnte. Ich denke eher, dass man die zwischenräume der schnittflächen mit logik bestückt, die die kommunikation übernimmt. Braucht man nun einen, zwei oder vier dice für einen chip sägt man entsprechend. Damit nimmt man zwar flächenverluste in kauf, minimiert aber das risiko von problemen auf dem interposer. Was ich mir allerdings gut vorstellen kann ist dass die phys auf den interposer wandern und man damit auch entscheiden könnte eine anderen speichertechnik als hbm zu nutzen.

Btw. Lasst uns nicht vergessen, dass wir hier im speku-sub sind.

Complicated
2016-09-22, 23:41:44
Ich habe in deinen Quellen die du angegeben hast, weder im Interview noch im Fließtext etwas gefunden was wirklch dafür sprechen würde.
Da du gar keine Quellen hast für deine Phantasien, ist das ja wohl unwichtig ob du nun das verstanden hast was ich zitiert habe. Und was du findest in einem Text ist kaum als Maßstab für dieses Forum zu werten.

Was ist an diesem Satz von Khoduri nicht zu verstehen als klare Bestätigung für diese Strategie?
While the transition won’t fully take place till 2017-2019, AMD wants developers to start getting used to the idea and getting ready.
Weiterhin:
Raja claimed that one of the reasons to launch the dual-Fiji card as the Radeon Pro Duo (http://www.pcper.com/news/Graphics-Cards/AMD-launches-dual-Fiji-card-Radeon-Pro-Duo-targeting-VR-developers-1500) for developers rather than pure Radeon, aimed at gamers, was to “get past CrossFire.”

Schaffe89
2016-09-22, 23:56:25
Ich hab ja nirgends gesagt dass diese Strategie streng genommen langfristig nicht vielleicht doch Sinn ergeben würde, weder wollte ich sagen dass AMD diese nicht evtl. später anwenden wird.
Aber die mit "Scalability" von Navi ist eher etwas anderes gemeint und AMD sagts ja selbst dass die Transformation nicht abgeschlossen sei, was immer er genau damit meint.
Nur diese Sätze stehen ehrlichgesagt aus dem Kontext wenig im Zusammenhang mit dem von was du sprichst, jedenfalls ist das mein Eindruck.

Ich denke wir missverstehen uns da wohl einfach nur.

Interessant zu dem Thema ist dieses PDF hier:

http://www.eecg.toronto.edu/~enright/micro14-interposer.pdf

Wenn überhaupt ist das was ultra langfristiges Zukunftsproject, ähnlich dem HSA Ansatz, der aktuell ja auch quasi for sich nur hindümpelt.
Man darf in Aussagen von AMD nicht zuviel hineininterpretieren, schon gar nicht von Koduri.

Der Knackpunkt liegt wohl bei dem was Elkinator einfach mal so locker behauptet hat, eben dass die GPU´s per Interposer verbunden werden und die mal locker flockig als eine GPU arbeiten sollen und da AMD auch hier davon spricht man soll "ready" für diese Idee gemacht werden, riecht extrem danach dass die Software da mitspielen muss und das bedeutet ergo schon wieder Probleme und Abhängigkeiten, also doch irgendwie Multi GPU und ob AMD konkret darauf hinaus will, glaube ich ehrlichgesagt weniger.

Für mich ist das keine Marschroute, sondern wenn überhaupt eine Notlösung und ist im Endeffekt auch nix anderes als mehrere GPU´s im Verbund zu schalten um damit Leistung herauszupressen, also einfach ein breiteres Design als Antwort auf die größer werdenden Phsyikalischen Probleme bei shrinks.
Im Endeffekt kann man auch einfach einen größeren Chip designen. Die Lösung für mehr Performance wird mit Sicherheit nicht darin bestehen GPU Dies mittels Interposern zu verbinden, das kann man aktuell mit SLI und CF mit viel Bauchschmerzen auch schon machen.

N0Thing
2016-09-23, 01:09:50
Nimmt man an, dass "skalierbar" bedeutet, dass Mulit-GPUs auf einem Interposer mit HBM2 (oder NextGen-Memory) beliebig kombinierbar sind um die Leistung zu steigern. Dieses Designziel hat AMD langfristig heraus gegeben mit dem Start des 2,5-Stackings. Nun versucht man verstärkt Dual-GPUs zu verbessern und nicht in Vergessenheit geraten zu lassen, damit Entwickler in Software diese weiter berücksichtigen (oder zukünftig sogar stärker, da die Arbeit aus dem treiber in die Software wandert mit Low-Level APIs.)


Der Ansatz ist interessant und wurde von AMD afaik schon zu Zeiten der HD5000 als langfristiges Ziel genannt. Allerdings wäre die Strategie meiner Meinung nach zum Scheitern verurteilt, wenn man auf die Entwickler angewiesen wäre, um Mulit-GPU-Support in den Spielen zu integrieren.
Entweder AMD bringt eine Lösung, die einen Verbund aus mehreren GPUs nach außen hin als eine GPU darstellt, oder man könnte in die blöde Situation kommen, dass auf einer hypothetisch angenommenen High-End-Karte mit 4 GPUs nur eine davon vom Spiel angesprochen wird und die Performance dementsprechend ist und als Workaround evtl. Crossfire zum Einsatz kommen muss, mit allen dazugehörenden Nachteilen.




Soll dann pro Jahr 1 Chip nur noch kommen?



AMD hat bisher schon zwei Chips veröffentlicht, dazu kommt sicher noch ein Vega Chio, eventuell bis Ende 2017 noch ein zweiter.
Mit Navi sollte dann wieder eine Generation von klein bis groß anstehen.




Nvidia ist gerade dabei sich von Multi GPU wegzubewegen (nur noch Dual SLI), da die Unterstützung meiner Ansicht nach kompliziert und einfach unnötig ist und auch langfristig zu problembehaftet ist. Mein Eindruck ist dass AMD für Multi GPU´s relativ wenig tut und man sich das Thema lediglich warmhält, aus welchen Gründen auch immer.

Ich würde eher sagen, dass Nvidia sich auf den Markt mit SLI konzentriert, wo SLI auch primär eingesetzt wird und das ist der High-End Markt ab der GTX 1070. Spart Arbeit und damit Geld, ohne den Kunden wirklich etwas vorzuenthalten.

AMD hat in den letzten Monaten einiges für Multi-GPU getan, in den Release Notes der Treiber gab es eine Menge Bugfixes für Crossfire und neue Profile. Also mehr als man bei einem kleinen Teil der 1% Mulit-GPU-User erwarten könnte.

Agent117
2016-09-23, 01:22:02
Im Endeffekt kann man auch einfach einen größeren Chip designen. Die Lösung für mehr Performance wird mit Sicherheit nicht darin bestehen GPU Dies mittels Interposern zu verbinden, das kann man aktuell mit SLI und CF mit viel Bauchschmerzen auch schon machen.

Ohne Bauchschmerzen, ich denke mal du meinst hiermit die Mikroruckler, würde es deutlich mehr Akzeptanz finden. Größere Chips zu designen bedeutet schlechtere Yields, trotz toller Tools mehr Designaufwand und mehr Chips innerhalb eines Lineups, was wiederum mehr Designaufwand bedeutet.
Wirtschaftlich wird das ganze, wenn sich die einfachste SKU eines solchen Konstruktes, also einziger Chip + Interposer + HBM mit ausreichender Marge verkaufen lässt in dem dafür angepeilten Preissegment.
Ein anderer Vorteil ist, dass ein gesammtes Lineup von sagen wir mal 6 bis 8 SKUs den gleichen Chip als Grundlage hat und das komplette Lineup sich somit durch den Nachfolgechip deutlich wirtschaftlicher erneuern lässt.
Es gibt schon einige Gründe dafür.

iuno
2016-09-23, 01:32:59
Ist das wirklich gesichert?
Nein

Soll dann pro Jahr 1 Chip nur noch kommen?
AMD bringt ja nicht nur einen Chip. Ich finde P10, P11, SR, RR, Zeppelin und vielleicht noch mehr Zen Varianten, SoCs fuer Neo, Scorpio und vielleicht NX, V10, V11 eigentlich recht viel in dem Zeitraum fuer AMD, wenn man die Groesse etwa mit NV vergleicht. NV bringt im gleichen Zeitraum GP100, 102, 104, 106, 107 und einen Tegra? Natuerlich hat NV viel mehr Marge, aber haut insgesamt nicht wirklich mehr Chips raus.
AMD laesst NV dort erstmal machen, wo man selber eh aktuell nichts mehr zu melden hat. Das spart in erster Linie mal Kosten. Persoenlich finde ich das natuerlich auch schade, aber wenn es der Firma hilft, ist das auch gut. Freie Ressourcen, sich um andere Baustellen zu kuemmern und hoffentlich irgendwann nochmal ordentlich nachlegen zu koennen.

HOT
2016-09-23, 09:53:25
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-22-september-2016
Leo steuert mal was zur Diskussion über die Hauptseite bei :).
Damit ist eines sonnenklar:
Projekt Greenland -> gestrichen!
V20 ist der HPC-Ersatz und wird sicherlich für die Monster-APU herangezogen (sicherlich zusammen mit der ersten Zen+-Auskopplung), nicht Greenland.
V10 ist demnach tatsächlich eine reine Gamer-GPU und dürfte damit tatsächlich kleiner als 400mm² werden. AMD wird offenbar gar nichts mehr in Enthusiastensegment bringen und baut demnach sicherlich keine Chips mehr über 400mm². Zur Not gibts halt eben doppelte. Und bei 7nm-V20 dürfte das Profigedöns kaum noch ins Gewicht fallen.

HighEnd:
Fiji -> V10 -> N10

Damit kann man sogar Lineups bauen :D.

Momentan (Rx 400):
Fiji
P10
Tonga
P11
Bonaire
Oland

2017 (Rx 500)
V10
V11
P10
P11
Bonaire
Oland

2018 (Rx 600)
V20/V10
V11
P10
P11
Bonaire (irgendein Ersatz in 12FDX?)
Oland (irgendein Ersatz in 12FDX?)

2019 (Rx 700)
N10
V20/V10
V11
N11
P11
Bonaire (irgendein Ersatz in 12FDX?)
Oland (irgendein Ersatz in 12FDX?)

Ailuros
2016-09-23, 10:17:31
Seit wann ist videocardz bzw. WhyCry eine zuverlaessige Quelle und wo steht genau dass Greenland storniert wurde? Nochmal zum mitlesen: IHVs stornieren keine komplizierten Projekte; kleine Aenderungen im Design heissen im Grund gar nichts. Warum niemand (selbst Intel siehe Larabee) nie etwas stornieren hat als Grund dass keiner Bock hat irgenwelche resources nur so ins Klo zu spuelen.

Realitaet ist eben meistens wenn nicht immer, dass fuer N Projekt einfach in die falsche Richtung spekuliert wurde oder wird.

Palpatin
2016-09-23, 10:23:04
[url]
V10 ist demnach tatsächlich eine reine Gamer-GPU und dürfte damit tatsächlich kleiner als 400mm² werden. AMD wird offenbar gar nichts mehr in Enthusiastensegment bringen und baut demnach sicherlich keine Chips mehr über 400mm².
Irgendwie passen dann aber die 16GB HBM2 für VEGA 10 nicht so ganz ins Bild.

HOT
2016-09-23, 10:30:51
Irgendwie passen dann aber die 16GB HBM2 für VEGA 10 nicht so ganz ins Bild.
Aber sicher, der VRAM-Bedarf wächst ja weiter. 8GB wird bald ebenfalls nicht mehr High-End sein - es ist ja mit der 480 jetzt schon Mainsteam und Presseleute bei PCGH und CB, die ja durch Tests im Thema sind, bemängeln ja jetzt schon, dass 6GB bei der 1060 nicht immer ausreichend sind - noch ist das die Ausnahme. Bislang lagen eigentlich alle, die behaupteten, irgendeine Standard-Speichermenge würde lange halten, falsch im GPU-Bereich. Es gab halt nur die paar Jahre 32Bit-Stillstand - da machte mehr als 1GB VRAM wenig Sinn, das ganze Programm musste ja mit 2GB Adressraum auskommen - der ist aber überwunden.

Ailuros
Sicherlich ist das immer relativ, aber es sollte damit klar sein, dass V10 nicht so Greenland ist, wie es sicherlich anfangs gedacht war. Sicher schmeißt man nix weg (was allerdings auch nicht so ganz stimmt), aber man ändert Strategien und Projekte.
Und es mir egal, was die Quelle ist, es bietet eine gewisse Plausibilität an in der Form. Andere Infos haben wir ja auch nicht.

Ailuros
2016-09-23, 10:46:52
Aber sicher, der VRAM-Bedarf wächst ja weiter. 8GB wird bald ebenfalls nicht mehr High-End sein. Bislang lagen eigentlich alle, die behaupteten irgendeine Speichermenge würde lange halten, falsch im GPU-Bereich. Es gab halt nur die paar Jahre 32Bit-Stillstand, der ist aber überwunden.

Wobei es aber zu einem RIESIGEN Wiederspruch kommt zu Fiji. Solche Einzelheiten koennen eben nicht nur dann wenn es gerade passt zu "gross genug" oder "zu wenig" schwanken und nein kein IHV wird so daemlich sein und die Kosten einer solchen GPU unnoetig erhoehen wenn sie mit einem niedrigeren Preis gegen die Konkurrenz punkten koennen. HBM2 ist so oder so teurer als jegliche 5X Implementierung insgesamt.

Ailuros
Sicherlich ist das immer relativ, aber es sollte damit klar sein, dass V10 nicht so Greenland ist, wie es sicherlich anfangs gedacht war. Sicher schmeißt man nix weg (was allerdings auch nicht so ganz stimmt), aber man ändert Strategien und Projekte.

Die alberne Laier mit Greenland hast Du schon seit einiger Zeit auf dem Buckel. Wobei es nicht mal eine anstaendige Indizie dafuer gibt fuer was Greenland je bezeichnet hat und nein Du weisst es auch nicht.

Und es mir egal, was die Quelle ist, es bietet eine gewisse Plausibilität an in der Form. Andere Infos haben wir ja auch nicht.

Es gibt gar nichts plausibles an WhyCry's frei zusammengereimten Duenschiss; ausser Du bist wirklich so naiv und glaubst dass irgend jemand von AMD je so daemlich waere und wuerde gerade dieser ehlendingen trash tabloid Seite ihre volle roadmap ueber die naechsten paar Generation unter den Aermel stecken.

HOT
2016-09-23, 10:52:04
Wobei es aber zu einem RIESIGEN Wiederspruch kommt zu Fiji. Solche Einzelheiten koennen eben nicht nur dann wenn es gerade passt zu "gross genug" oder "zu wenig" schwanken und nein kein IHV wird so daemlich sein und die Kosten einer solchen GPU unnoetig erhoehen wenn sie mit einem niedrigeren Preis gegen die Konkurrenz punkten koennen. HBM2 ist so oder so teurer als jegliche 5X Implementierung insgesamt.

Die Frage stellt sich nicht, Fiji hätte mindestens 8GB haben müssen - das war doch bei Fiji-Release schon klar. Deswegen hab ich ja von Anfang an vor dem Kauf gewarnt. Also wird man bei V10 wohl nicht den gleichen Fehler machen ;). V11 wird sicherlich 8GB mit 2 HBM-Stacks bekommen. Das passt dann auch. Und für deine zweite Aussage habe ich noch keinen überzeugenden Beleg gesehen. Behauptet wird das immer und ganz unplausibel ist das nicht - aber es hat ja auch andere Vorteile und wieviel teurer das ist, dazu gibts einfach keine Info. Und wie "billig" GDDR5X ist ebenfalls nicht. Wenn der ach so billig wär, würd NV den bei der ganzen Generation einsetzen - das ist nicht passiert. Also ist da noch einiges im Dunkeln. Behaupten kann man da viel. Vielleicht bringt da irgendwann jemand Licht ins Dunkel, dann können wir nochmal darüber reden.

Die alberne Laier mit Greenland hast Du schon seit einiger Zeit auf dem Buckel. Wobei es nicht mal eine anstaendige Indizie dafuer gibt fuer was Greenland je bezeichnet hat und nein Du weisst es auch nicht.

Ich hab dazu aber immerhin ne Idee, das scheint mehr zu sein, als du hast :P. Nichts für Ungut :D.

Es gibt gar nichts plausibles an WhyCry's frei zusammengereimten Duenschiss; ausser Du bist wirklich so naiv und glaubst dass irgend jemand von AMD je so daemlich waere und wuerde gerade dieser ehlendingen trash tabloid Seite ihre volle roadmap ueber die naechsten paar Generation unter den Aermel stecken.
Na ja, sowas passiert ja in den seltensten Fällen freiwillig :D. Und wie gesagt, andere Infors gibts nicht und hey, du muss zugeben, dass das nicht unplausibel erscheint, wie es da steht.

Palpatin
2016-09-23, 10:53:18
Wobei es aber zu einem RIESIGEN Wiederspruch kommt zu Fiji. Solche Einzelheiten koennen eben nicht nur dann wenn es gerade passt zu "gross genug" oder "zu wenig" schwanken und nein kein IHV wird so daemlich sein und die Kosten einer solchen GPU unnoetig erhoehen wenn sie mit einem niedrigeren Preis gegen die Konkurrenz punkten koennen. HBM2 ist so oder so teurer als jegliche 5X Implementierung insgesamt.

Sehe ich genau so, wenn V10 anfang 2017 mit einer Performance unterhalb GP102 aufschlägt sind 16GB HBM2 einfach zu viel.
Entweder Performance >= GP102 dann passen die 16GB
oder
Performance ~ GP104 dann sind 16GB zu viel.

Achim_Anders
2016-09-23, 11:00:44
Die 16gb sind wahrscheinlich als "bis zu" zu verstehen... Wie es in den Consumermarkt kommt ist nochmal was anderes.

Locuza
2016-09-23, 11:01:20
Man sollte in Erinnerung halten, dass die Rede von einer Server-Roadmap ist.
Laut Golem plant SK Hynix 8-Hi Stacks (8 GB) ab dem vierten Quartal 2016.
Für Nicht-Consumer-Märkte sind 16 GB schlichtweg zu erwarten.
Für Konsumenten könnte es beide Optionen geben, 8 GB und 16 GB oder nur 8 GB.

Ailuros
2016-09-23, 11:06:31
Ich hab dazu aber immerhin ne Idee, das scheint mehr zu sein, als du hast :P. Nichts für Ungut :D

Mit dieser darfst Du auch bleiben. Es schreibt ja keiner hier ins Vakuum sondern es wird heftig von anderen gelesen und das daemliche ist eben dass man sich langfristig schwer verstecken kann.

Botcruscher
2016-09-23, 11:13:33
Die ganze Strategie mit der Performancechip ist schon vor Jahren gescheitert. Spätestens als NV mit einem extra Chip für den Bereich reagiert hat. Im Moment reicht es selbst im Bereich Performance nicht. Hawaii dazu bis 2018.:freak: Der Chip ist gut aber von ende 2013. Da sind wir gleich wieder beim Sinn von HBM. An dem Punkt hätte man auch Hawaii mit 512er Interface, mehr SP und 16nm aufbohren können. Wobei bei AMD spätestens seit Tonga eh die Rote Linie fehlt. Da wird selbst so ein kaputter Wahnsinn wie MCM glaubwürdig. Selbst wenn das funktioniert blieben die Treiber und die Unterstützung.

Greenland war ja schon immer spekulativ. Mal sehen was aus Zeppelin geworden ist. Mit HPC war der Markt für das Ding schon umstritten. Für Spieler disqualifiziert sich das Ding jenseits der Gamernotebooks. Wieder mal ein AMD Produkt ala Tonga wo die prallen Forschungsgelder bestens angelegt sind. Da ist entweder ein Marketinggenie am Werk, die Meldungen sind total falsch oder mit der Kapitalbeschaffung war zuviel Kohle für Drogen da.

Falls jemand meint ich wäre zu skeptisch, kann er gerne eine Zusammenfassung schreiben. Dazu logische Erläuterungen.
Entweder Performance >= GP102 dann passen die 16GB oder Performance ~ GP104 dann sind 16GB zu viel.
Alles jenseits der 8GB werden wir imo so bald im Consumermarkt nicht sehen. Die Fehleranfälligkeit bei HBM skaliert mit der Größe. Bei solchen Komplexen Bauteilen ist man weit von linear entfernt. Dazu reichen, im Gegensatz zu Fiji, die 8GB auch aus. Kosten und Risiko stehen hier in keinem Verhältnis zur Geschwindigkeit. Selbst vom Marketing lassen sich die 16GB nicht unbedingt gut verkaufen. Bei der 390 war das "mal eben" ganz anders.

dargo
2016-09-23, 11:30:55
Die 16gb sind wahrscheinlich als "bis zu" zu verstehen... Wie es in den Consumermarkt kommt ist nochmal was anderes.
Ich könnte mir auch vorstellen, dass der volle Chip mit 16GB (zum entsprechenden Preis) und der Salvage mit 8GB kommt. Vielleicht wird der Salvage diesmal auch stärker beschnitten wie sonst bei AMD üblich.

Agent117
2016-09-23, 12:53:37
Die "quellennahen" Infos von videocardz sind doch mMn ein ziemlicher Murks. Das wird ja hier - und sogar auf der Hauptseite - alles als recht schlüssig und sinnig dargestellt.
Die größte Unstimmigkeit ist doch aber der Sprung von Vega10 auf Vega20.
7nm Vorserienproduktion soll bei GF 2018 starten - wenn alles nach Plan läuft. Vega 20 käme demnach frühstens Ende 2018. Damit will man dann mit Volta+ und KNL konkurieren? Mit nur 64Cus ?

Weiß einer wieviel DIE Space der GMI Link frisst? Ist da was über NV-Link bekannt?

fondness
2016-09-23, 13:17:32
Fuad hat normalerweise sehr gute Quellen innerhalb AMD und er bezieht sich im Gegensatz zu Videochardz nicht auf den Server-Markt:

Vega 10 is Radeon Technology Group’s first HBM 2 part and should launch in early 2017. AMD – RTG is also planning a successor called Vega 20 that might launch later in the year.

Vega 20 is a 14nm FinFET product, and it should follow the release of Vega 10. It should not take more than six to nine months after the Vega 10 launch, to see the card's updated version.

The 2017 Roadmap includes a few GPUs, Vega 10, Vega 11 and Vega 20. The Vega 11 seems to be a mainstream part, following the same path as the Polaris 10 and 11. Polaris 10 was a performance – mainstream card which ended up branded as Radeon RX 480 while Polaris 11 ended up as the Radeon RX 460 playing in $120 to $150 market.

Vega 20 will replace the Vega 10 but it is not clear what kind of innovation to expect. It will definitely be faster; one can suspect to see a dual chip version of Vega too.

Vega 20 should double the size of the memory and might even double bandwidth of the card. This is important for the professional and compute market as AMD wants the part of this profitable market.

The Vega 20 will end up having the data fabric interconnection we mentioned a year ago. This is a far interconnection between CPU and GPU but at the same time the new GPU might end up with PCIe 4.0.

This is a 150+ Watt product, so it is high end but with new memory interfaces and more memory it should end up significantly faster than the Vega 10. There will be fun times ahead.

http://www.fudzilla.com/news/graphics/41669-vega-20-gpu-comes-in-late-2017

Hat wer was dagegen, für VEGA einen eigenen Thread aufzumachen? Das wird mittlerweile doch schon arg lang und unübersichtlich...

Korvaun
2016-09-23, 13:25:31
Was soll denn dann VEGA20 sein wenn der 6-9 Monate nach VEGA10 rauskommt und auch in 14nm hergestellt wird? Refresh von VEGA10 mit minimalen Änderungen? Irgendwie nicht sonderlich plausibel...

EDIT: Ok, also aufgebohrtes Speichersubsystem und nen neuer Interconnect, also doch die "Profivariante"?

fondness
2016-09-23, 13:25:51
Was soll denn dann VEGA20 sein wenn der 6-9 Monate nach VEGA10 rauskommt und auch in 14nm hergestellt wird? Refresh von VEGA10 mit minimalen Änderungen? Irgendwie nicht sonderlich plausibel...

Könnte darauf hinaus laufen dass Vega10 -> Gaming market, Vega20 professionellen Markt. Also ähnlich wie GP100 vs. GP102.

Vega20 soll doppelte so viele HMB2 Stacks und damit doppelt so viel Speicher und Bandbreite bekommen plus die data fabric interconnection.

Korvaun
2016-09-23, 13:31:09
Polaris is ja nu durch, nen neuer Spekuthread wäre da nicht schlecht, weg von Polaris/Vega hin zu Vega/Navi ;)

Agent117
2016-09-23, 13:52:18
Was soll denn dann VEGA20 sein wenn der 6-9 Monate nach VEGA10 rauskommt und auch in 14nm hergestellt wird? Refresh von VEGA10 mit minimalen Änderungen? Irgendwie nicht sonderlich plausibel...

EDIT: Ok, also aufgebohrtes Speichersubsystem und nen neuer Interconnect, also doch die "Profivariante"?


Videocardz behauptete ja er soll schon in 7nm hergestellt werden. Und dann wirkt der Satz "It should not take more than six to nine months after the Vega 10 launch, to see the card's updated version" natürlich wie eine reine Utopie.

Womöglich wurden die 7nm aber nur daraus abgeleitet, dass für Vega 20 150W+ angegeben wurden und man dachte die Einsparung käme von Shrink.
In der Tabelle von Videocardz stand auffälligerweise 150-300W.

Mal angenommen Fuads Informationen haben einen Wahrheitsgehalt dann sieht es so aus als hätte AMD HPC und Gaming getrennt wie Nvidia.

Vega 10 und 20 kommen dann beide in 14nm, Vega 10 als Gaming only und Vega 20 ist Project Greenland mit DP und GMI Link + doppelt so breitem HBM SI. Vega 20 deckt dann je nach Ausführung die Bandbreite von 150 bis 300W im HPC Bereich ab. Man bedenke, dass bei den Preisen im professionellen markt ein stark kastrierter und/oder runtergetakteter Chip mit 150W TDP immer noch mit großer Marge verkauft werden kann. Das ist in dem Markt nicht das Problem, das Problem ist das Volumen.

So ergibt dann aber doch alles einen Sinn, aber krasser Schritt von AMD HPC und Gaming zu trennen, hätte ich so nicht erwartet. Wenn Vega20 alias Greenland dann aber wieder mind. so lange wie Hawaii durchhält ist es vlt auch wirtschaftlich vertretbar ab und an mal einen nur HPC Chip aufzulegen.

HOT
2016-09-23, 14:01:31
V10 hat 16GB, die Frage stellt sich gar nicht. Das ist eines der Verkaufsargumente für das Ding ggü. dem GP102, da es ja leistungstechnisch wohl wenn überhaupt eher Gleichstand gibt.

HighEnd: V10 -> 16GB
Performance: V11 -> 8GB
Mainstream: P10 -> 4-8GB

Nur weil die 1080 nur 8GB hat, wird AMD das sicher nicht nachmachen. Fiji hätte auch 8 gehabt, wenn es möglich gewesen wäre. War es aber nicht. Die 390 hatte 8.

@Botcruscher

Architektur: Zen
Die: Zepplin
Produkt: SummitRidge
Zepplin wird einfach das Die bezeichnet, und entspricht Bulldozer -> Orochi

Godmode
2016-09-23, 14:31:26
Bitte in den entsprechenden Threads weitermachen:

Summit Ridge: 8 Cores/16 Threads Zen CPU, 2017 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=576242)

Raven Ridge APU: Zen-Cores, Vega-GPU, DDR4, 65W, 2017 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=576241)

NAVI - 7nm - 2018/2019 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=576240)

VEGA (Vega10, Vega11, Vega20) - 2017 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=576238)

Leonidas
2016-10-04, 06:58:43
Thread kann für Polaris-Spekulationen durchaus weiterbenutzt werden. Schließlich könnte ja noch eine Radeon RX 465 erscheinen:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2425-september-2016

AnarchX
2016-10-04, 20:26:11
Polaris done selected right: http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Embedded-GPUs-Effizienz-1208998/

E9550 mit 5.8 TFLOPs @ 95W + E9260 mit 2.5TFLOPs/1,4GHz @50W. Sofern das nicht extrem optimistische Werte mittels Boost sind, die man in der Praxis eher nicht erreicht, hat 14FF vielleicht mit etwas Reifung noch mehr Potential..

Agent117
2016-10-04, 21:18:38
Board Power umfasst ja schon alles was über PCIe Stromstecker und PCIe Slot an Leistung drüber geht, anders als GPU Power Draw in GPUz, was nur den Chip ohne Speicherchips und Wandlerverluste betrifft oder?
Ich frag nur weil Polaris 10 mit 5,8TFlops @ 95W bedeutet dass der Chip selbst nur gut halb soviel Leistung wie bei der RX480 aufnimmt.
Das mit dem Boost könnte natürlich eine Erklärung sein, ohne zu wissen wie der abriegelt ist das schwer zu beurteilen aber wenn die Karte dann meistens bei 900 bis 1000 Mhz throttle wären die 5,8 TFlops auch iwie lächerlich.

Dino-Fossil
2016-10-04, 21:25:43
Ein nicht unerhebliches Potential besteht ja auch bei den 480ern schon durch undervolting.
Würde man ein schärferes binning betreiben und die Chips dann mit niedrigerer Spannung versorgen, würde das alleine P10 schon ein gutes Stück an die 95W heranbringen.
Trotzdem, ob das alleine ausreicht bleibt dann doch abzuwarten.

Hübie
2016-10-04, 21:26:11
Ich frage mich auch gerade wie das bitte klappen soll. Also so starke Differenzen in den Leckströmen gibt es praktisch nicht.

Nakai
2016-10-04, 23:34:53
Btgl. Embedded:
Das "Up to" sollte man niemals vergessen.

--------------------------------

Zu Vega10/20/11:

Die 3 Chips ergänzen das derzeitige Lineup nach oben.

P11 => P10 => V11 => V10 => V20

V20 ist ein GP102/112-Konter
V10 gegen GP104
V11 wird HBM2 (hoffentlich) ins Midrange/Performance-Segment bringen
P10 bleibt noch bestehen
P11 bleibt noch bestehen

V11 wird höchst interessant

horn 12
2016-10-04, 23:52:35
@Nakai

Da ich noch eine Fury besitze und einen Ultra HD Monitor Modell: LG 27UD68 muss ich wohl auf Vega V20 warten und dies wird wohl erst in einem Jahr spruchreif werden.

Zudem wird V10 echt nur gegen eine GTX 1080 / GTX 1080 OC konkurrieren oder doch knapp GTX 1080TI Leistung erreichen können.

Wann kann man mit den einzelnen Karten in etwa rechnen und wird V11 echt der Fury Ersatz, sprich Polaris 10 Refresh mit HBM-2 Speicher ?

Leonidas
2016-10-05, 04:24:30
Wiedereröffnung des Threads bedeutet nicht, das es für Vega keinen eigenen Thread geben würde:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=576238

HOT
2016-10-09, 22:10:11
Bezüglich der P10@95W-Geschichte: Power/ClockGating aktiviert bei P10 Rev.2? Das könnte soviel bringen.
Übrigens hab ich in einem Video irgendwo mitbekommen, dass P10 maximal 9GHz-Speicher ansprechen kann. Falls das stimmt, scheidet GDDR5X dann wohl endgültig aus.

Hübie
2016-10-09, 22:58:55
P10@95W dürfte in Bezug auf Jay seine paar cent nix wert sein, weil er Heaven und 3D Quark testet und damit nur die GPU ohne Wandlerverluste gemeint ist. Kenne ich jetzt nicht unbedingt als real-world scenario...
Zum Rest: I've told you so. ;)

iuno
2016-10-10, 01:13:09
Wieso soll das nichts wert sein? Fuer mich wirft das doch zusammen mit den embedded Loesungen neue Fragen auf.
Als die E9550 vorgestellt wurde, habe ich mir dabei noch nichts gedacht. Dass jetzt aber eine GPU vermessen wird, die bei selber Spannung, hoeherem Takt und hoeherer Temperatur 15 Watt weniger braucht als der vermeintlich selbe Chip im selben Szenario unter Wasser ist schon seltsam. Bei mir (Hawaii) hat das Druecken der Temperatur um ~30 K (+ natuerlich niedrigere VRM Temperaturen) alleine schon zig Watt ausgemacht, ohne Undervolting wohlgemerkt.
Da wuerde ich eine neue Rev. nicht ausschliessen. Ich wuenschte, Igor haette so eine Karte zum Testen gehabt und nicht dieser Dilettant...

Locuza
2016-10-10, 07:49:31
Bezüglich der P10@95W-Geschichte: Power/ClockGating aktiviert bei P10 Rev.2? Das könnte soviel bringen.
Übrigens hab ich in einem Video irgendwo mitbekommen, dass P10 maximal 9GHz-Speicher ansprechen kann. Falls das stimmt, scheidet GDDR5X dann wohl endgültig aus.
Da es im Design implementiert werden muss und nicht einfach nur über ein simples Stepping eingefügt werden kann, ist es ausgeschlossen das P10 Power-Gating pro CU im Nachhinein aktiviert bekommt.

Im Video war vermutlich nur die Rede vom maximalen OC?
Die 1070 bekommt man auch kaum über 9 Gbps mit GDDR5:
https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/8/#abschnitt_uebertaktbarkeit

Der aktuelle Takt von GDDR5X ist aber sowieso niedriger, als von GDDR5, die erhöhte Bandbreite kommt vom doppelten prefetch und das muss unterstützt werden und nicht höhere Taktraten.

Ohne konkretes Dementi bleibt die Frage vermutlich offen, aber mein Bauchgefühl würde gegen ein GDDR5X-Interface bei Polaris sprechen.

HOT
2016-10-10, 07:54:54
Na ja, an irgendwas muss es liegen. Ich kommt mit meiner nicht mal annähernd auf solche Werte.

Locuza
2016-10-10, 08:03:36
Kann man hier den Test verlinken, von dem geredet wird?
Ich habe nur die Papier-Werte mitbekommen, aber keine Praxis-Ergebnisse.

Hübie
2016-10-10, 09:42:32
Na ja, an irgendwas muss es liegen. Ich kommt mit meiner nicht mal annähernd auf solche Werte.

So ein Interface ist nicht sonderlich komplex, aber mit dem Finger irgendwo drauf zeigen und sagen daran liegt's kann man jetzt nicht. Selbst bei den Speicherchips hast du Schwankungen. Die Temperatur ist bei RAM ebenfalls wichtig.
Als P10 auf dem Markt kam und GP102 noch ein feuchter Traum, erfuhr ich, dass es momentan nur ein Produkt mit GDDR5X-Capability gibt. Das ist mehr als eindeutig gewesen. AMD hat aber definitiv etwas in der Pipeline, soviel ist sicher. Die Anpassungen sollen marginal sein und dass bestätigt auch das entsprechende Paper der JEDEC (glaube es war JESD232). Man braucht eventuell 'nur' den Baselayer modifizieren, aber das ist reine Vermutung meinerseits. Bei Grenada gabs ja auch ne minimale Änderung am PHY laut AMD und schon gingen höhere Frequenzen.
@Locuza: Yt->jayztwocent und dann das GTR-Video. Bin am Smartphone, daher kein link. :D

Edit: Bitte sehr:

zWASNajSdpg

dargo
2016-10-10, 10:03:23
P10@95W dürfte in Bezug auf Jay seine paar cent nix wert sein, weil er Heaven und 3D Quark testet und damit nur die GPU ohne Wandlerverluste gemeint ist. Kenne ich jetzt nicht unbedingt als real-world scenario...

Kann es sein, dass du hier was verwechselst? :) Mit P10 @95W ist eher das hier gemeint.
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Embedded-GPUs-Effizienz-1208998/

Das hat nichts mit dem Video von Jay zu tun.

Hübie
2016-10-10, 10:25:46
Ja durchaus möglich. :redface: Nur ist diese embedded-Geschichte für uns ja erst mal völlig irrelevant. Ich vermute dass es entweder die Verlustleistung der reinen GPU oder so eine "entweder-oder" Geschichte. Mit Magie kann man jedenfalls nicht mal eben 55 Watt einsparen. ;) Und wenn Power-gating bei P10 'Rev1' per BIOS deaktiviert ist muss man fragen warum, denn dann hätte man mal wieder einen Launch gründlich verkackt (Image leidet nachhaltig unter so etwas).

Complicated
2016-10-10, 10:39:12
Also Imageprobleme hat AMD mit dem Polaris-Launch keine bekommen. Zumindest nicht bei den Börsen -Analysten. Auch Investoren setzten immer weniger auf Short-Positionen. Die haben sich glatt halbiert seit Juli. Zumal die gehandelten Umsätze deutlich gestiegen sind. +280% in einem Jahr ist ein guter Wert für AMDs Aktien.

HOT
2016-10-10, 14:11:18
Na ja amd hat schon oft lauches verkackt, das wäre jetzt nichts weltbewegendes.
Und sicherlich war vor allem die embedded Variante gemeint und das passt auch gut zum xfx video, denn beide Angaben sind nur Chip.

Dino-Fossil
2016-10-10, 14:24:07
Bezüglich der P10@95W-Geschichte: Power/ClockGating aktiviert bei P10 Rev.2? Das könnte soviel bringen.
Übrigens hab ich in einem Video irgendwo mitbekommen, dass P10 maximal 9GHz-Speicher ansprechen kann. Falls das stimmt, scheidet GDDR5X dann wohl endgültig aus.

War das nicht explizit nur als Feature für P11 genannt, da es eine Menge Chipfläche verbrät, die man sich für P10 sparen wollte?

Ich tippe eher auf eine Kombination von vorselektierten GPUs, undervolting und niedrigeren Taktraten.
Unter Volllast (und darauf sollte sich die Verbrauchsangabe ja beziehen) bringt gating vermutlich eh nicht viel.

Skysnake
2016-10-10, 14:39:13
Frage ist nur, wann man überhaupt mal Volllast hat. Wenn man sich die Leistungsaufnahme von Games im Vergleich zu FuMark und GPGPU anschaut, dann haste wohl eher selten/nie Volllast beim Zocken.

Dino-Fossil
2016-10-10, 14:47:40
Sicher, aber darum geht es doch in so einer Angabe nicht.
Ich kann auch die "normale" 480 sparsamer bekommen, wenn ich sie z.B. auf 60 fps festtackere.

iuno
2016-10-10, 18:50:29
Und sicherlich war vor allem die embedded Variante gemeint und das passt auch gut zum xfx video, denn beide Angaben sind nur Chip.
"Board Power" = nur Chip

Weiss mal wieder keiner.

aufkrawall
2016-10-10, 21:03:49
Frage ist nur, wann man überhaupt mal Volllast hat. Wenn man sich die Leistungsaufnahme von Games im Vergleich zu FuMark und GPGPU anschaut, dann haste wohl eher selten/nie Volllast beim Zocken.
Da muss man nicht rumspekulieren, dazu gibt es Messungen:
http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-9.html
Wenn man die richtigen Spiele in der richtigen Auflösung spielt, ist man immer nah am/im Powertune-Limit.

Gipsel
2016-10-10, 22:20:59
Edit: Bitte sehr:

http://youtu.be/zWASNajSdpgDas Teil läuft schlicht mit vollen 100mV weniger als das Exemplar (gleiches Modell, auch XFX RX480 GTR), daß ich den Fingern hatte (1,062 statt 1,162V bei 1288MHz). Das macht sich natürlich bei Leistungsaufnahme und Temperatur bemerkbar. Ob das ein allgemeiner Trend mit neueren Chips ist, keine Ahnung.
Daß die embedded Variante aber anscheinend mit 95W Board-Power (also nicht nur Chip sondern Alles zusammen; Chip@65W statt 110W?) bei identischen Taktraten spezifiziert ist (allerdings natürlich unklar, wie gut die gehalten werden), scheint aber darauf hinzudeuten, daß mit entsprechendem Binning inzwischen ein deutlich niedrigerer Verbrauch machbar sein könnte.

N0Thing
2016-10-10, 22:35:59
Mit welchem Tool kann man sich eigentlich die GPU Spannung bei einer RX 480 anzeigen/aufzeichnen lassen? Sowohl GPU-Z als auch HW Monitor scheinen bei mir zu versagen.

von Richthofen
2016-10-11, 00:28:29
Das Teil läuft schlicht mit vollen 100mV weniger als das Exemplar (gleiches Modell, auch XFX RX480 GTR), daß ich den Fingern hatte (1,062 statt 1,162V bei 1288MHz). Das macht sich natürlich bei Leistungsaufnahme und Temperatur bemerkbar.

Hier läuft eine (neue) Asus auf 1310/2000 PT+-0 (Standard) mit 1,0625-1,075V Chipspannung. Niedrigere Stromaufnahme konnte ich weder auf GPU-Seite (Sensoren) noch am Strommessgerät feststellen.
Häher takten lässt sie sich ebenfalls nicht - 1400M;Hz sind nicht stabil

@NOThing
GPU-Z und auch der Afterburner lesen hier die angeblichen Stromverbräuche und Spannungen der GPU aus.

Gipsel
2016-10-11, 04:03:59
Niedrigere Stromaufnahme konnte ich weder auf GPU-Seite (Sensoren) noch am Strommessgerät feststellen.Niedriger als was? 100mV Spannungsabsenkung ohne Verbrauchsänderung (also bei gleichem Takt, wenn die Karte mit niedrigeren Spannungen einen höheren Takt hält, weil sie immer im Verbrauchslimit hängt, ist es ja bis auf die höhere Performance mit niedrigerer Spannung aus Verbrauchssicht fast egal) kann ich mir kaum denken (und die Variabilität der Leckströme ging mit den FF-Prozessen ordentlich runter). Oder das ist nicht der gleiche Chip (neues Stepping, deutlich anders getunter Prozeß).

dargo
2016-10-11, 08:35:36
Hier läuft eine (neue) Asus auf 1310/2000 PT+-0 (Standard) mit 1,0625-1,075V Chipspannung. Niedrigere Stromaufnahme konnte ich weder auf GPU-Seite (Sensoren) noch am Strommessgerät feststellen.

Dann wurden die 1310Mhz praktisch nie mit einer Defaultspannung von 1150mv(?) gehalten weil du ständig im PT gehangen hast.

Ailuros
2016-10-11, 10:22:07
https://forum.beyond3d.com/posts/1947285/

RX 480 was clocked a bit too high. They had to increase the voltage above the sweet spot too. Some reviewers downvolted their RX 480 and it both increased performance and reduced power load quite significantly. It seems that AMD did a last minute change to RX 480 voltage and clocks. This slighly increased performance, but reduced perf per watt and pushed them over the PCI-E spec. Or maybe they had yield problems with the new process and increased the voltage to be sure to hit their targets.

The new embedded Polaris based Radeons have tiny reductions in clock rate, but HUGE reductions in TDP. If this is the real perf per watt of Polaris, the situation is much better for AMD.

Botcruscher
2016-10-11, 11:06:39
So neu ist der Verdacht nun auch nicht. Die Frage ist eher an welchem Punkt es AMD dann versaut hat. GM204 als Ziel ist ja nun echt alt genug. Am Ende bleiben noch zwei Dinge: TDP ohne Tests sagt kaum was aus und wie weit reicht der Schritt um an Pascal mit Vega ranzukommen.

M4xw0lf
2016-10-11, 11:25:14
Man muss sich nur mal die GTX1060 ansehen und stellt fest, dass es bei Nvidia ganz genauso aussieht. Zb. auf der 3dcenter Startseite (http://www.3dcenter.org/news/die-realen-stromverbrauchswerte-von-amds-polaris-und-nvidias-pascal) gerade eben erst. Die 1060 hat auch nur etwas mehr als die halbe Effizienz der 1080 oder Titan, kaum besser als die 480.

dildo4u
2016-10-11, 11:33:38
Die 1060 ist schneller und zieht 40 Watt weniger und das ist die selbe Performance per Watt?
40 Watt bei 120 Gesammtverbauch ist ein massiver Anteil.

Botcruscher
2016-10-11, 11:41:45
Zb. auf der 3dcenter Startseite (http://www.3dcenter.org/news/die-realen-stromverbrauchswerte-von-amds-polaris-und-nvidias-pascal) gerade eben erst.

Nein. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11179658&postcount=42) Das sind die Werte visualisiert. Pascal ist im Moment vollkommen außer Konkurrenz. Durch den Mangel an AMD Chips fällt dies nur nicht so auf. Polaris ist schlicht nicht in den Regionen wo es richtig weh tut.

Ailuros
2016-10-11, 11:57:36
So neu ist der Verdacht nun auch nicht. Die Frage ist eher an welchem Punkt es AMD dann versaut hat. GM204 als Ziel ist ja nun echt alt genug. Am Ende bleiben noch zwei Dinge: TDP ohne Tests sagt kaum was aus und wie weit reicht der Schritt um an Pascal mit Vega ranzukommen.

https://forum.beyond3d.com/posts/1947404/

HOT
2016-10-11, 12:15:40
Die 1060 ist schneller und zieht 40 Watt weniger und das ist die selbe Performance per Watt?
40 Watt bei 120 Gesammtverbauch ist ein massiver Anteil.
Na jo, wenn das mit P10 Rev.2 stimmt ist der Vorteil gegessen. Das embedded-Modul verbraucht bei 5,8TFLOPs nur 95W (ich nehme an selektiert auf 1,0V oder 0,95V), die XFX-Karte verbraucht vermutlich ~130W (nur 100W Chip) @Stock (1,05V bei knapp 1300). Meine 480 (nur Chip) braucht bei den verwendeten Benchmarks 150W. Senke ich die Spannung auf 1,05V (Stock 1,125V, MSI GamingX) ab, bleiben davon noch 120W übrig. Das alleine erklärts also nicht. Ich vermute, dass AMD hier einen Metalspin gemacht hat und einen ähnlichen Effekt erzielt hat wie damals mit Thoroughbred A vs. Thoroughbred B.
Wenn das alles so hinhaut, wirds ein paar 480er-Modelle geben, die eben echt gut sind, andere eben nicht und ein Refresh (RX570?) würde dann deutlich besser performen.

dargo
2016-10-11, 12:17:40
Die 1060 ist schneller und zieht 40 Watt weniger und das ist die selbe Performance per Watt?
40 Watt bei 120 Gesammtverbauch ist ein massiver Anteil.
Schneller? Nur in DX11, reine Softwaresache. Man sollte auch nicht vergessen, dass die GTX1060 ein schmaleres SI hat. Das spart auch wenige Wattchen. Inwiefern jetzt 6GB vs. 8GB beim Stromverbrauch von Vorteil sind mag ich nicht beurteilen.

Botcruscher
2016-10-11, 12:20:50
Geht der Link auf deinen Post oder den darunter? So richtig ist das leider nicht zu erkennen. Der Argumentation wonach Pascal der Grund sein soll möchte ich auch nicht folgen. P10 schafft es mit hängen und würgen zwischen 970 und 980. Alleine das Marketing sprach schon zum Jahresanfang immer von einer Performancekarte wie der 970. GM204 MUSS also immer das Ziel der Entwicklung gewesen sein, lange bevor Pascal bekannt war. Gleichzeitig haben wir die Taktspekulationen aus der Zeit von um 1100 bis 1200 MHz. AMD muss sich also schon laaaaaaaaaaaannnnnnnge vorher entschieden haben nur 970er Level in 14nm abliefern zu wollen. Mit dem Anspruch sind sind sie dann zurecht überrollt wurden. Auf der anderen Seite haben wir den Post im B3D unter deinem der ganz klar auf die weiteren Mängel inklusive Spannungseigenschaften eingeht. Kurz: Auch wenn AMD noch 100 oder 200MHz raus gequetscht hat sieht es nicht besser aus. Das Designziel 970 stinkt dazu nach üblem Managementfehler. Ein AMD GM204@14nm reicht nicht.

Schneller? Nur in DX11, reine Softwaresache. Man sollte auch nicht vergessen, dass die GTX1060 ein schmaleres SI hat. Das spart auch wenige Wattchen. Inwiefern jetzt 6GB vs. 8GB beim Stromverbrauch von Vorteil sind mag ich nicht beurteilen.
An reiner Softwaresache sind schon viele gescheitert... Speichermenge zeigt in den Test der 480 kaum einen Unterschied. Mit dem SI sind es womöglich 10W.

Screemer
2016-10-11, 12:21:20
@dargo: ich bin ja normal ein verfechter von amd, was nv allerdings an perf/w mit pascal auf die straße ballert ist einfach nur respekt gebietend. einen solchen verlauf von perf/w wie bei gp104 gab es bisher noch nie. das zeigt auch das oben verlinkte diagram. das polaris besser könnte steht allerdings auch außer frage. hier hat man sich eindeutig bei takt und spannung vergriffen. eben das zeigen auch die werte der zur zeit heiß diskutierten xfx gtr.

Allerdings glaube ich auch, das mit gp102 das ende der fanenstange bei nv mit dieser grundarchitektur erreicht ist. Es gibt einfach zu viele hardwarespezufischen limitierungen, welche zwar derzeit nicht/kaum ins gewicht fallen aber in zukinft deitlich schwerer wiegen werden. Nv wird kaum etwas anderes übrigens bleiben als einen flexibleren weg ähnlich gcn zu gehen. Ob ihnen das mit einen paukenschlag gelingt oder sie dann mit ähnlichen problemen wie amd zu kämpfen haben werden wie amd muss sich noch zeigen.

dargo
2016-10-11, 12:22:08
Das embedded-Modul verbraucht bei 5,8TFLOPs nur 95W, die XFX-Karte verbraucht vermutlich ~130W (nur 100W Chip) @Stock (1,05V bei knapp 1300). Meine 480 (nur Chip) braucht bei den verwendeten Benchmarks 150W.
Da wäre ich noch vorsichtig. Die 1266Mhz in einem Notebook sind noch nirgendwo gesichert. Aber weniger als Desktop wird das Modul sicherlich verbrauchen, keine Frage. Möglicherweise selektiert man hier die Chips. In Notebooks ruft man andere Preise ab als am Desktop. Eventuell lohnt sich das dann. Die XFX GTR im Video von Jay für Desktop ist sicherlich ein Glücksgriff.

@dargo: ich bin ja normal ein verfechter von amd, was nv allerdings an perf/w mit pascal auf die straße ballert ist einfach nur respekt gebietend. einen solchen verlauf von perf/w wie bei gp104 gab es bisher noch nie.
Ich habe noch keine GPU von AMD in 16nm von TSMC gesehen, von daher erlaube ich mir noch keinen solchen Vergleich. Wer weiß schon wie es mit den Leckströmen zwischen GloFo 14nm und TSMC 16nm aussieht? Fakt ist NV braucht wesentlich weniger Spannung was dann eben auch in weniger Verbrauch resultiert.

von Richthofen
2016-10-11, 12:24:56
Niedriger als was?.

Der Verbrauch ist keinesfalls niedriger als das was allgemein als Durchschnitt unter Last bei einer 480 angesehen wird. Auch wenn es sich um ein Custom-Modell handelt.
Idle: 152W - Last: Mirror's Edge Catalyst: 335W (1310/2000MHz, 1,05V)
Damit sollte nur diesem Mini-Hype über den Test der XFX auf YT begegnet werden.

Dann wurden die 1310Mhz praktisch nie mit einer Defaultspannung von 1150mv(?) gehalten weil du ständig im PT gehangen hast.

Der volle (Standard-)Takt wird ständig gehalten ohne Änderung des PT.
Auch zu sehen im Benchmark des Mafia 3 Artikels auf PCGH (http://www.pcgameshardware.de/Mafia-3-Spiel-13148/Specials/Technik-Test-Review-1210010/).

dargo
2016-10-11, 12:33:10
Der volle (Standard-)Takt wird ständig gehalten ohne Änderung des PT.
Auch zu sehen im Benchmark des Mafia 3 Artikels auf PCGH (http://www.pcgameshardware.de/Mafia-3-Spiel-13148/Specials/Technik-Test-Review-1210010/).
Dann ist das PT bei der Custom Asus höher als bei einer Referenz RX480. Anders ist das mit ~1150mV nicht zu erreichen. Wenn du deiner Karte allerdings 75-100mV weniger gönnst sollte der Stromverbrauch bei gleichen Takt doch spürbar fallen. Lass doch mal Heaven laufen dann haben mir einen Vergleich zu der XFX GTR von Jay.

Screemer
2016-10-11, 12:33:29
Ich habe noch keine GPU von AMD in 16nm von TSMC gesehen, von daher erlaube ich mir noch keinen solchen Vergleich. Wer weiß schon wie es mit den Leckströmen zwischen GloFo 14nm und TSMC 16nm aussieht? Fakt ist NV braucht wesentlich weniger Spannung was dann eben auch in weniger Verbrauch resultiert.
Völlig richtig. Allerdings interessiert das den endkunden schkicht und ergreifend gar nicht. Wichtig ist was hinten raus kommt. Ich mach mir wegen ~15-20% schlechter perf/w nicht ins hemdchen. Das ist ein imho rein von der presse geschürter glaubenskrieg um die auflage hoch zu halten. Da dreht sich die fahne eben immer im wind. Bei gleichstand gäbs was anderes. Zb das forsiertes 16*af auf amd mehr kostet. Obwohl es völlig schwachsinnig ist alles so zu filtern.

Ailuros
2016-10-11, 12:36:15
Geht der Link auf deinen Post oder den darunter? So richtig ist das leider nicht zu erkennen. Der Argumentation wonach Pascal der Grund sein soll möchte ich auch nicht folgen. P10 schafft es mit hängen und würgen zwischen 970 und 980. Alleine das Marketing sprach schon zum Jahresanfang immer von einer Performancekarte wie der 970. GM204 MUSS also immer das Ziel der Entwicklung gewesen sein, lange bevor Pascal bekannt war. Gleichzeitig haben wir die Taktspekulationen aus der Zeit von um 1100 bis 1200 MHz. AMD muss sich also schon laaaaaaaaaaaannnnnnnge vorher entschieden haben nur 970er Level in 14nm abliefern zu wollen. Mit dem Anspruch sind sind sie dann zurecht überrollt wurden. Auf der anderen Seite haben wir den Post im B3D unter deinem der ganz klar auf die weiteren Mängel inklusive Spannungseigenschaften eingeht. Kurz: Auch wenn AMD noch 100 oder 200MHz raus gequetscht hat sieht es nicht besser aus. Das Designziel 970 stinkt dazu nach üblem Managementfehler. Ein AMD GM204@14nm reicht nicht.


Wenn Du mich meinen solltest gehen die links bei mir hier schon. AMD hat die um einiges hoeheren Frequenzen fuer Pascal einfach nicht erwartet. Ihr eigentliches Ziel war ein gesundes Prozentual vor jeglichem GP106 zu landen und nicht darunter. Hatte man jetzt eine Ziel-frequenz von sagen wir mal 1050MHz dann wurde das originale Ziel auch vollkommen erreicht, nur dass was man eben an zusaetzlicher Frequenz bzw. Voltage geringfuegig dazugesteckt hat, hat eben leider den Stromverbrauch zu stark negativ beinflusst.

Es ist nicht so dass AMD wohl ueberhaupt keine hoehere Frequenzen fuer Pascal erwartet hat, aber eine um 45% hoehere Boost-Frequenz fuer GP106 (vs. GM106) wohl nicht. Wohl eher IMO irgendwo 25% mehr clusters fuer GP106 und =/>10% mehr Frequenz.

dargo
2016-10-11, 12:37:08
Speichermenge zeigt in den Test der 480 kaum einen Unterschied.
Wo gibt es Tests mit exakt der gleichen Karte 4GB vs. 8GB? Und damit meine ich nicht nur den Namen. Hier muss alles exakt gleich sein... Spannungen, PT, Taktraten und PCB.

Völlig richtig. Allerdings interessiert das den endkunden schkicht und ergreifend gar nicht.
Da hast du schon Recht. Das mit dem höheren Stromverbrauch wird aber imho speziell in DE, wenn nicht sogar nur einzelnen Nerd-Foren wie 3DC ziemlich aufgebauscht. Gleiches gilt für die Geräuschkulisse. Ich meine mir ist eine leise Grafikkarte auch sehr wichtig. Man sollte aber das ganze auch bisschen über den Tellerrand betrachten. Ich erinnere mich noch sehr gut an den Satz von igor was zb. Asiaten angeht. Dort verbindet man Lautstärke mit Leistung. ;) Einfach die Sache etwas globaler sehen. :) Wir reden hier bloß nur noch von ~20-40W (RX470-RX480) Unterschied, das sind nun wirklich keine Welten.

von Richthofen
2016-10-11, 13:04:35
Dann ist das PT bei der Custom Asus höher als bei einer Referenz RX480. Anders ist das mit ~1150mV nicht zu erreichen. Wenn du deiner Karte allerdings 75-100mV weniger gönnst sollte der Stromverbrauch bei gleichen Takt doch spürbar fallen. Lass doch mal Heaven laufen dann haben mir einen Vergleich zu der XFX GTR von Jay.

Weiss nicht was du ständig mit dieser Zahl 1150mV hast. Die Asus hier kommt nie annähernd in diese Regionen.

Heaven:
1,043-1,050V
1310/2000MHz
GPU-Power: 112-127Watt (meist 122W/123W)

dargo
2016-10-11, 13:08:39
Weiss nicht was du ständig mit dieser Zahl 1150mV hast. Die Asus hier kommt nie annähernd in diese Regionen.

Sorry, dann habe ich dich falsch verstanden. In der Regel läuft die RX480 beim höchsten Takt mit 1150mV. Wenn die Spannung bei deiner ohne UV so niedrig ist dann hast du auch entweder Glück gehabt oder Asus selektiert.


Heaven:
1,043-1,050V
1310/2000MHz
GPU-Power: 112-127Watt (meist 122W/123W)
Danke... jetzt vergleiche das Mal mit der XFX GTR von Jay. Die lag afaik bei ~85W GPU @1288Mhz und 1056-1062mV. Das ist noch ein gutes Stück weniger, die ganzen Verluste der Spannungswandler sind noch gar nicht in der Rechnung.

HOT
2016-10-11, 13:30:10
Es gibt einfach zu wenig Daten derzeit. Da sind wir gezwungen abzuwarten, wie sich das mit der evtl. Polaris rev.2 entwickelt. Es ist jedenfalls keineswegs gesichert, dass die 1060 den Kampf wirklich gewonnen hat (das seh ich sowieso nicht so, weil die 480 einfach brutal mehr Rechenleistung hat, die noch freigesetzt werden kann mit neurer Software).
Und eines ist glasklar: Zwischen 160W Boardverbrauch bei 1266MHz Referenz und 95W Boardverbrauch bei 1266MHz Embedded ist ein gigantischer Unterschied, das lässt sich keinesfalls mit Fertigungsvarianz erklären.

Complicated
2016-10-11, 14:20:20
Kurz: Auch wenn AMD noch 100 oder 200MHz raus gequetscht hat sieht es nicht besser aus. Das Designziel 970 stinkt dazu nach üblem Managementfehler. Ein AMD GM204@14nm reicht nicht.
Einen Managementfehler zu unterstellen halte ich für zu weit gegriffen. AMD hat seine Ziele dennoch erreicht auch wenn das hier im Forum nicht so recht eingesehen wird. Klares Ziel war das bevorzugte beliefern der OEMs. Zudem eine GTX 970 Performance+x% zum 199,- $ Preispunkt. Dies ist auch gelungen und es werden wieder Marktanteile dazu kommen.

Dass Nvidia das nicht aussitzt war ja auch zu erwarten. Schließlich ist deren Management auch nicht verblödet. Im Gegenteil, es war eine richtige Überraschung wie früh Pascal released wurde. Nur hat das den Markt den AMD anvisiert hat mit seinem Polaris überhaupt nicht tendiert bisher. Der Schnittpunkt ist hier in Europa 250,- € in den US-Märkten 199,- $. Wäre Pascal 2 Monate später gekommen hätte AMD sicherlich noch mehr profitieren können bei Marktanteilen, doch das wäre wohl nur ein Bonus gewesen.

AMD muss um Marktanteile kämpfen dieses und nächstes Jahr, wenn es seine Stärken in Hardware auch in der Software unterstützt sehen will. Diese Lektion haben sie ganz sicher von Intel und Nvidia gelernt.

tm0975
2016-10-11, 14:58:24
ich denke auch, dass viele hier die situation von amd verkennen. es ist noch gar nicht lange her, als noch massive wetten auf die insolvenz von amd liefen, mit börsenkursen deutlich unter 2 $. das scheint glücklicherweise vom tisch. das heißt aber noch lange nicht, dass amd aus den vollen schöpfen kann. die prio liegt bei amd seit einigen quartalen bei ZEN und die cpu muß der große wurf werden. wenn zen erfolgreich wird, wird es auch wieder höhere investitionen bei den gpus geben. zz macht amd bei minimalem budget die größtmögliche schadensbegrenzung, mehr (noch) nicht. und solange in einigen foren selbst für gelegenheitsspieler eine 1070 statt der locker reichenden 470 oder bei multimedia-pcs ein pention statt eine amd apu empfohlen wird, wird das auch so bleiben bei amd.

Troyan
2016-10-11, 15:03:54
Einen Managementfehler zu unterstellen halte ich für zu weit gegriffen. AMD hat seine Ziele dennoch erreicht auch wenn das hier im Forum nicht so recht eingesehen wird. Klares Ziel war das bevorzugte beliefern der OEMs. Zudem eine GTX 970 Performance+x% zum 199,- $ Preispunkt. Dies ist auch gelungen und es werden wieder Marktanteile dazu kommen.

Welche Ziele hat AMD erreicht?
Vor nVidia? Nein. Notebookmarkt? Nein. VR Premium für $199? Lachhaft. Es wurde nichts gehalten, was man versprochen hat. Ist auch eine beeindruckende Leistung des Managements.

Polaris 11 wird jetzt 11 Monate. Immer noch MIA für den "OEM Markt".

gedi
2016-10-11, 15:32:11
Sorry, dann habe ich dich falsch verstanden. In der Regel läuft die RX480 beim höchsten Takt mit 1150mV. Wenn die Spannung bei deiner ohne UV so niedrig ist dann hast du auch entweder Glück gehabt oder Asus selektiert.


Danke... jetzt vergleiche das Mal mit der XFX GTR von Jay. Die lag afaik bei ~85W GPU @1288Mhz und 1056-1062mV. Das ist noch ein gutes Stück weniger, die ganzen Verluste der Spannungswandler sind noch gar nicht in der Rechnung.

... und wer sagt dir, dass die angezeigten Werte nicht manipuliert worden sind? Im Watt-Tool die Current Scale auf weniger als 60 und et voila - schon hast du im OSD bereits einen manipulierten Wert, welcher unter Garantie weniger anzeigt, als die Karte in Wirklichkeit braucht.

http://up.picr.de/27097008fs.jpg



Zudem lastet Heaven die Karten niemals so stark aus, wie z.B. ein MEC.

Screemer
2016-10-11, 16:11:33
jey ist nicht gerade bekannt sich sonderlich für amd einzusetzen ;)

dargo
2016-10-11, 16:20:39
... und wer sagt dir, dass die angezeigten Werte nicht manipuliert worden sind?
Warum sollte er das bei XFX GTR tun und bei Gigabyte Gaming nicht? Wird er von XFX bezahlt? :D


Zudem lastet Heaven die Karten niemals so stark aus, wie z.B. ein MEC.
Es geht mir doch gar nicht darum ob das der maximale Verbrauch ist. Es geht mir um den Vergleich unter gleichen Bedingungen zwischen verschiedenen P10.

Botcruscher
2016-10-11, 16:51:46
Einen Managementfehler zu unterstellen halte ich für zu weit gegriffen. AMD hat seine Ziele dennoch erreicht auch wenn das hier im Forum nicht so recht eingesehen wird. Klares Ziel war das bevorzugte beliefern der OEMs. Zudem eine GTX 970 Performance+x% zum 199,- $ Preispunkt. Dies ist auch gelungen und es werden wieder Marktanteile dazu kommen.
Schön wenn es so wäre. Obwohl P10 recht brauchbar ist wird AMD über alle Segmente kaum Marktanteile gewinnen. Die Zahlen werden zwar besser sein aber zuviel ist auch nicht zu erwarten. Bei Mindfactory sieht es alles andere als rosig aus. 1060 und vor allem die teurere 1070 gehen weg wie warme Semmeln.
Ich bezweifle das AMD überhaupt profitiert hat. Kommende Berichte werden extrem interessant
AMD muss in der Situation vor allem Masse zu kleinen Preisen rausballern. 470/480 sind Momentan im Schnitt deutlich zu teuer. Bei 400 lauert inzwischen die 1070 bei gleich gutem P/L.

Nightspider
2016-10-11, 17:15:36
Was meint ihr ob sich dir RX480 positiv auf die Quartalszahlen von AMD auswirken wird nächste Woche?
Wenn ich mir die Verkaufszahlen bei Mindfactory ansehe scheint sich das Verhältnis von AMD zu NV nicht wirklich verbessert zu haben.

tm0975
2016-10-11, 17:29:56
amd selbt hat eine recht ordentliche prognose (ca +20% QtQ) abgeliefert, da wird auch polaris seinen beitrag liefern. nvidia hat in deutschland überproportionalen marktanteil, andere regionen sind preissensitiver und weniger verbrauchsorientiert. zudem darf man bei den mindfactory zahlen nicht vergessen, dass die ganzen 480er referenzkarten, die mf verkauft hat, wieder raus sind aus dem angebot. die sapphiere hat sich alleine etwas mehr als 1690 mal verkauft, in summe dürfen 2500 bis 3000 referenzkarten verkauft worden sein, die in einer aktuellen statistik fehlen. vergleichbare karten gab es bei der 1060 nicht, weswegen der aktuelle stand bei mf besser für nvidia aussieht als er ist.

iuno
2016-10-11, 18:30:02
In der Regel läuft die RX480 beim höchsten Takt mit 1150mV

In der Regel? Nein, im worst case. Man sieht doch überall 480er die im höchsten dpm state Spannungen um 1050 hatten. 1150 ist das Maximum was eingestellt wird, beim Minimum bin ich mir nicht mehr sicher, vielleicht 1000.
Diese Karten verbrauchen halt normal trotzdem mehr, das sieht man ja auch an der wassergekühlten.

@Ailu: ist der User von besonderer Bedeutung oder warum postest du das hier? Es war doch von Anfang an klar, dass die Spannungen im Mittel wieder zu hoch sind.

Hält es denn jemand für realistisch, dass es ein neues stepping gibt oder die Fertigung derart besser geworden ist?

Complicated
2016-10-11, 18:35:30
Polaris 11 wird jetzt 11 Monate. Immer noch MIA für den "OEM Markt".
Keine Ahnung was du meinst, aber Polaris ist noch keine 3 Monate am Markt.
http://www.pcgameshardware.de/Notebook_Laptop-Hardware-201330/News/AMD-Polaris-RX-470-Alienware-15-17-1206645/
https://www.computerbase.de/2016-08/benchmarks-amd-vergleicht-rx-460-fuer-den-desktop-und-das-notebook/
http://radeon.com/en-us/hp-omen/
http://www.notebookcheck.com/Apple-MacBook-Pro-Kleiner-duenner-und-mit-AMD-Polaris-GPU.171240.0.html

Screemer
2016-10-11, 18:58:08
In der Regel? Nein, im worst case. Man sieht doch überall 480er die im höchsten dpm state Spannungen um 1050 hatten. die gabs am anfangs aussieht gar nicht. Ich weiß nochbwie verwundert wir waren als wir die ersten posts über eine powercolor mit der spannung hatten.

@complicated: jetzt tu nicht so als wüsstest du nicht was er meint. P11 wurde das erste mal im nov. 15 präsentiert und das mit mehr oder weniger konkreten zahlen. Das weißt du ganz genau. Der treffen seines posts ist natürlich genau so polemik wie deiner.

Complicated
2016-10-11, 19:14:02
Ja was soll das denn Aussagen? Polaris ist vor 11 Monate präsentiert worden, 3 Monate am Markt und bei reichlich OEMs am Start.

Also was ist da gemeint mit "MIA für den OEM Markt"? Und was bitte soll an meiner Frage polemisch sein?

Gipsel
2016-10-11, 19:36:13
In der Regel? Nein, im worst case.Wie Screemer schon schrieb, die Chips der Karten der ersten Batches liefen praktisch alle mit 1,15V, vielleicht gab es mal eine Karte mit 1,125V oder so, aber drunter habe zumindest ich kaum was gesehen.
Und im Worstcase waren es bei Custom-Modellen sogar noch mehr als 1,15V. Ich selber hatte eine der ersten XFX RX480 GTR (die normale Version mit 1288MHz, nicht die BE mit 1338MHz) in den Fingern, die im höchsten Powerstate 1,162V haben wollte. Und das Teil hat trotzdem praktisch überall (außer Furmark) den vollen Takt gehalten, selbst ohne Anhebung des Power-Limits. Das Limit für den Chip war bei der Karte per Default deutlich über die standardmäßigen 110W angehoben, sonst hätte das nie klappen können. Und heizen tut die Karte dann natürlich auch entsprechend. Wenn inzwischen beim gleichen Modell viele Chips mit 100mV weniger ausgeliefert werden, schlägt sich das natürlich im Verbrauch nieder.

PrivateCeralion
2016-10-11, 19:37:35
Ich bin ja mal gespannt, wie AMD genau 20% mehr Umsatz macht. Polaris, PS4 Pro, aber vielleicht kommt da noch mehr.
Momentan wird es ja als gegeben angesehen, dass im Nintendo NX ein Nvidia Chip sitzt. Da ist es echt seltsam, warum der AMD Ruby Twitter Account seid einer Woche Daten zu Nintendo NX leakt. Vielleicht kann jemand von euch da auch mal nach schauen.

maximus_hertus
2016-10-11, 19:47:39
@complicated: jetzt tu nicht so als wüsstest du nicht was er meint. P11 wurde das erste mal im nov. 15 präsentiert und das mit mehr oder weniger konkreten zahlen. Das weißt du ganz genau. Der treffen seines posts ist natürlich genau so polemik wie deiner.

Nope, ich kapiere Troyans Satz bzw. Sätze (auch) nicht. Nicht mal im Ansatz.

Bzw. ich glaube er meint, dass man im Retail Markt immer noch keine Polaris 11 Karten kaufen kann. das ist aber eindeutig falsch. Und 11 Monate? Was heißt "präsentiert"? Unter NDA? AMD hat also fast ein Jahr die komplett fertige Hardware zurück gehalten? Ab wann ist ein CHip x Monate alt? ab wann ist eine "Präsentation" ein defakto Launch?

Kepler war auch schon über 1 Jahr alt, bis man endlich Karten kaufen konnte (Consumer, GK110 vs Keplerpräsentation). Aber Troyan, der alte nV-Troll, biegt sich ja immer alles zurecht ;)

Wie gesagt, sein Posting hat für mich aktuell keinen Sinn, da ich nicht kapiere, was er sagen will :(

dargo
2016-10-11, 19:49:39
Wie Screemer schon schrieb, die Chips der Karten der ersten Batches liefen praktisch alle mit 1,15V, vielleicht gab es mal eine Karte mit 1,125V oder so, aber drunter habe zumindest ich kaum was gesehen.
Und im Worstcase waren es bei Custom-Modellen sogar noch mehr als 1,15V. Ich selber hatte eine der ersten XFX RX480 GTR (die normale Version mit 1288MHz, nicht die BE mit 1338MHz) in den Fingern, die im höchsten Powerstate 1,162V haben wollte. Und das Teil hat trotzdem praktisch überall (außer Furmark) den vollen Takt gehalten, selbst ohne Anhebung des Power-Limits. Das Limit für den Chip war bei der Karte per Default deutlich über die standardmäßigen 110W angehoben, sonst hätte das nie klappen können. Und heizen tut die Karte dann natürlich auch entsprechend. Wenn inzwischen beim gleichen Modell viele Chips mit 100mV weniger ausgeliefert werden, schlägt sich das natürlich im Verbrauch nieder.
Genau so habe ich es in Erinnerung. So eine ~1050mV Custom Karte mit nicht weit über 1266Mhz (die 1288Mhz der GTR sind da ideal) müsste mal igor in die Finger bekommen. Würde mich interessieren ob man hier in die Region von 150-160W kommt.

iuno
2016-10-11, 19:54:45
Gut, ich hatte es anders in Erinnerung. Vielleicht waren es Einzelfaelle, aber diese Karten gab es von Anfang an.
Und dass es Customs mit mehr als 1150 gibt, hatte ich gar nicht bestritten. Bei OC Modellen nur normal und schon seit Jahren so, dass die einen offset drauf geben.

dargo
2016-10-11, 19:57:21
Ich habe gerade nochmal bei GH geschaut. Es gibt überhaupt keine Custom ohne OC. :D

iuno
2016-10-11, 19:59:58
Ja ist ja gut ;p

Aber naja, ist schon Verschwendung, wenn so eine Karte bei so einem "Tester" landet. Mich wuerde schon interessieren, (ob) was dahinter ist.

reaperrr
2016-10-11, 20:43:02
Ich bin ja mal gespannt, wie AMD genau 20% mehr Umsatz macht. Polaris, PS4 Pro, aber vielleicht kommt da noch mehr.
Momentan wird es ja als gegeben angesehen, dass im Nintendo NX ein Nvidia Chip sitzt. Da ist es echt seltsam, warum der AMD Ruby Twitter Account seid einer Woche Daten zu Nintendo NX leakt. Vielleicht kann jemand von euch da auch mal nach schauen.
Meine Vermutung:

Der Controller mit Bildschirm hat Tegra zum streamen und evtl. für weniger anspruchsvolle Titel (ersetzt mittelfristig eventuell 3DS?), Dock-Station hat leistungsfähigeren AMD-SoC für 1080p@60fps (wofür der Tegra eindeutig viel zu langsam wäre).

Ailuros
2016-10-12, 09:51:32
@Ailu: ist der User von besonderer Bedeutung oder warum postest du das hier? Es war doch von Anfang an klar, dass die Spannungen im Mittel wieder zu hoch sind.



Sebbi ist ein erfahrener graphics engineer bei RedLynx. Er ist sachlich, so objektiv wie moeglich und alle seine Beitraege haben ihren eigenen Wert wie auch das hier welches auch noch randmaessig on topic hier ist: https://forum.beyond3d.com/posts/1947527/

Skysnake
2016-10-12, 11:08:56
Ja, das ist wirklich mal ein guter Beitrag.

BlacKi
2016-10-13, 21:21:42
Danke Raff und Carsten für den test/zusammenfassung. alles wichtige in einem test. sachen die man in den ersten reviews nicht lesen konnte. auch den hypetrain habt ihr eingefangen^^

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/RX-480-Test-1199839/

Schaffe89
2016-10-14, 01:43:05
Schön wenn es so wäre. Obwohl P10 recht brauchbar ist wird AMD über alle Segmente kaum Marktanteile gewinnen.

Ich in mir recht sicher dass AMD verlieren wird. Aktelle MF Hochrechnungen bewegen sich bei 15000 GTX 1060 und 7300 rx480+rx470, also bisschen weniger alsdie Hälfte, ergo gut 30% Marktanteil gegenüber der GTX 1060, kommen noch GTX 1070 die extrem beliebt ist und die GTX 1080 sowie Pascal Titann dazu. Das wird niemals für AMD reichen Marktanteile zu gewinnen, in wenigen Tagen kommt die GTX 1050, dann wirds für die rx460 richtig schwer.#

3 Monate am Markt und bei reichlich OEMs am Start.

Reichlich am Start? Selten so gelacht.

Fermin Romero de Torres
2016-10-14, 06:06:17
Morgen!

Als Einstieg gibt es von mir auch eine Mindfactory-Auszählung, sind ja scheinbar recht beliebt hier :)

RX 480: 5530 Stück davon 5260 Customs und 270 Referenz (ASUS)
RX 480 Bonus (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11119185#post11119185): 2905 Stück Referenz (da damals keine Customs lieferbar; unsicher ob 4GB Referenz enthalten ist)
RX 470: 2535 Stück
GTX 1060 6GB & 3GB: 14205 Stück

Polaris 10 Total: min. 10700 Stück (ASUS RX 480 Referenz nicht enthalten um Doppelzählung auszuschließen)
GP106 Total: 14205 Stück

~43% (Polaris 10) zu ~57% (GP106)


Habe mir extra Mühe gegeben und alles zwei Mal durchgezählt :D Trotzdem keine Garantie auf Vollständigkeit oder Richtigkeit. Nur die Neutralität bei der Methodik ist gewährt.

Isen
2016-10-14, 07:13:25
Via Amazon DE Händler sind das 10 Fache an Verkäufen als MF.

Gibt zahlreiche Scripte die dir die Verkäufe ermitteln und Stückzahlen.
Wenn einer kein FBA verwendet, muss man halt öfters ran.

Absatz und Umsatz kriegt man dadurch gut erkennbar.

Via Amazon Händler hat bis Sept. AMD mehr verkauft.

MF ist Kindergarten, Leute.

Hübie
2016-10-14, 07:25:28
Wie kann ich denn als Kunde bei amazon.de Skripte laufen lassen, die mir die Mengen anzeigen? :| Du magst Recht haben, dass dort mehr verkauft wird, jedoch kennt man hier keinen Händler abseits MF der Stückzahlen präsentiert. Nur deshalb ziehen die Leute MF heran.

Es gibt bezahlbare Studien...

dargo
2016-10-14, 08:17:51
Morgen!

Als Einstieg gibt es von mir auch eine Mindfactory-Auszählung, sind ja scheinbar recht beliebt hier :)

RX 480: 5530 Stück davon 5260 Customs und 270 Referenz (ASUS)
RX 480 Bonus (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11119185#post11119185): 2905 Stück Referenz (da damals keine Customs lieferbar; unsicher ob 4GB Referenz enthalten ist)
RX 470: 2535 Stück
GTX 1060 6GB & 3GB: 14205 Stück

Polaris 10 Total: min. 10700 Stück (ASUS RX 480 Referenz nicht enthalten um Doppelzählung auszuschließen)
GP106 Total: 14205 Stück

~43% (Polaris 10) zu ~57% (GP106)


Habe mir extra Mühe gegeben und alles zwei Mal durchgezählt :D Trotzdem keine Garantie auf Vollständigkeit oder Richtigkeit. Nur die Neutralität bei der Methodik ist gewährt.
Willkommen im Forum und danke für die Aufzählung. Unser Dauer-Unruhestifter Schaffe übersieht mal wieder gerne, dass die meisten Referenzkarten von P10 bei MF gar nicht mehr lieferbar sind.

Troyan
2016-10-14, 09:03:37
Via Amazon DE Händler sind das 10 Fache an Verkäufen als MF.

Gibt zahlreiche Scripte die dir die Verkäufe ermitteln und Stückzahlen.
Wenn einer kein FBA verwendet, muss man halt öfters ran.

Absatz und Umsatz kriegt man dadurch gut erkennbar.

Via Amazon Händler hat bis Sept. AMD mehr verkauft.

MF ist Kindergarten, Leute.

Also lügt Amazon mit ihrer "Bestseller"-Liste: https://www.amazon.de/gp/bestsellers/computers/430161031/ref=s9_top_hd_bw_bT6uX9_clnk?pf_rd_m=A3JWKAKR8XB7XF&pf_rd_s=merchandised-search-4&pf_rd_r=719RSPZ938VYHM3T35SE&pf_rd_t=101&pf_rd_p=d2b28cf0-abb1-58c4-94cc-d89b9547422a&pf_rd_i=430161031

Isen
2016-10-14, 09:47:16
Nö, Troyan. Das heißt nur, dass du einfach keine Ahnung davon hast.

@Hübie,

unabhängig ob Kunde oder nicht. Das ist normale Konkurrenz Analytik. Script nimmt man einfach, um die Frequenz hinzukriegen, die man so "Menschlich" nicht bewerkstelligen kann.
Du kannst, wenn du um 00:00 bis 00:00 alle 10min nachsiehst, zumindest bei einem Posten bei einem Händler nachvollziehen, wie viel der am Tag verkauft, und wenn dieser ein FBA verwendet sogar feststellen, wie viele der im Lager davon hat.

Complicated
2016-10-14, 09:48:24
Amazon: Stündlich aktualisiert.
Nein die lügen nicht. Nur hilft es auch zu wissen was in einer Liste angezeigt wird.
Der Verkaufsrang zeigt auf, wie oft sich ein Buch oder eBook auf einer länderspezifischen Amazon-Seite aktuell (!) verkauft, und zwar im Vergleich zu allen anderen Büchern bzw. eBooks. Verkäufe bei Amazon.com beeinflussen den Rang bei Amazon.de nicht – und umgekehrt. Auch das Verschenken von eBooks wird nicht beim Sales Rank berücksichtigt. Ebenso wenig spielt es eine Rolle, ob ein Kunde nach dem Buch gesucht oder sich dessen Detailseite angesehen hat – es handelt sich um den Verkaufsrang, nicht um die Popularität (eine andere Amazon-Bestenliste, auf die ich in einem späteren Artikel eingehen werde). Und schließlich misst der Sales Rank auch nicht, wie oft sich ein Titel insgesamt verkauft hat
Als Schnittmenge aller bisherigen Erkenntnisse lässt sich zumindest sagen, dass ein wesentlicher Faktor des Amazon-Algorithmus die Definition des Berechnungszeitraums ist. Der Computer nimmt offenbar die Verkäufe in den letzten x Stunden zur Basis seiner Berechnung. Welchen Wert x hat, darüber lässt sich streiten – wahrscheinlich ist ein Wert zwischen 12 und 24 Stunden. Verkäufe, die älter sind, fließen aber wohl auch noch in das Ergebnis ein, allerdings mit einem auf das Alter bezogenen Gewichtungsfaktor. Sollte sich ein Top-10-Titel ein paar Stunden lang gar nicht verkaufen, dauert es mehrere Tage, bis er nicht mehr in den Top500 ist.

Hübie
2016-10-14, 09:53:47
Nö, Troyan. Das heißt nur, dass du einfach keine Ahnung davon hast.

@Hübie,

unabhängig ob Kunde oder nicht. Das ist normale Konkurrenz Analytik. Script nimmt man einfach, um die Frequenz hinzukriegen, die man so "Menschlich" nicht bewerkstelligen kann.
Du kannst, wenn du um 00:00 bis 00:00 alle 10min nachsiehst, zumindest bei einem Posten bei einem Händler nachvollziehen, wie viel der am Tag verkauft, und wenn dieser kein FBA verwendet sogar feststellen, wie viele der im Lager davon hat.

Was ist FBA und wer bitte hat Zeit und Lust 24 Stunden lang alle 10 Minuten nachzusehen? :| Sehr weit hergeholt...

mkh79
2016-10-14, 10:00:17
"Script" impliziert, dass es automatisiert statt findet.

Hübie
2016-10-14, 10:01:33
Und wie geht das? :| Wenn jemand hier so versiert ist kann er das doch mal laufen lassen...

Isen
2016-10-14, 10:03:12
@Hübie,

eben. Keiner. Daher Scripte, Automatisiert eben.
Hinzu kommt natürlich noch Recherche dazu. Ist ein Dienst, besser gesagt Markt, wie der Hochfrequenzhandel.

@FBA - kein = ein.

Der Händler gibt an, wie sein Lagerbestand ist. Ist dies der Fall kannst du indem du einfach das Teil in dein Warenkorb steckst und die Stückzahlen erhöhst. Ist die Anzahl dann erreicht, wird dir angezeigt wie viele davon verfügbar sind.
Hast du einen solchen Händler gefunden, kannst du allein nachvollziehen, wie viel er hat, wie viel am Tag verkauft und wann sein Lager leer ist bzw. aufgefüllt wurde.

Edit: Kannst sogar nachvollziehen, ob MF da richtige Zahlen nennt ;-)

Und wie geht das? :| Wenn jemand hier so versiert ist kann er das doch mal laufen lassen...

lol... bin ich die Steuerfahndung/Finanzamt die auf Geldwäsche Prüfen :D?
Deren Job und der Konkurrenz die dafür Kohle blecht. Für lau macht dir das keiner.

Hübie
2016-10-14, 10:07:51
Dann hatte ich es falsch verstanden. Dachte ich muss alle zehn Minuten da einen Bestellvorgang auslösen und das Skript greift da Daten ab. Hab eben kein Plan davon. =) Kann das nicht mal einer machen? Freiwillige vor!

Botcruscher
2016-10-14, 10:28:27
Willkommen im Forum und danke für die Aufzählung. Unser Dauer-Unruhestifter Schaffe übersieht mal wieder gerne, dass die meisten Referenzkarten von P10 bei MF gar nicht mehr lieferbar sind.

Die Kritik mag berechtigt sein aber es wurde ja nur GP106 verglichen. Alleine die 1070 kommt auf 21860. Demnach läuft das Geschäft im Midrange nach Jahren der 28nm Fertigung doch eher bescheiden. Ein Großteil der Zielgruppe scheint schlicht nach mehr Leistung zu verlangen und schon mit gleichwertigem eingedeckt zu sein. Für aufrüstwillige Besitzer der Klasse 970/290 ist es eben keine interessante Option. Da gehöre ich selber dazu und bis Vega hebt mich erst mal überhaupt nichts an.
Alte Generäle neigen eben dazu die letzten Schlachten zu wiederholen. Gute Verkäufe im Performance von Gestern ist eben nur Midrangeeinerlei von heute.

Dino-Fossil
2016-10-14, 10:54:54
Wirklich verlässliche Verkaufszahlen können wir doch eh nicht einsehen.

Aber was mich als mid-range Käufer bisher vom Kauf abgehalten hat, ist der Preis, der bei 480 und 470 mMn noch ein wenig zu hoch ist (bei der 1060 schaut's nicht besser aus).

HOT
2016-10-14, 13:00:49
Ist auch verständlich, warum sich die 480 gut verkauft - deswegen sind die ja auch noch ziemlich teuer ggü. der 1060. Preise sind ja immer Folge, nie Ursache. Freesync und 8GB sind halt doch Zugpferde. NV könnte sofort mehr verkaufen, wenn die Freesync für die 1060 freigeben würden. Aber GSync bei der 1060 ist von der Preisgestaltung her absurd. Auch wenn das auf den ersten Blick ziemlich schwach aussieht, werden das viele Retailkäufer im Hinterkopf haben, zumal die Presse da auch ihr übriges tut. Sollten die Verkäufe dann zurückgehen, kann man ja ne 485 mit P10 rev.2 und 9Gbps RAM nachschieben, die ist dann in jedem Falle vor der 1060. Die 480 wird auch als 8GB-Variante in 2017 auf ca. 220€ zurückfallen, das ist denke ich jetzt schon absehbar.

dargo
2016-10-14, 13:17:49
Die Kritik mag berechtigt sein aber es wurde ja nur GP106 verglichen. Alleine die 1070 kommt auf 21860. Demnach läuft das Geschäft im Midrange nach Jahren der 28nm Fertigung doch eher bescheiden. Ein Großteil der Zielgruppe scheint schlicht nach mehr Leistung zu verlangen und schon mit gleichwertigem eingedeckt zu sein.
Wie oft muss man denn noch sagen, dass Deutschland global ein Furz ist und in DE die Spieler bereit sind mehr Geld für Hardware als der Durchschnitt auszugeben? Man könnte auch sagen, uns geht es besser als dem Rest der Welt.

Sollten die Verkäufe dann zurückgehen, kann man ja ne 485 mit P10 rev.2 und 9Gbps RAM nachschieben, die ist dann in jedem Falle vor der 1060.
Nicht wirklich nötig. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11183445&postcount=164

RX470 @GTX1060 Niveau, also das was ich bei neueren DX12 Games erwartet habe. Natürlich noch mit etwas Vorsicht zu genießen. Ist noch recht frisch.

Pirx
2016-10-14, 13:42:58
Ist das als mit der neuen Polaris-Revision mit wesentlich weniger "Strombedarf" gesichert? http://www.notebookcheck.com/AMD-Polaris-Neue-Revision-fuer-Polaris-10-11.180140.0.html edit: achso, beware kommt von wtf-tech

Klingt mir ein wenig zu gut.

Blediator16
2016-10-14, 14:37:29
Die tun so, als ob die embedded Module genau so auch für den normal einkaufenden Menschen kommen und stellen es als Fakt hin.

Dino-Fossil
2016-10-14, 18:07:09
PCGH hat auch einen Beitrag dazu:
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Chip-Revision-sparsamer-1210534/
(http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Chip-Revision-sparsamer-1210534/)
tl;dr
PCGH vermutet eher niedrigere Taktraten bei kleinerem Powerlimit, ähnlich der Nano.

N0Thing
2016-10-14, 19:44:43
PCGH hat auch einen Beitrag dazu:
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Chip-Revision-sparsamer-1210534/
(http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Chip-Revision-sparsamer-1210534/)
tl;dr
PCGH vermutet eher niedrigere Taktraten bei kleinerem Powerlimit, ähnlich der Nano.


Das würde ich auch vermuten. Und vielleicht sieht man mit E9260 auch den vollen Polaris 11 Chip, immerhin soll die Rechenleistung gegenüber einer RX 460 ansteigen. Generell würde ich bei den Angaben zu den erreichbaren FLOPS, von klassischen bis zu... Maximalwerten ausgehen, die auf Grund des geringen Powerlimits nur für eine sehr kurze Zeit erreicht werden, ähnlich wie man es von der Nano kennt.

Eine solch dramatische Verbesserung bei der Performance pro Watt kann ich mir nicht anhand einer simplen neuen Revision/Metal spin vorstellen.

reaperrr
2016-10-14, 21:07:58
Speziell bei der E9550 besteht außerdem noch die Möglichkeit, dass AMD Speichertakt und MC-Spannung gesenkt hat.

Pirx
2016-10-14, 22:10:12
Das würde ich auch vermuten. Und vielleicht sieht man mit E9260 auch den vollen Polaris 11 Chip, immerhin soll die Rechenleistung gegenüber einer RX 460 ansteigen. Generell würde ich bei den Angaben zu den erreichbaren FLOPS, von klassischen bis zu... Maximalwerten ausgehen, die auf Grund des geringen Powerlimits nur für eine sehr kurze Zeit erreicht werden, ähnlich wie man es von der Nano kennt.

Eine solch dramatische Verbesserung bei der Performance pro Watt kann ich mir nicht anhand einer simplen neuen Revision/Metal spin vorstellen.
jupp, sehe ich auch so, wobei aber wiederum auch dafür die angeblichen Verbesserungen zu heftig sind
Vielleicht eine Kombination von beidem?

dildo4u
2016-10-14, 22:21:55
Ist auch verständlich, warum sich die 480 gut verkauft - deswegen sind die ja auch noch ziemlich teuer ggü. der 1060. Preise sind ja immer Folge, nie Ursache. Freesync und 8GB sind halt doch Zugpferde. NV könnte sofort mehr verkaufen, wenn die Freesync für die 1060 freigeben würden
Ich muss was verpasst haben aber die 480 taucht bei Steam gar nicht auf die 1060 schon,gerade in dem Bereich ist Freesync komplett Unbedeutend weil die Masse mit der Karte keine neuen TFT's kauft,die behalten einfach ihr aktuelles 1080p Modell.NV's Strategie scheint einwandfrei aufzugehen.

http://store.steampowered.com/hwsurvey/videocard/

Thunder99
2016-10-14, 22:32:08
AMD muss den Ruf erst wiederherstellen. Oder umgekehrt, AMD muss mehr Nvidia Jünger überzeugen ;)

iuno
2016-10-14, 23:52:45
Ich muss was verpasst haben aber die 480 taucht bei Steam gar nicht auf die 1060 schon
Hat IMHO gar nichts zu sagen. Dort gab es auch fuer Ewigkeiten keine Rx 200er Serie. Also entweder verkauft AMD noch weitaus weniger Karten als allgemein bekannt oder das Tool ist einfach Muell. Und waehrend bei NV alle Karten bekannt sind, gibt es bei AMD nur "Serien". Unter Linux erkennt das Ding bei der Umfrage rein gar nichts. Nicht dass das bei der Nutzerzahl einen Unterschied machen wuerde, aber das sagt alles darueber aus, wie viel Muehe man sich damit gibt. Das ist schliesslich alles absolut billigst zu ermitteln. Traurig ist nur, dass diese "Umfrage" allein schon durch die extreme Nutzerzahl von Steam so viel Gewicht bekommt.

PCGH hat auch einen Beitrag dazu
Haufenweise Seiten schreiben gerade etwas dazu, so ist das halt. Dass er sich bei PCGH auch dran haengt, aendert gar nichts an der Informationslage. Zumal der Redakteur oft News auf Basis von WTF-Kram bringt.

dargo
2016-10-15, 09:17:45
Hat IMHO gar nichts zu sagen.
So viele Karten können es bei der GTX1060 auch gar nicht sein, die GTX1080 kommt fast auf die selbe Zahl die ~2,5x so viel kostet. Man vergleiche das mal mit GTX960 vs. GTX980TI. Und was versteckt sich unter Other mit 14,14%?

Thunder99
2016-10-15, 09:42:55
Die Statistik ist eher dafür gut, in wieweit DX12 in Software und Hardware verbreitet ist inkl. Windows 10.

Also eine RX485 könnte ich mir schon vorstellen als Refresh mit Vega. Oder halt als neue "Serie".

In wie weit sind fallen nun die 32 ROPs ins Gewicht im Vergleich zu den 64 der R9 X90 Karten?

victore99
2016-10-15, 09:43:23
Und was versteckt sich unter Other mit 14,14%?
3dfx und Matrox :D


In wie weit sind fallen nun die 32 ROPs ins Gewicht im Vergleich zu den 64 der R9 X90 Karten?
Gibt es Spiele / Benches, von denen Bekannt ist, dass sie die ROPs etwas stärker/schwächer belasten als der Durchschnitt?

HOT
2016-10-15, 09:50:50
Ich muss was verpasst haben aber die 480 taucht bei Steam gar nicht auf die 1060 schon,gerade in dem Bereich ist Freesync komplett Unbedeutend weil die Masse mit der Karte keine neuen TFT's kauft,die behalten einfach ihr aktuelles 1080p Modell.NV's Strategie scheint einwandfrei aufzugehen.

http://store.steampowered.com/hwsurvey/videocard/
Bei AMD hat du eine Chance, dass der nächste Monitor AdaptiveSync kann, den man kauft - bei NV nicht in der Preisklasse. Natürlich hat das Einfluss. Und von wegen komplett unbedeutend :crazy2:

Speziell bei der E9550 besteht außerdem noch die Möglichkeit, dass AMD Speichertakt und MC-Spannung gesenkt hat.

Das sieht man bei der 4GB-Variente. Das bringt so gut wie nichts.

Botcruscher
2016-10-15, 10:42:56
So viele Karten können es bei der GTX1060 auch gar nicht sein, die GTX1080 kommt fast auf die selbe Zahl die ~2,5x so viel kostet. Man vergleiche das mal mit GTX960 vs. GTX980TI. Und was versteckt sich unter Other mit 14,14%?

Die 1080 ist ja auch länger drin bei weniger Zuwachs. Die Zahlen sind in sich absolut konsistent und passen auch irgendwo zu dem was bei MF zusehen ist. Der Markt verlangt nach dem ewigen warten auf neue Karten einfach nach mehr Leistung und ist auch bereit dafür zu zahlen. Wo 460, 470 und 480 stehen ist wiederum eine interessante Frage. Von unter Andere, mieser Erkennung bis schlechte Verkaufszahlen könnte alles zutreffen. Die Zahlen von NV zeigen eben doch, dass der Deutsche Markt für das Gamingsegment sehr wohl repräsentativ ist.

NVIDIA GeForce GTX 1070 - - 0.47% 0.98% 1.42% +0.44%
NVIDIA GeForce GTX 1060 - - - 0.34% 0.90% +0.56%
NVIDIA GeForce GTX 1080 - - 0.42% 0.68% 0.88% +0.20%

Bei AMD hat du eine Chance, dass der nächste Monitor AdaptiveSync kann, den man kauft - bei NV nicht in der Preisklasse. Natürlich hat das Einfluss. Und von wegen komplett unbedeutend :crazy2:

Sync ist für den typischen 200€ 24" FHD Käufer imo total unbedeutend wenn er sich gegen das NV Marketing entscheiden muss. Wenn die Zahlen von Steam nur bedingt stimmen stellt sich die Frage auch nicht. 1070/1080 sind alternativlos in ihren Segmenten.

reaperrr
2016-10-15, 12:20:23
Das sieht man bei der 4GB-Variente. Das bringt so gut wie nichts.
Eine gesenkte MC-Spannung erhöht bei gleich bleibendem PT nur den Spielraum des restlichen Chips, deshalb würde es sich bei einer 480 nur auf die Taktraten positiv auswirken, nicht auf den Verbrauch.

Bei den Embedded-Chips ist das trotzdem eine Möglichkeit, mit geringerem PT auf einen soliden Durchschnittstakt zu kommen, weil der MC dem restlichen Chip weniger Saft wegnimmt.

victore99
2016-10-15, 13:30:13
Eine gesenkte MC-Spannung erhöht bei gleich bleibendem PT nur den Spielraum des restlichen Chips, deshalb würde es sich bei einer 480 nur auf die Taktraten positiv auswirken, nicht auf den Verbrauch.

Bei den Embedded-Chips ist das trotzdem eine Möglichkeit, mit geringerem PT auf einen soliden Durchschnittstakt zu kommen, weil der MC dem restlichen Chip weniger Saft wegnimmt.

Okay. Selbst wenn AMD den Speicher nurnoch auf 6Gb/sec taktet, braucht der vvtl nurnoch 1,2V statt 1,5V. Ergebnis: die ganze Karte ist viel Langsamer, und der G5 verbraucht nurnoch rund halb so viel.
Dann sind wir beim Stromverbrauch bei 150W.
Wie der MC dann noch läuft, keine Ahnung. Vielleicht statt 1V nurnoch 0,85V? 0,9V? Und was verbraucht der dann noch? Bei 0,85V ist der Stromverbrauch auf rund 60% runtergegangen.
Sind wir dann bei noch 140W für die Karte?
Und 100W davon die GPU inkl. MC?
Damit man auf 95W, vielleicht 100W gesamt kommt, muss die GPU inkl. MC runter auf 60W.

Also: selbst mit viel optimistischen Spekulatius muss man die Leistung, die durch die Vcore-Phasen gehen, um den Faktor 1,5 Senken. Chip-Stepping hin oder her: da wird krass heruntergetaktet werden müssen.

Schaffe89
2016-10-15, 14:31:41
Willkommen im Forum und danke für die Aufzählung. Unser Dauer-Unruhestifter Schaffe übersieht mal wieder gerne, dass die meisten Referenzkarten von P10 bei MF gar nicht mehr lieferbar sind.

Die Referenzkarten der GTX 1060 waren zum Beispiel gar nicht lieferbar.:biggrin:
Ne ich denke einfach dass es sinnvoller ist die Referenzdesigns wegzulassen um den Marktanteil langfristig zu betrachten, eben was die erhältlichen Customkarten betrifft. Die Referenzkarten die Anfangs verkauft wurden, wo keine GTX 1060 lieferbar war, dürften auf lange Sicht keinen hohen Prozentsatz ausmachen, sollte man bei dem Vergleich bei MF bleiben, deswegen hab ich die halt nicht mitgezählt.(y)

Wie oft muss man denn noch sagen, dass Deutschland global ein Furz ist und in DE die Spieler bereit sind mehr Geld für Hardware als der Durchschnitt auszugeben?

Das werden dann ja spätestens die nächsten Quartalszahlen zeigen, bisher ist das alles nur Spekulation wie immer bisschen zu optimistisch für AMD.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11183445&postcount=164

RX470 @GTX1060 Niveau, also das was ich bei neueren DX12 Games erwartet habe. Natürlich noch mit etwas Vorsicht zu genießen. Ist noch recht frisch.

Du siehst auch die GTX 1060 leicht unterhalb der GTX 970, ziemlich untypisch für ein Directx12 Spiel. Hawai ist auch relativ langsam unterwegs.:redface:
Bis eine rx470 auf ein GTX 1060 Niveau kommt, kannst du lange warten, vielleicht in 2 oder drei Jahren, wenn der GTX 1060 der Speicher ausgeht.

Fermin Romero de Torres
2016-10-15, 15:05:38
Steam führt in der Kategorie 'PC Video card usage' einzelne Grafikkarten bzw. Grafikserien erst ab einem Anteil von 0,31% in der Liste. Die RX 480 muss also bei <0,31% unter den 'DIRECTX 12 GPUS' liegen.

Wenn man dennoch wissen will welchen Anteil Polaris 10 im Vergleich zu anderen Grafikkarten bei Steam erreicht, wird in der Kategorie 'DX10/11/12 Systems' fündig, und zwar konkret zum Beispiel unter 'DIRECTX 11 SYSTEMS (VISTA/WIN7/WIN8/WIN10 WITH DX 11/12 GPU)': http://store.steampowered.com/hwsurvey/directx/?sort=name

Da hier allerdings nicht nur DX12-GPUs, sondern auch DX11-GPUs berücksichtig werden, dünnt das die Anteile aller Grafikkarten etwas aus. MMn ist das aber ohnehin die "korrektere" Liste, da Kepler Fermi-GPUs de facto DX11-Beschleuniger sind. Den DX12-Support habe sie per Treiber nie erhalten, Titel mit DX12-Renderer sind auf Kepler Fermi nicht lauffähig. Steam suggeriert mit der Einordung Keplers Fermis in DX12-GPUs eigentlich falsche Tatsachen. Wie auch immer, ich habe ein paar Zahlen aus der September-Umfrage inkl. prozentualem Anstieg zum Vormonat zusammengefasst:

----------------------------------------------

AMD Radeon R9 200 Series: 0.64% -0.03%
(R9 280/280X, R9 285, R9 290/290X, evtl. R9 295X2)

NVIDIA GeForce GTX 760: 1.87% -0.06%
NVIDIA GeForce GTX 770: 1.09% -0.04%
NVIDIA GeForce GTX 780: 0.44% -0.03%
NVIDIA GeForce GTX 780 Ti: 0.22% +-0.00%

----------------------------------------------

AMD Radeon R9 380 Series: 0.58% +-0.00%
AMD Radeon R9 390 Series: 0.52% -0.01%
AMD Radeon R9 Fury Series: 0.07% +-0.00%

NVIDIA GeForce GTX 960: 3.82% -0.04%
NVIDIA GeForce GTX 970: 5.17% -0.08%
NVIDIA GeForce GTX 980: 0.99% -0.02%
NVIDIA GeForce GTX 980 Ti: 0.95% -0.04%

----------------------------------------------

AMD Radeon RX 460: 0.03% +0.02%
AMD Radeon RX 470: 0.06% +0.05%
AMD Radeon RX 480: 0.21% +0.09%

NVIDIA GeForce GTX 1060: 0.65% +0.41%
NVIDIA GeForce GTX 1070: 1.03% +0.32%
NVIDIA GeForce GTX 1080: 0.64% +0.15%

Polaris 10 Total: 0.27% +0.14%
GP106 (6GB & 3GB) Total: 0.65% +0.41%


Die Interpretation der Zahlen überlasse ich anderen, wenn überhaupt jemand Lust dazu hat :)

Danke für die Willkommensheißung dargo :wave2:

dargo
2016-10-15, 15:32:28
Hawai ist auch relativ langsam unterwegs.:redface:

Du meinst so langsam wie hier (die R9 390X kratzt ja schon an der GTX1070 X-D)?
https://nl.hardware.info/reviews/7015/5/battlefield-1-review-benchmarks-met-13-videokaarten-testresultaten-wqhd-2560x1440-+-frametimes

Es wird vermutet, dass die Russen bei Hawaii die Referenz verwenden. Unter DX12 dürfte das Ding gerade mal mit um die 900Mhz takten, wenn nicht sogar weniger bei der non X. Ist aber nur eine Vermutung.


Bis eine rx470 auf ein GTX 1060 Niveau kommt, kannst du lange warten, vielleicht in 2 oder drei Jahren, wenn der GTX 1060 der Speicher ausgeht.
Du hast schon mitbekommen, dass die getestete RX470 2GB weniger Speicher als GP106 hat?


Wenn man dennoch wissen will welchen Anteil Polaris 10 im Vergleich zu anderen Grafikkarten bei Steam erreicht, wird in der Kategorie 'DX10/11/12 Systems' fündig, und zwar konkret zum Beispiel unter 'DIRECTX 11 SYSTEMS (VISTA/WIN7/WIN8/WIN10 WITH DX 11/12 GPU)': http://store.steampowered.com/hwsurvey/directx/?sort=name

Da hier allerdings nicht nur DX12-GPUs, sondern auch DX11-GPUs berücksichtig werden, dünnt das die Anteile aller Grafikkarten etwas aus. MMn ist das aber ohnehin die "korrektere" Liste, da Kepler-GPUs de facto DX11-Beschleuniger sind. Den DX12-Support habe sie per Treiber nie erhalten, Titel mit DX12-Renderer sind auf Kepler nicht lauffähig. Steam suggeriert mit der Einordung Keplers in DX12-GPUs eigentlich falsche Tatsachen.
Du verwechselst hier gerade was mit Fermi.

Fermin Romero de Torres
2016-10-15, 15:42:13
Du verwechselst hier gerade was mit Fermi.

Du hast natürlich recht, ich bessere es aus. Genau das macht Steam, Fermi (GTX 400/500) unter DX12 GPUs führen.

Achill
2016-10-15, 15:53:30
@Fermin Romero de Torres, wenn man die letzten 2 Generation mit aufführt, dann sollte die R9 200 Series noch mit in deine Liste rein:

AMD Radeon R9 200 Series 0.64% -0.03%

Fermin Romero de Torres
2016-10-18, 23:48:08
@Achill
Die R9 200 Serie hatte ich von Anfang an drin :)


@Speku-Thema
Das hier sollte die jüngste Custom-Karte von Polaris 10 sein, vielleicht ist dort die Chance auf einen Chips aus der spekulativen Embedded-Charge ala XFX RX480@JayzTwoCents erhöht?
http://geizhals.de/powercolor-radeon-rx-480-red-dragon-axrx-480-8gbd5-3dhd-a1523978.html?hloc=at&hloc=de

herp_derp
2016-10-20, 22:23:50
Gerüchte um ein neues Modell zwischen 460 und 470:

http://videocardz.com/63918/amd-to-launch-radeon-rx-470-with-1792-stream-processors

AnarchX
2016-10-20, 22:48:59
Den 28CUs P10 gibt es schon als FirePro. Eher könnte das eine Ergänzung für bestimmte Märkte (Asien-only) sein, um hier weitere dieser teildefekten GPUs los zu werden. Fraglich ob AMD die Karte offiziell vorstellen wird.

Complicated
2016-10-21, 12:09:00
Ich denke es soll die spekulierte GTX 150 Ti mit 6-pin Stecker in Schach halten. Die Lücke zur RX 460 ist da recht groß. Und was ist da besser geeignet als einen Salvage Part von P10 günstig dagegen zu setzen um die Preise der RX470 und RX480 zu schützen?

AnarchX
2016-10-22, 10:22:07
Die RX 470D doch (vorerst) für Asien beschränkt: http://videocardz.com/63940/amd-quietly-launches-radeon-rx-470d-for-chinese-market

Mit ~$150-160 (RX 470 wurde auf $170 gesenkt) stellt man da wohl durchaus eine Alternative zur GTX 1050 Ti. Und mit 1x6-Pin schreckt man den dortigen DYI-Markt wohl eher nicht ab.

dargo
2016-10-22, 10:58:54
1x 6Pin haben doch schon einige RX470.

AnarchX
2016-10-22, 11:28:44
1x 6Pin haben doch schon einige RX470.
Die 1050 Ti gibt es aber schon ohne.
So eine 4G RX 470 um die ~150€ könnte aber durchaus ein Verkaufsschlager werden, da hier noch viele wohl 2GiB GPUs haben, die zu wenig RAM haben.

dargo
2016-10-22, 11:31:36
Die 1050 Ti gibt es aber schon ohne.

Die ist aber auch 19% langsamer im wenig aussagenden 3DMark als die RX470D bzw. 29% als die RX470.

dildo4u
2016-10-22, 11:33:57
Wo ist das positiv das sie mit nem größeren Chip gegen die 1050 Ti stänkern müssen?

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/AMD-veroeffentlicht-Benchmark-Vergleich-zur-Radeon-RX470-1211291/galerie/2655096/

So wie es aussieht ist Pascal Meilen besser egal in welcher Fertigung.

Schnoesel
2016-10-22, 11:34:40
Das hier sieht aber nicht danach aus als ob eine abgespeckte Version kommen wird:

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/AMD-veroeffentlicht-Benchmark-Vergleich-zur-Radeon-RX470-1211291/

Sie werden das wohl versuchen über den Preis der 470 zu kontern der derzeit noch zu hoch ist. Ich warte jetzt noch ab und nach der Preissenkung schlage ich zu.

PS: Der einzige der stänkert bist du Dildo. Ernsthaft was anderes ist deine Intention als hier mal etwas auf Krawall zu schlagen. An einer ernsthaften Diskussion bist du doch nicht interessiert. Weißt nix besseres mit deiner Zeit anzufangen?

AnarchX
2016-10-22, 11:38:27
Wo ist das positiv das sie mit nem größeren Chip gegen die 1050 Ti stänkern müssen?

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/AMD-veroeffentlicht-Benchmark-Vergleich-zur-Radeon-RX470-1211291/galerie/2655096/

So wie es aussieht ist Pascal Meilen besser egal in welcher Fertigung.

P11 ist irgendwo am Ziel vorbei, um wirklich attraktiv zu sein. Da hätte man eher ~150mm² investieren sollen.

Bitte auf persönliche Angriffe verzichten!

dargo
2016-10-22, 11:43:34
P11 ist irgendwo am Ziel vorbei, um wirklich attraktiv zu sein. Da hätte man eher ~150mm² investieren sollen.

Das Problem ist auch... einen vollen P11 haben wir am Desktop noch gar nicht gesehen. Für die 1050TI würde der sicherlich nicht reichen, für die non TI allerdings schon.

Troyan
2016-10-22, 11:48:47
Was hätte das gebracht? Der Chip benötigt jetzt schon fast 90W. Polaris an sich ist viel zu ineffizient und am Ende für die Leistung auch zu groß.

GP106 bietet bis zu 50% mehr Leistung beim selben Verbrauch als Polaris 11. Der Chip ist auch genauso groß. Der Desktopmarkt ist auch für beide Chips nicht der Hauptmarkt. Bei ähnlicher Leistung kann GP106 wohl den Verbrauch halbieren.

Es gibt keine vorgestellten Notebooks mit Polaris 11 trotzdem AMD vor 11 Monate Polaris 11 für den Notebookmarkt angekündigt hat. Und auf E3 hat man sogar schon mit dem namen "RX 480M" beworben, bevor man das Marketingkonzept wohl über den Haufen geworfen hat.

Mancko
2016-10-22, 11:59:06
Wo ist das positiv das sie mit nem größeren Chip gegen die 1050 Ti stänkern müssen?

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/AMD-veroeffentlicht-Benchmark-Vergleich-zur-Radeon-RX470-1211291/galerie/2655096/

So wie es aussieht ist Pascal Meilen besser egal in welcher Fertigung.

Das ist wiedermal AMDs größtes Problem. Sie müssen einfach deutlich mehr Hardware Aufwand als Nvidia für gleiche Leistung betreiben. Dabei ist es egal ob nun der DIE größer ist, das SI, mehr RAM verbaut wird oder eine aufwändigere Platine + Kühlung notwendig ist. Man hat ja schon bei den Quartalszahlen gesehen, dass die Entwicklung in der PC Sparte nicht so exorbitant gut war wie nach den ganzen vollmundigen Ankündigungen der letzten 9 Monate zu erwarten war. Ich gehe auch davon aus, dass sich das Management da vergaloppiert hat. Die haben nicht damit gerechnet wie schnell Nvidia hier in allen Segmenten auffahren wird und vor allem wie gut. Da wird Nvidia deutlich andere Zahlen abliefern und das liegt einfach daran, dass sie sich dank cleverem Design Hardware Aufwand sparen können und zudem dank deutlich höherem R&D nun in allen Segmenten am Start sind und somit auch in den sehr attraktiven Segmenten so richtig abkassieren.

M.E. wird AMDs Marge und ASP in Q4 fallen. Wenn die 1050 und 1050Ti da sind wird es hässlich, insbesondere im Notebook Segment. Da sehe ich eigentlich kaum eine Chance für AMD. Bleibt wohl wieder nur der Preis und das drückt dann die Zahlen.

Mancko
2016-10-22, 12:02:31
Es gibt keine vorgestellten Notebooks mit Polaris 11 trotzdem AMD vor 11 Monate Polaris 11 für den Notebookmarkt angekündigt hat. Und auf E3 hat man sogar schon mit dem namen "RX 480M" beworben, bevor man das Marketingkonzept wohl über den Haufen geworfen hat.

Sag ich ja. Roy Taylor ist da schön überrascht worden. Hauptaussagen waren ja VR TAM und fetter Anstieg im Notebook Segment. Ersteres war Marketing Bullshit und zweiteres wird vermutlich mal nichts werden. Sie liegen zu weit zurück.

dargo
2016-10-22, 12:21:53
Was hätte das gebracht? Der Chip benötigt jetzt schon fast 90W.
Das was du am Desktop siehst ist nur der "Abfall". Man müsste sich mal die Produkte die bei Apple gelandet sind genauer anschauen.

Edit:
Die 90W dürften aber auch nur auf die Sapphire Nitro RX460 zutreffen da sie ihre 1250Mhz dauerhaft hält, sprich... die hat ein höheres PT. Der Defaultboost beträgt 1200Mhz.
http://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-RX-460-Spezifikations-Ueberblick.jpg

Eine Gigabyte RX 460 Windforce OC verbraucht da schon etwas weniger. Um die 75W.
https://www.computerbase.de/2016-08/radeon-rx-460-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-durchschnitt-von-vier-spielen

Der ASUS RX 460 STRIX Gaming werden 73W beschenigt.
http://www.guru3d.com/articles_pages/asus_radeon_rx_460_strix_gaming_4gb_review,5.html

reaperrr
2016-10-22, 15:15:07
Das was du am Desktop siehst ist nur der "Abfall". Man müsste sich mal die Produkte die bei Apple gelandet sind genauer anschauen.
Richtig.

Die Vermarktung und Selektierung für zwei SKUs, eine mit 14 und eine mit 16 CUs, würde mehr kosten, und für die 1050 Ti eh nicht reichen, außerdem würden wir durch den etwas erhöhten Verbrauch und Frontend-, Backend- und Speicherlimitierungen eh keine lineare Skalierung der Performance mit den 2 zusätzlichen CUs sehen.

Außerdem kennen wir die genaue Yield-Rate von vollwertigen 16-CU-Chips nicht, vielleicht ist die noch nicht so doll.

AMD macht es im Grunde geschickt, der Salvage-Part kommt im Desktop, wo der Verbrauch nicht so wichtig ist, mit 2 CUs weniger aber dafür ein paar MHz mehr, als sonst wohl in 75W möglich gewesen wären.
Die wertvolleren 16-CU-Chips kommen erstmal nur in Märkten mit höheren Margen, Profi-Bereich, Embedded, Apple und evtl. weitere größere Kunden für Notebook-Chips.
So fällt die anfängliche Defektrate nicht so ins Gewicht, es bleiben auf jeden Fall genug 16-CU-Chips für die Großkunden, und man spart etwas Marketing-Aufwand im Desktop-Bereich.
Später, wenn die Yields besser sind, kann man evtl. noch eine 465 oder 560 mit 16 CU und ausschließlich 4GB Speicher im Desktop nachschieben, um den ASP und die Verkaufszahlen gegenüber der 1050 einigermaßen stabil zu halten.

iuno
2016-10-22, 17:15:13
Naechste Woche kommen wohl neue MacBooks, das ist moeglicherweise interessant fuer die Frage nach dem Verbleib von P11 Chips ;)

Schaffe89
2016-10-23, 17:05:02
Und was ist da besser geeignet als einen Salvage Part von P10 günstig dagegen zu setzen um die Preise der RX470 und RX480 zu schützen?

Ein Vollausbau des P11 mit entsprechend mehr Takt. Aber wenn AMD da wirklich einen zweiten Salvage P10 dagegen stellt, dann versauen sie sich wieder die Margen und der P11 cutdown ist ja auch wirklich sehr unglücklich leistungsmäßig platziert.

Was in aller Welt hält AMD davon ab den Vollausbau des P11 zu bringen?:confused:
AMD hat was deren Ankündigungen anging zu Polaris im Endeffekt null erreicht. Marktanteile und Margen werden weiter sinken und Zen dürfte ebenso floppen.

VVuOATRBrWM

Schnoesel
2016-10-23, 17:19:50
Marktanteile und Margen werden weiter sinken und Zen dürfte ebenso floppen.


Tatsächlich? was du alles weißt ...

Locuza
2016-10-24, 02:33:08
Keine Ahnung wohin damit, aber die Info ist glaube ich noch nirgendwo aufgetaucht:
GCN 1.2 and later have 800 SGPRs instead of the previous 512.
https://twitter.com/NIV_Anteru/status/788695090332102656

Ab GCN Gen 3 (Tonga, Fiji, Carrizo) gibt es mehr Register für die Scalar Unit.
Damit sind eigentlich die Marketing Folien falsch, die weiterhin 4KB angaben.
Auch liest es sich interessant das es 800 sind, keine Power of 2 Implementierung.

Loeschzwerg
2016-10-24, 07:18:46
Wo bleibt denn jetzt die WX4100 eigentlich?

Pick
2016-10-24, 21:10:19
Ab GCN Gen 3 (Tonga, Fiji, Carrizo) gibt es mehr Register für die Scalar Unit.
Damit sind eigentlich die Marketing Folien falsch, die weiterhin 4KB angaben.
Auch liest es sich interessant das es 800 sind, keine Power of 2 Implementierung.

Über GCN4 (Polaris) nicht bekannt ist? Wer weiß, wo PDFs über GCN4 zu finden?

Gipsel
2016-10-24, 21:43:54
Keine Ahnung wohin damit, aber die Info ist glaube ich noch nirgendwo aufgetaucht:

https://twitter.com/NIV_Anteru/status/788695090332102656

Ab GCN Gen 3 (Tonga, Fiji, Carrizo) gibt es mehr Register für die Scalar Unit.
Damit sind eigentlich die Marketing Folien falsch, die weiterhin 4KB angaben.
Auch liest es sich interessant das es 800 sind, keine Power of 2 Implementierung.
Stimmt alles nicht. GCN hat seit v1 schon immer 8kB skalare Register, 2kB pro SIMD (512x 32bit), insgesamt also 2048 Skalarregister. Die 800 im Manual sind einfach nur 2048 in Hex! ;D

Edit:
Kommando zurück! Da hat sich tatsächlich was ab GCN v3 geändert. Zumindest ist die allocation granularity für die Skalarregister pro Wavefront angeblich verdoppelt worden (von 8 auf 16 Register). Dies macht eine Vergrößerung zumindest wahrscheinlich. Ob das dann wirklich 800 pro SIMD sind oder gleich 1024 (4kB) mit recht vielen reserviert für irgendwas, keine Ahnung. Vielleicht sind die 4kB ja auch einfach 3,2kB aufgerundet. Pro CU stimmen die aber so oder so nicht, da diese Angaben pro SIMD gelten. Die gesamte CU hat also dann jetzt angeblich 4x 800x 32Bit-Skalarregister, also 12,8kB, GCNv1 und v2 haben die genannten 8kB pro CU. Das ist in ziemlich vielen Unterlagen und Manuals (aber nicht allen, bei der Architekturpräsentation ist es z.B. richtig; aber die wurde ja auch von den Hardwarearchitekten gehalten) schlicht falsch drin. Bei AMD ziehen sich häufig C&P Fehler ziemlich lange durch Marketingmaterial und auch die Manuals.

Übrigens, über die Zweierpotenzen würde ich mir nicht so viele Gedanken machen. 800 = 25x 32. Häufig sind Dinge auch nur mehr oder wenige krumme Vielfache einer Zweierpotenz (ganz auffällig z.B. bei Schedulerresourcen in CPUs, da gibt es dann z.B mal 168 Instruktionen in flight oder 224). Eine CU kann ja auch maximal 10 Wavefronts pro SIMD/40Wavefronts pro CU abarbeiten. Das sind dann auch 5x2 pro SIMD und nicht 8 oder 16.

Loeschzwerg
2016-10-26, 17:23:31
Wo bleibt denn jetzt die WX4100 eigentlich?

http://geizhals.de/amd-radeon-pro-wx-4100-100-506008-a1525622.html

Gelistet ist das Ding schon mal.

y33H@
2016-10-28, 00:31:44
Dauert noch ein paar Tage ;)

Wie erwartet Polaris 11 Vollausbau alias Radeon Pro 460 im Macbook Pro: http://www.golem.de/news/radeon-pro-460-in-apples-macbook-pro-steckt-der-vollausbau-von-polaris-11-1610-124107.html

Pick
2016-10-28, 00:37:01
Hmm. Warum nicht Polaris 10?
Polaris 11 kann nicht mit VR bewältigen.

y33H@
2016-10-28, 01:34:57
Höhere TDP, dickeres Die, kein Power Gating für CUs etc ...

iuno
2016-10-28, 07:46:10
P10 haette ich auch nicht erwartet, bisher war ja auch nur Cape Verde drin...

Auch sonst neue P10 Karten mit viel niedrigerer TDP:
https://www.computerbase.de/2016-10/amd-radeon-pro-450-455-460-35-watt/
Durch deutlich niedrigere Taktraten bei GPU und Speicher. Bin mal gespannt wie das noch performt.

dargo
2016-10-28, 08:32:13
Wie erwartet Polaris 11 Vollausbau alias Radeon Pro 460 im Macbook Pro: http://www.golem.de/news/radeon-pro-460-in-apples-macbook-pro-steckt-der-vollausbau-von-polaris-11-1610-124107.html
Kleiner Tippfehler.
Die Radeon Pro 455 muss sich mit 12 Compute Units, also 796 Rechenkernen, begnügen, die mit knapp 850 MHz arbeiten.
Es sind 768 Shader.

Loeschzwerg
2016-10-28, 08:39:32
Dauert noch ein paar Tage ;)

Mitte nächste Woche sagt ein Händler :) Ebenso WX 5100 und 7100.

mczak
2016-10-28, 09:01:53
Durch deutlich niedrigere Taktraten bei GPU und Speicher. Bin mal gespannt wie das noch performt.
Vor allem die langsamste Variante (Radeon 450 Pro) dürfte nur minimal schneller als die alte High-End (R9 M370X Cape Verde) Konfiguration sein. Auf dem Papier ist die praktisch identisch, bei allerdings deutlich geringerer TDP (35W gegen offenbar früher 45W) - in der Praxis würde ich eher noch grösseren Unterschied erwarten (Binning hin oder her, wenn die 460 Pro 35W verbraucht wird die 450 Pro deutlich darunter liegen). Fragt sich allenfalls noch wie sich die verschiedenen Modelle in der Praxis verhalten - liegt ja fast ein Faktor 2 zwischen dem langsamsten und dem schnellsten Modell bei der reinen Rechenleistung, der Unterschied wird wohl effektiv deutlich kleiner sein.
Bei immer dünneren Gehäuse muss man da eben Abstriche in Kauf nehmen, das ginge auch bei nvidia bloss mit deutlich runtergetakteten GM107 bzw. GP107 (letzteren gibt's ja noch nicht mobil).

y33H@
2016-10-28, 09:02:12
Kleiner Tippfehler. Es sind 768 Shader.Danke! Beim Takt habe ich sogar damit gerechnet :usad:

reaperrr
2016-11-02, 23:35:26
Zitat aus: https://www.computerbase.de/2016-11/amd-radeon-rx-470-470d-vergleich/
Weil der verwendete Treiber bei beiden Grafikkarten derselbe gewesen ist, müssen unterschiedliche Taktraten für das bessere Ergebnis verantwortlich sein.

Sorry, aber das ist einfach falsch, oder bestenfalls der deutlich kleinere Faktor.

Hauptgrund dürfte viel eher die Tatsache sein, dass die Referenz-470 mit 6.6Gbps oder selbst Custom-Modelle mit 7Gbps mindestens genauso, eher noch mehr bandbreitenlimitiert sind als die 480-8G, und der 470D im Vergleich mehr Bandbreite pro FLOP zur Verfügung steht. Die 470D erreicht durch identisches Frontend, identisches Backend und identische Bandbreite einfach eine bessere Auslastung pro CU, die paar MHz mehr unter Last sind nur das Tüpfelchen auf dem i.

Dino-Fossil
2016-11-04, 10:24:35
Hat jemand den GCN-Generationsvergleich (1 vs 3 vs 4) in der aktuellen PCGH gesehen?
Ähnelt dem, was vor einigen Wochen schon die Computerbase geliefert hat, aber es gibt ein paar Abweichungen.
So liegt Tonga bei PCGH deutlich näher an Polaris (Polaris kann sich eigentlich nur bei einigen synthetischen Tests deutlich von Tonga absetzen).

reaperrr
2016-11-05, 23:34:07
Hat jemand den GCN-Generationsvergleich (1 vs 3 vs 4) in der aktuellen PCGH gesehen?
Ähnelt dem, was vor einigen Wochen schon die Computerbase geliefert hat, aber es gibt ein paar Abweichungen.
So liegt Tonga bei PCGH deutlich näher an Polaris (Polaris kann sich eigentlich nur bei einigen synthetischen Tests deutlich von Tonga absetzen).

Mit welchen Taktraten hat PCGH getestet?

Dino-Fossil
2016-11-05, 23:40:38
Mit welchen Taktraten hat PCGH getestet?

GPUs auf 1GHz, Speichertakt auf vergleichbare Bandbreite zw. GCN1 und GCN3/4 eingestellt (ich glaube Tonga und Polaris laufen auf gleichem Speichertakt).

Leonidas
2016-11-06, 08:53:03
Hauptgrund dürfte viel eher die Tatsache sein, dass die Referenz-470 mit 6.6Gbps oder selbst Custom-Modelle mit 7Gbps mindestens genauso, eher noch mehr bandbreitenlimitiert sind als die 480-8G, und der 470D im Vergleich mehr Bandbreite pro FLOP zur Verfügung steht. Die 470D erreicht durch identisches Frontend, identisches Backend und identische Bandbreite einfach eine bessere Auslastung pro CU, die paar MHz mehr unter Last sind nur das Tüpfelchen auf dem i.



Dies würde nahelegen, das Polaris 10 besser mit max. 2048 SE erstellt worden wäre, alles darüberliegendes die Sache ineffizient macht. Dabei hätte AMD sogar mit Polaris 10 auf 2048 SE und hohen Taktraten die Performance der 480 bieten können, immerhin liegen zwischen 480-4GB und 470 keine 10%.

dargo
2016-11-06, 09:00:09
Dies würde nahelegen, das Polaris 10 besser mit max. 2048 SE erstellt worden wäre, alles darüberliegendes die Sache ineffizient macht. Dabei hätte AMD sogar mit Polaris 10 auf 2048 SE und hohen Taktraten die Performance der 480 bieten können, immerhin liegen zwischen 480-4GB und 470 keine 10%.
Das liegt aber auch daran, dass sich jeder nur die avgs. über Spielzeit X anschaut. Schaust du dir das im Detail mit einem Frameverlauf an sieht die Sache schon etwas anders aus. Ich kann mich noch an den Vergleich von igor und Hitman erinnern. Dort war der Unterschied zwischen RX480 und GTX1060 an einer Stelle 40%, bei den avgs. natürlich deutlich weniger. Entsprechend größer sollte an dieser Stelle auch der Abstand zur RX470 sein.

reaperrr
2016-11-06, 12:11:38
GPUs auf 1GHz, Speichertakt auf vergleichbare Bandbreite zw. GCN1 und GCN3/4 eingestellt (ich glaube Tonga und Polaris laufen auf gleichem Speichertakt).
Ich wollte ehrlich gesagt eher den genauen Speichertakt wissen. Ich vermute nämlich, dass Polaris' IPC-Verbesserungen gerade den Bandbreitenbedarf pro Takt erhöht haben, die GPU also dadurch, dass sie einige Sachen schneller berechnet als Tonga, dann auch mehr Speicherzugriffe pro Takt braucht, was die Vorteile von besserer DCC und mehr L2 wieder weitgehend auffrisst.

Außerdem, generell bedeuten viele Speicherzugriffe auch, dass die Latenz nicht viel weniger wichtig als die rohe Bandbreite ist, und der Speicher der 470 läuft garantiert mit entspannteren Timings als der von Tonga, so dass Tonga bei gleichem Speichertakt Vorteile hat.

dargo
2016-11-06, 13:09:23
Und von CB's niedrig taktendem Referenzdesign sind mit einer custom locker noch 10% drin, danach ist der Unterschied in der Balkenlänge schon wieder marginal
Tolles Argument. :freak:

Bei den OC-Customs steigen doch die TFLOPs. Also wo soll da sich an den Verhältnissen was ändern? Zumal die etwas limitierende Speicherbandbreite bei höherem GPU-Takt immer stärker zum Flaschenhals bei P10 wird.

Das ist ein 60fps Game auf Konsole ich glaube kaum,das der SP sonderlich CPU Lastig ist.
Du siehst doch schon an den Balken, dass die 1080 vs. 1070 mit höheren Auflösung immer schneller wird.

* 1080p +20%
* 1440p +26%
* 2160p +29%


@dargo: du vergisst (absichtlich?), dass Fiji in dem Spiel scheiß frametimes produziert, der Balken hat also gar nichts zu sagen.
Ganz ehrlich? Die sollten vielleicht mal langsam ihr Schrottengine über Bord werfen und mal was Neues, zeitgemäßes entwickeln. Wenn ich schon sehe, dass selbst bei einer GTX1060 mit 6GB bei nur 1080p und hohen Texturen die Frametimes durch die Decke gehen dann kann ich nur noch mit dem Kopf schütteln. Wie sieht das dann erst bei einer GTX1060 3GB aus? :freak: Benutzt die Engine überhaupt Streaming? Falls ja, ist es Schrott.

btw.
Das ist auch wieder geil. Die Textformulierung passt nicht wirklich zu den gemessenen Frametimes.

Wer eine Grafikkarte mit nur 4.096 MB hat, muss sich dann selbst bei normaler Texturstufe ab und zu mit einem heftigen Haker zufrieden geben. Hier zeigt sich dann übrigens erneut die bessere Speicherverwaltung von Nvidia. Diese reicht zwar auch nicht aus, um Infinite Warfare bei normalen Texturdetails stockfrei wiederzugeben. Jedoch läuft das Spiel auf einer GeForce GTX 980 ein gutes Stück besser als auf der Radeon R9 Fury X.

Ich sehe bei Nvidia zwar weniger Spikes, die Ausschläge sind aber wesentlich größer. Wo soll das bitte besser sein?

Dino-Fossil
2016-11-07, 01:38:31
Ich wollte ehrlich gesagt eher den genauen Speichertakt wissen.

1600 MHz bei Tonga und Polaris.

iuno
2016-11-08, 06:41:48
Nachschlag fuer YInMn:
https://www.computerbase.de/2016-11/radeon-pro-wx-4100-5100-7100/

Hat sich eigentlich schon mal irgendwer Radeon Pros naeher angeschaut oder hat es bekanntlich noch vor? @Format_C vielleicht? Da war der letzte Test mit FirePROs ja recht ernuechternd, iirc. Vielleicht waere es interessant, mal eins der vermeintlich deutlich effizienteren Modelle zu besorgen und im gleichen Zuge die Radeon Pro Software anzusehen.


Tolles Argument. :freak:
umad? :ulol:
Ganz ehrlich? Die sollten vielleicht mal langsam ihr Schrottengine über Bord werfen
Meinetwegen gerne, dann geh aber auch nicht darauf ein und rede die Furys weiter schoen. Das ist eh OT, uninteressant und fuer jemanden mit Ahnung zudem etwas verantwortungslos, das Ding noch schoenzureden. Ich weiss eh nicht wieso da jedes mal eine Diskussion entstehen muss, wenn horn wieder mal am durchdrehen ist. Auch dumm von mir, wieder darauf einzugehen. Einfach als OT/Spam melden und gut

Loeschzwerg
2016-11-08, 07:09:12
Hat sich eigentlich schon mal irgendwer Radeon Pros naeher angeschaut oder hat es bekanntlich noch vor? @Format_C vielleicht?

Igor meinte zumindest mal sich welche organisieren zu wollen. Ich will mir immer noch eine WX4100 zulegen.

DrumDub
2016-11-08, 08:35:24
tippe ja auf alle drei faktoren:
Auch hier ist unklar, ob ein geringerer Speichertakt, ein weniger aggressiver Turbo, ein besseres Binning oder mehrere dieser möglichen Faktoren zusammenkommen.

AMDs professionelle Polaris-Karten sind viel effizienter (Golem) (http://www.golem.de/news/radeon-pro-wx-amds-professionelle-polaris-karten-sind-viel-effizienter-1611-124314.html)

dildo4u
2016-11-08, 10:03:57
Warum sollte man da AMD nach der 480 beim Wort nehmen?Erstmal Test's abwarten ob der Takt gehalten wird.

dargo
2016-11-08, 10:48:49
Meinetwegen gerne, dann geh aber auch nicht darauf ein und rede die Furys weiter schoen. Das ist eh OT, uninteressant und fuer jemanden mit Ahnung zudem etwas verantwortungslos, das Ding noch schoenzureden.
Hä? Vielleicht solltest du mal etwas weniger in meine Posts hineininterpretieren, was hälst du davon? Wo rede ich eine Fury schön? Was glaubst du warum ich mir damals eine R9 390 und keine Fury mit 4GB gekauft habe? Mal völlig unabhängig davon... eine Fury Nitro für ~250€ ist nun wirklich kein schlechtes Angebot wenn man weiß worauf man sich mit einer 4GB Karte heute einlässt. Ob man die nun kauft oder nicht (besonders so kurz vor Vega) sei jeden selbst überlassen.

Schaffe89
2016-11-08, 12:30:29
eine Fury Nitro für ~250€ ist nun wirklich kein schlechtes Angebot wenn man weiß worauf man sich mit einer 4GB Karte heute einlässt. Ob man die nun kauft oder nicht (besonders so kurz vor Vega) sei jeden selbst überlassen.

Ne 1060 bietet 6GB Speicher, weniger als die Hälfte Strombedarf und ist vielleicht in Full HD magere 5% langsamer. Yo, super Angebot, not. Ähnliches gilt für die rx480. Der V-ram der Fury ist viel zu wenig und langsam muss sich auch die GTX 1060 mit 6GB als Krüppel bezeichnen. Ich denke langsam würd ich auch lieber zur rx480 greifen.

dargo
2016-11-08, 12:32:44
Ne 1060 bietet 6GB Speicher, weniger als die Hälfte Strombedarf und ist vielleicht in Full HD magere 5% langsamer. Yo, super Angebot, not.
Und das bringt mir was nochmal bei einem Freesync Bildschirm? Mein Gott Schaffe, schalte doch mal ab und zu den Kopf ein. Es ist schon etwas länger her wo nur die Grafikkarte eine große Rolle fürs Gaming gespielt hat. Der Stromverbrauch ist zwar ein Argument, für viele aber ein Nebensächliches solange die Kühllösung das persönliche Empfinden nicht stört.

Edit:
Ich bin nochmal in Ruhe die Punkte durchgegangen.

Theoretisch hat die Fury Nitro 29% mehr Leistung als sowas hier.
http://geizhals.de/powercolor-radeon-rx-480-red-dragon-axrx-480-8gbd5-3dhd-a1523978.html?hloc=at&hloc=de

Halt nur theoretisch. Praktisch dürften im besten Fall 15-20% durchschlagen. Unter dem Aspekt, dass die RX480 doppelt so viel Speicher hat und weniger Strom braucht ist sie in der Tat die sinnvollere Variante. Ich vergesse ab und zu, dass es schon eine RX480 Custom für 250€ gibt, sorry.

Thunder99
2016-11-09, 09:17:21
Was mich echt interessiert wie viele der Gamer hat wirklich ein FreeSync oder G-Sync Monitor extra angeschafft. Ist da Steam repräsentativ?

AintCoolName
2016-11-09, 09:36:52
Hat die Steam Hardware Umfrage infos darüber?

Thunder99
2016-11-09, 10:41:36
Hat die Steam Hardware Umfrage infos darüber?
"Leider" nein http://store.steampowered.com/hwsurvey?l=german

Godmode
2016-11-11, 10:21:18
Das Thema hier ist Polaris und nicht irgendwelche Oldtimer.

Loeschzwerg
2016-11-15, 18:12:39
Voraussichtlicher Liefertermin meiner WX4100 ist der 30.11., da bin ich mal gespannt :)

iuno
2016-11-17, 12:01:31
Pseudo HDR bei polaris? 8 statt 10 bpc mit dithering oder Farbunterabtastung.

https://heise.de/newsticker/meldung/AMD-Radeon-RX-400-HDR-Gaming-ueber-HDMI-nur-mit-8-statt-10-Bit-3488970.html

Meint ihr 8bpc mit dithering sieht besser aus als Farbunterabtastung oder hat es andere Gründe?

Dino-Fossil
2016-11-17, 12:10:48
Pseudo HDR bei polaris? Das wäre bitter. 8 statt 10 bpc mit dithering oder Farbunterabtastung.

https://heise.de/newsticker/meldung/AMD-Radeon-RX-400-HDR-Gaming-ueber-HDMI-nur-mit-8-statt-10-Bit-3488970.html

Hm, aber scheinbar ja auch eher ein Problem mit HDMI, über Displayport1.4 sollte es laut Artikel funktionieren?
Und abzuwarten bleibt auch noch, ob NVidia dann nicht die gleiche Einschränkung hat.

iuno
2016-11-17, 12:12:11
Ja, aber es ist unklar, wieso man auf 8 bit zurück schaltet anstatt die Farbunterabtastung zu benutzen. Nvidia soll etwas länger brauchen, vielleicht ist das der Grund.

N0Thing
2016-11-17, 12:13:35
Pseudo HDR bei polaris? 8 statt 10 bpc mit dithering oder Farbunterabtastung.

https://heise.de/newsticker/meldung/AMD-Radeon-RX-400-HDR-Gaming-ueber-HDMI-nur-mit-8-statt-10-Bit-3488970.html

Meint ihr 8bpc mit dithering sieht besser aus als Farbunterabtastung oder hat es andere Gründe?

Laut dem Artikel liegt es primär an den Limitierungen von HDMI 2.0a.

HDMI 2.0a bietet im Unterschied zu DisplayPort 1.4 nicht genügend Bandbreite, um 4K-HDR-Bilder mit 10 Bit, 60 Hz und voller YCrBr-4:4:4-Farbabtastung auszugeben. Zwar könnte AMD die HDR-Farbtiefe durchaus auf 10 Bit setzen, müsste dann aber die Abtastung auf 4:2:2 oder 4:2:0 reduzieren (Farbunterabtastung/Chroma Subsampling). Das kann an filigranen Details oder Schriftkanten Farbschlieren verursachen – was Spieler etwa bei der Lebensanzeige im Head-Up-Display stören könnte. Noch vor ein paar Monaten erklärte AMD gegenüber Journalisten, dass man mit Polaris-Grafikkarten via HDMI 2.0 10-Bit-HDR-Displays mit Farbunterabtastung 4:2:2 ansteuere. Möglicherweise gilt das zumindest weiterhin beim Abspielen von UHD-HDR-Filmen.

E:\


Meint ihr 8bpc mit dithering sieht besser aus als Farbunterabtastung oder hat es andere Gründe?

Vermutlich hat 8Bit+Dithering den Testpersonen besser gefallen als 4:2:2 oder 4:2:0, oder es war einfacher umzusetzen.

iuno
2016-11-17, 12:17:23
Siehe post oben. Dass volle Farbauflösung mit HDMI nicht geht ist klar. Mich würden aber die optischen oder technischen Gründe interessieren, das verpasst heise mal wieder.

Troyan
2016-11-17, 12:57:24
Ja, aber es ist unklar, wieso man auf 8 bit zurück schaltet anstatt die Farbunterabtastung zu benutzen. Nvidia soll etwas länger brauchen, vielleicht ist das der Grund.

"Länger brauchen"? Shield TV unterstützt 50Hz+ mit 10bit bei 4:2:0. Mehr ist aufgrund der Spezifikation nicht möglich (bzw. 4:2:2).

iuno
2016-11-17, 15:19:32
Artikel wohl nicht gelesen, Kontext nicht verstanden :rolleyes:
Es geht nicht um TTM, sondern um Rechenzeit.

Gipsel
2016-11-17, 16:43:28
Artikel wohl nicht gelesen, Kontext nicht verstanden :rolleyes:
Es geht nicht um TTM, sondern um Rechenzeit.An der Rechenzeit aendert sich rein gar nichts. Es geht ja nur um die Umsetzung des Framebuffers beim Scanout in das eigentlich zum Monitor/TV uebertragende Format. Das passiert sowieso on-the-fly mit der Geschwindigkeit, die die Uebertragung erlaubt, unabhaengig vom Format.

Und noch was zum Chroma-Subsampling vs. 8bit mit Dithering (eins von beiden muss man ja machen mit HDMI2.0a, da die Bandbreite sonst nicht reicht). Ich wuerde mal spontan vermuten, das bei vielen Bildern Chroma-Subsampling schlechtere Ergebnisse liefert. Immerhin hat die Farbinformation ja dann eine geringere Aufloesung, was zu Artefakten vor allem in Bildern mit vielen Kanten und entsprechenden Farbkontrasten fuehren kann. Das ist vermutlich auffaelliger als das bisschen Farbaufloesung, was fuer Farbverlaufe und Aehnliches durch Dithering halbwegs gut recovered werden kann.

Dino-Fossil
2016-11-17, 17:07:10
@iuno:

Wäre natürlich interessant eine Aussage von AMD und wohl auch nVidia zu bekommen, warum man sich für diesen oder jenen Weg entschieden hat, bzw. welche Vor- und Nachteile die jeweils haben.

Immerhin hast du ja deinen Post ein wenig geändert, ursprünglich klang das eher nach einem Problem mit Polaris, während es ja ein Problem mit HDMI 2.0a ist.

mczak
2016-11-17, 21:20:23
Man könnte das ja auch im Treiber konfigurierbar machen.
Können eigentlich alle Hersteller sowohl 4:2:0 Ausgabe wie auch 4:2:2 (ersteres will man hier ja definitiv nicht)?

Loeschzwerg
2016-11-22, 20:06:02
Meine WX4100 ist heute angekommen :)

https://abload.de/thumb/imgp579443uxx.jpg (http://abload.de/image.php?img=imgp579443uxx.jpg) https://abload.de/thumb/imgp5796e1uzy.jpg (http://abload.de/image.php?img=imgp5796e1uzy.jpg) https://abload.de/thumb/imgp5798t4urt.jpg (http://abload.de/image.php?img=imgp5798t4urt.jpg) https://abload.de/thumb/imgp5799olus2.jpg (http://abload.de/image.php?img=imgp5799olus2.jpg) https://abload.de/thumb/imgp5800s8uue.jpg (http://abload.de/image.php?img=imgp5800s8uue.jpg) https://abload.de/thumb/imgp5801d7ua7.jpg (http://abload.de/image.php?img=imgp5801d7ua7.jpg)

Unicous
2016-11-22, 20:12:49
Bekommt man da nicht einen Wasserschaden?:eek:

Kartenlehrling
2016-11-22, 20:15:02
Wieso sind die PCI-E Pins nur halb belegt, ist das nur 8x ?

http://physxinfo.com/news/wp-content/uploads/2009/11/pci-e_adj.png

Unicous
2016-11-22, 20:19:27
:confused:

https://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-RX-460-Spezifikationen.jpg

Polaris 11 halt.

von Richthofen
2016-11-22, 20:29:50
..wirkt dadurch gleich ziemlich lang und auch ein wenig nach einem "Brüller".
Interessant wäre wie sie sich auf Desktop-Takt gegen die 1050(Ti) macht.

Unicous
2016-11-22, 20:36:00
Das Ding ist auf 1-Slot ausgelegt, ich schätze man musste es auch verlängern um den airflow zu gewährleisten. Bzw. könnte ich mir auch vorstellen, dass das Ding auch "passiv" betrieben werden kann und ein dicker Lüfter da im Blade ordentlich pustet.

AngelDust 32
2016-11-22, 21:47:37
@Unicous

http://www.amd.com/en-us/products/graphics/workstation/firepro-3d/wx4100

"Stream Processors ​1024 " also nicht RX460

mczak
2016-11-22, 22:30:41
@Unicous

http://www.amd.com/en-us/products/graphics/workstation/firepro-3d/wx4100

"Stream Processors ​1024 " also nicht RX460
Ging ja wohl darum dass eben Polaris 11 nur PCIE 8x unterstützt. Egal ob RX 460 oder FirePro, teildeaktiviert oder nicht... Das ist in der Tat ein alter Hut, wurde auch schon diskutiert.

Unicous
2016-12-07, 04:18:08
Im Mac Treiber sollen Polaris 10XT2 (neue Rev.?) und Polaris 12 aufgetaucht sein (neben einem String für Vega10).

https://www.tonymacx86.com/attachments/xt2-png.223887/

https://www.tonymacx86.com/threads/macos-sierra-pb-need-testers-for-new-amd-radeon-drivers.197273/page-118#post-1386344

Nightspider
2016-12-07, 04:20:40
Gratz der Thread hat ja schon über 1mio Klicks.

Pirx
2016-12-07, 07:00:52
Polaris 12??? Watdattdenn?

Loeschzwerg
2016-12-07, 07:07:31
Möglicherweise ein Oland Ersatz (der immerhin noch GCN "1" ist; Stichwort OEM)? Das Konstrukt, z.B. mit 512 Cores, könnte auch gut zu einer kommenden APU passen.