PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 [48] 49 50 51

iuno
2017-04-13, 15:22:54
Ist auch klar, dass keiner von einer 480 wechseln wird. Der Unterschied interessiert uns vielleicht, aber eben nicht die wirkliche Zielgruppe

dargo
2017-04-13, 15:26:46
Ich gehe schon davon aus, dass die Referenz schon auch naeher oder ganz am boost max bleibt. Sonst haetten sie gar nicht erst einen neuen Kuehler bringen muessen.
Das dürfte auf jeden Fall passieren. Der Base Clock der RX580 liegt schon alleine bei 1257Mhz. Bei der RX480 waren es noch 1120Mhz.

Der_Korken
2017-04-13, 15:33:20
Fragt sich nur was von dem GPU-Takt auch tatsächlich bei den fps ankommt, wenn der Speicher nach wie vor bei 8Ghz liegt. Aus 10% mehr Takt holt man dann vielleicht noch ~5% Mehrleistung raus.

Palpatin
2017-04-13, 15:38:04
Mit "up to 1.1X higher Performance" lockst du halt niemanden hinter dem Ofen hervor. :tongue: Viel mehr, wenn überhaupt, wird es nicht werden. Es sei denn, das Referenzdesign taktet diesmal am oberen Limit, das der 480 hing ja idR irgendwo bei 11XX rum.
Ach was ne gute Marketing Abteilung bringt die Balken schon so hin das es toll aussieht:


http://cdn.videocardz.com/1/2016/07/NVIDIA-GeForce-GTX-1060-vs-Radeon-RX-480-performance-1.jpg

aufkrawall
2017-04-13, 15:40:37
Nur 2GB für Polaris 12, was soll der Mist? Ich kauf jedenfalls auch für eine Notfall-Karte nichts mehr mit 2GB...

BoMbY
2017-04-13, 15:42:17
"3rd Gen FinFET 14“ :popcorn:

Ja, nur was ist das genau bei GloFo? Wenn LPE 1st war, und LPP 2nd, und die Kooperation mit Samsung angeblich beendet wurde?

Edit: 14LPP+ (https://semiaccurate.com/forums/showpost.php?p=258067&postcount=144)?

Rubber Duck
2017-04-13, 15:54:38
Was ist denn FreeSync 2? Braucht das neue Monitore?

Isen
2017-04-13, 16:03:41
HDMI ^^

BoMbY
2017-04-13, 16:06:55
Was ist denn FreeSync 2? Braucht das neue Monitore?

Ist doch schon alt: Freesync 2 mit intelligentem HDR: Engine-Support und neue Displays nötig [Update] (http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/Freesync-2-mit-intelligenter-HDR-Unterstuetzung-1217305/)

Gibt aber glaube ich immer noch keine Displays.

dargo
2017-04-13, 16:14:25
Nur 2GB für Polaris 12, was soll der Mist? Ich kauf jedenfalls auch für eine Notfall-Karte nichts mehr mit 2GB...
Warum nicht? Wo sollen die 2GB limitieren?

Botcruscher
2017-04-13, 16:16:20
Nur 2GB für Polaris 12, was soll der Mist? Ich kauf jedenfalls auch für eine Notfall-Karte nichts mehr mit 2GB...

Das ist eine preissensitive Billigkarte auf APU-Level. Da reichen 2GB nun wirklich zum Bild machen. Um den DAU mit 4GB(oder mehr)zu beglücken gibt es P11.

Was ist nun eigentlich P20? Neues stepping mit neuem layer?

BoMbY
2017-04-13, 16:59:42
Das ist eine preissensitive Billigkarte auf APU-Level. Da reichen 2GB nun wirklich zum Bild machen. Um den DAU mit 4GB(oder mehr)zu beglücken gibt es P11.

Was ist nun eigentlich P20? Neues stepping mit neuem layer?

RX 550 ist für HTPC und Office-Rechner - da sind 2 GB schon übertrieben.

Und es steht auf der ersten Folie: "3rd Gen FinFET 14", was auch immer das bei GloFo heißt.

Edit: Und Low-Profile möglich:

http://i.imgur.com/1LDc0ePh.jpg

Screemer
2017-04-13, 17:14:51
Hat einer die Folien und kann sie irgendwo uppen?

Linmoum
2017-04-13, 17:20:01
Hat einer die Folien und kann sie irgendwo uppen?
Reicht dir videocardz nicht? :D

https://videocardz.com/68450/amd-radeon-rx-500-series-official-specifications-and-performance-leaked

Unicous
2017-04-13, 17:20:48
Im Zweifelsfall heißt 3rd Generation einfach nur, dass sie jetzt im dritten Jahr der Reifung angelangt sind. Da Intel diese "Prozesspflege" jetzt auch als Quantensprünge, a.k.a. Hyperscaling, anpreist möchten AMD und gegebenenfalls GlobalFoundries dem nicht nachstehen.


@Isen

Was meinst du mit HDMI? FreeSync 2 hat damit erst einmal nichts zu tun, das kam deutlich vorher.

Rubber Duck
2017-04-13, 17:20:53
HDMI ^^
Ist doch schon alt: Freesync 2 mit intelligentem HDR: Engine-Support und neue Displays nötig [Update] (http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/Freesync-2-mit-intelligenter-HDR-Unterstuetzung-1217305/)

Gibt aber glaube ich immer noch keine Displays.
Danke, ist aber an mir komplett vorbeigegangen.

Screemer
2017-04-13, 17:21:04
Missed that. Hätte ich mir aber denken können.

Bin mal gespannt ob sich einer der reviewer traut den neuen kühler auf ne 480 zu packen.

Botcruscher
2017-04-13, 17:38:43
Im Zweifelsfall heißt 3rd Generation einfach nur, dass sie jetzt im dritten Jahr der Reifung angelangt sind. Da Intel diese "Prozesspflege" jetzt auch als Quantensprünge, a.k.a. Hyperscaling, anpreist möchten AMD und gegebenenfalls GlobalFoundries dem nicht nachstehen.
Intel verkauft das aber auch mit neuem Design.

dildo4u
2017-04-13, 17:43:07
Im Zweifelsfall heißt 3rd Generation einfach nur, dass sie jetzt im dritten Jahr der Reifung angelangt sind. Da Intel diese "Prozesspflege" jetzt auch als Quantensprünge, a.k.a. Hyperscaling, anpreist möchten AMD und gegebenenfalls GlobalFoundries dem nicht nachstehen.


@Isen

Was meinst du mit HDMI? FreeSync 2 hat damit erst einmal nichts zu tun, das kam deutlich vorher.
Kabylake taktet zumindest deutlich besser als Skylake bei gleichem Verbrauch,die 580 bekommt einfach nur eine dickere Stromversorgung und Kühler um den neuen Takt zu halten.

herp_derp
2017-04-13, 17:46:21
"Enhanced Idle & Multimonitor Efficiency"

Haben sie es etwa geschafft, dass der VRAM nicht mehr hochgetaktet bleibt? Das wäre mal ne Sache :D

Locuza
2017-04-13, 17:49:45
Enhanced Idle, jaja, vermutlich das was man nachdem launch versprochen hat. ;D

Unicous
2017-04-13, 17:57:28
Intel verkauft das aber auch mit neuem Design.

Kaby Lake ist ein Sky Lake "Stepping", jfyi.:rolleyes:

(edit: Um lustigen Kommentaren vorzubeugen, es hat sich nicht viel getan bei Kaby Lake)

Kabylake taktet zumindest deutlich besser als Skylake bei gleichem Verbrauch,die 580 bekommt einfach nur eine dickere Stromversorgung und Kühler um den neuen Takt zu halten.

Krass, hast du schon eine RX 580?:eek:

Zeig mal ein paar Benchmarks und mach mal ein paar Strommessungen.(y)

dildo4u
2017-04-13, 18:40:14
Asus 580.

https://videocardz.com/68443/asus-rog-strix-radeon-rx-580-pictured

mczak
2017-04-13, 18:40:20
Das ist eine preissensitive Billigkarte auf APU-Level. Da reichen 2GB nun wirklich zum Bild machen. Um den DAU mit 4GB(oder mehr)zu beglücken gibt es P11.

Mal abgesehen davon dass es auch RX460 mit 2GB gibt. Pitcairn in Form der HD 7850 (der ist ja auch schneller als P12) gab's sogar auch mit 1GB.
Für den gedachten Einsatzzweck sollten 2GB locker reichen. Wobei bei diesen Karten aus dem unteren Segment weiss man nie, vielleicht gibt's dann die 8GB Version - mit ddr3 Speicher...

aufkrawall
2017-04-13, 18:46:25
Ich hab keine IGP und die würde mit meinem Qnix eh nicht funktionieren. Wenn also was mit meiner Karte ist, brauche ich ein Backup, wofür sich der billigste Krempel anbietet.
Und selbst wenn ich in WQHD alles brutal runter regeln muss, würd ich zumindest bei den Texturen da gerne eine Ausnahme machen. 1st World Problems und so, aber trotzdem. ;)

Zergra
2017-04-13, 19:44:14
Im Zweifelsfall heißt 3rd Generation einfach nur, dass sie jetzt im dritten Jahr der Reifung angelangt sind. Da Intel diese "Prozesspflege" jetzt auch als Quantensprünge, a.k.a. Hyperscaling, anpreist möchten AMD und gegebenenfalls GlobalFoundries dem nicht nachstehen.


Wäre schön wenn Intel die mal als Quantensprünge anpreisen würde, dann würde es der Realität entsprechen.

Tru
2017-04-13, 19:46:31
Nur mal so am Rande: AMD hat schon oft Pseudo-Referenzdesigns auf Folien gezeigt, die es nie tatsächlich gab. Zuletzt bei der RX 470 und 460.

Unicous
2017-04-13, 20:01:41
Wäre schön wenn Intel die mal als Quantensprünge anpreisen würde, dann würde es der Realität entsprechen.
:confused:

Gipsel
2017-04-13, 20:17:26
:confused:Ein Quantensprung kann auch die kleinstmögliche Änderung sein. Also in der Physik. ;)

Unicous
2017-04-13, 20:33:47
Aber nicht im Marketing und davon spreche ich ja.:P

[2] im übertragenen Sinne fälschlich: großer Fortschritt, grundlegende Veränderung

https://de.wiktionary.org/wiki/Quantensprung

Zergra
2017-04-13, 20:37:46
Das ist aber eins der am meisten Falsch verwendetet Wörter die es gibt.

Steht doch auch bei Wikipedia.
[2] im übertragenen Sinne fälschlich: großer Fortschritt, grundlegende Veränderung

Unicous
2017-04-13, 20:53:29
Da es Sprachwissenschaftler gibt die solche "Probleme" eloquenter erläutern können hier mal ein Link(hätte ich bloß nicht Wiktionary zitiert *seufz:rolleyes:):

http://scilogs.spektrum.de/sprachlog/quantensprung-in-der-platte/

Pick
2017-04-13, 22:43:45
Chip Clock 1430MHz (Base) • xxxxMHz (OC)
https://webcache.googleusercontent.com/search?q=cache:ZuM13sIaniQJ:https://www.cclonline.com/product/231789/RX-580R8DBR6/Graphics-Cards/XFX-Radeon-RX-580-GTR-S-Black-8GB-OC-Graphics-Card/VGA3796/+&cd=3&hl=en&ct=clnk&gl=ua

Screemer
2017-04-13, 22:50:03
Die black edtions von xfx liegen immer auf Kante. Da bin ich ja mal gespannt.

AffenJack
2017-04-13, 23:05:11
Der Base Clock den die da nennen, wird wohl Boost sein und nicht Base, aber immerhin gar nicht so schlecht. 100mhz mehr als die aktuellen XFX Modelle. Nur dass man statt 1x8Pin jetzt 8+6Pin benutzt lässt nix gutes erahnen.

Unicous
2017-04-13, 23:06:05
Bei Beyond3D denkt wirklich einer, AMD wäre mit Polaris bei Rev. E7 angelangt, weil GPU-Z weiterhin Schrott ausliest, da sind auch nicht die hellsten Leuchten unterm Stern versammelt.:facepalm:

Rampage 2
2017-04-14, 00:50:12
Warum verbaut AMD kein 9Gbps-Speicher beim Polaris-Refresh!? Wenn die 480 schon mit niedrigerem Chiptakt stark bandbreitenlimitiert ist, dann wird das bei der 580 noch kritischer...

R2

BoMbY
2017-04-14, 01:20:01
Bei Beyond3D denkt wirklich einer, AMD wäre mit Polaris bei Rev. E7 angelangt, weil GPU-Z weiterhin Schrott ausliest, da sind auch nicht die hellsten Leuchten unterm Stern versammelt.:facepalm:

Du lehnst Dich mal wieder ziemlich weit aus dem Fenster ... Polaris 20 nutzt scheinbar die Revision IDs E7 (http://wccftech.com/gigabyte-aorus-radeon-rx-500-series-graphics-card-leaked-polaris-20-gpu/) und EF (https://i.imgur.com/6a6nXII.jpg) zur Unterscheidung zu den vorhergehenden Polaris 10 Versionen - so what?

Unicous
2017-04-14, 03:46:25
Und diese geben mitnichten das Stepping/die Revision an, sondern sind Teil der Device ID. Seit vielen, vielen Jahren.

Ich wiederhole immer wieder gern, dass das Stepping sogar im BIOS hinterlegt ist und jemand bei Polaris 10 entweder A0 oder A1 ausgelesen hat... nicht C7 wie mehrfach kolportiert.

Hübie
2017-04-14, 05:23:08
Das ist aber eins der am meisten Falsch verwendetet Wörter die es gibt.

Steht doch auch bei Wikipedia.

Auch wenn es OT ist: Dabei geht es wohl um die Energiemenge und den Aufwand die man für so etwas benötigt, nicht zwangsläufig um eine überwundene Distanz in Piko- / Nanometer oder so etwas.

B2T: Warum kommt man bei AMD nicht mal auf die Idee GDDR5X zu verbauen? :confused: Das Interface ist imo kein Argument, da es kaum größer ist. Echt schade. Bei 1070 und 1080 sieht man ganz gut, dass es einiges bringen kann.

HOT
2017-04-14, 08:55:00
Auch wenn es OT ist: Dabei geht es wohl um die Energiemenge und den Aufwand die man für so etwas benötigt, nicht zwangsläufig um eine überwundene Distanz in Piko- / Nanometer oder so etwas.

B2T: Warum kommt man bei AMD nicht mal auf die Idee GDDR5X zu verbauen? :confused: Das Interface ist imo kein Argument, da es kaum größer ist. Echt schade. Bei 1070 und 1080 sieht man ganz gut, dass es einiges bringen kann.
Kosten. Ganz einfach. Was glaubst warum es die 570 nur noch mit 4gb gibt?

dargo
2017-04-14, 09:04:47
Warum verbaut AMD kein 9Gbps-Speicher beim Polaris-Refresh!?
Womöglich ist der Speichercontroller für 2,25Ghz nicht ausgelegt. Oder P10 Refresh wird künstlich wegen V11 eingebremst.


B2T: Warum kommt man bei AMD nicht mal auf die Idee GDDR5X zu verbauen? :confused: Das Interface ist imo kein Argument, da es kaum größer ist. Echt schade. Bei 1070 und 1080 sieht man ganz gut, dass es einiges bringen kann.
Eine GTX1070 hat keinen GDDR5X.

Was glaubst warum es die 570 nur noch mit 4gb gibt?
Wie kommst du denn darauf?

Hübie
2017-04-14, 09:50:23
Kosten. Ganz einfach. Was glaubst warum es die 570 nur noch mit 4gb gibt?

Mehr Absatz senkt Stückkosten und somit mittelfristig den Preis. Ist reine Verhandlungssache. Eine Massen-GPU würde da sicherlich helfen. ;) Nicht zu vergessen den turn-over...

fondness
2017-04-14, 10:08:49
Mehr Absatz senkt Stückkosten und somit mittelfristig den Preis. Ist reine Verhandlungssache. Eine Massen-GPU würde da sicherlich helfen. ;) Nicht zu vergessen den turn-over...

Das wird man schon durch-kalkuliert haben, ich denke nicht, dass man sich da in einem Forum den Kopf darüber zerbrechen muss. ;)

victore99
2017-04-14, 11:36:58
oder AMD hat wieder - wie von 290X auf 390X - was am Treiber gemacht, was wieder ein paar Prozent bringt.

HOT
2017-04-14, 11:56:01
Die werden schon vorkalkuliert haben, bei welchen Preisen Polaris letztendlich landen wird und da wird man einfach jeden Cent umdrehen müssen um noch Gewinn zu machen. Es ist ja vorstellbar, dass P20XTX bis 150$ rutschen kann und P20XL bis auf 120$. Da sind dann auch keine 8GB mehr drin. Es kann höchstens sein, dass AMD die Nutzung von 9Gbps RAM grundsätzlich freigegeben hat und es eben spezielle OC Versionen von TUL und Sapphiere geben kann.

y33H@
2017-04-14, 11:57:59
oder AMD hat wieder - wie von 290X auf 390X - was am Treiber gemacht, was wieder ein paar Prozent bringt.Die Radeon Software funktioniert ja auch mit älteren Polaris-Karten, das ist also kein Argument.

iuno
2017-04-14, 13:10:21
Das war auch bei Granada/Hawaii der Fall. Allerdings haben iirc die neuen Karten eben zuerst die neue Treiberversion bekommen was fuer ein paar Prozent mehr Differenz zum Launch gesorgt hat.

Kriton
2017-04-14, 13:43:41
Es wird ein nur Refresh sein, der (wie seinerzeit von AMD angekündigt) neue Zahlen (5XX) bekommt, weil es die OEMS wollen die Jahreszahl angibt. Man wird mit dem kompletten Ryzenportfolio in diesem Jahr, Vega und XBox Scorpio sicherlich genug Ressourcen gebunden haben (bei so etwas geht es ja nicht nur um die Ingenieure).
Das bisschen Takt nimmt man halt mit, weil man es konnte ohne Aufwand zu betreiben. Wenn die OEMs das nicht wollten, hätten wir vermutlich gar keine 5XX gesehen.

Hübie
2017-04-14, 14:01:33
Das wird man schon durch-kalkuliert haben, ich denke nicht, dass man sich da in einem Forum den Kopf darüber zerbrechen muss. ;)

Und das sagt dir wer oder was? Denkst du nicht auch, dass man mit GDDR5X wesentlich besser gefahren wäre (siehe HBM...)? :rolleyes:

y33H@
2017-04-14, 14:30:17
Das war auch bei Granada/Hawaii der Fall. Allerdings haben iirc die neuen Karten eben zuerst die neue Treiberversion bekommen was fuer ein paar Prozent mehr Differenz zum Launch gesorgt hat.Ja, ich erinnere mich - das war Quark.

EDIT
Grandios, BF1 will mit OCAT nicht mehr starten ...

Hübie
2017-04-14, 14:34:47
Eine GTX1070 hat keinen GDDR5X.

Ja eben. Setzt man die GPU auf die gleiche TFLOP-Leistung sieht man eklatante Unterschiede die man wohl überwiegend der Bandbreite bzw. dem Durchsatz zuschreiben kann. ;)

robbitop
2017-04-14, 14:39:05
Mehr Bandbreite würde P10 in jedem Fall gut tun. Ggf kann das SI einfach kein GDDR5X. Aber etwas schnellerer GDDR5 im Topmodell wäre schon nett.

[MK2]Mythos
2017-04-14, 14:43:00
Wer weiß was da noch kommt. Wenn der kleinste VEGA nur 20% drauf legt, gibts ja auch keinen Grund Polaris noch mit nem neuen SI und schnellerem Speicher zu pimpen.

Schaffe89
2017-04-14, 16:23:40
Und das sagt dir wer oder was? Denkst du nicht auch, dass man mit GDDR5X wesentlich besser gefahren wäre (siehe HBM...)? :rolleyes:

AMD hat wohl schon vor langer Zeit die Marschrichtung vorgegeben gehabt und dabei war GDDR5x wohl außerhalb der Planung.
AMD spekulierte wohl auf deutlich guenstigeren HBM und HBM der deutlich früher erhältlich ist.
Warum es kein 9 gbps GDDR5 gibt ist wohl ne reine Kostenfrage.

Tamagothi
2017-04-14, 16:38:03
Wer sagt den das AMD GDDRX zu verfügung steht? Ich würde sagen das NVIDIA alles bekommt.

Das gleiche spielt sich ja mit AMD/Hynix -> HBM ab.

Mancko
2017-04-14, 16:41:30
Wer sagt den das AMD GDDRX zu verfügung steht? Ich würde sagen das NVIDIA alles bekommt.

Das gleiche spielt sich ja mit AMD/Hynix -> HBM ab.

Wäre auch eine Möglichkeit. Dann hätte Nvidia besser gepokert, denn mit Samsung haben sie Zugriff auf HBM2 auch wenn AMD weiter bei Hynix einkauft.

iuno
2017-04-14, 17:27:57
Vielleicht hat AMD auch einfach gar keinen Bock darauf dass GDDR5X billiger wird :P

fondness
2017-04-14, 17:47:43
Und das sagt dir wer oder was? Denkst du nicht auch, dass man mit GDDR5X wesentlich besser gefahren wäre (siehe HBM...)? :rolleyes:

Wo genau und warum wäre man mit GDDR5X besser gefahren?

robbitop
2017-04-14, 19:29:50
Naja P10 ist schon etwas bandbreitenlimitiert und wäre entsprechend etwas schneller. Andererseits hätte man sonst diesen so attraktiven Preis nicht geschafft. Polaris scheint für AMD ja einiges an Marktanteil geholt zu haben. Eine bandbreiteneffizienz analog zu Maxwell hätte auch schon sehr geholfen. ;) Die kommt dann hoffentlich zu Vega.

dargo
2017-04-14, 22:15:01
Ja eben. Setzt man die GPU auf die gleiche TFLOP-Leistung sieht man eklatante Unterschiede die man wohl überwiegend der Bandbreite bzw. dem Durchsatz zuschreiben kann. ;)
Hä?

iuno
2017-04-15, 03:37:24
Die Gigabyte Aorus RX 580 XTR soll 1439 boost haben: https://www.reddit.com/r/Amd/comments/65do4c/info_on_aorus_rx580_xtr_8gb/
Zu angeblich 259$. Referenz 480 hatte damals 239$, Preise koennten also anstaendig werden.

horn 12
2017-04-15, 08:31:51
Somit wäre dies Karte knapp auf Fiji Performance, teils gar schneller als diese da Polaris die Bessere Auslastung nutzt.
Mit 1550+ Mhz sollte man in etwa Gleichstand zu Fiji Pro Aufweisen können.
Vega Klein nochmals gute 30% drauf und man wäre gut auf GTX 1080 Level.

Hübie
2017-04-15, 09:25:54
Wo genau und warum wäre man mit GDDR5X besser gefahren?

Siehe robbitop's Antwort. Kannst mir gerne aufzeigen, dass P10/20 nicht mehr Bandbreite bräuchte. Mir ist halt gegenteiliges bekannt.
Laut JEDEC ist es auch wirklich ein rein extensives SI, was auf GDDR5 aufbaut. Daher dachte ich es wäre ein Klacks für AMD. Das Micron hier irgendwelche Exklusivverträge hat entspringt natürlich der Fantasie einiger weniger Personen. AMD hat ebenso Zugriff auf diese Technologie wie NVIDIA.

Naja P10 ist schon etwas bandbreitenlimitiert und wäre entsprechend etwas schneller. Andererseits hätte man sonst diesen so attraktiven Preis nicht geschafft. Polaris scheint für AMD ja einiges an Marktanteil geholt zu haben. Eine bandbreiteneffizienz analog zu Maxwell hätte auch schon sehr geholfen. ;) Die kommt dann hoffentlich zu Vega.

Ich kenne leider überhaupt keinen Preis von GDDR5X. Im Hinterkopf schwirren 6 $ für 1GB DDR5 herum. HBM etwa das Dreifache. 5X mag da in 10-Dollar-Regionen sein.

Hä?

Bitte nennen Sie die Art des medizinischen Notfalls. :D

fondness
2017-04-15, 09:43:18
Siehe robbitop's Antwort. Kannst mir gerne aufzeigen, dass P10/20 nicht mehr Bandbreite bräuchte. Mir ist halt gegenteiliges bekannt.
Laut JEDEC ist es auch wirklich ein rein extensives SI, was auf GDDR5 aufbaut. Daher dachte ich es wäre ein Klacks für AMD. Das Micron hier irgendwelche Exklusivverträge hat entspringt natürlich der Fantasie einiger weniger Personen. AMD hat ebenso Zugriff auf diese Technologie wie NVIDIA.


AMD verbaut 8 Gbps GDDR5. Es gibt bereits 9 Gbps GDDR5. Für mehr Bandbreite braucht also niemand GDDR5X. GDDR5X wäre viel zu teuer für den Preisbereich einer RX 480 / 580, zumal wir da von einem Performacegewinn von vielleicht 5% im Schnitt sprechen. Das steht in keinem Verhältnis zum höheren Preis von GDDR5X. Manche tun hier so als würde P10 plötzliche zur Überkarte werden wenn man nur mehr Bandbreite hätte.

StefanV
2017-04-15, 10:01:38
Warum kommt man bei AMD nicht mal auf die Idee GDDR5X zu verbauen?
Weils Proprietäres Zeugs ist, nicht verfügbar und/oder viel zu teuer.

dargo
2017-04-15, 10:21:36
AMD verbaut 8 Gbps GDDR5. Es gibt bereits 9 Gbps GDDR5. Für mehr Bandbreite braucht also niemand GDDR5X. GDDR5X wäre viel zu teuer für den Preisbereich einer RX 480 / 580, zumal wir da von einem Performacegewinn von vielleicht 5% im Schnitt sprechen. Das steht in keinem Verhältnis zum höheren Preis von GDDR5X. Manche tun hier so als würde P10 plötzliche zur Überkarte werden wenn man nur mehr Bandbreite hätte.
Absolut, das kapieren offenbar manche nicht.

RX580 taktet mit 1340Mhz Boost, RX480 mit 1266Mhz. Das sind knapp +6%. Alles nur auf dem Papier. In der Praxis taktet dann RX580 mit 1266-1300Mhz, die RX480 mit 1180-1200Mhz. Dann sind wir irgendwo bei +8%. Bei gleicher Bandbreite kommen irgendwas um die +4-6% Leistung an. Damit jetzt stattdessen +8% Leistung ankommen soll man den Speichercontroller umkrempeln und teuren GDDR5X verbauen? :ulol: Zudem weiß noch nicht mal einer ob AMD überhaupt Zugriff auf GDDR5X hat. Vielleicht ist das nur was Exklusives für Nvidias Grakas =>GTX1080. Selbst Scorpio bekommt keinen GDDR5X.


Ich kenne leider überhaupt keinen Preis von GDDR5X. Im Hinterkopf schwirren 6 $ für 1GB DDR5 herum. HBM etwa das Dreifache. 5X mag da in 10-Dollar-Regionen sein.

Damit hast du dir die Antwort schon selbst gegeben. 67% höherer Preis wäre bei P10 wirtschaftlicher Selbstmord.

Hübie
2017-04-15, 10:41:50
Weils Proprietäres Zeugs ist, nicht verfügbar und/oder viel zu teuer.

Quelle? Dein Kopf?

Edit: Hier kannst du den ganz normal einsehen und bestellen: https://www.micron.com/parts/dram/gddr5/mt58k256m321ja-110?pc={A3DEA33E-FC34-4856-9365-52D6D71B95BA}&sc_device={FE5D7FDF-89C0-4D99-9AA3-B5FBD009C9F3}&persisted=true

GDDR5X wird weitgehend sogar in die Spec von GDDR6 übergehen. Aber alles properitärer Scheiß von deinem ausgemachten Feindbild NVIDIA. :rolleyes:

@fondness & dargo: Ist ja gut, ihr habt Recht. Die Marge ist wahrscheinlich eh schon auf Kante genäht.

StefanV
2017-04-15, 11:09:41
GDDR5X wird weitgehend sogar in die Spec von GDDR6 übergehen.
Und das nutzt uns jetzt was genau??


Aber alles properitärer Scheiß.
Ja, dann zeig mal GDDR5X von Samsung oder Hynix!
Solang es GDDR5X nur von einem Hersteller gibt, ist es Proprietäres Zeugs von Micron...

HBM gibts ja von Samsung und Hynix, also schon mal mehr als einem Hersteller, ergo NICHT proprietär...

Mancko
2017-04-15, 11:34:19
https://www.jedec.org/news/pressreleases/jedec-announces-publication-gddr5x-graphics-memory-standard

Und nur weil andere Hersteller sich dazu entschieden haben es derzeit nicht zu produzieren ist es noch lange nicht proprietär. Zumal das dem Endkunden sowieso egal wäre. Im High End Segment hat sich diese Entscheidung von Nvidia komplett ausgezahlt. Billiger als HBM2, vermutlich auch früher in größeren Mengen verfügbar und für die Leistung der GPUs auch völlig ausreichend.

In Bezug auf Polaris ist das aber eh uninteressant. Hat die RX480 nicht eh ein breiteres Interface als die GTX 1060? M.E 256 vs. 192 Bit. AMDs Problem ist einfach, dass sie in Summe mehr Hardwareleistung und damit mehr Aufwand für gleiches Endresultat liefern müsen bis jetzt. Damit sind sie unter marktwirtschaftlichen Aspekten eigentlich immer im Nachteil. Daran müssen die primär arbeiten und weniger daran ob es nun HBM oder GDDR5X oder was weiß ich ist.

Locuza
2017-04-15, 11:37:24
[...]
Ja, dann zeig mal GDDR5X von Samsung oder Hynix!
Solang es GDDR5X nur von einem Hersteller gibt, ist es Proprietäres Zeugs von Micron...
[...]
Nette Logik hier, echt nett.

GDDR5X ist seit Anfang 2016 ein offizieller JEDEC-Standard, jeder im Club kann es fertigen wenn er Lust dazu hat.

HOT
2017-04-15, 11:46:56
Die sind nicht exklusiv, nur zu teuer für <200€-Produkte.

dildo4u
2017-04-15, 11:50:55
Die Karten sind nicht teuer genug für GDDR5X,aber AMD könnte zumindest 9Gbps verbauen NV bringt 1060 damit.


https://videocardz.com/67768/gigabyte-launches-gtx-1080-11gbps-and-gtx-1060-9gbps-aorus

reaperrr
2017-04-15, 12:14:30
Die Karten sind nicht teuer genug für GDDR5X,aber AMD könnte zumindest 9Gbps verbauen NV bringt 1060 damit.


https://videocardz.com/67768/gigabyte-launches-gtx-1080-11gbps-and-gtx-1060-9gbps-aorus
Aber nur in OC-Varianten. Außerdem ist die 1060 generell günstiger herzustellen als jede P10-Karte, und braucht eben nur 6 statt 8 dieser Speicherchips.

HOT
2017-04-15, 12:15:41
NV erlaubt es den Kartenherstellern, ob AMD das tut ist bislang nicht offen, aber möglich.

Hübie
2017-04-15, 12:26:58
Nette Logik hier, echt nett.

GDDR5X ist seit Anfang 2016 ein offizieller JEDEC-Standard, jeder im Club kann es fertigen wenn er Lust dazu hat.

Er macht's wie immer. Behauptung aufstellen die sowieso widerlegt wird und dann einfach dem Thread ne Weile fern bleiben, anstatt mal zu sagen, er habe sich geirrt.
Das mit GDDR5X auf Polaris scheint wirklich kein Erfolg zu sein, wenn die Marge der Art gering ist, was ich gar nicht so gedacht hatte. Auch die Entwicklung so eines Chips kostet n paar Taler. Habt mich also überzeugt. ;)

Gespannt bin ich auf den Verbrauch, da ich hin und wieder von Polaris-Karten gelesen habe die 10-15% effizienter agieren, als die breite Masse. Scheint eine starke Serienstreuung zu geben, oder was denkt ihr?

fondness
2017-04-15, 12:30:53
Das mit GDDR5X auf Polaris scheint wirklich kein Erfolg zu sein, wenn die Marge der Art gering ist, was ich gar nicht so gedacht hatte.

Niemand hier hat gesagt wie hoch die Marge ist; damit hat das auch erstmal gar nichts zu tun und das kannst du ohnehin nicht beurteilen. Das nennt man Kosten-Nutzen-Rechnung. GDDR5X macht schlicht keinen Sinn, wenn dann verbaut man 9 Gbps GDDR5.

dargo
2017-04-15, 12:33:04
Nette Logik hier, echt nett.

GDDR5X ist seit Anfang 2016 ein offizieller JEDEC-Standard, jeder im Club kann es fertigen wenn er Lust dazu hat.
Dann bleibt wohl nur der Preis, eventuell kann Micron aber auch nicht genügend Stückzahlen liefern. Anders ist es für mich nicht erklärbar warum AMD/Microsoft sich bei Scorpio für ein 384Bit SI und GDDR5 entschieden haben. Oder anders gesagt... offenbar ist ein 384Bit SI mit 12GB 7Gbps GDDR5 günstiger als ein 256Bit SI mit 16GB (8GB empfand man wohl als zu wenig für Scorpio) 10Gbps GDDR5X.

fondness
2017-04-15, 12:35:52
Dann bleibt wohl nur der Preis, eventuell kann Micron aber auch nicht genügend Stückzahlen liefern. Anders ist es für mich nicht erklärbar warum AMD/Microsoft sich bei Scorpio für ein 384Bit SI und GDDR5 entschieden haben. Oder anders gesagt... offenbar ist ein 384Bit SI mit 12GB 7Gbps GDDR5 günstiger als ein 256Bit SI mit 16GB (8GB empfand man wohl als zu wenig für Scorpio) 10Gbps GDDR5X.

MS benötigt vor allem auch Langzeitverfügbarkeit zu vernünftigen Preisen. GDDR5X wird nur von einem Hersteller gefertigt, wird schnell in der Versenkung verschwinden und wäre deshalb auf lange Sicht viel zu teuer für MS.

iuno
2017-04-15, 12:36:18
Micron wollte ja auch mal Dies mit 12 Gb bauen, aber daraus ist offenbar auch nichts geworden. Dann waeren auch die 12 GiB an 256 bit moeglich gewesen. Das waere imho schon auch einer der wichtigen Vorteile, so bleibt 5X halt uninteressant fuer die meisten. Auch dass die Bandbreiten nicht hoch gehen, obwohl man grossmundig 10-12 Gbps zum Start und spaeter bis zu 16 angekuendigt hat :rolleyes:
Es wird auch schlichtweg keinen der anderen Hersteller jucken, weil irgendwann noch GDDR6 kommt.

Hübie
2017-04-15, 12:44:06
Micron könnte die Produktion mit Leichtigkeit ausweiten, da die Module nicht viel komplexer sind, als normaler GDDR5.
@fondness: Ich kenne einige Preise bei NV und kann mir durchaus mit einer Abweichung von 10% die Marge ausrechnen. ;) Bei einem Verkaufspreis von 200-250 € bleibt nicht viel. Allein Steuern und Transport abgezogen zeigt dass der AiB kaum dran verdient. Beurteilen kann ich das also sehr wohl. Es passt dir einfach nur nicht, dass ist dein Problem. An die Marge hatte ich Schlicht nicht gedacht, weil die Technologie und der daraus resultierende Zugewinn für mich sehr interessant war.

fondness
2017-04-15, 12:50:15
Klar, man ist es ja gewohnt, dass hier lauter Top-Experten für eh alles umherlaufen. Wenn es dir dann besser geht und du so dein Gesicht wahren kannst, von mir aus. Gerade klang das halt noch ein bisschen anders. :)

iuno
2017-04-15, 12:50:41
Micron könnte die Produktion mit Leichtigkeit ausweiten, da die Module nicht viel komplexer sind, als normaler GDDR5.
Machen sie aber nicht, weil eben die Nachfrage fehlt. Dafuer muesste der Speicher ueberhaupt erstmal attraktiver sein, was eben nicht der Fall ist wenn er das Doppelte kostet, ein neues SI braucht und gerade mal 10% mehr Durchsatz bringt.

Wenn man das im Vorfeld oeffentlich zusammengesetzt besprochen haette, saehe das vielleicht anders aus. So haben halt NV und Micron kurzfristig etwas zusammengebastelt und hinterher fuer die JEDEC ueber den Zaun geworfen. NV hat halt jetzt de facto einen Exklusivfertiger fuer den RAM wo sie etwas mehr bezahlen. Ist aber immer noch billiger als HBM und letzterer wird nicht billiger, was AMD helfen wuerde.

TGKlaus
2017-04-15, 14:50:31
Polaris hängt bei weitem nicht so im Bandbreitenlimit wie hier oft behauptet wird.

Lässt sich sehr schön mit ner asus strix 470 testen. Die hat original 1650MHz Speichertakt und der lässt sich nett übertakten (getestet bei 2000MHz)

Das sind 20% mehr. Auf 1250MHz Chiptakt festgetackert ist der Unterschied ca. 5%.

TheGood
2017-04-15, 16:44:19
@ hübie:
du machst hier immer eine auf schlau und Zugang zu "internen" Infos und forderst aber dann ein GDDRX5 Speicherinterface für Polaris in der Mittelklasse.
Dass dir eigentlich nicht schon lange aufgefallen ist, dass diese Kombination in diesem Preissegment, aktuell so keinen Sinn gibt, überrascht dann doch etwas. :)

Das hätten Sie nur machen können wenn Sie den gleichen Chip als 490 oder 590 verkaufen wollen hätten, wenn denn das Mehr an Bandbreite wirklich auch soviel Mehr an Performance bringt.

Nur so mal zum Vergleich: Die erste Grafikkarten mit GDDRX5 fängt bei einem Listenpreis von 599$/699$ jetzt 499$/549$ an. Die entsprechende RX480/RX580 bei 239 $. Da erübrigt sich die Diskussion einfach.

Die Frage die man sich stellen muss ist, was hätte das "Mehr" an Bandbreite denn auch an Mehrperformance gebracht und wieviel hätte man dann auf den Listenpreis aufschlagen können. Leider wird sich genau dies nie beantworten lassen. Sicher hätte es AMD auch gut zu Gesicht gestanden, da brauchen wir nicht drüber zu diskutieren.

iuno
2017-04-15, 19:35:14
Die Frage die man sich stellen muss ist, was hätte das "Mehr" an Bandbreite denn auch an Mehrperformance gebracht und wieviel hätte man dann auf den Listenpreis aufschlagen können. Leider wird sich genau dies nie beantworten lassen.
Zumal man auch nie weiss, was taktmaessig intern irgendwie zusammenhaengt, siehe Ryzen oder auch Fiji. Man haette von vorneherein mit 5x planen oder eben umbauen muessen und das ist auch beim Refresh nicht drin.

Hübie
2017-04-15, 21:04:47
@ hübie:
du machst hier immer eine auf schlau und Zugang zu "internen" Infos und forderst aber dann ein GDDRX5 Speicherinterface für Polaris in der Mittelklasse.
Dass dir eigentlich nicht schon lange aufgefallen ist, dass diese Kombination in diesem Preissegment, aktuell so keinen Sinn gibt, überrascht dann doch etwas. :)

Das hätten Sie nur machen können wenn Sie den gleichen Chip als 490 oder 590 verkaufen wollen hätten, wenn denn das Mehr an Bandbreite wirklich auch soviel Mehr an Performance bringt.

Nur so mal zum Vergleich: Die erste Grafikkarten mit GDDRX5 fängt bei einem Listenpreis von 599$/699$ jetzt 499$/549$ an. Die entsprechende RX480/RX580 bei 239 $. Da erübrigt sich die Diskussion einfach.

Die Frage die man sich stellen muss ist, was hätte das "Mehr" an Bandbreite denn auch an Mehrperformance gebracht und wieviel hätte man dann auf den Listenpreis aufschlagen können. Leider wird sich genau dies nie beantworten lassen. Sicher hätte es AMD auch gut zu Gesicht gestanden, da brauchen wir nicht drüber zu diskutieren.

AMD ist eben nicht so präsent bei mir. Ich weiß nicht ob man Micron die Preise nicht drastisch senken würde, wenn mehr und mehr Produkte auf 5X setzten - ob in so einem Rahmen, dass man sich die Marge nicht versaut ist eben die Frage, die im Raum steht (kenne keine Absatzzahlen von Polaris oder AMD im Allgemeinen). Und Zugang zu internen Infos habe ich ebenfalls nicht. Wäre ja zu schön. Woher kommt das? Man bekommt einfach nur mal hier und da etwas mit. Mehr nicht.

Außerdem fordere ich nicht GDDR5X bei P10 sondern frage mich weshalb man es wieder nicht implementiert hat. Die wirtschaftlichen Aspekte waren wie geschrieben gar nicht so omnipräsent auf meinem Radar. Wir sprechen hier über ~32 $ pro Karte...

@iuno: 5X braucht eben kein neues SI wie ich bereits sagte. Es ist eher wie ein Anbauteil, ohne dass man wirklich viel ändern muss.

Edit: Kurz gesagt: Henne-Ei-Problem.

iuno
2017-04-15, 22:52:36
Klar muss der Controller aktualisiert werden und somit ist ein neuer Chip faellig, den es offenbar nicht gibt.

Mancko
2017-04-15, 23:59:44
Wenn man das im Vorfeld oeffentlich zusammengesetzt besprochen haette, saehe das vielleicht anders aus. So haben halt NV und Micron kurzfristig etwas zusammengebastelt und hinterher fuer die JEDEC ueber den Zaun geworfen. NV hat halt jetzt de facto einen Exklusivfertiger fuer den RAM wo sie etwas mehr bezahlen. Ist aber immer noch billiger als HBM und letzterer wird nicht billiger, was AMD helfen wuerde.

Vor allem hat Nvidia so schneller in vernünftigen Mengen High End Produkte liefern können zum damaligen Zeitpunkt. Also keine Warterei auf HBM2 und dessen breite Verfügbarkeit zu einigermaßen vertretbaren Preisen.

dildo4u
2017-04-16, 00:22:58
580 Übertaktung's Test.

https://videocardz.com/68526/amd-radeon-rx-580-first-benchmarks-and-overclocking

Der_Korken
2017-04-16, 01:41:26
1480 Mhz mit +12mV. Ich habe das dort verlinkte 3h-Video mal angeklickt, konnte aber leider keine absolute Spannung sehen. Wenn die Default Voltage wie zuvor bei 1100-1150 mV lag, würde sich die 580 zumindest etwas besser takten lassen als die 480. Allerdings war es auch eine Wakü, bei der durch die niedrigen Temps auch mehr OC bei gleicher Spannung möglich war bei P10. Ich würde also sagen, dass der zusätzlich mögliche Takt so um 50-100 Mhz gestiegen ist.

StefanV
2017-04-16, 05:23:45
GDDR5X ist seit Anfang 2016 ein offizieller JEDEC-Standard, jeder im Club kann es fertigen wenn er Lust dazu hat.
Dann zeig mal die GDDR5X Chips von Hynix und Samsung!

Wenn die das 'ohne Probleme' fertigen könnten, warum tun sie das dann nicht?!
Und solange es GDDR5X nur von Micron gibt, IST es Proprietär.

Und dass es ein Problem ist, wenn Speicher nur von einem Hersteller zu beziehen ist, sollte eigentlich klar sein!
Denn wenn der Hersteller gerad nicht liefern kann oder will, hat man gewaltige Probleme!
Insbesondere bei einem Massenprodukt wie die RX480 und RX580 wäre es daher nicht wirklich sinnvoll.

Auch wenn der Controller das könnte, überwiegen die Nachteile einfach!
Allein der Punkt, dass GDDR5X nur von einem Hersteller verfügbar ist, spricht schon dagegen.

Wenn der Speicher mal für 'nen MOnat oder 2 nicht zu bekommen ist, ist das bei einem 200-250$ Produkt einfach fatal!! Dann kann man das Produkt gleich einstampfen. Und die Firma ev. gleich mit.
Bei einem 600$ Produkt hingegen ist das kaum der Rede Wert. Eben weil der Absatz so gering ist, dass man diesen Engpass ggF durch Lagerkapazität abfangen kann, was bei einem Massenprodukt gar nicht geht!

Überlegt doch einfach mal, wie viele 1060/RX480 über den Tresen gehen, pro Monat!
Da kann man locker die 5 Fache Menge annehmen, wahrscheinlich sogar noch mehr...

Schaffe89
2017-04-16, 05:41:12
Und solange es GDDR5X nur von Micron gibt, IST es Proprietär.

"Das Adjektiv proprietär bedeutet in Eigentum befindlich (von lateinisch propriē „eigentümlich“, „eigen“, „ausschließlich“). Es wird in Bezug auf Soft- und Hardware, die auf herstellerspezifischen, nicht veröffentlichten Standards basiert, verwendet, um diese zu freier Software und freier Hardware abzugrenzen."

https://de.wikipedia.org/wiki/Propriet%C3%A4r

Dann musst du was anderes unter diesem Begriff verstehen.

StefanV
2017-04-16, 05:57:11
Er macht's wie immer.
Manche Leute haben/wollen andere Dinge tun als die Anfeindungen von irgendwelchen Leuten anzuhören, die überhaupt keinerlei Erfahrung bei der Herstellung von Produkten haben und einfach ihre Phantasien als Fakt darstellen.

Und auch wenn du es nicht einsehen willst, dass etwas nur aus einer Quelle zu beziehen ist, ein gewaltiges Problem ist, ändert nichts an dem Zustand, dass es eben genau das ist

Insbesondere wenn es um Massenware geht, macht das einfach null Sinn, sich darauf einzulassen. Besonders nicht, wenn die Marge eh eher im unteren Bereich liegt...

AMD ist eben nicht so präsent bei mir.
Dann sollte man sich nicht so weit aus dem Fenster lehnen und so tun als ob man alles wüsste...
Sondern sich mal die Zeit nehmen, sich über die Situation zu informieren und auch die Anmerkungen, die Leute machen, die sich mit dem Thema näher auseinander gesetzt habe, annehmen...

Ich weiß nicht ob Micron die Preise nicht drastisch senken würde,
Warum sollte man, wenn man die einzige Quelle für den Speicher ist?!
Gibt keine Notwendigkeit dafür.

Ein Martin Shkreli hat sehr eindrucksvoll bewiesen, dass man als 'Single Source' für ein Produkt, die Preise nach belieben diktieren kann. Und die Kunden eben gar keine andere Möglichkeit haben als diesen Preis zu schlucken.


Außerdem fordere ich nicht GDDR5X bei P10 sondern frage mich weshalb man es wieder nicht implementiert hat.
Weils einfach keinen Sinn macht, bei einem Produkt dieser Preisklasse.
Da nimmt man das Standardprodukt, dass von vielen Herstellern breit verfügbar ist und nicht das Gegenteil davon.

Allein aus dem Grunde, dass man selbst weiter fertigen kann, wenn ein Hersteller gerade keinen Bock hat, die Komponenten herzustellen, oder es gerade nicht können weil deren Fertigungsstätten gerade geflutet, explodiert oder anderweitig verhindert sind...

Micron könnte die Produktion mit Leichtigkeit ausweiten, da die Module nicht viel komplexer sind, als normaler GDDR5.
Warum sollen sie das machen?!

Damit sie Millionen von Chips wegschmeißen können?!
Wir reden hier ja nun nicht gerade von Standard Komponenten, die von hunderten von Kunden angefragt werden wie MOSFETs, passive Bauelemente und son Zeugs, was man eh braucht, die auch in 5 Jahren noch in ähnlicher Art und Weise nachgefragt werden.

Wir reden hier von einer speziellen Komponente, die nur von wenigen (einem?!) Kunden nachgefragt wird und eben NICHT als Standardkomponente einzustufen ist - wie es bei GDDR5 und co der Fall ist.

Und außerdem könnte man die Preise bei einer Verknappung ebenso anheben. Und hier sind wir wieder an dem Punkt, dass es einfach nicht sinnvoll bis Selbstmord ist, sich bei Massenware auf eine Komponente, die nur von einem Hersteller verfügbar ist, einzulassen.

Selbst RAMBUS Hauptspeicher gab es von mehreren Herstellern. Auch wenn die meisten bei dem Quatsch nicht mitgemacht haben, hatte man die Wahl zwischen mindestens 3 Herstellern: Elpida, Samsung und Hynix...

Und genau DAS ist wichtig!
HBM2 gibts ja auch von Samsung und Hynix...

MS benötigt vor allem auch Langzeitverfügbarkeit zu vernünftigen Preisen. GDDR5X wird nur von einem Hersteller gefertigt, wird schnell in der Versenkung verschwinden und wäre deshalb auf lange Sicht viel zu teuer für MS.
Genau das ist der Punkt.

Da war sogar RDRAM Hauptspeicher langlebiger als GDDR5x es sein wird...
Momentan schaut es dafür nämlich verdammt schlecht aus. Für den unteren Bereich bleibt man eher bei GDDR5 und schlechter, darüber wird man eher auf HBM setzen, da man hier gewaltige Vorteile bei der Leistungsaufnahme vorfindet...

TheGood
2017-04-16, 07:44:13
AMD ist eben nicht so präsent bei mir. Ich weiß nicht ob man Micron die Preise nicht drastisch senken würde, wenn mehr und mehr Produkte auf 5X setzten - ob in so einem Rahmen, dass man sich die Marge nicht versaut ist eben die Frage, die im Raum steht (kenne keine Absatzzahlen von Polaris oder AMD im Allgemeinen). Und Zugang zu internen Infos habe ich ebenfalls nicht. Wäre ja zu schön. Woher kommt das? Man bekommt einfach nur mal hier und da etwas mit. Mehr nicht.

Außerdem fordere ich nicht GDDR5X bei P10 sondern frage mich weshalb man es wieder nicht implementiert hat. Die wirtschaftlichen Aspekte waren wie geschrieben gar nicht so omnipräsent auf meinem Radar. Wir sprechen hier über ~32 $ pro Karte...

@iuno: 5X braucht eben kein neues SI wie ich bereits sagte. Es ist eher wie ein Anbauteil, ohne dass man wirklich viel ändern muss.

Edit: Kurz gesagt: Henne-Ei-Problem.

Alles klar! :)

Die Frage ist eher, ist Micron bereit auch noch AMD zu beliefern. Wir wissen nicht was Nvidia mit Micron für einen Deal ausgehandelt hat. Sie können ja eine exklusive Liefervereinbarung zu einem fixen Preis vereinbart haben. Bei den Preisen die Nvidia verlangt macht das den Bock nicht fett und der Mitbewerber wird mit ausgebremst (nein das soll kein flamen sein, sondern kann ja normale Realität sein).
Ebenso kann AMD bei Hynix einen guten Deal für den HBM2 speicher gemacht haben und er ist doch ned so teuer. AMDs Ziel muss es ja sein HBM2 in den massenmarkt zu bringen...

iuno
2017-04-16, 12:29:01
Dann zeig mal die GDDR5X Chips von Hynix und Samsung!
Dann zeig doch mal HBM von Micron. So ein "proprietaerer" Scheiss!!!!!!!!!11111111elf

Wenn die das 'ohne Probleme' fertigen könnten, warum tun sie das dann nicht?!
Weil es nicht nachgefragt wird natuerlich.

Und solange es GDDR5X nur von Micron gibt, IST es Proprietär.
:facepalm: :facepalm:

StefanV
2017-04-16, 12:33:12
Dann zeig doch mal HBM von Micron.
Es hält niemanden ab, HBM zu fertigen, ist seit einiger Zeit JEDEC Standard.


Weil es nicht nachgefragt wird natuerlich.
O RLY? So ein Zufall aber auch.
Und wissen wir, wie es mit Lizenzkosten ausschaut? Laut JEDEC ist das ja nicht verboten...


:facepalm: :facepalm:
Weil das auch nicht als Proprietärer Standard anfing/entwickelt wurde?
Und ggF 'die anderen' keinen Bock (mehr) auf solche Spielchen haben?

Auch wie groß die Unterschiede zwischen GDDR5 und 5X nun wirklich sind, wissen wir nicht. Und auch was für einen Rattenschwanz die Änderungen nach sich ziehen...
Nur weil ein Speicherhersteller, der sein Zeugs veräußern will, etwas behauptet, heißt das noch lange nicht, dass das auch der Realität entspricht...

iuno
2017-04-16, 12:43:31
Es hält niemanden ab, HBM zu fertigen, ist seit einiger Zeit JEDEC Standard.
Mein Fehler, es wurde ja nicht schon mehrfach gesagt, dass das bei GDDR5X eben auch der Fall ist :freak:

Weil das auch nicht als Proprietärer Standard anfing/entwickelt wurde?
Deswegen ist es trotzdem schon seit ueber einem Jahr eben nicht mehr proprietaer. Das ist doch jetzt wirklich nicht so schwer zu verstehen oder?

Auch wie groß die Unterschiede zwischen GDDR5 und 5X nun wirklich sind, wissen wir nicht. Und auch was für einen Rattenschwanz die Änderungen nach sich ziehen...
Nur weil ein Speicherhersteller, der sein Zeugs veräußern will, etwas behauptet, heißt das noch lange nicht, dass das auch der Realität entspricht...
Lies halt nach, die Specs und Dokumentationen sind oeffentlich. Aber du wirfst lieber mit Bloedsinn um dich, deren Bedeutung du nichtmal verstehst. :up:

Hübie
2017-04-16, 13:13:46
Alles klar! :)

Die Frage ist eher, ist Micron bereit auch noch AMD zu beliefern. Wir wissen nicht was Nvidia mit Micron für einen Deal ausgehandelt hat. Sie können ja eine exklusive Liefervereinbarung zu einem fixen Preis vereinbart haben. Bei den Preisen die Nvidia verlangt macht das den Bock nicht fett und der Mitbewerber wird mit ausgebremst (nein das soll kein flamen sein, sondern kann ja normale Realität sein).
Ebenso kann AMD bei Hynix einen guten Deal für den HBM2 speicher gemacht haben und er ist doch ned so teuer. AMDs Ziel muss es ja sein HBM2 in den massenmarkt zu bringen...

Exklusiv ist der Preis, nicht das Produkt. Jeder könnte GDDR5X anfragen und erhalten. Kannst dich dazu gerne direkt an Micron wenden.
Es ist ebenso JEDEC spezifiziert wie HBM. Lizensierung ist also nicht notwendig. Und doch HBM ist schon ziemlich teuer im Vergleich. Allein die Deckung dazu zeigt das.

Megatron
2017-04-16, 16:47:54
Schaut man sich die erhältlichen Karten mit GDDR5X und HBM an, drängt sich einem schon die Frage auf, wieviel teurer HBM wirklich ist im Gegensatz.
Oder ganz Plakativ ausgedrückt: Im Moment kostet die günstigste Fury mit 4GB HBM knapp 300€. Die günstigste 1080 mit 8GB GDDR5X kommt auf knappe 500€. Abzüglich dessen, dass der ganze Klimbim um den Speicher drumrum (GPU mit Board) auch Geld kostet, dürfte der Preisunterschied zwischen beiden Speichervarianten eher zu vernachlässigen sein. Dafür sprechen dann auch eher die 150€ Differenz zur 1070.

Man sollte auch nicht vergessen, dass GDDR5X noch nicht allzu lange JEDEC Standard ist (ein gutes Jahr, wie ja oben schon erwähnt) - was denken denn einige hier, wie schnell die Neuentwicklung eines Speicherinterface geht? Damit das dann mit testen/validieren/TapeOut usw. klappt hätte AMD das Interface selbst ja quasi in einer Nacht und Nebel Aktion umbauen müssen - also umbauen für die 500'er Serie...

aufkrawall
2017-04-16, 16:56:29
Dafür sprechen dann auch eher die 150€ Differenz zur 1070.

Für die 1070 kann man aber sicherlich auch viele Chips nehmen, die für die 1080 völlig untauglich sind, bei 1/4 der Einheiten deaktiviert.

HOT
2017-04-16, 17:40:43
GDDR5X wird zugrunsten von GDDR6 irrelevant werden und HMC ist gescheitert ggü. HBM, jetzt, wo sogar Intel auf HBM setzen will. Die ganzen Micron Konkurrenzprojekte sind im Prinzip nicht aufgegangen.
Man braucht den Speicher nicht schönzureden, für NV war es natürlich eine nützliche Alternative. Das wird mit Volta aber vorbei sein, da diese eh auf HBM und GDDR6 setzen werden. Wärend die oberen Pascals bei Volta verschwinden werden (also die GDDR5X-Modelle) wird NV sicherlich die kleineren Modelle behalten, wie bei Maxwell damals.

1480 Mhz mit +12mV. Ich habe das dort verlinkte 3h-Video mal angeklickt, konnte aber leider keine absolute Spannung sehen. Wenn die Default Voltage wie zuvor bei 1100-1150 mV lag, würde sich die 580 zumindest etwas besser takten lassen als die 480. Allerdings war es auch eine Wakü, bei der durch die niedrigen Temps auch mehr OC bei gleicher Spannung möglich war bei P10. Ich würde also sagen, dass der zusätzlich mögliche Takt so um 50-100 Mhz gestiegen ist.

Metalspin + "third generation 14nm" aka 14LPP+. Es wird immer klarer, da ein normaler P10 diese Werte niemals geschafft hätte.

Mancko
2017-04-16, 17:51:40
Schaut man sich die erhältlichen Karten mit GDDR5X und HBM an, drängt sich einem schon die Frage auf, wieviel teurer HBM wirklich ist im Gegensatz.
Oder ganz Plakativ ausgedrückt: Im Moment kostet die günstigste Fury mit 4GB HBM knapp 300€. Die günstigste 1080 mit 8GB GDDR5X kommt auf knappe 500€. Abzüglich dessen, dass der ganze Klimbim um den Speicher drumrum (GPU mit Board) auch Geld kostet, dürfte der Preisunterschied zwischen beiden Speichervarianten eher zu vernachlässigen sein. Dafür sprechen dann auch eher die 150€ Differenz zur 1070.

Die Rechnung kannst du so nicht aufmachen. Das funktioniert hinten und vorne nicht. Um so eine Rechnung aufzumachen müsstest Du den Ertrag der GPUs samt Speicher für AMD und Nvidia normieren. Fakt ist aber AMD verdient seit einiger Zeit kein Geld und Nvidia verdient enorm viel Geld. Auch schön zu sehen an den erheblichen Margenunterschieden. Da Nvidia nun seit mehr als 10 Jahren konstant ordentliche Gewinne abgeliefert hat ist es m.E. mehr als naheliegend, dass GDDR5X samt Speicherinterface günstiger als HBM2 ist. Wäre es anders hätte Nvidia sich davon verabschiedet und direkt HBM2 verbaut. Denen ist Geld verdienen zu wichtig. Da wird nichts dem Zufall überlassen. Das kann man denen dann schon abnehmen. Ich kennen kaum ein Unternehmen in der Branche, dass so gerissen und abgekocht ist wie die.

Mancko
2017-04-16, 17:57:51
Es hält niemanden ab, HBM zu fertigen, ist seit einiger Zeit JEDEC Standard.


Damit lieferst Du doch selber die Erklärung, dass GDDR5x nicht proprietär ist. Also irgendwie solltest Du glaube ich eher still sein. Du hast dich da in eine Ecke galoppiert die halt nicht funktioniert.

Weder HBM noch GDDR5x sind proprietär. Beide sind in der JEDEC spezifiziert und beide können von jedem Mitglied gefertigt werden. Einzig die mangelnde Nachfrage dürfte dafür sorgen, dass dem nicht so ist. Mit proprietär hat das überhaupt nichts zu tun. Der Begriff wurde Dir ja bereits hinreichend hier erklärt.

iuno
2017-04-16, 18:00:38
Es wird immer klarer, da ein normaler P10 diese Werte niemals geschafft hätte.
Wir haben doch keine Ahnung, welche Spannung tatsaechlich anliegt. Im ersten Kommentar schreibt einer, dass er eine 480 bei 1510 laufen hat.

Mancko
2017-04-16, 18:03:52
GDDR5X wird zugrunsten von GDDR6 irrelevant werden und HMC ist gescheitert ggü. HBM, jetzt, wo sogar Intel auf HBM setzen will. Die ganzen Micron Konkurrenzprojekte sind im Prinzip nicht aufgegangen.
Man braucht den Speicher nicht schönzureden, für NV war es natürlich eine nützliche Alternative. Das wird mit Volta aber vorbei sein, da diese eh auf HBM und GDDR6 setzen werden. Wärend die oberen Pascals bei Volta verschwinden werden (also die GDDR5X-Modelle) wird NV sicherlich die kleineren Modelle behalten, wie bei Maxwell damals.

Das wird man dann ja sehen. Ich verstehe immer noch nicht ganz wo einige die Sicherheit hernehmen, dass zukünftig High End Gaming Produkte automatisch auf HBM2 setzen werden. Am Ende des Tages ist das doch eine reine Kosten/Nutzen Entscheidung. Wenn die GPU nicht genügend effektive Rohleistung auf die Straße bringt, dann nutzt mir auch die astronomische Speicherbandbreite nix, zumal die ohnehin erst ab einer GP100 ähnlichen Stack Konfiguration zum Tragen kommt. Bei Vega schauts auch erstmal nach weniger aus, womit dann vermutlich die Speicherbandbreite in GDDR5x Bereichen liegt. Dann noch eher der niedrigere Energiebedarf aber Speicherbandbreite per sé ist m.E. nicht gesagt, dass da im oberen Feld auf HBM2 automatisch ab jetzt gesetzt wird.

Durch Takt und Interface Breite (128 Bit, 192 Bit, 256 Bit usw..) gibt es viele Variablen die letztlich die SPeicherbandbreite des herkömmlichen Speichers beeinflussen. Ich würde mir nicht zutrauen mich heute aus dem Fenster zu lehnen und mit Gewissheit sagen, dass zukünftige Gamingprodukte automatisch auf HBM2 setzen. Ich weiß es schlichtweg nicht. Ich weiß aber, dass Nvidia maximal das einsetzt was sich wirtschaftlich lohnt. Die machen schon lange keine technischen Experimente im Gamingbereich mehr. Da wird eiskalt nach der Fließband Methode im Vorfeld in eigenen Rechnerfarmen simuliert, ausgerechnet und abgeliefert und zwar so, dass Einsparungen in der Herstellung bei Nvidia in der Tasche liegen bleiben, natürlich nicht beim Kunden. Das nennt man eben sehr gute Unternehmensführung.

Screemer
2017-04-16, 18:04:30
1450 schaff ich mit meiner strixx auch mit standard vcore von 1,182v. Dafür den fan auf 100%, 25% pt und ab die luzi. Hab ich aber nur in dem neuen unigin benchmark getestet. Zur Zeit läuft die Karte mit 1350 bei 1082mv, 75°c tt und 10% PT. so speziell sind die Werte jetzt nicht.

HOT
2017-04-16, 18:39:27
Wir haben doch keine Ahnung, welche Spannung tatsaechlich anliegt. Im ersten Kommentar schreibt einer, dass er eine 480 bei 1510 laufen hat.
Das sind seltene Einzelfälle. Die Streeung war ziemlich heftig bei P10. Die meisten schaffen grad mal 1,3GHz mit normaler Spannung.

TheGood
2017-04-16, 19:32:46
Exklusiv ist der Preis, nicht das Produkt. Jeder könnte GDDR5X anfragen und erhalten. Kannst dich dazu gerne direkt an Micron wenden.
Es ist ebenso JEDEC spezifiziert wie HBM. Lizensierung ist also nicht notwendig. Und doch HBM ist schon ziemlich teuer im Vergleich. Allein die Deckung dazu zeigt das.

Erzähl das mal TMSC und deren 16mm Prozess der oft genug von Apple komplett aufgekauft wird. Das wird beim Speicher nicht anders sein und gehört auch zur normalen Marktwirtschaft, wer zu erst kommt malt zuerst und kauft sich was er braucht und der REst schaut in die Röhre, bei Grafikkarten ist das sogar noch krazzer, da die lebenszyklen viel zu klein sind um auf den Speicher zu warten..

Ich kann dir da nicht zustimmen...

Kriton
2017-04-16, 19:41:46
Die Rechnung kannst du so nicht aufmachen. Das funktioniert hinten und vorne nicht. Um so eine Rechnung aufzumachen müsstest Du den Ertrag der GPUs samt Speicher für AMD und Nvidia normieren. Fakt ist aber AMD verdient seit einiger Zeit kein Geld und Nvidia verdient enorm viel Geld. Auch schön zu sehen an den erheblichen Margenunterschieden. Da Nvidia nun seit mehr als 10 Jahren konstant ordentliche Gewinne abgeliefert hat ist es m.E. mehr als naheliegend, dass GDDR5X samt Speicherinterface günstiger als HBM2 ist. Wäre es anders hätte Nvidia sich davon verabschiedet und direkt HBM2 verbaut. Denen ist Geld verdienen zu wichtig. Da wird nichts dem Zufall überlassen. Das kann man denen dann schon abnehmen. Ich kennen kaum ein Unternehmen in der Branche, dass so gerissen und abgekocht ist wie die.

Ich denke, sie sind in der Situation gewesen mit GDDR5X noch durchzukommen, gleichzeitig mit HBM2 Reserve zu haben für die nächste Generation und dabei noch weniger auf eine (völlig) neue Speichertechnologie angewiesen gewesen zu sein.
AMD konnte sich vermutlich so viele Baustellen schlicht nicht leisten und hat daher gleich auf das Zukunftsmodell ohne Zwischenschritt gesetzt und hat dadurch natürlich die Probleme, die es nun einmal seitens Hynix gibt.

Megatron
2017-04-16, 20:01:42
Die Rechnung kannst du so nicht aufmachen. Das funktioniert hinten und vorne nicht. Um so eine Rechnung aufzumachen müsstest Du den Ertrag der GPUs samt Speicher für AMD und Nvidia normieren. Fakt ist aber AMD verdient seit einiger Zeit kein Geld und Nvidia verdient enorm viel Geld. Auch schön zu sehen an den erheblichen Margenunterschieden. Da Nvidia nun seit mehr als 10 Jahren konstant ordentliche Gewinne abgeliefert hat ist es m.E. mehr als naheliegend, dass GDDR5X samt Speicherinterface günstiger als HBM2 ist. Wäre es anders hätte Nvidia sich davon verabschiedet und direkt HBM2 verbaut. Denen ist Geld verdienen zu wichtig. Da wird nichts dem Zufall überlassen. Das kann man denen dann schon abnehmen. Ich kennen kaum ein Unternehmen in der Branche, dass so gerissen und abgekocht ist wie die.

Die Rechnung ist eher ein Denkanstoß an die Fraktion: "Wie konnte AMD so blöd sein, kein GDDR5X zu nutzen" zu verstehen. Die Margen speziell bei Fiji für 300€ dürften sehr "überschaubar" sein - gerade da das hier noch weniger ein Massenprodukt ist, als der GDDR5X.
Und doch liegt es nahe, dass GDDR5X preislich näher an HBM liegen wird als am normalen GDDR5. Für die 1060, die ja der Gegenspieler zu 480 ist, gab es ja auch kein 5X für eine Super-Überflieger-Version. Stattdessen wurde jetzt die Verwendung von schnellerem GDDR5 freigegeben (der sicher auch nicht günstiger ist, als die 8GBps Module).

Grundlegend reicht mein Vertrauen in die AMD Entwicklungsabteilung soweit, dass ich unterstelle, dass auch hier Leute sitzen, die rechnen und planen können.
Man merkt nur deutlich, dass es scheinbar an Personal und Geld fehlt, schnell reagieren zu können. Nvidia hat an der Stelle offenbar deutliche Vorteile - und nutzt diese auch.

Der_Korken
2017-04-16, 20:42:03
1450 schaff ich mit meiner strixx auch mit standard vcore von 1,182v. Dafür den fan auf 100%, 25% pt und ab die luzi. Hab ich aber nur in dem neuen unigin benchmark getestet. Zur Zeit läuft die Karte mit 1350 bei 1082mv, 75°c tt und 10% PT. so speziell sind die Werte jetzt nicht.

Das sind aber schon extrem gute Werte. Hier im Forum habe ich für 1400 schon oft 1200mV+ gesehen. 1500 hat der8auer zum Launch der 480 mit einer Wakü gerade mal mit ach und krach geschafft und da lagen schon um die 1300mV an. Wenn die dort gezeigte 580 ein durchschnittliches Sample ist und <=1150mv anlagen, wäre das schon eine nennenswerte Steigerung. In zwei Tagen sind wir hoffentlich schlauer.

Screemer
2017-04-16, 23:21:35
8GB Powercolor RX580 RedDragon (DVI/HDMI/3xDP)
close

Graphics Engine RX 580
Video Memory 8GB DDR5
Stream Processor 2304 Units

Engine Clock
Boost Clock 1350MHz
Memory Clock 2000MHz (8.0Gbps)
Memory Interface 256bit
Bus Standard PCIE 3.0
Display Connectors DL-DVI-D/HDMI/DP X3
Form Factor ATX
Kühlung 2 slot Fan sink
Crossfire Support YES (Software CrossFire)
OpenGL 4.5
DirectX Support 12

https://www.dubaro.de/images/mixxxer_items/popup_images/606607_2_rx580.png

Hab ich grad im dubaro PC konfigurator gefunden: https://www.dubaro.de/mixxxer.php?products_id=3304

Zum Vergleich die 480 reddragon:

GPU Modell: Radeon RX 480
Edition: Red Dragon
Codename: Ellesmere XT
Schnittstelle: PCIe 3.0 x16
GPU Anzahl: Single GPU
GPU Takt: 1120MHz
Boost Takt: 1266MHz

prinz_valium
2017-04-17, 19:46:41
mal eine frage, da ich dazu 0 Informationen finde

wie viele FP16 Operationen kann die Polaris Architektur ausführen in der selben zeit, wie eine FP32?

bei Vega ist das Verhältnis 2:1
Schafft Polaris nur 1:1, was eigentlich unlogisch wäre, da der adressraum nun mal deutlich kleiner für FP16 ist als bei FP32?

Bei den alten Nvidia Karten war es bei der Double Percision Leistung ja ähnlich.
Nur einige konnten 1:1, aber nicht alle anderen nur 0.5:1, sondern auch 2:3 oder ähnliches


Mit einem Link oder Quelle wäre nett.
Danke

iuno
2017-04-17, 20:24:10
Genau gleich viele und mit dem Adressraum hat das mal rein gar nichts zu tun.
Quelle suche ich dir jetzt keine raus, da das fuer GCN seit Ewigkeiten bekannt und auch dokumentiert ist bekommst du das auch alleine hin.

prinz_valium
2017-04-17, 20:34:40
und nicht mal eine Erklärung, warum das so ist.
das ist natürlich nett und hilfreich

dann bringt der FP16 support ja mal gar nichts und keinerlei Vorteile. also wieso überhaupt anbieten

iuno
2017-04-17, 20:42:40
Was willst du fuer eine Erklaerung? Es sind halt fp32 ALUs.
Man braucht fuer half floats weniger register space und spart Strom ggue. fp32, das ist schon was

Locuza
2017-04-17, 20:47:30
und nicht mal eine Erklärung, warum das so ist.
das ist natürlich nett und hilfreich

dann bringt der FP16 support ja mal gar nichts und keinerlei Vorteile. also wieso überhaupt anbieten
GCN Gen 1-2 bot gar keine nativen FP16 Operationen an.
Mit GCN Gen 3-4 kamen welche dazu, theoretisch steigt zwar der Durchsatz nicht, praktisch erhöht sich die Leistung dennoch, da FP16-Operationen weniger Register belegen und so die praktische Performance erhöhen können, da Registermangel häufig einen Flaschenhals unter GCN darstellt.
Mit Vega kommt die Möglichkeit hinzu zwei FP16-Operationen gleichzeitig ausführen zu können, dass verdoppelt dann auch den theoretischen Durchsatz.

Mixed-Precision-ALUs kosten etwas Fläche und der Aufwand muss sich erst einmal lohnen.

Bei Nvidias Maxwell bot nur der Tegra-Chip double-rate FP16 an, bei Pascal ist es auch nur der GP100 und vermutlich der neue Tegra.
Alle anderen Pascal-GPUs bieten keine doppelte Rate an.

prinz_valium
2017-04-17, 23:02:52
GCN Gen 1-2 bot gar keine nativen FP16 Operationen an.
Mit GCN Gen 3-4 kamen welche dazu, theoretisch steigt zwar der Durchsatz nicht, praktisch erhöht sich die Leistung dennoch, da FP16-Operationen weniger Register belegen und so die praktische Performance erhöhen können, da Registermangel häufig einen Flaschenhals unter GCN darstellt.
Mit Vega kommt die Möglichkeit hinzu zwei FP16-Operationen gleichzeitig ausführen zu können, dass verdoppelt dann auch den theoretischen Durchsatz.

Mixed-Precision-ALUs kosten etwas Fläche und der Aufwand muss sich erst einmal lohnen.

Bei Nvidias Maxwell bot nur der Tegra-Chip double-rate FP16 an, bei Pascal ist es auch nur der GP100 und vermutlich der neue Tegra.
Alle anderen Pascal-GPUs bieten keine doppelte Rate an.

jup ich weiß.
ich dachte nur weil bei Nividia im FP64 Bereich verschiedene ratios herrschten, wäre das im FP16 Bereich auch durchaus vorstellbar.

dann danke für die Erklärung und genug des Off topic :D

gravitationsfeld
2017-04-17, 23:55:06
Mit GCN Gen 3-4 kamen welche dazu, theoretisch steigt zwar der Durchsatz nicht, praktisch erhöht sich die Leistung dennoch, da FP16-Operationen weniger Register belegen und so die praktische Performance erhöhen können, da Registermangel häufig einen Flaschenhals unter GCN darstellt.
Nein. Nur Vega kann FP16-Pairs und das betrifft auch die Register. GCN Gen 3-4 sparen nichts, sie verwenden einfach nur die unteren 16 Bit.

iuno
2017-04-18, 00:09:54
Es hat auch keiner von pairs gesprochen

https://pics.computerbase.de/7/3/0/7/2/6-1080.1903148786.png

gravitationsfeld
2017-04-18, 03:03:28
Ohne Pairs gibt es keine Reduktion der Register-Pressure ¯\_(ツ)_/¯

Quellen: https://community.amd.com/thread/203070 & http://developer.amd.com/wordpress/media/2013/12/AMD_GCN3_Instruction_Set_Architecture_rev1.1.pdf

Locuza
2017-04-18, 03:10:19
Mark Cerny:
"Finally, there's better support of variables such as half-floats. To date, with the AMD architectures, a half-float would take the same internal space as a full 32-bit float. There hasn't been much advantage to using them. With Polaris though, it's possible to place two half-floats side by side in a register, which means if you're willing to mark which variables in a shader program are fine with 16-bits of storage, you can use twice as many. Annotate your shader program, say which variables are 16-bit, then you'll use fewer vector registers."
http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine

¯\_(ツ)_/¯

Linmoum
2017-04-18, 05:51:05
Diverse Customs in der Übersicht, allerdings noch mit teils unvollständigen Angaben. Max. Boost bei 1450MHz und P12 wird's scheinbar von den Partnern auch als 4GB-Variante geben.

https://videocardz.com/68577/new-card-report-14-radeon-rx-500-edition

horn 12
2017-04-18, 06:55:40
Sapphire wieder als Nitro+ Special Version und Spitzen Voranreiter bei AMD mit dem größten OC Potential 1450 Mhz!

y33H@
2017-04-18, 08:14:20
Die verkokelt wahrscheinlich :P

dargo
2017-04-18, 08:21:51
Eher wird sie den Boost nie sehen in der Praxis. :tongue:

horn 12
2017-04-18, 08:27:58
Nun, Sapphire wird wohl so schlau gewesen sein die Lüftersteuerung und die Lüfter zu tauschen um die Lautstärke auf angenehmstes Niveau zu setzen...

dargo
2017-04-18, 08:28:42
Ja, ganz bestimmt. :comfort2:

Jasch
2017-04-18, 09:18:46
Scheinbar haben sie auch die Fertigung besser im Griff(auch aktuell).
Ein Bekannter hat sich vor 4 Wochen 6x RX470 8GB (Sap. Nitros).(Mining) gekauft.
Die laufen alle, bis auf eine mit stock Voltage(1056-1142mv) 1400 im dauer Mining.

pilzsammler2002
2017-04-18, 11:30:18
Habe 2 RX 470 Sapphire 8GB... Beide schaffen 1400 minimum mit Stock Voltage und nur Power Target hoch :freak:

Eine ist direkt vom Release die andere ca 1 Monat alt... Die alte lässt sich etwas besser undervolten (960mv @ stock boost 1260mhz) Bei 950 schmiert Doom und der Wattman manchmal ab :biggrin:

Schaffe89
2017-04-18, 12:38:21
Die verkokelt wahrscheinlich :P

;D Bei dem Takt wird das Dingens 250 Watt aus der Dose ziehen.
Schon erstaunlich wie die Erwartungen wieder in den Himmel schießen.

Nun, Sapphire wird wohl so schlau gewesen sein die Lüftersteuerung und die Lüfter zu tauschen um die Lautstärke auf angenehmstes Niveau zu setzen...

Sapphire hat seit der RX480 meiner Meinung nach nur noch billigen Müll geliefert.
Über 5 Sone bei der RX 480 Nitro OC ist einfach ne Beleidigung für die Ohren, leise wie bei der Nitro gewohnt, war da keine.

MechWOLLIer
2017-04-18, 13:12:35
Dann lass dich mal überraschen.

Screemer
2017-04-18, 13:27:38
Dann lass dich mal überraschen.

Ganz böser teaser :D

iuno
2017-04-18, 13:32:06
:D
Gibt es eigentlich heute schon Tests? 15 Uhr?

Isen
2017-04-18, 13:44:39
Ja, Ja :D

Linmoum
2017-04-18, 14:29:17
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+580.html

279€ bis 319€ für den Anfang, allerdings nur MSI und Powercolor bisher. Wobei die Preise sich eigentlich nicht mal ein paar Tage halten dürften.

marc-05
2017-04-18, 14:55:26
;D Bei dem Takt wird das Dingens 250 Watt aus der Dose ziehen.
...

Hat auch 8 + 6Pin

Edit Ah Gigabyte Auros 8+6 ; MSI sogar 8+8 Pin

y33H@
2017-04-18, 15:15:50
Tests sind da, u.a.:

https://www.golem.de/news/radeon-rx-580-und-rx-570-im-test-amds-grafikkarten-sind-schneller-und-sparsamer-1704-127204.html
https://www.computerbase.de/2017-04/radeon-rx-580-570-test/
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review

iuno
2017-04-18, 15:15:58
Nett, dass sie die versprochene niedrigere idle Leistungsaufnahme fuer die 500er Serie zurueckgehalten haben :facepalm: :uclap:

Raff
2017-04-18, 15:17:15
Tests sind da, u.a.:

https://www.golem.de/news/radeon-rx-580-und-rx-570-im-test-amds-grafikkarten-sind-schneller-und-sparsamer-1704-127204.html
https://www.computerbase.de/2017-04/radeon-rx-580-570-test/
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review

Ergänzend: Radeon RX 580 im Video: Sapphire Nitro+ Limited Edition mit 1.450 MHz Boost (http://www.pcgameshardware.de/Radeon-RX-580-8G-Grafikkarte-265939/Videos/Sapphire-RX-580-Limited-Edition-Unboxing-1225881/)

MfG,
Raff

Schaffe89
2017-04-18, 15:20:19
Für 6% mehr Leistung nochmal die Leistungsaufnahme deutlich erhöht und die Effizienz nach unten geschraubt. Well done AMD.
Das sinnloseste Update aller Zeiten.
Nett dass sie den Videoverbrauch auf ein gutes Niveau vergleichbar mit Nvidia gesenkt haben.
AMD hätte der Karte 9gbps GDDR5 beilegen müssen, dann hätte man die gleiche Mehrleistung erzielt, aber vermutlich wäre der Verbrauch gleich geblieben.

Heißt die GTX 1060 ist mit der RX580 wieder eher besser als schlechter geworden. Gleichschnell, aber ca knapp 100 Watt weniger Strombedarf.

Lurtz
2017-04-18, 15:22:51
Begeisterung sieht anders aus... Ob das AMD so viel hilft wenn die schlechte Effizienz jetzt wieder durch die Presse geht?
AMD braucht dringend eine neue Architektur.

dildo4u
2017-04-18, 15:26:05
Im High End juckt es kein,Leute die 500€ Karten kaufen haben auch Monster Netzteile aber hier ist es eine Katastrophe. Vorallem da OEM's jetzt noch weniger gewollt sind Komplettsysteme damit zu bauen.

Schaffe89
2017-04-18, 15:31:33
Man merkt solch hohe Unterschiede GTX 1060 Strix, RX580 Nitro >>92Watt<< bei gleicher Leistung auch einfach bei der Stromrechnung und vor allem werden die Gehäuseinnenräume deutlich mehr erhitzt.
AMD hat einfach bei der angeblichen Effizienz von Polaris massiv gelogen, ich hätte erwartet dass zumindest der zweite Wurf ansatzweise an die Versprechungen von Raja Koduri herankommt, aber scheinbar will man lieber die Effizienz senken und sich damit schlechte Presse holen.
Der Mann gehört dringend aus der Verantwortung entsorgt, solche halbgaren Entscheidungen schaden AMD massiv.
Wieso zum Henker kein 9gbps Speicher und die Taktraten nur minimal erhöhen, aber die TDP von ~160 Watt halten?

Pirx
2017-04-18, 15:32:30
Im High End juckt es kein,Leute die 500€ Karten kaufen haben auch Monster Netzteile aber hier ist es eine Katastrophe. Vorallem da OEM's jetzt noch weniger gewollt sind Komplettsysteme damit zu bauen.
solange die Leistungsaufnahme im Rahmen bleibt, ist es ok und das bleibt sie

MadManniMan
2017-04-18, 15:33:04
Blödes Timing für AMD, dass CB gerade jetzt endlich zu separaten Leistungsaufnahmemessungen bei Grafikkarten übergegangen ist und so plötzlich ein paar kürzere Balken (bei der Effizienz) dazukommen.

Nicht falsch verstehen: Ich finde das wichtig und richtig.

Der_Korken
2017-04-18, 15:33:11
Immerhin hat Sapphire diesmal seine Hausaufgaben beim Kühler gemacht. Auf CB ist jetzt nicht mehr die lauteste, sondern die leiseste Karte und das bei akzeptablen 75°C und weiterhin nur zwei Slots und moderaten 26cm Länge (die alte hatte afaik 24cm). Der Kühlkörper von der 480 Nitro war einfach völlig unterdimensioniert und hat nicht mal die volle Fläche des PCB bedeckt. Zusätzlich war es auch noch die durstigste Karte. Das ganze durften dann die Lüfter auffangen, die ab einer gewissen Schwelle dann überproportional laut für nur wenig zusätzliche Kühlleistung werden. Diesmal geht das Konzept voll auf und man muss sich keiner Monster-Triple-Slot-Kühlung für eine Mainstreamkarte holen. Nur den Verbrauch von >200W finde ich immer noch absolut daneben. Mit 50-70Mhz weniger hätte man kaum Leistung verloren (der Sprung von der 480er Referenz zu einer Custom 580 ist keine 10% !!!), dafür aber ordentlich undervolten können und wäre vielleicht bei ~160W rausgekommen. Oder man knallt gleich 9Gbps-Speicher drauf und zieht wenigstens an der 1060 vorbei.

Effe
2017-04-18, 15:33:26
Au ja, die fetten 400W Monsternetzteile, die sich niemand leisten kann...

y33H@
2017-04-18, 15:34:29
Nett, dass sie die versprochene niedrigere idle Leistungsaufnahme fuer die 500er Serie zurueckgehalten haben.Japp, das ginge sicherlich per Firmware-Update auch für die 400er ;(

dildo4u
2017-04-18, 15:35:59
solange die Leistungsaufnahme im Rahmen bleibt, ist es ok und das bleibt sie
Warum sollte ein Komplettsystem Hersteller die 580 einer 1060 vorziehen wenn er dadurch ein Netzteil mit 100 Watt mehr Leistung verbauen muss?
Das selbe gilt für die Hersteller der Karten,die müssen diese billig Karten mit teuren Kühlern ausstatten,das heißt die Marge sinkt weiter.

Pirx
2017-04-18, 15:38:34
Warum sollte ein Komplettsystem Hersteller die 580 einer 1060 vorziehen wenn er dadurch ein Netzteil mit 100 Watt mehr Leistung verbauen muss?
Das selbe gilt für die Hersteller der Karten,die müssen diese billig Karten mit teuren Kühlern ausstatten,das heißt die Marge sinkt weiter.
100 Watt mehr, als?

PrivateCeralion
2017-04-18, 15:39:39
Der Mann gehört dringend aus der Verantwortung entsorgt, solche halbgaren Entscheidungen schaden AMD massiv.


Seltsam, dass AMDs Grafiksparte die letzten Jahre (mit der Semi Custom Sparte) der einzig Profitable Geschäftsbereich war. Raja macht seinen Job wunderbar.
[OT entfernt]
Sehr interessant finde ich, dass Polaris bei Samsung und GF gefertigt wird. Das heißt nämlich, dass AMD so viele Wafer bei GF fertigen lässt, das GFs Kapazitäten nicht ausreichen. Das Geschäft scheint wieder gut zu laufen.

Isen
2017-04-18, 15:41:40
Zumindest keine Strafe mehr fällig, das versaute schon genug.

Linmoum
2017-04-18, 15:42:50
Im High End juckt es kein,Leute die 500€ Karten kaufen haben auch Monster Netzteile aber hier ist es eine Katastrophe. Vorallem da OEM's jetzt noch weniger gewollt sind Komplettsysteme damit zu bauen.
Die 580er Customs verbrauchen ähnlich viel, wie die der 480. Weiß jetzt nicht, wo dein Problem liegt. Da gab es diesen Aufschrei komischerweise nicht.

Einfach mal 'ne vernünftige Kühllösung verwenden reicht schon, die 580 Nitro+ verbraucht genauso viel, wie die 480 Nitro+, taktet aber bis zu 100MHz. Entsprechend ist sie etwas schneller und sogar leiser sowie kühler bei demselben Verbrauch. ;)

Menace
2017-04-18, 15:48:35
Ich habe jetzt die Tests nur überflogen; gibt es keine 5X0 Polaris, die am Sweetspot operiert?

@Tester: Fragt doch mal nach, warum es keinen Firmware-Update für die versprochene geringere Leistungsaufnahme gibt. Wenigstens da könnten sie punkten.

r3ptil3
2017-04-18, 15:49:07
Beim Chiptakt hat sich schon was getan - 1.5 Ghz klingen nun gar nicht mehr so unrealistisch. Der Verbrauch geht leider gar nicht, da schaut man tatsächlich verwundert zur GTX 1060.

MadManniMan
2017-04-18, 15:54:33
100 Watt mehr, als?

Eine etwa gleichschnelle 1060?

dargo
2017-04-18, 15:54:42
Die 580er Customs verbrauchen ähnlich viel, wie die der 480. Weiß jetzt nicht, wo dein Problem liegt. Da gab es diesen Aufschrei komischerweise nicht.

Einfach mal 'ne vernünftige Kühllösung verwenden reicht schon, die 580 Nitro+ verbraucht genauso viel, wie die 480 Nitro+, taktet aber bis zu 100MHz. Entsprechend ist sie etwas schneller und sogar leiser sowie kühler bei demselben Verbrauch. ;)
Verstehe auch nicht was hier wieder für ein Fass aufgemacht wird. Die MSI Gaming verbraucht übrigens auch das selbe wie sein Vorgänger bei bissel mehr Takt. Alles im erwarteten Rahmen. Bis auf die Powercolor RX570 vielleicht. Die zieht schon ordentlich mehr. Bei dauerhaften 1320Mhz und entsprechend hohem PT damit der Takt auch gehalten wird dann wiederum nicht wirklich verwunderlich.

y33H@
2017-04-18, 15:57:23
@Tester: Fragt doch mal nach, warum es keinen Firmware-Update für die versprochene geringere Leistungsaufnahme gibt.Bisher keine Antwort und wenn, dann sicherlich nur off the record.

deekey777
2017-04-18, 16:09:23
Quatscht bitte hier weiter, sonst verliere ich den Überblick: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=580524

Pirx
2017-04-18, 16:11:31
Eine etwa gleichschnelle 1060?
Als das Netzteil, das in GTX 1060 - PCs verbaut wird. Werden dort etwa 150W-Netzteile verbaut?

PrivateCeralion
2017-04-18, 16:24:29
http://www.amd.com/en/products/desktop-graphics/radeon-rx-540

RX 540?

Leonidas
2017-04-18, 17:01:52
Von den Daten her eine RX 550 - mit erstaunlicherweise noch mehr Takt (up to 1219 MHz).

iuno
2017-04-18, 17:05:21
Die 550 hat Up to 1287 MHz und 10 statt 8 CUs. (http://www.amd.com/en/products/desktop-graphics/radeon-rx-550)
Offenbar stimmen Daten aus der Praesentation nicht
Es könnten doch 30-35 [Watt] sein. AMD hat ihre Präsi nochmal aktualisiert, aber keine echten Daten genannt. Ja so ein Launch mit Donnerstag Präsi, dann 4 Tage frei und heute Start ist schon super toll geplant ...
https://www.computerbase.de/forum/showthread.php?t=1675782&p=19994673#post19994673

btw:
http://www.amd.com/system/files/10738-laptop-radeon-960x540.jpg
;D;D;D

Der_Korken
2017-04-18, 17:12:41
Ich dachte Polaris 12 hat nur 8CUs und 64bit Speicherinterface. Laut der RX550 wären es dann also 10CUs und 128bit. Wäre ziemlich dicht an P11(21) dran.

y33H@
2017-04-18, 17:15:35
P12 hat 10 CUs, aber AMD sagte die RX 550 habe 8 CUs.

iuno
2017-04-18, 17:22:00
Man hat die Karte offenbar noch relativ kurzfristig auf 10 CUs umgestellt. Auch P11 wurde ja auf dem Desktop erst nur beschnitten verkauft. Auch dass die Chips relativ eng beieinander liegen, ich finde das ganze schon etwas seltsam.

mczak
2017-04-18, 17:33:26
Mark Cerny:

http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine

¯\_(ツ)_/¯
Es stimmt trotzdem nicht. Die Shader-ISA ist die gleiche bei Tonga und Polaris.
Beide haben FP16-Befehle die Swizzling eingebaut haben - damit man eben sagen kann ob die unteren oder oberen 16bit eines Registers verwendet werden sollen.

y33H@
2017-04-18, 17:37:30
Mal gucken was sie antworten und vor allem, was das Sample sagt ;D

mczak
2017-04-18, 17:39:05
Laut anandtech ist P12 101mm² gross.
Das ist eigentlich kaum signifikant kleiner als P11. Ist dann wohl tatsächlich praktisch dasselbe, einfach bloss eine Shader Engine (?) mit 10 CUs (bei der Grösse könnten es auch 2x5 sein, also quasi identisch zu einem teildeaktivierten Chip - das hätte den Vorteil dass man quasi null Entwicklungskosten hätte).

Screemer
2017-04-18, 17:40:40
Was soll das eigentlich für ein gerenderter laptop sein, der auf der vorherigen Seite verlinkt wurde?

Emperator
2017-04-18, 17:44:55
Macbook ^^

mczak
2017-04-18, 17:45:20
solange die Leistungsaufnahme im Rahmen bleibt, ist es ok und das bleibt sie
Naja etwas enttäuschend ist das schon. Das neue Stepping hat so gut wie gar nichts gebracht. Manche hatten da wohl unrealistische Erwartungen, aber so wie's aussieht hat man das bisschen mehr Takt praktisch ausschliesslich durch höhere Spannungen / höhere TDP erkauft.

gravitationsfeld
2017-04-18, 17:47:16
Mark Cerny:

http://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine

¯\_(ツ)_/¯
Die PS4 Pro CUs haben mehr Faehigkeiten als GCN 3 oder 4. Vor allem FP16 pair instructions.

Polaris hat das nicht. Erst Vega auf dem PC. Das sind uebrigens Fakten. Ich hab dir die offizielle Dokumentation von AMD gegeben.

Es stimmt trotzdem nicht. Die Shader-ISA ist die gleiche bei Tonga und Polaris.
Beide haben FP16-Befehle die Swizzling eingebaut haben - damit man eben sagen kann ob die unteren oder oberen 16bit eines Registers verwendet werden sollen.
Nope. PS4 Pro hat eine andere ISA.

Linmoum
2017-04-18, 17:49:51
Naja etwas enttäuschend ist das schon. Das neue Stepping hat so gut wie gar nichts gebracht. Manche hatten da wohl unrealistische Erwartungen, aber so wie's aussieht hat man das bisschen mehr Takt praktisch ausschliesslich durch höhere Spannungen / höhere TDP erkauft.
Es ist schlicht und ergreifend ein reiferer Fertigungsprozess, der die höheren Taktraten ermöglicht. Es war schon vorher 14LPP und es ist auch weiterhin 14LPP. Mehr als das, was man jetzt sieht, war doch realistisch gesehen gar nicht zu erwarten?

Schnoesel
2017-04-18, 17:56:03
Das neue Stepping hat so gut wie gar nichts gebracht

Versuch mal eine RX480 auf die Taktraten der RX580 zu bringen. Ein klassischer Refresh halt.

mczak
2017-04-18, 18:12:03
Die PS4 Pro CUs haben mehr Faehigkeiten als GCN 3 oder 4. Vor allem FP16 pair instructions.

Polaris hat das nicht. Erst Vega auf dem PC. Das sind uebrigens Fakten. Ich hab dir die offizielle Dokumentation von AMD gegeben.

Ja, und ich kann die auch lesen. Beachte mal das VOP_SDWA Kapitel (das ist neu bei GCN 3). Hat allerdings schon gewisse Einschränkungen (das geht dann nicht bei VOP3-Befehlen, also insbesondere auch nicht bei FMA, zudem können keine Konstanten mehr verwendet werden bei den anderen Befehlen).
Tatsache aber bleibt, dass man gepackte Register prinzipiell direkt nutzen kann. Wie vorteilhaft das dann noch ist aufgrund der Einschränkungen wage ich nicht zu beurteilen (dass die Befehle damit grösser werden dürfte auch nicht helfen).


Nope. PS4 Pro hat eine andere ISA.
Da liegt ein Missverständnis vor. Dass PS4 Pro eine andere ISA hat bestreite ich keinesfalls. Ging bloss darum dass da Features exklusiv Polaris zugeschrieben werden die eben auch Tonga (beziehungsweise was ich meinte war Vulcanic Islands) schon hat.

mczak
2017-04-18, 18:24:26
Versuch mal eine RX480 auf die Taktraten der RX580 zu bringen. Ein klassischer Refresh halt.
Die RX580 scheint aber auch höhere Spannungen zu haben um die höheren Taktraten zu erreichen. Ok vielleicht würden die bestenfalls 5% mehr Takt bei der RX480 trotzdem nicht gehen, aber ein wirklicher Fortschritt ist nicht erkennbar (ich hätte wenigstens gehofft dass man das bisschen Mehrtakt bei derselben Spannung erreicht, dann wäre auch die TDP praktisch gleich geblieben). Wenn da AMD schon einen neuen Chipnamen vergibt...

gravitationsfeld
2017-04-18, 18:30:11
Ja, und ich kann die auch lesen. Beachte mal das VOP_SDWA Kapitel (das ist neu bei GCN 3). Hat allerdings schon gewisse Einschränkungen (das geht dann nicht bei VOP3-Befehlen, also insbesondere auch nicht bei FMA, zudem können keine Konstanten mehr verwendet werden bei den anderen Befehlen).
Tatsache aber bleibt, dass man gepackte Register prinzipiell direkt nutzen kann. Wie vorteilhaft das dann noch ist aufgrund der Einschränkungen wage ich nicht zu beurteilen (dass die Befehle damit grösser werden dürfte auch nicht helfen).


Da liegt ein Missverständnis vor. Dass PS4 Pro eine andere ISA hat bestreite ich keinesfalls. Ging bloss darum dass da Features exklusiv Polaris zugeschrieben werden die eben auch Tonga (beziehungsweise was ich meinte war Vulcanic Islands) schon hat.
Ok, mir war entgangen dass man High oder Low 16 Bit selektieren kann. Danke.

raffa
2017-04-18, 19:56:46
Ich bin ja gespannt auf die RX 550, wir hätten hier durchaus Verwendung für kleine, günstige, sparsame Kärtchen mit modernem Featureset.

reaperrr
2017-04-18, 21:16:54
Laut anandtech ist P12 101mm² gross.
Das ist eigentlich kaum signifikant kleiner als P11. Ist dann wohl tatsächlich praktisch dasselbe, einfach bloss eine Shader Engine (?) mit 10 CUs (bei der Grösse könnten es auch 2x5 sein, also quasi identisch zu einem teildeaktivierten Chip - das hätte den Vorteil dass man quasi null Entwicklungskosten hätte).
Erklärt jedenfalls, warum die vor einigen Monaten geleakten Benchmark-Werte so nah an P11 lagen, außer der CU-Zahl nahezu identischer Chip (evtl. noch ACEs oder L2 halbiert?).

Immerhin kleiner und günstiger herzustellen als GP107 und dank 16 ROPs/128bit SI wahrscheinlich selbst bei moderatem Takt schneller als GP108, könnte dadurch durchaus seine Marktnische finden (was wohl auch Sinn und Zweck des Chips ist).

MadManniMan
2017-04-19, 09:56:29
Ich bin ja gespannt auf die RX 550, wir hätten hier durchaus Verwendung für kleine, günstige, sparsame Kärtchen mit modernem Featureset.

OEM oder Retail? ;)

Loeschzwerg
2017-04-19, 10:04:08
https://www.computerbase.de/2017-04/radeon-520-530-rx-540-550-oem/

http://www.amd.com/en/products/graphics/radeon-rx-550
Stream Processors
512
640

:freak::freak:

MadManniMan
2017-04-19, 10:21:41
Da denk ich mir, dass AMD es einmal richtig macht (ich finde das Design der 570/580 meh, aber der Markt wird es annehmen) und dann so ein Namensfuckup.

Daredevil
2017-04-19, 10:31:41
Die RX580 scheint aber auch höhere Spannungen zu haben um die höheren Taktraten zu erreichen. Ok vielleicht würden die bestenfalls 5% mehr Takt bei der RX480 trotzdem nicht gehen, aber ein wirklicher Fortschritt ist nicht erkennbar (ich hätte wenigstens gehofft dass man das bisschen Mehrtakt bei derselben Spannung erreicht, dann wäre auch die TDP praktisch gleich geblieben). Wenn da AMD schon einen neuen Chipnamen vergibt...

Wenn du Ryzen mit einem neuen "Fertigungsprozess" ausstatten würdest und ein x1800 sich auf einmal mit Spannungserhöhung auf 4.6Ghz mit Luft kühlen lässt, hättest du zwar wieder ein Stromfresser mehr im PC, aber du hättest aber auch Leistung mehr, die du nirgendwo her bekommen würdest ansonsten. ( Was meinst du, wie sehr dieses Ding gefeiert werden würde hier im Forum? Ein Ryzen schafft so gerade mal die 4 ghz, egal wieviel Spannung ).

Klar ist das kein Wunder, das man mehr Saft gibt und das Kärtchen dementsprechend schneller dreht, aber vorher ging das halt einfach nicht.
Ist ja jetzt auch nicht so, als wäre eine 480 mega stromhungrig gewesen oder sie hätte am Templimit gekratzt bei massiver Lautstärke.

Es ist zudem halt auch Atis schnellste Karte in ihrem aktuellen Lineup, die jetzt noch schneller sein kann. ( Die Nano ist ja nicht mehr so relevant. )

Botcruscher
2017-04-19, 11:01:21
Wenn von den tollen drölf GHz aber dank Bandbreitenlimitierung kaum was ankommt... und das Produkt dadurch auch noch teurer wird.

Daredevil
2017-04-19, 11:54:51
( Computerbase Ergebnisse bei der Standard 480 bzw. 580 )

Wir haben 6% mehr Durchschnittsleistung bei 16% mehr Durchschnittsverbrauch.
Wir bewegen uns hier aber nicht in Größen wie 360 Watt statt 280 Watt sondern bei einem Unterschied von 26 Watt im Lastverbrauch.
Im Idle spart die 580 dafür 2-4 Watt und bei Youtube sogar um die 30 Watt.
Das könnte sich sogar je nach Szenario dann wieder gegen rechnen.

Wenn die Karte nun die 480 ersetzen soll preislich, ist das ganze doch ein netter Fortschritt.
Zudem sind halt auch nicht alle Spiele Bandbreitenlimitiert

Performancerating – 2.560 × 1.440

Anno +8%
Ashes +5%
Battlefield +5%
CoD +3%
Deus +4%
Dishonored +3%
Doom +4%
For Honor +8%
Mass Effect +8%
Tomb Raider +7%
Witcher +7%
Titanfall +2%
Watch Dogs +5%

Das ganze bei 12% mehr Basischiptakt und 5.8% MaxTakt.

Was gibts da also rumzuheulen, wenn das Ding das gleiche kostet?
Selbst 10% mehr kosten wären Okay, schließlich bringt es ja eben auch die Leistung auf die Straße.

Troyan
2017-04-19, 12:05:11
Der Vergleich mit der Referenz-RX480 ist nicht sinnvoll. Die Karte drosselt auf Taktraten von <1170MHz herunter. Diese Karte an sich spielt auch seit 6 Monate keine wirkliche Rolle mehr. Vergleichen sollte man Custom-Karten, die fast durchgehend mit 1266Mhz+ takten. Diese kosteten auch deutlich weniger als die offiziellen Preise der RX 580 Karten.

Und hier gibt es weder leistungs- noch strombereichsmäßig einen Unterschied, wie es Computerbase mit der Asus Strix RX 480 aufzeigt.

raffa
2017-04-19, 12:29:36
OEM oder Retail? ;)

retail - mal sehen was die Boardpartner draus machen.

"Radeon 520, 530, RX 540 und zweite RX 550 für OEMs"
Da haben sie sich ja mal wieder ein tolles Verwirrspiel ausgedacht.

BoMbY
2017-04-19, 13:02:27
Dell verkauft scheinbar auch schon RX 460 als RX 560 (https://i.redd.it/0h4p918ta5sy.jpg) (also RX 560 mit weniger CUs).

dargo
2017-04-19, 13:05:54
Oder GPU-Z ließt falsche Daten aus. ;)

v1.20.0 (April 18th, 2017)
Fixed BIOS extraction resulting in corrupted BIOS on Radeon RX 500 Series
https://www.techpowerup.com/download/techpowerup-gpu-z/

MikePayne
2017-04-19, 13:45:17
Versuch mal eine RX480 auf die Taktraten der RX580 zu bringen. Ein klassischer Refresh halt.

1340 MHz laufen bei 1120mV. Np.

dildo4u
2017-04-19, 14:33:25
Es gab schon 2016 Karten die 1.45Ghz + schafften,jetzt ist es vermutlich nur öfter der Fall.

https://youtu.be/zWASNajSdpg?t=8m57s

victore99
2017-04-19, 15:59:14
toll, mit der Spannung geht alles.. was hat die Strix z. b. jetzt für ne Kernspannung? Never nur die 1,15V, die das Wattman-Limit der 480 sind..

Schnoesel
2017-04-19, 16:06:18
Es gab schon 2016 Karten die 1.45Ghz + schafften,jetzt ist es vermutlich nur öfter der Fall.

manuelles OC vs. out of the Box als Boost.

dildo4u
2017-04-19, 16:17:01
Die Hersteller maxen die Karten diesmal einfach nur aggressiver aus,die Nitro schafft nur 10mhz über Werkstakt.


https://youtu.be/hTnFKwK_DaQ?t=8m16s

Loeschzwerg
2017-04-20, 10:35:49
Freiwillige vor :):
https://www.computerbase.de/2017-04/radeon-rx480-470-460-bios-update/

http://www.overclock.net/t/1604567/polaris-bios-editing-rx5xx-rx4xx
-Flashed my Reference XFX RX480 8GB with the Sapphire RX580 Bios. It Works. More testing needed

iuno
2017-04-20, 14:07:03
Offenbar wird jetzt wenigstens fast die komplette mobile 500er Serie auf Polaris umgestellt. Insofern kann man dem Refresh vielleicht doch noch einen Sinn zusprechen.
Bis runter zur 540 (http://www.amd.com/en/products/graphics/radeon-rx-540) sollte alles Polaris sein, darunter wahrscheinlich immer noch der uralte Oland (ging vorher bis hoch zur M465X) und oben auch P10 (http://www.amd.com/en/products/graphics/radeon-rx-580) statt Tonga.

Der_Korken
2017-04-20, 14:13:10
Was soll es bringen die 400er Karten auf ein 500er BIOS zu flashen? Der Chip wird dadurch nicht besser taktbar und verbesserte Kühler- und Platinenlayouts bekommt man dadurch auch nicht. Sehe keinen Vorteil darin :confused:.

Effe
2017-04-20, 14:17:06
Ers wird erwartet, dass die Stromsparfunktionen bei Multimonitor dann auch auf der 400er Serie funktionieren. Was zu beweisen wäre.

][immy
2017-04-20, 14:19:46
Was soll es bringen die 400er Karten auf ein 500er BIOS zu flashen? Der Chip wird dadurch nicht besser taktbar und verbesserte Kühler- und Platinenlayouts bekommt man dadurch auch nicht. Sehe keinen Vorteil darin :confused:.
Da es vermutlich der gleiche Chip ist versprechen sich davon einige wohl stabilere Übertaktungen.
Vergessen dabei aber, das bei den neuen Karten z.B. die Stromversorgung "verbessert" wurde indem z.B. jetzt 2 Stecker (6-pin & 8-pin) zum Einsatz kommt. Bei den RX480 Karten wird es vermutlich auch problemlos funktionieren, allerdings wird der eine Stecker (oder der PCIe-Bus) dann hoffnungslos außerhalb seiner Spezifikation betrieben.
Das bisschen Takt kostet ja recht viel wie man an den Tests sieht.

aufkrawall
2017-04-20, 14:20:01
Freiwillige vor :):
https://www.computerbase.de/2017-04/radeon-rx480-470-460-bios-update/

http://www.overclock.net/t/1604567/polaris-bios-editing-rx5xx-rx4xx
Heißt, AMD hatte es einfach nur nicht auf die Reihe bekommen, einen schon vom Speicher vorhandenen Taktzustand anzubieten? :freak:

BoMbY
2017-04-20, 17:04:56
Hat eigentlich schonmal jemand dieses Polaris Architecture Whitepaper (http://radeon.wpengine.netdna-cdn.com/wp-content/uploads/2016/08/Polaris-Architecture-Whitepaper-Final-08042016.pdf) gesehen? Google hat das gerade ausgespuckt, und ich glaube ich habe das noch nicht gesehen bisher.

Dino-Fossil
2017-04-20, 17:15:08
Hat eigentlich schonmal jemand dieses Polaris Architecture Whitepaper (http://radeon.wpengine.netdna-cdn.com/wp-content/uploads/2016/08/Polaris-Architecture-Whitepaper-Final-08042016.pdf) gesehen? Google hat das gerade ausgespuckt, und ich glaube ich habe das noch nicht gesehen bisher.

Interessant, enthält aber, glaube ich, im Wesentlichen die Dinge, die schon von den verschiedenen Präsentationsfolien bekannt sind, inklusive der arg "optimistischen" Zahlen zur Effizienzsteigerung.

TheGood
2017-04-20, 18:51:59
Bisher wars doch immer so dass AMD die Anpassungen auch nach unten protiert hat. Ich denke dass es in ein zwei Monaten (nach dem Abverkauf der 480) auch entsprechende Biosanpassung gibt, zumindest für die Stromsparfunktionen.
Ich würde das auf jedenfall von AMD erwarten, da sie das ja auch schon lange für die 480 user versprochen haben.

Loeschzwerg
2017-04-21, 06:51:30
Heißt, AMD hatte es einfach nur nicht auf die Reihe bekommen, einen schon vom Speicher vorhandenen Taktzustand anzubieten? :freak:

Die 400er Serie war halt der Betatest :D

---

Ist der P12 im Vollausbau jetzt eigentlich 512 oder 640 SPs stark? Die RX550 Variante mit 10CUs könnte immerhin auch einfach nur ein stark gestutzter P11 sein.

HOT
2017-04-23, 16:06:22
Spannend:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/42707-polaris-20-xtr-und-xtx-radeon-rx-580-in-zwei-varianten-am-markt.html
Jetzt wär nur noch interessant, welcher von welcher Foundry kommt.

P10 XT = 14LPP GloFo
P20 XTX = 14LPP+ GloFo (?)
P20 XTR = 14LPP Smasung (?)

ich frag mich, warum man nicht einfach bei P10 geblieben ist, wenn man schon das Suffix ändert? ganz schön banane...

Digidi
2017-04-23, 21:04:35
Spannend:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/42707-polaris-20-xtr-und-xtx-radeon-rx-580-in-zwei-varianten-am-markt.html
Jetzt wär nur noch interessant, welcher von welcher Foundry kommt.

P10 XT = 14LPP GloFo
P20 XTX = 14LPP+ GloFo (?)
P20 XTR = 14LPP Smasung (?)

ich frag mich, warum man nicht einfach bei P10 geblieben ist, wenn man schon das Suffix ändert? ganz schön banane...

Sicher das P10 XT LPP ist ich glaube der war LPE. Deshalb auch P20 weil man dort auf LPP umgestiegen ist.
https://www.computerbase.de/2017-03/radeon-rx-500-polaris-20-21-12/

Durch die Umstellung von LPE auf LPP sind wahrscheinlich jetzt die höheren Taktraten möglich und die Karte kann sich nochmal ein stück von der GTX 1060 absetzen.

Der unterschied XTX und XTR ist wahrscheinlich nur das die einen selektiert wurden.

y33H@
2017-04-23, 21:29:03
Nope, Polaris war und ist schon immer 14LPP(+).

iuno
2017-04-23, 21:41:35
Hatten wir auch schon kurz im (P)Review Thread angesprochen. Dass die kleine nicht mehr PRO heisst ist auch neu, aber fuer P20 exklusiv.
Kann aber sein, dass einfach nur selektiert wird. Darueber wissen wir nichts und zu LPE, Samsung und GF wurde IMHO eine Menge Unsinn geschrieben.
Selektion waere ja aber an sich auch schon wuenschenswert, so weit wie die Chips immer auseinander liegen.

Digidi
2017-04-23, 21:50:19
Nope, Polaris war und ist schon immer 14LPP(+).
Wieso schreiben dann 100 Seiten das die RX 480 auf LPE beruht und korrigieren das nicht?

y33H@
2017-04-24, 08:20:14
Weil die alle auf die (falsche) Meldung von Benchlife aufgesprungen sind, vermute ich ...

deekey777
2017-04-24, 16:04:38
http://www.amd.com/en-us/products/graphics/workstation/radeon-pro/duo?webSyncID=b4c752ee-8034-73dd-558a-1934e1a45b34&sessionGUID=52ac0de2-28e8-ee74-ba14-b6130ee3774a#

Ist das ein Monster, gab es wirklich keine professionelle Dual-GPU-Grafikkarten zuvor?

Hübie
2017-04-24, 16:05:45
Radeon Pro Duo. ;)

Edit: Und was haben auf twitter wieder alle gesabbert als Raja was mit 4k content zwitscherte. Am Ende kommt ne Polaris Dual Gurke dabei raus. X-D Hahahaaa...

Blediator16
2017-04-24, 16:10:06
Radeon Pro Duo. ;)

Edit: Und was haben auf twitter wieder alle gesabbert als Raja was mit 4k content zwitscherte. Am Ende kommt ne Polaris Dual Gurke dabei raus. X-D Hahahaaa...

Das Gesabbel war eindeutig im Kontext zum VR Film, den sie unterstützt haben.

Hübie
2017-04-24, 16:46:24
Das Gesabbel war eindeutig im Kontext zum VR Film, den sie unterstützt haben.

Ja klar war eindeutig. Sieht man an den Kommentaren und den resultierenden möchte gern News. :rolleyes: Eindeutig (NOT!).

BoMbY
2017-04-26, 13:27:57
Eine 67EF:E2 (RX 560) mit 16 CUs und 4 GB in SiSoft Sandra (http://ranker.sisoftware.net/show_device.php?q=c9a598ae99dc9aa0e5d7f196ab86b791e3deeec8a19cad8be3deebcdb588b9 9ffa9fa292b4c7fac2&l=en).

Loeschzwerg
2017-04-27, 20:03:26
Ich bringe hier mal die Umfragen vom 3Dcenter ins Spiel, die deine Sicht nicht für die Mehrheit bestätigen kann:

RX 480:
http://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zur-radeon-rx-480

GTs 1060
http://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zur-geforce-gtx-1060


40% PCIe Spec und 30% zu hoher Stromverbrauch

Beide Probleme verursacht durch einen Entscheidung in letzter Minute den Takt anzuheben. So etwas kann man sich bei der Ref.-Karte einfach sparen, denn für alles weitere hat man die Partner mit entsprechenden Custom-Lösungen.

Dabei verschenkt die Radeon RX 480 noch massig an Potential für eine klar bessere Wertung – denn von den Umfrage-Teilnehmern mit durchschnittlichem oder negativem Ersteindruck stimmten gleich 40,8% für den Bruch der PCI-Express-Spezifikation als primäres Problem der Karte, dies sind immerhin 22,2% aller Umfrage-Teilnehmer.

-------

Gibt es jetzt schon detailliertere Infos zu Polaris 12? Wie viele CUs hat die GPU nun wirklich?

MadManniMan
2017-04-27, 20:25:34
Eine 67EF:E2 (RX 560) mit 16 CUs und 4 GB in SiSoft Sandra (http://ranker.sisoftware.net/show_device.php?q=c9a598ae99dc9aa0e5d7f196ab86b791e3deeec8a19cad8be3deebcdb588b9 9ffa9fa292b4c7fac2&l=en).

Irgendwelche Überraschungen?

iuno
2017-04-27, 20:42:53
Gibt es jetzt schon detailliertere Infos zu Polaris 12? Wie viele CUs hat die GPU nun wirklich?
2*5
2*4 in der RX 550 (Desktop)

TheGood
2017-04-27, 23:40:16
40% PCIe Spec und 30% zu hoher Stromverbrauch

Beide Probleme verursacht durch einen Entscheidung in letzter Minute den Takt anzuheben. So etwas kann man sich bei der Ref.-Karte einfach sparen, denn für alles weitere hat man die Partner mit entsprechenden Custom-Lösungen.



Es waren 75 Prozent nicht negativ. Also nur 25 % waren negativ eingestellt. Am Ende steht aber ein 30% Kaufinteresse, welches sich wohl aus bestimmten Gründen aber hat nicht umsetzen können. Vermutlich sind die von dir genannten PUnkte am Ende doch mehr Leuten sauer aufgestossen. Ich wollte ach eine kaufen und hab mich doch dagegen entschieden.

Natürlich waren diese beiden Probleme hausgemacht und so dumm hätten Sie nicht sein dürfen, vor allem weil sie vorher halt immer was anders angekündigt hatten. Hoffen wir dass Sie etwas daraus gelernt haben. Ich hätte genau den Speed auch den Customs überlassen, das ist doch die viel klügere Entscheidung.

Loeschzwerg
2017-04-28, 07:20:57
2*5
2*4 in der RX 550 (Desktop)

Soweit die offiziellen Angaben auf der Produktseite der RX 550, aber welche Chips verbergen sich dahinter? Die 10CU Variante kann auch immer noch ein P11 sein.

MadManniMan
2017-05-02, 16:00:15
Wann kommt denn jetzt eigentlich die RX 560? Seit 26. April sind die Gigabytes gelistet, die von Sapphire seit dem 28.

Unicous
2017-05-03, 12:15:26
Du lehnst Dich mal wieder ziemlich weit aus dem Fenster ... Polaris 20 nutzt scheinbar die Revision IDs E7 (http://wccftech.com/gigabyte-aorus-radeon-rx-500-series-graphics-card-leaked-polaris-20-gpu/) und EF (https://i.imgur.com/6a6nXII.jpg) zur Unterscheidung zu den vorhergehenden Polaris 10 Versionen - so what?

:rolleyes::rolleyes::rolleyes:


Ryan Smith

Quick note: while GPU-Z reads the chip revision registers correctly, AMD is not using it correctly. When I asked W1zzard about this, he told me that AMD is using the chip revision as another identifier, in place of a longer device ID. So the chips aren't actually C7 or E7.[...]

https://forum.beyond3d.com/posts/1978471/


CarstenS

I remember that being brought up at the local Polaris (10/11) Techday, because it seemed like a ridiculously high stepping number with what P10 launched, yeah.
https://forum.beyond3d.com/posts/1978476/

Der einzige der sich immer wieder mit groben Unfug aus dem Fenster lehnt, Mr. "Polaris ist LPE":freak:

BoMbY
2017-05-03, 12:22:43
:rolleyes::rolleyes::rolleyes:


https://forum.beyond3d.com/posts/1978471/


https://forum.beyond3d.com/posts/1978476/

Der einzige der sich immer wieder mit groben Unfug aus dem Fenster lehnt, Mr. "Polaris ist LPE":freak:

Na, da hast Du ja ganz tolle "Quellen" ausgegraben. Die Revision ID ist die Revision ID wie AMD sie setzt. Nur weil das nicht in Dein Weltbild passt, wird sich daran nichts ändern. Die Revision IDs mit E* sind 100% korrekt und daran wird sich auch nichts ändern.

Und die Konfusion bei dem Prozess kam offensichtlich daher, dass AMD hier eine Neuerung verkauft die keine ist. Und wenn Du Dich ganz doll bemühst, kannst Du tatsächlich eine zitierfähige Quelle finden die sagt, dass Polaris 10 14nm LPP ist.

Unicous
2017-05-03, 12:53:44
Hörst du dich eigentlich selbst reden?:freak:

Die Revision ID ist die Revision ID wie AMD sie setzt.

https://julieamarxhausen.files.wordpress.com/2014/03/what-does-that-even-mean-jackie-chan.jpg

Die Revision ID ist nichts weiter als ein Marker der verschiedene Konfigurationen eines Chips unterscheidet und hat nichts mit der Revision/dem Stepping des Dies zu tun (auch wenn diese natürlich mit eben jender geänderten Konfiguration indiziert sein kann). Ich wiederhole es immer wieder gern.:up:

Aber schon interessant, dass du Ryan Smith von Anandtech und Carsten Spille von PCGH nicht als legitime Quellen erachtest. Ich schätze mal die einzig legitime Quelle für dich ist dein eigener Podex.
Du hast wirklich so gar keine Ahnung verlangst aber immer wieder aufs Neue Gegenbeweise für deine Hirngespinste.

Hier ist noch eine Quelle die du sicherlich nicht als legitim erachtest.:rolleyes:

Polaris GPUs and Ryzen are 14nm LPP.

http://www.overclock.net/t/1628150/wccftech-amd-radeon-rx-580-overclocking-and-benchmarks-unveiled-clocked-up-to-1500-mhz-on-liquid-cooling/110#post_26024641

Schon lustig, dass Leute wie du sich den größten Scheiß ausdenken können, aber wenn man dafür Beweise verlangt wird eben diese Last umgekehrt und auf einmal muss man der Fraktion tin foil hat beweisen dass ihre Verschwörungstheorien nichts als Magenwinde sind.

Skysnake
2017-05-03, 17:50:10
Die ID kannste dir im Prinzip eh aussuchen. So lange du das Zeug nicht verkaufen willst ist es shit egal.

Im Prinzip kann AMD auch alte wiederverwenden. Das ist absolut kein Problem an sich für PCI-E. Das Problem liegt eher darin, dann im Treiber die Sachen auseinander halten zu können.

MadManniMan
2017-05-10, 14:43:49
Bei nem österreichischen Händler ist die Sapphire RX 560 2G als in 1 bis 2 Tagen lieferbar gelistet (https://geizhals.de/redir.cgi?h=ba-computer&loc=http%3A%2F%2Fprod.ba-computer.at%2Flanding.php%3Fsku%3D11267-00-20G-4516352&ghaID=1615318&key=ba7705e237c49b1964b5d8efa3300070) - wann kommen Tests? ^^

Vanilla
2017-05-11, 08:23:29
Lohnt sich das warten überhaupt, oder ist die 1050Ti nicht eh schneller? Die gibt es ja auch schon für < 150 EUR mit 4 GB.

MadManniMan
2017-05-11, 08:36:15
Lohnt sich das warten überhaupt, oder ist die 1050Ti nicht eh schneller? Die gibt es ja auch schon für < 150 EUR mit 4 GB.

Ich kauf die eh nicht, aber a) ist jede neue Graka interessant und belebt b) das Geschäft =)

Kriton
2017-05-11, 11:49:20
Lohnt sich das warten überhaupt, oder ist die 1050Ti nicht eh schneller? Die gibt es ja auch schon für < 150 EUR mit 4 GB.

Unabhängig davon welche schneller ist (das weiß ich wirklich nicht), wäre ja auch die Frage ob und wenn ja, welches Adaptive Sync Du hast/haben willst. Gerade in einem wohl eher kostenintensiven Bereich dürfte Freesync deutliche Vorteile haben wenn Du nicht nur die Einzelkomponente betrachtest.

mczak
2017-05-11, 18:16:45
Die 1050Ti bleibt sicher unerreichbar, aber die sollte auch eher im Preisbereich einer 1050 sein - an die kam die RX 460 nicht ganz heran (ausser in Doom...).

reaperrr
2017-05-11, 22:05:49
Die 1050Ti bleibt sicher unerreichbar, aber die sollte auch eher im Preisbereich einer 1050 sein - an die kam die RX 460 nicht ganz heran (ausser in Doom...).
Die 1050 gibt's nur mit 2GB, von daher wären 10$/€ teurer (~120 €) bei gleicher Leistung für die 560-4G i.O., die 560-2G 10$/€ unter der 1050 und schon haben beide Modelle der 560 das etwas bessere P/L-Verhältnis.
Die aktuellen Geizhals-Listungen der 560-4G sind zu nah an der 1050 Ti, aber ich schätze das legt sich noch nach Release (außer NV senkt die Preise, was natürlich passieren kann).

dildo4u
2017-05-12, 16:15:46
Sapphire RX 560 Pulse OC 4GB Review vs. GTX 1050 & More

https://youtu.be/z1gXG8h73QY

Loeschzwerg
2017-05-23, 08:11:32
https://www.techpowerup.com/gpudb/2947/radeon-rx-550

Fehler bei TPU oder warum wird dort Lexa XT genannt? (in den ganzen Preissuchmaschinen btw. auch)

deekey777
2017-05-23, 10:01:27
Bei nem österreichischen Händler ist die Sapphire RX 560 2G als in 1 bis 2 Tagen lieferbar gelistet (https://geizhals.de/redir.cgi?h=ba-computer&loc=http%3A%2F%2Fprod.ba-computer.at%2Flanding.php%3Fsku%3D11267-00-20G-4516352&ghaID=1615318&key=ba7705e237c49b1964b5d8efa3300070) - wann kommen Tests? ^^

Hier ist eine in den USA: https://www.newegg.com/Product/Product.aspx?Item=N82E16814125975&sf80555087=1

Aber keine (richtigen) Tests, als würde AMD sie zurückhalten, um die beschnittenen P11 loszuwerden.

https://www.techpowerup.com/gpudb/2947/radeon-rx-550

Fehler bei TPU oder warum wird dort Lexa XT genannt? (in den ganzen Preissuchmaschinen btw. auch)

Ich übertreibe:
AMD braucht ja noch Codenamen für die Nachfolger der M430-M460 mit 320SPs bzw. 384 SPs. Ein noch mehr beschnittener P12 würde sich dafür eignen.

PrivateCeralion
2017-05-25, 20:35:35
Sieht so aus, als wird es die nächste Zeit ziemlich schwer an eine RX 470, 480, 570, 580 zu kommen, dank den Minern. Ich habe dazu bei PCGH eine user-News verfasst:
http://extreme.pcgameshardware.de/user-news/477704-amd-grafikkarten-wegen-crypto-mining-nicht-verfuegbar.html

reaperrr
2017-05-26, 15:06:48
Sieht so aus, als wird es die nächste Zeit ziemlich schwer an eine RX 470, 480, 570, 580 zu kommen, dank den Minern. Ich habe dazu bei PCGH eine user-News verfasst:
http://extreme.pcgameshardware.de/user-news/477704-amd-grafikkarten-wegen-crypto-mining-nicht-verfuegbar.html
Hoffentlich stellt sich AMD klüger an als zu Zeiten der 280X, wo man als Reaktion die Produktion so hochgefahren hat, dass man nach Abkühlen des damaligen Mining-Crazes dann solche Restmengen an Tahitis hatte, dass man den Release von Tonga um Monate verschieben und zudem auch noch dessen Attraktivität in Form der 285 durch kleinen RAM und niedrigen Takt künstlich beschneiden musste, um den Inventar-Rückstau an 280 und 280X irgendwie noch loszuwerden. Nachdem Mining mit 280(X) nicht mehr effizient genug war, kamen die Karten nämlich haufenweise auf den Gebraucht-Markt und haben AMD das Geschäft auf Monate verhagelt, hat ihnen also in der Endabrechnung nicht viel gebracht bzw. durch Abschreibungen auf nicht/billiger verkaufte Chips evtl. sogar finanziell geschadet. Dann lieber Preise vorübergehend etwas erhöhen, wahrscheinlich schwappt die Nachfrage eh bald auf Vega über, weil der zumindest bei den günstigsten Modellen wohl mehr FLOPs/Watt/$ haben wird.

Aber ich schätze, so dumm diesen Fehler zu wiederholen und die Produktion von P10 zu extrem auszuweiten werden sie wohl diesmal nicht sein... hoffe ich...

PrivateCeralion
2017-05-26, 16:25:57
Hoffentlich stellt sich AMD klüger an als zu Zeiten der 280X, wo man als Reaktion die Produktion so hochgefahren hat, dass man nach Abkühlen des damaligen Mining-Crazes dann solche Restmengen an Tahitis hatte, dass man den Release von Tonga um Monate verschieben und zudem auch noch dessen Attraktivität in Form der 285 durch kleinen RAM und niedrigen Takt künstlich beschneiden musste, um den Inventar-Rückstau an 280 und 280X irgendwie noch loszuwerden. Nachdem Mining mit 280(X) nicht mehr effizient genug war, kamen die Karten nämlich haufenweise auf den Gebraucht-Markt und haben AMD das Geschäft auf Monate verhagelt, hat ihnen also in der Endabrechnung nicht viel gebracht bzw. durch Abschreibungen auf nicht/billiger verkaufte Chips evtl. sogar finanziell geschadet. Dann lieber Preise vorübergehend etwas erhöhen, wahrscheinlich schwappt die Nachfrage eh bald auf Vega über, weil der zumindest bei den günstigsten Modellen wohl mehr FLOPs/Watt/$ haben wird.

Aber ich schätze, so dumm diesen Fehler zu wiederholen und die Produktion von P10 zu extrem auszuweiten werden sie wohl diesmal nicht sein... hoffe ich...


Diesmal können sie die Produktion schön hochfahren, da die nächste Generation (VEGA) in einer ganz anderen Preis und Leistungsklasse spielt. Somit machen sich die Produkte intern keine Konkurrenz.

Eddit: Ich hab eben mal bei mehreren Läden angefragt:
Conrad braucht für die nächste Lieferung 3 Wochen, im ARLT Frankfurt wurden letzte Woche 150 RX 580 verkauft und mehrere Leute rufen jeden Tag an und Fragen, ob noch welche da sind, bei Mindfactory gibt es schon 600 Vorbestellungen auf nur eine Rx 580 Version.

tm0975
2017-05-27, 09:38:39
woher kennst du denn die vorbestellungen bei MF? angerufen?

deekey777
2017-06-05, 20:03:55
Neue iMacs mit Retina bekommen verschiedene Radeon Pro bis 580 mit 8 GB.

StefanV
2017-06-06, 03:46:14
War nicht anders zu erwarten.

Einerseits weil AMD die Specs für die Chips offen legt und Apple so selbst die Treiber schreiben könnte. Andererseits weil AMD generell kooperativer ist als 'die anderen'...

Da hat sich es möglicherweise einer mit Apple verscherzt, die keinen Bock mehr auf die Bude haben...

Mancko
2017-06-06, 15:20:43
War nicht anders zu erwarten.

Einerseits weil AMD die Specs für die Chips offen legt und Apple so selbst die Treiber schreiben könnte. Andererseits weil AMD generell kooperativer ist als 'die anderen'...

Da hat sich es möglicherweise einer mit Apple verscherzt, die keinen Bock mehr auf die Bude haben...

Keine Angst umgekehrt haben die sicher auch keinen Bock selber die Produkte für wenig Geld abzugeben damit Apple hohe Margen einfahren kann. Das dürfte da auf Gegenseitigkeit beruhen.

dildo4u
2017-06-06, 22:08:19
Specs der Apple AMD GPU's:

https://videocardz.com/press-release/amd-announces-radeon-pro-500-series

HOT
2017-06-06, 23:04:33
Ach guck mal, die sind nur mit 7Gbps-RAM ausgerüstet, selbst die Pro 580.

dildo4u
2017-06-06, 23:44:27
Schätze mal AMD hat die für Apple zur Seite gelegt,wäre ja der Supergau wenn Apple keine iMacs liefern kann weil die Miner alle GPU's aufkaufen.

Brillus
2017-10-03, 20:40:54
AMD kündigt embbeded Polaris unter 40W an. Wird wohl ein P12 sein.
Und bevor hier das typische Kommentar kommt, das ist industrial Teil, das wird seine TDP nicht reissen.

Link: https://globenewswire.com/news-release/2017/10/03/1140060/0/en/New-AMD-Embedded-GPU-Delivers-Up-to-3X-Performance-Per-Watt-for-Low-Power-Embedded-Applications.html

BoMbY
2018-04-07, 09:08:56
Der Vollständigkeit halber: AMD Radeon: Polaris-Re-Refresh kommt angeblich als RX 500X (http://www.pcgameshardware.de/Polaris-Codename-265453/News/AMD-Radeon-Re-Refresh-RX-500X-1253781/)

Und aus "angeblich" würde ich "sicher" machen. Ich habe gerade folgende SKUs gesehen:


540X
550X
RX 540X
RX 550X
RX 560X
RX 570X
RX 580X

vinacis_vivids
2018-04-07, 09:24:52
Wäre geil wenn die RX580X mit 2560SP kommt. Bei gleichem Takt dann +11% rawpower ~ 6,8Tflops . Der GDDR5 bleibt wohl. Bei 1,5Ghz käme man auf 7,6Tflops.
Bleiben die Shader bei 2304SP, würde wiederum ein Taktplus kommen 1,34->1,45Ghz ~ 6,7Tflops. Die neue Revision macht hoffentlich 1,6Ghz~7,3Tflops.