PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 [47] 48 49 50 51

Ailuros
2016-12-07, 07:08:04
Polaris 12??? Watdattdenn?

Ehrlich keine Ahnung, aber NV ist auch noch den 14FF/GP108 schuldig. Koennte durchaus sein dass beide IHVs noch einen "mini-core" fuer ultra low end/notebooks auftischen.

Hübie
2016-12-07, 10:35:25
War es nicht so, dass die Reihenfolge der Entwicklung die Ziffer bestimmt und nicht die Größe oder Eigenschaft des Chips? :uponder:

Edit: Wünschenswert wäre jedenfalls eine P12 mit P10 Leistung bei <135 Watt und GDDR5X als RX 490.

Sunrise
2016-12-07, 11:32:23
War es nicht so, dass die Reihenfolge der Entwicklung die Ziffer bestimmt und nicht die Größe oder Eigenschaft des Chips? :uponder:
Richtig.

Edit: Wünschenswert wäre jedenfalls eine P12 mit P10 Leistung bei <135 Watt und GDDR5X als RX 490.
P12 mit GDDR5X würde nur Sinn ergeben, wenn er auch schneller als P10 ist, andernfalls hast du nur deine BOM verteuert.

Loeschzwerg
2016-12-07, 11:49:48
Wie ich schon schrieb wäre ein Oland Ersatz möglich.

Hübie
2016-12-07, 12:18:08
Richtig. P12 mit GDDR5X würde nur Sinn ergeben, wenn er auch schneller als P10 ist, andernfalls hast du nur deine BOM verteuert.

Gewagter Vergleich: 1070<->1080 unterscheiden sich in puncto Performance zum großen Teil über den Speicher.

Monsta
2016-12-07, 13:30:10
Gewagter Vergleich: 1070<->1080 unterscheiden sich in puncto Performance zum großen Teil über den Speicher.

1080 ist aber auch schneller als 1070. Da darf die auch was mehr kosten.

Aber eine eine gleich schnelle Karte die 20 Watt weniger verbraucht und teuerer ist, braucht ja wohl niemand.

iuno
2016-12-07, 13:35:26
XT2 hoert sich aber schon nach einer neuen Variante an. Das gab es zuletzt bei Tahiti mit der "GHz Edition" oder?
Wenn man neben GDDR5X noch Takt/Spannung etwas besser in den Griff bekommen wuerde koennte ich mir das schon vorstellen. Dann sollte man aber wohl keinen "kleinen" Vega Chip erwarten.

Agent117
2016-12-07, 13:54:44
XT2 hoert sich aber schon nach einer neuen Variante an. Das gab es zuletzt bei Tahiti mit der "GHz Edition" oder?
Wenn man neben GDDR5X noch Takt/Spannung etwas besser in den Griff bekommen wuerde koennte ich mir das schon vorstellen. Dann sollte man aber wohl keinen "kleinen" Vega Chip erwarten.

Richtig, wobei die XT2 kein Respin war sondern einfach höher getaktet mit höherer Spannung, wenn überhaupt sehr gob selektierte Chips.
Auffallend am neuen Namensschema ist auf jedenfall, dass explizit auf die Möglichkeit einer Revision innerhalb einer Generation hingewiesen wird, gekennzeichnet durch eine 5 statt 0 als letzte Ziffer.

Der kleinere Vega würde ja so im Bereich 7 bis 7,5TFlops landen um ausreichend vor P10 und V10 entfernt zu sein. Vlt kommt P10 XT2 ja auch einfach für die 500er Serie dann allerdings mit geringerem Takt und geringerer Spannung aber deutlich besserer Effizienz. Vega soll ja auch nochmal ein Stück effizienter werden. Sähe dann vlt so aus:

Vega 10XT: 12 TFlops @ 225W
Vega 10Pro: 10 TFlops @ 200W
Vega 11XT: 7,5 TFlops @ 150W
Vega 11Pro: 6,5 TFlops @ 135W
Polaris 10XT2: 5,25 TFlops @ 120W

P10XT2 wäre dann mit 8GT/s GDR5 nicht mehr so bandbreitenlimitiert, effizienter und böte mehr OC hätte aber auch weniger Leistung was aber nichts macht weil Vega11 dann das Segment bedient.

iuno
2016-12-07, 14:06:22
Vega 10XT: 12 TFlops @ 225W
Vega 10Pro: 10 TFlops @ 200W
Vega 11XT: 7,5 TFlops @ 150W
Vega 11Pro: 6,5 TFlops @ 135W
Polaris 10XT2: 5,25 TFlops @ 120W

P10XT2 wäre dann mit 8GT/s GDR5 nicht mehr so bandbreitenlimitiert, effizienter und böte mehr OC hätte aber auch weniger Leistung was aber nichts macht weil Vega11 dann das Segment bedient.
Genau das ergibt fuer mich keinen Sinn. Man muesste schon schneller sein als die 480. Man legt das Ding doch nicht nur wegen ein paar Watt neu auf. Man sollte die 1060 klar schlagen, auch in DX11 und bei weiterhin 150 W mehr Takt haben. Insofern passen auch die 5,25 TF ueberhaupt nicht. Die 480 hat schon 6,48, eine 485 sollte den 7 TF schon nahe kommen, und da soll halt V11 grob irgendwann hin.

tm0975
2016-12-07, 14:41:44
Genau das ergibt fuer mich keinen Sinn. Man muesste schon schneller sein als die 480. Man legt das Ding doch nicht nur wegen ein paar Watt neu auf. Man sollte die 1060 klar schlagen..

wenn der chip aber als 560/570 kommt, dann reicht es, wenn er in etwa die leistung der 480 oder etwass darunter hat. wenn der chip dann 30 watt weniger verbraucht, würde sich das ganze evtl fürs desktop replacement lohnen und die anwendungsmöglichkeiten erhöhen.

Agent117
2016-12-07, 14:49:18
Genau das ergibt fuer mich keinen Sinn. Man muesste schon schneller sein als die 480. Man legt das Ding doch nicht nur wegen ein paar Watt neu auf. Man sollte die 1060 klar schlagen, auch in DX11 und bei weiterhin 150 W mehr Takt haben. Insofern passen auch die 5,25 TF ueberhaupt nicht. Die 480 hat schon 6,48, eine 485 sollte den 7 TF schon nahe kommen, und da soll halt V11 grob irgendwann hin.


Dass er neu aufgelegt wird meinte ich aber auch nicht, das ergäbe in meienr Auflistung keinen Sinn wenn V11<V10 ist, das sehe ich ähnlich.
Ich dachte eher an sowas wie die WX7100 (wurde vor klurzem bei Toms Hardware getestet) und Prozessverbessrungen. Dann auf ca. 1,15Ghz@120W.
Mit der GTX1060 legt sich dann Vega11 an; der dürfte diese auch dann um 15-20% schlagen.

Eine leistungsfähigere XT2 würde ja im Umkehrschluss bedeuten, dass Vega11 wiederum leistungsfähiger als Vega10 ist.
Also Vega11 dann 6144SP@1,40-1,50Ghz = 17 bis 18,5TFLops FP32. Das wird ein riesen Vieh.

HOT
2016-12-07, 16:48:23
P12 ist sicherlich ein 48CU-Polaris mit 384Bit und 225W - der kommt dann auch bei der 1070 raus, das passt schon. Da ist dann doch unser RX490 - das passt dann auch alles gut zusammen. V10 dann im Mai (frühestens) und alles Weitere wird dann zu unsicher.
Der P10XT2 könnte nichts mit DualGPU zu tun haben, sondern einfach eine neue Version vom P10 sein.
RX465 -> P11 XT
RX475 -> P10 Pro
RX485 -> P10 XT2
RX490 -> P12 Pro
RX495 -> P12 XT

sowas in der Art. Kleinere Chips als P10 Pro lohnen sich mAn einfach zuwenig, Intel ist da einfach zu gut mittlerweile und ein DualP10 ist total unsinnig. Das wär mit HBM viel schlauer.

iuno
2016-12-07, 17:05:51
Ja klar, passt alles super. Die PS4 pro APU bekommt Vega IP, die spaet eingeschobene dGPU aber nicht. Raja hat mal 2 Polaris Chips angesagt, mehr nicht. Und dann noch ein ueberarbeiteter P10XT2 dazu. Wo soll das Sinn ergeben?

Loeschzwerg
2016-12-07, 17:06:03
Es bleibt aber nüchtern betrachtet nur Dual GPU (Edit2: RX490), denn Koduri hat doch selbst gesagt dass für 2016 nur zwei 16nm GPUs geplant gewesen sind. So ohne weiteres stampft man da keine dicke GPU aus dem Boden.

Am ehesten ist es etwas kleines (Edit2: P12), da stimmen dann auch die Abnahmemengen (OEM).

Edit: iuno aka Ninja ^^

Nakai
2016-12-07, 17:30:21
P12 - sub 100mm²
P10 XT2 - neue Revision mit (möglich) GDDR5X und etwas höheren Taktraten

Hübie
2016-12-07, 19:37:17
1080 ist aber auch schneller als 1070. Da darf die auch was mehr kosten.
Aber eine eine gleich schnelle Karte die 20 Watt weniger verbraucht und teuerer ist, braucht ja wohl niemand.

Hä? Ich sagte doch dass man P10 mit GDDR5X auch oberhalb der aktuellen P10-Riege sehen dürfte, da die 1080 ebenfalls ordentlich vom GDDR5X-Speicher profitiert; jedoch nicht so sehr von den ALUs. :confused:

Aktuell sieht es so aus, als habe man sich wieder mit dem Launch von P10 selbst manipuliert, da immer mehr Karten gemeldet werden, die ein anderes Bild zeichnen, als das was man zu Release gesehen hatte. Würde also ebenfalls ein konsistentes Bild abgeben, wenn man nun unter 140 Watt bleibt und dank GDDR5X noch einmal 10-15% gewinnen könnte (optimistische Prognose).

@HOT: Glaubst du eigentlich immer was du schreibt? :confused:

Loeschzwerg
2016-12-07, 19:43:22
Meine WX4100 ist heute angekommen :)

https://abload.de/thumb/imgp579443uxx.jpg (http://abload.de/image.php?img=imgp579443uxx.jpg) https://abload.de/thumb/imgp5796e1uzy.jpg (http://abload.de/image.php?img=imgp5796e1uzy.jpg) https://abload.de/thumb/imgp5798t4urt.jpg (http://abload.de/image.php?img=imgp5798t4urt.jpg) https://abload.de/thumb/imgp5799olus2.jpg (http://abload.de/image.php?img=imgp5799olus2.jpg) https://abload.de/thumb/imgp5800s8uue.jpg (http://abload.de/image.php?img=imgp5800s8uue.jpg) https://abload.de/thumb/imgp5801d7ua7.jpg (http://abload.de/image.php?img=imgp5801d7ua7.jpg)

https://abload.de/thumb/imgp5803g5uaj.jpg (http://abload.de/image.php?img=imgp5803g5uaj.jpg) https://abload.de/thumb/imgp5804iqu67.jpg (http://abload.de/image.php?img=imgp5804iqu67.jpg) https://abload.de/thumb/imgp5807cbusr.jpg (http://abload.de/image.php?img=imgp5807cbusr.jpg) https://abload.de/thumb/imgp5808u2umq.jpg (http://abload.de/image.php?img=imgp5808u2umq.jpg) https://abload.de/thumb/imgp5809ifu52.jpg (http://abload.de/image.php?img=imgp5809ifu52.jpg) https://abload.de/thumb/imgp5810l6u4q.jpg (http://abload.de/image.php?img=imgp5810l6u4q.jpg)

Das Package ist wirklich extrem niedrig.

horn 12
2016-12-07, 19:44:24
P10 XT2 ist wohl gedacht um Fiji, im nun wohl zu Ende gehendem Abverkauf komplett zu ersetzen
Hoffe doch sehr, dass der Crimson Nachfolger die Fiji Fury, Nano Serie nicht komplett Außen vor lässt, dies wäre wehement ein schlimmes Armutszeugnis seitens AMD!

Loeschzwerg
2016-12-07, 19:51:32
Inwiefern? Es wird doch z.B. WattMan für Fiji geben ^^ Auf Leistungssteigerungen brauchst du nicht großartig hoffen. Fiji ist komplexes, unausgewogenes Alteisen, damit müssen wir uns abfinden.

Palpatin
2016-12-08, 11:59:34
Hä? Ich sagte doch dass man P10 mit GDDR5X auch oberhalb der aktuellen P10-Riege sehen dürfte, da die 1080 ebenfalls ordentlich vom GDDR5X-Speicher profitiert; jedoch nicht so sehr von den ALUs. :confused:

30% mehr Shader und 25% mehr Bandbreite, NV hat das einfach sehr gut abgestimmt. Beim OC Verhalten der 1070 merkt aber das z.B. 10% mehr Chiptakt in der Regel immer noch mehr bringt als 10% Speichertakt, also müsste die 1080 insgesamt immer noch etwas mehr von den ALUs als von GDDRX5 profitieren.

tm0975
2016-12-11, 22:01:14
die 460 läßt sich offensichtlich freischalten zum vollwertigen p11.

http://wccftech.com/amd-radeon-rx-460-polaris-11-unlock/

Loeschzwerg
2016-12-11, 22:45:37
Hatten wir hier schon: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11233697#post11233697

Unicous
2016-12-19, 21:53:39
Bitte den Titel um Polaris 12 erweitern.;)

http://phoronix.com/scan.php?page=news_item&px=AMDGPU-Polaris-12

Patches were published today for supporting "Polaris 12" graphics cards within the AMDGPU DRM kernel driver on Linux.

The only new real information are the PCI IDs with there being six listed for Polaris 12: 0x6980, 0x6981, 0x6985, 0x6986, 0x6987, and 0x699F.

joni200
2016-12-19, 23:14:53
Also aus den PCI-IDs werd ich jetzt nicht wirklich schlau. Die niedrigste Polaris12 ID (0x6980) ist nur 71dec von der höchsten Tonga ID (0x6939) entfernt, jedoch 385dec von der höchsten Polaris10/11 ID.
Wie bringt man jetzt Tonga und Polaris12 in eine stimmige Spekulation unter :P

Hübie
2016-12-20, 00:04:33
Ich kann mir gut vorstellen, dass P12 eine Version von P10 ist, die nun GDDR5X unterstützt, erweiterte Energiesparfunktionen besitzt und im Prozess optimiert ist. Anders passt ja irgendwie nix ins Bild wenn Vega <-> GP104 die Kontrahenten werden, die oben mitmischen. P10 <-> GP106, V10 <-> GP104 und P12 hätte somit keinen Counterpart. Man will ja nicht alle 5% einen neuen Chip reinstopfen. Oder übersehe ich etwas???

Nakai
2016-12-20, 00:16:47
Ich kann mir gut vorstellen, dass P12 eine Version von P10 ist, die nun GDDR5X unterstützt, erweiterte Energiesparfunktionen besitzt und im Prozess optimiert ist. Anders passt ja irgendwie nix ins Bild wenn Vega <-> GP104 die Kontrahenten werden, die oben mitmischen. P10 <-> GP106, V10 <-> GP104 und P12 hätte somit keinen Counterpart. Man will ja nicht alle 5% einen neuen Chip reinstopfen. Oder übersehe ich etwas???

Mhh. P11 hat doch einige andere Powerfeatures als P10, oder?

Im Treiber hat P12 mehr Ähnlichkeit mit P11 als mit P10. Viele If-Elses unterscheiden nicht zwischen P11 und P12.

Ich werde die nächsten Tage etwas mehr durchwühlen, aber das "neue" Repo ist vom Aufbau anders.

https://cgit.freedesktop.org/~agd5f/linux/log/?h=amd-staging-4.7

iuno
2016-12-20, 00:17:40
Koennte mir auch vorstellen, man bekommt fp64 und ersetzt hawaii, da v10 nur fuer fp16/32 taugt. Andererseits ist auch der Speicherausbau durch das 512b SI ein Vorteil von Hawaii.
Bin gespannt, was das wird.

Hübie
2016-12-20, 00:33:17
Mhh. P11 hat doch einige andere Powerfeatures als P10, oder?

Im Treiber hat P12 mehr Ähnlichkeit mit P11 als mit P10. Viele If-Elses unterscheiden nicht zwischen P11 und P12.

Ich werde die nächsten Tage etwas mehr durchwühlen, aber das "neue" Repo ist vom Aufbau anders.

https://cgit.freedesktop.org/~agd5f/linux/log/?h=amd-staging-4.7

Das stützt ja meine These bzgl. P10 -> P12 und den erweiterten Energiesparmodi.

iuno
2016-12-20, 01:02:46
sieht jedenfalls danach aus, als waere dynamisches powergating pro cu dabei. Waere sonst allerdings auch merkwuerdig gewesen.

Kann sich ansonsten jemand vorstellen, dass das noch zw. p11 & p10 passen soll oder gar unter p11?

Unicous
2016-12-20, 01:05:23
Könnte auch einfach ein kleiner Mobile-Chip unter P11 sein. Nichts genaues weiß man nicht. Die vielen IDs könnten jedenfalls auf mehrere OEM-designs hinweisen.

Dino-Fossil
2016-12-20, 01:18:57
Ich tippe auch eher auf einen kleinen Chip, evtl. in einer mobile und einer Desktop-Ausführung.
Könnte dann für das Billigsegment gedacht sein, da ist wohl irgendwann mal wieder was neues nötig um Oland zu beerben.

Nicht zu vergessen, dass AMD auch billige aber halbwegs aktuelle dGPUs braucht um es OEMs zu ermöglichen, künftige APUs in sinnfreien Konfigurationen mit dGPUs auszustatten.

mczak
2016-12-20, 04:29:33
Polaris 12 ist tatsächlich etwas mysteriös. Es scheint im Treiber gar keinen Unterschied zu geben zwischen Polaris 11 und 12 (auch die Unterschiede zu Polaris 10 sind im Treiber eher minim). Leider sieht man ja seit einiger Zeit CU count etc. nicht mehr im Treiber (wird alles ausgelesen von firmware oder hw). Die IP-Versionen der Blöcke sind alles dieselben wie bei P11 (und P10). Selbst die "golden register settings" sind dieselben wie bei P11!
Ein grosser Chip wird es aber wohl nicht sein - hat dieselbe Anzahl crtcs wie P11 (also 5, die grösseren Chips haben normalerweise 6).

Wenn da nicht noch ein paar Placeholder-Werte im Treiber sind deutet eigentlich alles darauf hin dass der Chip identisch zu P11 ist... Naja könnte natürlich auch derselbe Chip aus einer anderen Fab sein :-).

Pick
2016-12-20, 08:46:38
m_settings.isFiji = ASICREV_IS_FIJI_P(uChipRevision);
m_settings.isPolaris10 = ASICREV_IS_POLARIS10_P(uChipRevision);
m_settings.isPolaris11 = ASICREV_IS_POLARIS11_M(uChipRevision);
+ m_settings.isPolaris12 = ASICREV_IS_POLARIS12_V(uChipRevision);

P - Performance, M - Middle, V - Value

Pirx
2016-12-20, 09:11:26
wohl low-end https://gfxbench.com/device.jsp?benchmark=gfx40&os=Windows&api=gl&cpu-arch=x86&hwtype=dGPU&hwname=AMD%206980%3A00&did=37626662&D=AMD%206980%3A00



...
Nicht zu vergessen, dass AMD auch billige aber halbwegs aktuelle dGPUs braucht um es OEMs zu ermöglichen, künftige APUs in sinnfreien Konfigurationen mit dGPUs auszustatten.
LOL stimmt;D

Loeschzwerg
2016-12-20, 10:09:52
Scheinbar werden meine Beiträge (Eins (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11230330#post11230330), Zwei (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11230504#post11230504)) total ignoriert :freak:

Locuza
2016-12-20, 10:13:33
Scheinbar wurde mein Beitrag irgendwo auf Seite 200-400 auch total ignoriert, wo ich persönlich auch auf einen low-end-Ableger getippt habe, ähnlich wie Oland (GCN Gen 1) und Iceland (GCN Gen 3).
P12 scheint also wirklich ein Update in dem Segment zu sein.

Dino-Fossil
2016-12-20, 10:17:26
Scheinbar werden meine Beiträge (Eins (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11230330#post11230330), Zwei (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11230504#post11230504)) total ignoriert :freak:

Meinst du es könnte ein Oland-Ersatz sein? :freak:

Loeschzwerg
2016-12-20, 10:50:52
Neue Infos besagen P12 wird das komplette Vega Lineup ersetzen. Dicker Interposer, viele P12 + HBM3... AMD hat die NCU Entwicklung als Fehlschlag bezeichnet. Hat mir mein Scheißhausnachbar geflüstert :whisper::crazy: Quasi eine Voodoo 5 6000 Vorbote von der RTG/AMD ==> Intel kauft RTG auf

Also ja :)

deekey777
2016-12-20, 11:00:08
wohl low-end https://gfxbench.com/device.jsp?benchmark=gfx40&os=Windows&api=gl&cpu-arch=x86&hwtype=dGPU&hwname=AMD%206980%3A00&did=37626662&D=AMD%206980%3A00

Das ist ja ein Rechenmonster!

Nebenbei: https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=33010277&os1=Windows&api1=gl&hwtype1=iGPU&hwname1=AMD+Radeon+R7+Graphics&D2=AMD+6980%3A00

Im Ernst:
Die BR-APUs können nur etwas HEVC-Dekodierung und kein Encoding, dies könnte so eine Lowend-Grafikkarte sinnvoll sein. Vielleicht kommt irgendwann auch Unterstützung für Netflix, so dass der Nutzer nicht nur UHD bekommt, sondern auch HDR10 (BR kann nur 8 bit).

Edit:
So schlecht ist die Leistung gar nicht:
https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=37626662&os1=Windows&api1=gl&hwtype1=dGPU&hwname1=AMD+6980%3A00&did2=7893&os2=Windows&api2=gl&hwtype2=dGPU&hwname2=AMD+Radeon+R7+260X

Hübie
2016-12-20, 11:11:41
Hm, scheint wohl wirklich ne böse Schrottgurke zu sein. Schade dass so etwas immer noch gekauft wird. :freak:

deekey777
2016-12-20, 11:13:09
Hm, scheint wohl wirklich ne böse Schrottgurke zu sein. Schade dass so etwas immer noch gekauft wird. :freak:

Klar, für HTPCs, Notebooks usw. braucht man mindestens eine Titan X.

Hübie
2016-12-20, 11:17:14
Hör doch auf zu tr0llen man. So einen Schrott schränkt dich doch immer irgendwo ein. Es gibt ja was zwischen diesen Müllhaufen und TXP. Differenzierung ist nicht schwer und auch nicht zuviel verlangt.

Dino-Fossil
2016-12-20, 11:24:26
So einen Schrott schränkt dich doch immer irgendwo ein. Es gibt ja was zwischen diesen Müllhaufen und TXP.

Sicher gibt's was dazwischen, aber es gibt auch jede Menge Leute, die so ein Billigchip eben nicht einschränkt. Dank hoffentlich aktuellen Multimedia-Fähigkeiten in Konfigurationen für Surf- und Bürorechner manchmal so falsch nicht. Zumal für Einsteiger-Laptops.
Wobei manchmal eben auch unsinnig konfiguriert wird.

Loeschzwerg
2016-12-20, 11:24:44
Die genauen Stückzahlen an verkauften Fertig-PCs kenne ich jetzt nicht, aber wir hatten zumindest massenweise R7 250 auf Lager. Bedarf (wo auch immer) ist vorhanden.

deekey777
2016-12-20, 11:25:44
Hör doch auf zu tr0llen man. So einen Schrott schränkt dich doch immer irgendwo ein. Es gibt ja was zwischen diesen Müllhaufen und TXP. Differenzierung ist nicht schwer und auch nicht zuviel verlangt.
Ich glaub, du bist im falschen Film.

Viele OEMs stecken eine Lowend-GRafikkarte in ihre Fertig-PCs. Viele Notebooks haben eine dedizierte Lowend-Grafikkarte, damit die APU ihr TDP-Limit ausschöpfen kann. Mit so einer modernen P12 kann man jeden älteren HTPC schnell auf den neuesten Stand bringen.

Wer trollt hier?

Die genauen Stückzahlen an verkauften Fertig-PCs kenne ich jetzt nicht, aber wir hatten zumindest massenweise R7 250 auf Lager. Bedarf (wo auch immer) ist vorhanden.

Eben. Unser früherer Büro-PC hatte eine R5 240 (oder ähnlich), obwohl ein i5-44irgendwas drin war.

Aber das sind die coolen Kids von heute, sie wissen alles besser.

Hübie
2016-12-20, 11:32:08
Noch mal: Wenn Menschen so einen überflüssigen Schrott nicht kaufen würden, dann würden die OEMs so etwas nicht mehr verbauen. Was kann das denn schon mehr als eine iGPU? APUs sind ja nun auch nicht das gelbe vom Ei, wenn es um mobilen Einsatz geht. Da greift man so oder so besser (noch?) zu Intel. Als dedizierte GPU braucht kein Mensch solche Müllhaufen. Die Leute kaufen so etwas weil die einfach keine Ahnung oder einfach kein Bock haben, sich damit auseinander zu setzen.

robbitop
2016-12-20, 11:35:53
Klar, für HTPCs, Notebooks usw. braucht man mindestens eine Titan X.

Sind dafür nicht mittlerweile IGPs gut genug? Ich hätte angenommen, dass IGPs low cost GPUs mittlerweile obsolet gemacht hätten.

HOT
2016-12-20, 11:37:44
Radeon Pro 450 gibts doch schon, was würde denn da ein Chip darunter noch fürn Sinn machen? Das ist doch Unsinn. P12 ist entweder zwischen P11 und P10XT2 oder über P10XT2.
für unter P11 hätte man noch Bonaire und Oland, die sind eh billiger, weil 28nm.

T86
2016-12-20, 11:43:58
Sind dafür nicht mittlerweile IGPs gut genug? Ich hätte angenommen, dass IGPs low cost GPUs mittlerweile obsolet gemacht hätten.

Nicht jede CPU hat ne igp

Aber ne low End Karte mit ner CPU kombinieren
Die ne igp hat wie das bei vielen oem Rechnern
Leider der Fall ist, ist auch in meinen Augen absoluter
Quatsch

BoMbY
2016-12-20, 11:46:13
Radeon Pro 450 gibts doch schon, was würde denn da ein Chip darunter noch fürn Sinn machen? Das ist doch Unsinn. P12 ist entweder zwischen P11 und P10XT2 oder über P10XT2.
für unter P11 hätte man noch Bonaire und Oland, die sind eh billiger, weil 28nm.

Nein, ist nicht zwangsläufig billiger. Der neue Chip hat vermutlich <= 50mm². Davon bekommst Du über 1000 Stück auf einen Wafer. Abgesehen davon ist die neue UVD-Version drin, und das neueste GCN, man braucht also keinen (großartig) anderen Treiberpfad dafür pflegen.

deekey777
2016-12-20, 11:48:45
Sind dafür nicht mittlerweile IGPs gut genug? Ich hätte angenommen, dass IGPs low cost GPUs mittlerweile obsolet gemacht hätten.

Ich habe doch extra ein Beispiel genannt:
Die BR-APU kann nur 8-bit HEVC in Hardware dekodieren (und laut Anandtech nur 5.2). Oder der HTPC ist etwas älter, mit so einer Lowend-Grafikkarte kann man einen HTPC schnell auf den neuesten Stand bringen. Auch kann man zB schlecht von einem Haswell auf Kabylake wechseln.


Es lohnt sich wirklich über den eigen Schatten springen zu können. Nvidia hat im Winter auch neue Lowend-Grafikkarten veröffentlicht, auch wenn Kepler basiert: http://www.anandtech.com/show/9993/nvidias-partners-rollout-geforce-gt-710-to-fight-integrated-graphics?_ga=1.133043211.443467960.1378894044

robbitop
2016-12-20, 12:02:40
Daran (dass neue low end gpus nur auf 2 Generationen! alter march basieren) sieht man aber dass der relevante Markt für so ein Produkt durch IGPs massiv geschrumpft sein muss.
Der Zweck ist mir schon klar - aber die Stückzahl dieses Marketes ist wohl zur Nische geworden.

Loeschzwerg
2016-12-20, 12:04:16
Für OEM gibt es aktuell 430 / 435 (Oland; GCN1) und 450 (Cap Verde; GCN2 1). Beide kann man mit einem Polaris 12 in der Radeon 500 Serie ersetzen. So wünschen es sich die OEMs ja auch, jedes Jahr Rebrands und ab und an etwas neues.

Passt auch mit der Aussage von Koduri "nur zwei GPUs für 2016" o.ä..

Edit: Zu der Nische passen auch die Sockel 1151 Xeon ohne IGP

deekey777
2016-12-20, 12:08:04
Für OEM gibt es aktuell 430 / 435 (Oland; GCN1) und 450 (Cap Verde; GCN2). Beide kann man mit einem Polaris 12 in der Radeon 500 Serie ersetzen. So wünschen es sich die OEMs ja auch, jedes Jahr Rebrands und ab und an etwas neues.

Passt auch mit der Aussage von Koduri "nur zwei GPUs für 2016" o.ä..

Cape Verde ist noch GCN Gen. 1.

Palpatin
2016-12-20, 12:10:38
Was kann das denn schon mehr als eine iGPU?
z.B. HDMI 2.0.

victore99
2016-12-20, 12:10:55
@Hübie: ich nenne dir mal ein Beispiel.
Mein Vater sitzt auf einem Core2 Duo, mit dem er Office macht, gelegentlich die Steuererklärung und Youtubes. Manchmal ein wenig Trackmania.
Unter Windows 7 wird das mit der iGPU etwas eng, TM kann man vergessen. Für den wäre sowas genau das Richtige: Sparsam, trotzdem relativ schnell, aber dennoch nicht zu teuer, unterstützt aktuelle Displays.. Wo ist da das Problem?

Oder: versuchen wir mal, einen günstigen PC zu baun. FX 4100 + P12 oder APU, was ist am Ende bei ähnlichem Preis besser?

Dino-Fossil
2016-12-20, 12:16:03
Daran (dass neue low end gpus nur auf 2 Generationen! alter march basieren) sieht man aber dass der relevante Markt für so ein Produkt durch IGPs massiv geschrumpft sein muss.
Der Zweck ist mir schon klar - aber die Stückzahl dieses Marketes ist wohl zur Nische geworden.

Sicherlich. Die iGPUs haben dem Markt einiges an Wasser abgegraben.
Ich schätze ein neuer Chip zeigt aber auch, dass es sich trotzdem lohnen kann alle paar Jahre mal ein neues Paket zu schnüren um Fertigungsvorteile und verbesserte Ausstattung mitzunehmen.

deekey777
2016-12-20, 12:42:15
Daran (dass neue low end gpus nur auf 2 Generationen! alter march basieren) sieht man aber dass der relevante Markt für so ein Produkt durch IGPs massiv geschrumpft sein muss.
Der Zweck ist mir schon klar - aber die Stückzahl dieses Marketes ist wohl zur Nische geworden.

In den guten alten Zeite war eine Lowendgrafikkarte nur der bessere Bildausgang. Die IGPs (vor nicht allzu langer Zeit auch in den Mainboardchipsätzen) haben hier aufgeholt, seit Intel vernünftige Grafikeinheiten mit den CPUs liefert (AMD sowieso), sind Lowend-Grafikkarten eigentlich obsolet geworden. Eine HD 520 liefert alles, was man braucht - außer Zocken. Trotzdem verbauen OEMs gern solche in ihre Fertig-PCs. Ob das eine Frage der besseren Treiber ist, bezweifle ich.

Für den Endverbraucher lohnen sich solche Grafikkarten, wenn man ältere Rechner für Videowiedergabe fit machen will.

iuno
2016-12-20, 12:45:58
Schade dass so etwas immer noch geverkauft wird. :freak:
ftfy ;p
Diejenigen, die den OEM Krempel kaufen haben keine Ahnung davon, was koennen die schon dafuer?
Viele OEMs stecken eine Lowend-GRafikkarte in ihre Fertig-PCs. Viele Notebooks haben eine dedizierte Lowend-GrafikkarteNatuerlich machen sie das, aber in den wenigsten Faellen ergibt das ueberhaupt Sinn.

damit die APU ihr TDP-Limit ausschöpfen kann.
Ja klar :rolleyes: Als ob da solche Gedanken dahinter stecken. Da geht es nur darum, es aufs Datenblatt schreiben und vermeintlich hoehere Preise verlangen zu koennen. Die entsprechenden C/APUs haben cTDPs, wuerden die OEMs statt 12 W halt mal 35 W einstellen und auf die dGPU mit 30 Watt + extra (DDR3 :ulol:) Speicher, + extra Board, Wandler, etc. verzichten gaebe es da doch auch kein Problem.

Radeon Pro 450 gibts doch schon, was würde denn da ein Chip darunter noch fürn Sinn machen? Das ist doch Unsinn. P12 ist entweder zwischen P11 und P10XT2 oder über P10XT2.
für unter P11 hätte man noch Bonaire und Oland, die sind eh billiger, weil 28nm.
Oland hat 6 CUs, das ist schon nochmal etwas ganz anderes als die 14/16 von Bonaire/P11. P12 wird womoeglich vielleicht sogar nur 4 haben, als 1:1 Ersatz mit hoeherem Takt. Das Ding wird winzig und spottbillig. Es ist halt eigentlich der Grafikpart einer APU nur eben als dGPU. Bonaire ist auch schon fast doppelt so gross wie Oland. Langfristig wird es sich schon lohnen, sonst wuerden sie das Ding nicht bauen.

Sinn macht das Ding aktuell imho vor allem, weil AMD durch die vielen Baustellen in der Situation ist, nur veraltetes Zeug (CPU+Multimedia) als APU ausliefern zu koennen. Und weil man als CPU Hersteller aktuell eh quasi nicht existent ist. So bekommt man wenigstens irgendwas in OEM Produkte. Auch wenn es Schwachsinn ist, kauft die Masse wohl eh ein Geraet mit Intel CPU + AMD GPU, statt nur eine Intel CPU mit IGP.

deekey777
2016-12-20, 13:03:00
P12 scheint in GFXBench die gleiche Leistung zu bieten wie eine R7 260X.

Pirx
2016-12-20, 13:05:05
Absolut, das wird vllt die letzte AMD-Grafikkarte dieser Art. Sie wird billig zu produzeren sein, das jetzt aktuellste Featureset haben und das ganze bisherige Lowend-alt-Geraffel ablösen. Macht Sinn für mich. Ob die Karten DDR4 als RAM haben werden? DDR3 64 bit wäre ein bisschen arg wenig.

Screemer
2016-12-20, 13:05:17
bonair leistung für oland preis und aktuellem uvd, hdmi2.0a, dp 1.3, etc. ist doch ein nettes angebot für oems. wäre für mich auch was im htpc.

da kommt nvidias 1050 nonTi preislich sicher unter druck. olands mit 2gb kann man für ~50 (r7 240) - 70€ (r7 250) kaufen. letzteren preispunkt halte ich für durchaus realistisch, denn die 460 startet im gebiet von 105-110€.

HOT
2016-12-20, 14:57:12
Nein, ist nicht zwangsläufig billiger. Der neue Chip hat vermutlich <= 50mm². Davon bekommst Du über 1000 Stück auf einen Wafer. Abgesehen davon ist die neue UVD-Version drin, und das neueste GCN, man braucht also keinen (großartig) anderen Treiberpfad dafür pflegen.
Hä? Wann gabs denn mal einen kleinen Grafikchip für Desktop-PCs? Das gabs nicht mal vor der APU-Ära, jetzt erst recht nicht mehr - So ein Unsinn... P11 ist schon recht klein, schon auf PCIe8x beschränkt, Oland ist noch kleiner in 28nm, das reicht völlig als super-lowend. Da bedarf es einfach keinen extre Chip in dem Markt, das ist völlig idiotisch. Und dann steckt auch noch in 99,5% aller kleineren OEM-Rechner/Notebooks eh ne APU, das ist völlig behämmert, in dem Bereich noch nen extra Chip auszulegen. P11 ist unterste Kante für AMD in der FinFET-Generation. Kleinere Chips werden einfach mit Salvage-Ware erschlagen, dafür gibts den Radeon Pro 45x und 46x.

ndrs
2016-12-20, 15:03:27
Hä? Wann gabs denn mal einen kleinen Grafikchip für Desktop-PCs?
Zwei Sekunden googeln: https://de.wikipedia.org/wiki/AMD-Radeon-HD-8000-Serie
Oland: 90mm^2
Cedar: 63mm^2 (HD5450)

drSeehas
2016-12-20, 15:05:04
... APUs sind ja nun auch nicht das gelbe vom Ei, wenn es um mobilen Einsatz geht. Da greift man so oder so besser (noch?) zu Intel. ...
Die meisten mobilen Intels sind auch APUs. :-0

Übrigens: Willkommen auf meiner Ignorierliste.

Screemer
2016-12-20, 15:06:05
@hot: cedar und caicos waren mit 59mm² und 67mm² noch kleiner als oland. das waren großteils reine OEM-Chips, die man im Retailmarkt kaum (5/6350 und 5/6450) zu gesicht bekommen hat. ich halte einen oland nachfolger für durchaus sinnvoll und eine rx 450 für durchaus attraktiv.

HOT
2016-12-20, 15:07:36
Zwei Sekunden googeln: https://de.wikipedia.org/wiki/AMD-Radeon-HD-8000-Serie
Oland: 90mm^2
Cedar: 63mm^2 (HD5450)
Ist das echt dein Ernst? Cedar war pre-APU und Oland ist selbst 90mm² und markierte damit die unterste Kante für die 28nm-Generation. P11 ist 120mm² und bestreitet damit eben unterste Kante der 14nm-Generation. Kein Wunder, die APUs sind stärker und besser geworden im Verhältnis.
@hot: cedar und caicos waren mit 59mm² und 67mm² noch kleiner als oland. das waren reine OEM-Chips, die man im Retailmarkt nie zu gesicht bekommen hat. ich halte einen oland nachfolger für durchaus sinnvoll und eine rx 450 für durchaus attraktiv.
Da gab es noch einen Markt dafür, heute aber nicht mehr - nur noch Nische und dafür hat man salvage-Ware. Wenn du kleine Grafikchips verkaufen willst musst über dem GT2 ansetzen, alles andere ist völlig sinnlos.
Dass NV noch Geforce 730m verkauft liegt an der Marke Geforce, ansonsten hätte niemand mehr sowas zusätzlich zur Intel-APU verbaut. Das ist für AMD aber keine Option. Und der hatte auch 90mm².

drSeehas
2016-12-20, 15:12:09
... für unter P11 hätte man noch Bonaire und Oland, die sind eh billiger, weil 28nm.
Soweit ich weiß, besitzt Oland aber keine VCE.

Hübie
2016-12-20, 15:12:52
Die meisten mobilen Intels sind auch APUs. :-0

Nur damit so ein Unsinn keiner nachplappert: APU ist AMDs Begriff für deren Kombination aus iGPU und CPU. Intel verwendet diesen Begriff niemals und afaik können die auch nicht die gleichen HSA-konformen Funktionen wie AMDs Varianten (pro Generation betrachtet jedenfalls nicht), was ein integraler Bestandteil dieses Begriffes ist.

Und es macht mich echt fertig bei jemanden mit einem Beitrag auf der Ignorierliste zu sein. :facepalm:

ndrs
2016-12-20, 15:13:10
Ist das echt dein Ernst? Cedar war pre-APU
Vergessen was du selbst geschrieben hast?
Das gabs nicht mal vor der APU-Ära
Seit APUs Displayausgänge haben gibt es auch noch zusätzliche kleinere GPUs (Ich glaube Iceland war so einer, bin aber nicht sicher) Gut, nix für Desktopkarten aber keineswegs unsinnig.

Screemer
2016-12-20, 15:17:58
Da gab es noch einen Markt dafür, heute aber nicht mehr - nur noch Nische und dafür hat man salvage-Ware. Wenn du kleine Grafikchips verkaufen willst musst über dem GT2 ansetzen, alles andere ist völlig sinnlos.

ich wäre definitiv ein käufer. als ersatz für altgeräte ist sowas durchaus sinnvoll und für oems auch, denn die verlangen jährlich nach neuen karten. mit reinem rebranding ist halt auf dauer auch nix gewonnen. oland ist gcn1 und hat nen uvd auf tahiti niveau. da kann man sich keine markigen werbeclaims wie 4k und hdmi 2 auf die kartons kleben.

Dino-Fossil
2016-12-20, 15:24:57
Ist das echt dein Ernst? Cedar war pre-APU und Oland ist selbst 90mm² und markierte damit die unterste Kante für die 28nm-Generation. P11 ist 120mm² und bestreitet damit eben unterste Kante der 14nm-Generation. Kein Wunder, die APUs sind stärker und besser geworden im Verhältnis.

APUs sind aber nach wie vor stark bandbreitenlimitiert. Wenn P12 in der Leistung an z.B. Bonaire herankommt, wäre er in der maximalen Ausbaustufe immer noch spürbar besser als eigentlich alle aktuellen APUs.

Oder vielleicht will AMD damit auch weiterhin die Möglichkeit für dual graphics (APU+dGPU) pflegen, auch dafür wäre eine GPU mit ähnlichem Performance und Featurelevel wie in der APU verbaut nützlich.

drSeehas
2016-12-20, 15:36:56
Hä? Wann gabs denn mal einen kleinen Grafikchip für Desktop-PCs? Das gabs nicht mal vor der APU-Ära, jetzt erst recht nicht mehr - So ein Unsinn...
Der Unsinn kommt von dir.
So einen kleinen Grafikchip für Desktop-PCs gab es schon immer und gibt es immer noch: R5 230
https://www.amd.com/de-de/products/graphics/desktop/R5

BoMbY
2016-12-20, 16:19:19
Abgesehen davon wäre ein sehr kleiner Polaris 12 auch für Zen-basierte OEM-Systeme interessant, solange es noch keine Zen-basierte APU gibt, ebenso für erste Zen-basierte Notebooks ohne APU.

Complicated
2016-12-20, 19:57:38
Sind dafür nicht mittlerweile IGPs gut genug? Ich hätte angenommen, dass IGPs low cost GPUs mittlerweile obsolet gemacht hätten.
war schneller
Abgesehen davon wäre ein sehr kleiner Polaris 12 auch für Zen-basierte OEM-Systeme interessant, solange es noch keine Zen-basierte APU gibt, ebenso für erste Zen-basierte Notebooks ohne APU.So sieht es aus. AMD wäre sehr nachlässig wenn sie die CPU-only Systeme der RyZen Serie nicht mit Lowend Lösungen bedienen würden. Wenn jemand eine 8/16 K/T CPU kauft dann gibt es einen großen Markt der keine Spiele auf dem System laufen lässt. Und selbst Schachspieler wollen kein Geld für GPUs ausgeben die sie lediglich zur Grafikausgabe brauchen. Im Büroumfeld ist die Hardware Beschleunigung für Browser mittlerweile wichtig, da die Software immer mehr ausgelagert ist in der Cloud.
Hä? Wann gabs denn mal einen kleinen Grafikchip für Desktop-PCs? Das gabs nicht mal vor der APU-Ära, jetzt erst recht nicht mehr - So ein Unsinn...
Zwei Sekunden googeln: https://de.wikipedia.org/wiki/AMD-Radeon-HD-8000-Serie
Oland: 90mm^2
Cedar: 63mm^2 (HD5450)
Korrekt. Und die HD5450 befindet sich immer noch in den Top20 der aktuellen GPU Verkaufschart bei Amazon: http://amzn.to/2gYVOwS

Übrigens auf Platz 14. die GT 710 von Nvidia.
Die Grafikkarte funktioniert zwar unter DirectX 12 und damit auch unter Windows 10, ihr Grafikchip unterstützt aber nur das Direct3D-Funktionsniveau 11_0. Die 192 Shader-Rechenkerne des GK208-Grafikchips laufen mit 954 MHz Taktfrequenz, der DDR3-Videospeicher mit 900 MHz. GPU und Speicher tauschen ihre Daten über 64 Leitungen mit lediglich 14,4 GByte/s aus.
GK208 87 mm² in 28nm

HOT
2016-12-20, 21:48:16
Wie es aussieht ist P12 einfach ein optimierter P11, jedenfalls zeigen das Benchmarks.
https://www.computerbase.de/2016-12/polaris-12-leistung-varianten-amd-gpu/
Dann leben also beide Polaris-Chips nicht lange und werden recht zügig durch optimierte Varianten ersetzt.

joni200
2016-12-20, 21:49:12
Joa also ein Nachfolger für die HD5450 schadet sicherlich nicht. Wenn ich mir überleg, dass ich eine gebrauchte für 10 Euro innerhalb von nem halben Tag bei Ebay-Kleinanzeigen losgeworden bin. Bei Amazon ist es gerade Platz 25 :)

Ich würde dann aber schon erwarten, dass die Polaris12-Karte wenn sie denn in diese Performance-Kategorie geht meistens passiv gekühlt wird.

StefanV
2016-12-21, 03:06:59
Sind dafür nicht mittlerweile IGPs gut genug? Ich hätte angenommen, dass IGPs low cost GPUs mittlerweile obsolet gemacht hätten.
Ja, aber dafür würdest du eine AMD APU aktuellster Genreation brauchen.

Das hat nicht jeder. UNd oftmals werden hier andere Dinge verwendet, alte Teile recycelt und so weiter.
Dafür könnt man die durchaus nutzen.
Auch kann man mehr als einen SChirm dran hängen, dafür wär das auch 'ne gute Idee...

UNd du vergisst dabei auch die ganzen High ENd Schüsseln mit LGA2011 und co, die ja gar keine integrierte GPU haben (und ein paar Athlon Teile usw...)

Loeschzwerg
2016-12-21, 08:01:11
...und die kleinen Xeon E3 ohne IGP (Sockel 11xx) :) Also ja, da gibt es schon entsprechende Anwendungsfälle und bezüglich den Ausgängen hat man auch mehr Optionen.

dildo4u
2017-03-01, 21:37:29
AMD Radeon 500 series to launch early April


https://videocardz.com/66359/amd-radeon-rx-500-series-to-launch-in-april

Disco_STFU
2017-03-01, 22:23:18
Vlt hat Sapphire ja sein Kühlsystem mal überarbeitet und bietet wieder was leises an!

reaperrr
2017-03-06, 17:05:14
Es wird sicherlich einer der uninteressantesten Launches seit der Radeon 285, trotzdem bin ich ein bisschen neugierig, wie genau der 5x0 Refresh aussehen wird.

1340 MHz max. Chiptakt für die RX 580 wurden ja schon genannt, das würde im absoluten Bestfall 5,84% mehr Leistung bedeuten (bei jeweils anliegendem Maximaltakt), reicht gerade so, um der Referenz-1060-6G das Leben etwas schwerer zu machen. Außerdem, solange AMD es nicht irgendwie geschafft hat, die Effizienz massiv zu verbessern, wird der Verbrauch dadurch eher nochmal steigen, ich rechne mit 8-pin Anschluss als Referenz, auch um ein erneutes Marketing-Fiasko bzgl. der Leistungsaufnahme über den PCIe-Slot zu vermeiden.
Entscheidend für den tatsächlichen Leistungszuwachs wird aber natürlich der Durchschnittstakt sein, mit höherem PT und besserem PCB lässt sich da vielleicht doch etwas mehr machen, als allgemein erwartet wird.
Eine kleine Lücke, in die AMD evtl. stoßen könnte: Die 1060-3G hat gezeigt, dass es offensichtlich auch kleinere 8Gbps-Speicherchips gibt, eine RX580-4GB mit 8Gbps Speicher würde der 1060-3G das Leben schwer machen, da die 480-4G das Duell eigentlich nur wegen des Bandbreitenlimits nicht klar gewinnt.

Zur 570, hier erwarte ich neben dem etwas höheren Chiptakt vor allem durch die Bank 7 GHz Speichertakt, und 8GB-Modelle von mehr Herstellern.
Anfangs wird es aber vermutlich nur umgelabelte 470-OC-Modelle geben.

Zur 560, hier liegt das meiste Potential. Volle 16 CUs, bei der TDP über die 75W-Grenze gehen, entsprechend höherer Takt und ausschließlich 4GB, würde die 1050 doch ne Ecke mehr unter Druck setzen, aber eine leichte Preissenkung der 1050 Ti kann das schnell zunichte machen.

Gespannt bin ich noch, ob die 550 nun einen teildeaktivierten P11 oder einen neuen, kleineren Chip beherbergt.
Ob also Polaris 12 nun wirklich nur ein leicht verbesserter P11 oder doch ein eigenständiger Chip mit anderen Specs ist.

Agent117
2017-03-06, 17:59:21
Ich erwarte neben dem 6% höheren Chiptakt auch, dass GDR5 Chips mit 9GT/s verwendet werden. Das ergibt dann immerhin ein Plus von 12,5% an Speicherbandbreite.

Bedenkt man wie stark die RX480 teilweise an der Bandbreite hängt könnte das im Schnitt schon in Richtung 10% Performanceverbesserung gehen. Aber ein spannender Launch wird es deshalb natürlich trotzdem nicht.

dildo4u
2017-03-15, 10:20:32
Radeon RX 500: Neue Grafikkarten mit Polaris für 18. April erwartet

https://www.computerbase.de/2017-03/radeon-rx-500-termin-vorstellung/

Hübie
2017-03-16, 07:43:39
Ich hoffe doch, dass cb bzw. die Quelle sich irrt und GDDR5X mit an Board ist und man ein entsprechendes PHY eingebaut hat. Auch ein metal-spin dürfte den Frequenzen gut tun, wenn man etwas am Design schraubt. Na da bin ich mal gespannt. Hawaii->Grenada brachte ja am Ende doch n bissl mehr.

Noebbie
2017-03-16, 08:19:47
Ich hoffe doch, dass cb bzw. die Quelle sich irrt und GDDR5X mit an Board ist und man ein entsprechendes PHY eingebaut hat. Auch ein metal-spin dürfte den Frequenzen gut tun, wenn man etwas am Design schraubt. Na da bin ich mal gespannt. Hawaii->Grenada brachte ja am Ende doch n bissl mehr.

ca 5% :D

Da waren eher die 8GB VRam interessant.

Wobei eine 290X mit the stilt timings auch gut abging... ;) (==390X mit 4GB)

dargo
2017-03-16, 09:06:07
Radeon RX 500: Neue Grafikkarten mit Polaris für 18. April erwartet

https://www.computerbase.de/2017-03/radeon-rx-500-termin-vorstellung/
Dein Link ist irgendwie tot.
https://www.computerbase.de/2017-03/radeon-rx-500-termin-vorstellung-update/

Lol... meiner geht auch nun nicht. :freak:

pilzsammler2002
2017-03-16, 14:15:09
Sollten refreshes nicht eigentlich 465, 475 und 485 heissen?

Vllt hat AMD ja doch etwas mehr geändert an den "neuen" :freak:

Dino-Fossil
2017-03-16, 14:16:11
Vllt hat AMD ja doch etwas mehr geändert an den "neuen" :freak:

Nur das Namensschema, fürchte ich... :freak:

pilzsammler2002
2017-03-16, 14:19:52
Nur das Namensschema, fürchte ich... :freak:

Ich könnte mir vorstellen das es vllt neue features gibt, die in Polaris nicht drin, aber nicht Vega exklusiv sind (siehe PS4 pro FP16) :freak:

Unicous
2017-03-16, 14:24:44
Dazu müsste das Polaris Silizium versteckte Features haben, die sie für diese Generation aktivieren und davon gehe ich nicht aus. Ich schätze AMD wollte schon noch ein paar speedup bins veröffentlichen hat das dann aber erst einmal gelassen um sich auf Ryzen und Vega konzentrieren zu können.

Bei der 500er Series wird es wohl ähnlich ablaufen wie bei der 7000er zur 200er Series, also hier und da ein paar Takterhöhungen, "schnellerer" VRAM und das wars.

Dino-Fossil
2017-03-16, 14:30:46
Ich vermute einfachmal, dass dem Marketing klar geworden ist, dass die mit Polaris eingeführte, generationenbasierte Benennung von GPUs sich dem Kunden bei Refresh-Generationen schlecht verkaufen lässt.
Also wurde sie, nach dem Motto "was kümmert mich mein Geschwätz von gestern", still und heimlich entsorgt.

PrivateCeralion
2017-03-16, 15:21:37
Das große Problem von Polaris sind ja Speicherbandbreite und Takt. Wäre ich AMD hätte ich das Jahr genutzt, um bei TSMC eine Polaris Maske anfertigen zu lassen. Stellt euch Polaris unter 1800mhz vor. AMD sollte bei GF inzwischen genug Dies bestellen um das WSA zu erfüllen.
Somit würde es nur noch an der Speicherbandbreite hängen. Aber innerhalb von einem Jahr findet man da bestimmt auch eine Lösung.

Locuza
2017-03-16, 15:35:07
Der Taktvorteil von TSMC beträgt vermutlich keine 10%, 1800 Mhz wären nur in einer alternativen Welt mit Polaris möglich.

Dino-Fossil
2017-03-16, 15:45:14
Denke ich auch. Das Design ist nicht auf höhere Taktraten ausgelegt, der Prozess kann da auch keine Wunder wirken.
Ist eigentlich auch egal, wie man es macht (breites Design wenig Takt, schmaleres, mehr Takt), solange die Performance passt.
Polaris ist ja in Ordnung, nur nicht der große Sprung, als der die Generation zunächst verkauft wurde (eher eine evolutionäre Änderung von Tonga).

X.Perry_Mental
2017-03-16, 15:53:23
Das große Problem von Polaris sind ja Speicherbandbreite und Takt. Wäre ich AMD hätte ich das Jahr genutzt, um bei TSMC eine Polaris Maske anfertigen zu lassen. Stellt euch Polaris unter 1800mhz vor.
Eigentlich bin ich bisher davon ausgegangen, dass der Takt primär eine Design-Entscheidung ist, und nur zum Teil an der Foundry liegt.
Grüße: Perry

Complicated
2017-03-16, 16:04:19
Das große Problem von Polaris sind ja Speicherbandbreite und Takt. Wäre ich AMD hätte ich das Jahr genutzt, um bei TSMC eine Polaris Maske anfertigen zu lassen. Stellt euch Polaris unter 1800mhz vor. AMD sollte bei GF inzwischen genug Dies bestellen um das WSA zu erfüllen.
Somit würde es nur noch an der Speicherbandbreite hängen. Aber innerhalb von einem Jahr findet man da bestimmt auch eine Lösung.
Nvidia taktet auf Samsungs 14nm auch nicht viel niedriger. Und was soll es bringen wenn die Speicherbandbreite nach wie vor limitieren würde?
Polaris würde enorm profitieren wenn z.B. lediglich das Feature "draw stream binning rasterizer" schon auf Polaris verfügbar wäre und frei geschaltet würde. Dies würde der Bandbreite gut tun und mit kleinen Takterhöhungen schon größere Vorteile bringen bei Effizienz und Performance. Doch ob davon auszugehen ist? Eher unwahrscheinlich.

Locuza
2017-03-16, 16:11:12
Nicht unwahrscheinlich, ausgeschlossen.

Unicous
2017-03-19, 14:18:47
Polaris 12 zeigt sich der Öffentlichkeit.

https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+Radeon+RX+500+Series&testgroup=info

10 Compute Units, wahrscheinlich bis zu 4GB VRAM und bis zu 1300MHz Takt, laut dem Compubench-Eintrag.

Ist also ein ordentliches Upgrade zu Cape Verde und dürfte auch Bonaire (Pro, vllt. sogar XT?) erreichen, bei deutlich unter 100mm² die size (80-90mm² oder gar darunter?).

Botcruscher
2017-03-19, 15:06:12
Ist imo für macht Bild und verarscht DAUs zu groß.

Unicous
2017-03-19, 15:16:46
Und das Ganze nochmal auf Deutsch?:confused:

reaperrr
2017-03-19, 16:04:38
Ist imo für macht Bild und verarscht DAUs zu groß.
Nicht, wenn der Chip auch nur 8 ROPs, 1x Frontend (4ACUs), 512KB L2 und 64bit SI hat, also bis auf die 2 zusätzlichen CUs ein halber P11 ist, dann landet er nämlich vermutlich bei nur 70-80mm².

Unicous
2017-03-19, 16:09:47
Warte mal, du hast verstanden, was er mit dem Buchstabensalat sagen wollte?:eek:

Dino-Fossil
2017-03-19, 16:45:20
Warte mal, du hast verstanden, was er mit dem Buchstabensalat sagen wollte?:eek:

Ist seiner Meinung nach für "Gibt ein Bild aus" und "lässt uninformierte Käufer glauben, sie hätten ne potente GPU" zu groß.

spotz
2017-03-19, 17:54:14
Polaris 12 zeigt sich der Öffentlichkeit.

https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+Radeon+RX+500+Series&testgroup=info

10 Compute Units, wahrscheinlich bis zu 4GB VRAM und bis zu 1300MHz Takt, laut dem Compubench-Eintrag.

Ist also ein ordentliches Upgrade zu Cape Verde und dürfte auch Bonaire (Pro, vllt. sogar XT?) erreichen, bei deutlich unter 100mm² die size (80-90mm² oder gar darunter?).

Lohnen sich 4GB VRAM bei so einem Chip überhaupt? Full HD mit hohen Details wird der wohl eher nur in älteren Spielen schaffen. Bei niedrigeren Auflösungen und Details kommen doch keine so große Datenmenge zusammen.

Vernünftiger scheinen mir bei der RX 550 eher 2 GB VRAM zu sein. Dann kann man sie auch günstiger anbieten. Wäre bei der Karte wohl auch besser, da sie sich doch an einem niedrigen Preis orientierte Kunden richtet.

aceCrasher
2017-03-19, 17:57:26
Vernünftiger scheinen mir bei der RX 550 eher 2 GB VRAM zu sein. Dann kann man sie auch günstiger anbieten. Wäre bei der Karte wohl auch besser, da sie sich doch an einem niedrigen Preis orientierte Kunden richtet.

Vernünftig klar, aber es scheint immernoch Leute zu geben, die an die "Vram = Leistung" Formel glauben, genau solche Leute kaufen einen so schwachen Chip mit 4GB.

aufkrawall
2017-03-19, 18:14:41
Wird für ein Butterbrot gekauft, als Backup- und Linux-Frickelkarte interessant.

captain_drink
2017-03-19, 19:07:01
Eine Bitte an eventuell anwesende Reviewer: Könnte man bei den demnächst anstehenden Benches den P10-Refresh nicht nur mit den Launch-Werten von letztem Jahr, sondern auch mit einer jüngst produzierten 480/470 vergleichen? Diese müssten aufgrund der Prozessreifung mittlerweile auch schon besser takten bzw. mit geringerer Spannung taktbar sein.
Evtl. könnte sich so herausstellen, dass man besser beraten wäre, noch schnell eine 480 mitzunehmen anstelle einer 580.

iuno
2017-03-19, 19:24:33
Videocardz hat ein Geruecht von Benchlife aufgeschnappt nach dem die Chips umbenannt werden. Das ist imho noch relativ plausibel, auch Hawaii wurde zum 300er Launch umbenannt. Demnach sollen die Zahlen um 10 angehoben werden (P10->P20, P11->P21). Dagegen spricht imho dass P12 eben als P12 und nicht direkt als P22 kommt und der andere Teil der Meldung: Dass die neuen Chips in 14 LPP gefertigt seien, waehrend die Polaris 1x noch LPE gewesen sein sollen :ulol:

P12 koennte imho auch vor dem Hintergrund aufgelegt werden, dass es bis zum Raven Ridge Launch noch dauert. So einen Chip verbaut man gern neben einer APU, vielleicht gibt es wo AMD durch Zen in den Koepfen ist doch gegen Ende nochmal ein paar Notebooks mit Bristol Ridge :ugly:


edit: lol, CB schreibt sogar, das obere stamme "aus zuverlaessiger Quelle". IMHO ist das doch voelliger Quatsch?! Hat GloFo ueberhaupt jemals was mit 14 LPE am Hut gehabt?

https://videocardz.com/67465/sunday-rumor-mill-polaris-20-and-ryzen-16-core
https://benchlife.info/radeon-rx-500-with-14nm-finfet-lpp-process-03192017/
https://www.computerbase.de/2017-03/radeon-rx-500-polaris-20-21-12/

Locuza
2017-03-19, 19:25:18
Jetzt wird es verwirrend:
https://www.computerbase.de/2017-03/radeon-rx-500-polaris-20-21-12/

Angeblich kommt bald Polaris 20 und 21 und eben 12.
Die ersten beiden stellen angeblich P10/11 dar, allerdings in 14nm LPP (auch P12?) gefertigt und nicht mehr 14nm LPE, wobei es früher schon hieß, dass P10/11 unter 14nm LPP gefertigt werden.

Edit: Ninja'd by iuno

--------
Edit2: Ich denke der Teil mit 14nm LPE ist Quatsch, es wurden immerhin schon Ende 2015 mehrere Tape-Outs unter 14nm LPP angekündigt, was zu dem Zeitpunkt nur Polaris darstellen konnte.
AMD has taped out multiple products using GF’s 14nm Low Power Plus (14LPP) process technology and is currently conducting validation work on 14LPP production samples.
https://www.globalfoundries.com/news-events/press-releases/globalfoundries-achieves-14nm-finfet-technology-success-for-next-generation-amd-products

deekey777
2017-03-19, 19:46:44
Lohnen sich 4GB VRAM bei so einem Chip überhaupt? Full HD mit hohen Details wird der wohl eher nur in älteren Spielen schaffen. Bei niedrigeren Auflösungen und Details kommen doch keine so große Datenmenge zusammen.

Vernünftiger scheinen mir bei der RX 550 eher 2 GB VRAM zu sein. Dann kann man sie auch günstiger anbieten. Wäre bei der Karte wohl auch besser, da sie sich doch an einem niedrigen Preis orientierte Kunden richtet.
Natürlich lohnt es sich, schließlich steht auf der Verpackung dann 4 GB.

Im Ernst: Mit ensprechend hohen Takt wird sie die R7 360 einholen und vielleicht überholen. Und es gibt ja Spiele, die eher auf die Speichergröße achten als auf die tatsächliche Leistung (zB GoW4).

mboeller
2017-03-19, 20:42:47
14LPP /= 14LPP

https://www.globalfoundries.com/sites/default/files/product-briefs/product-brief-14lpp.pdf

von 14LPP gibt es min. 2 Varianten. Ob das bei einer GPU aber einen Unterschied macht???

edit:
https://www.semiwiki.com/forum/content/5119-globalfoundries-14nm-process-update.html


The 14nnm process is run in Global’s Fab 8 in upstate New York. The 14LPE process was the first generation and was qualified in January. A second generation 14LPP process was qualified in September. They are now shipping 14nm parts to customers.


und noch einmal:
https://www.heise.de/newsticker/meldung/Globalfoundries-meldet-Erfolg-bei-14-nm-Chips-fuer-AMD-2909803.html

iuno
2017-03-19, 20:58:12
Ich denke der Teil mit 14nm LPE ist Quatsch, es wurden immerhin schon Ende 2015 mehrere Tape-Outs unter 14nm LPP angekündigt, was zu dem Zeitpunkt nur Polaris darstellen konnte.

https://www.globalfoundries.com/news-events/press-releases/globalfoundries-achieves-14nm-finfet-technology-success-for-next-generation-amd-products
Von offizieller Stelle, danke fuers Raussuchen.

14LPP /= 14LPP

https://www.globalfoundries.com/sites/default/files/product-briefs/product-brief-14lpp.pdf

von 14LPP gibt es min. 2 Varianten. Ob das bei einer GPU aber einen Unterschied macht???
Oben (und in deinen restlichen Links) geht es um 14 LPE vs. 14 LPP. In dem Product Brief geht es darum, wie man anwendungsspezifisch ein bisschen tweaken kann, mit zwei Prozessvarianten hat das imho nichts zu tun und mit 14 LPE schon gar nicht.

bbott
2017-03-19, 20:59:07
RX 500 Serie, also doch kein reines bzw. einfaches Redranding (LPE->LPP):
https://www.computerbase.de/2017-03/radeon-rx-500-termin-vorstellung-update-2/

Die Energie Effizienz unter DX11 dürft damit zu NV aufschließen.

Nutzt die 1000er Serie von NV LPE oder LPP?


Langsam befürchte ich, dass mein Kauf der RX 470 verfrüht war...

aceCrasher
2017-03-19, 21:50:39
RX 500 Serie, also doch kein reines bzw. einfaches Redranding (LPE->LPP):
https://www.computerbase.de/2017-03/radeon-rx-500-termin-vorstellung-update-2/

Die Energie Effizienz unter DX11 dürft damit zu NV aufschließen.

Nutzt die 1000er Serie von NV LPE oder LPP?


Langsam befürchte ich, dass mein Kauf der RX 470 verfrüht war...

Das mit der LPE Fertigung halte ich für Gerücht, meiner Ansicht nach wurde P10 schon immer in 14nm LPP gefertigt.

http://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/AMD-bestellt-Chips-im-14-nm-LPP-Prozess-nun-auch-bei-Samsung-1202779/

Und die 1000er Serie benutzt zum größten Teil 16nm FF von TSMC. Nur ein paar low end Modelle, ich meine die 50er Modelle, benutzen Samsungs 14nm LPP, der ja der gleiche wie GloFos 14nm LPP ist.

y33H@
2017-03-20, 00:32:18
Hab's grade auch gesehen, mein Stand war: Polaris (Baffin/Ellesmere) = 14LPP :usad:

Unicous
2017-03-20, 01:48:02
Na solang du es nicht schief liest ist ja alles in Ordnung.:P

HOT
2017-03-20, 08:43:39
GloFo hat den LPE offenbar einfach LPP tituliert, dafür gibts ja 2 Varianten offensichtlich. Purer Marketing-BS denke ich. Da braucht man sich aber auch nicht zu wundern, warum Pascal soviel besser ist - deutlich besserer Prozess und TC-Rendering.
Das würd aber auch erklären, warum man jetzt versucht den LPE-Krempel mit Gewalt loszuwerden (massiver Preissturz der 400er-Serie), die sind sicher schon EOL.
Die LPPs sind sicher deutlich energieeffizienter, aber schneller sicher nicht, das verhindert der gleiche 8Gbps-Speicher. Ich versteh aber warum man das macht. Das hält sich Sache schön billig, wenn die Teile man ins sub-200€-Segment abstürzen.

Unicous
2017-03-20, 10:31:32
Bullshit.

BoMbY
2017-03-20, 10:58:05
Hab's grade auch gesehen, mein Stand war: Polaris (Baffin/Ellesmere) = 14LPP :usad:

Davon sind alle immer ausgegangen, aber soweit ich mich erinnere hat niemand von AMD "on the record" gesagt ob es 14LPE oder 14LPP war. Ich denke deshalb schon länger die sind mit 14LPE gestartet, um mit den Yields sicher zu gehen z.B., und das könnte auch erklären warum die Karten zu Anfang leicht aus den Specs gelaufen sind.

y33H@
2017-03-20, 11:57:55
Und ich meine auf einem der Tech Days sagte GloFo es sei LPP.

BoMbY
2017-03-20, 12:03:46
Möglich. Es wurde aber oft nur von "14nm FinFET" gesprochen, und wenn speziell zu den Prozessen etwas gesagt wurde, dann wurde trotzdem nicht direkt Bezug auf ein Produkt von AMD genommen. Ich denke man hat durch geschickte Formulierungen versucht den 14LPE-Fakt zu verschleiern.

Unicous
2017-03-20, 12:09:48
Bullshit.

Pirx
2017-03-20, 12:13:24
Bullshit.
Das bringt uns sicher weiter.:rolleyes:

Unicous
2017-03-20, 12:34:41
Wo willst du denn hin?

Wenn hier einige die Aluhütchen aufsetzen und Verschwörungstheorien aus eben diesen zaubern bleibt doch nichts anderes mehr übrig.

Es ist schlicht und einfach bullshit.

BoMbY
2017-03-20, 12:52:01
Wo willst du denn hin?

Wenn hier einige die Aluhütchen aufsetzen und Verschwörungstheorien aus eben diesen zaubern bleibt doch nichts anderes mehr übrig.

Es ist schlicht und einfach bullshit.

Dann sollte es ja ein leichtes für Dich sein ein wörtliches Zitat, oder besser Video, von einem AMD- oder GloFo-Mitarbeiter zu finden, welcher Deinen "Bullshit" untermauert ...

Unicous
2017-03-20, 13:08:00
Dann sollte es ja ein leichtes für Dich sein ein wörtliches Zitat, oder besser Video, von einem AMD- oder GloFo-Mitarbeiter zu finden, welcher Deinen "Bullshit" untermauert ...

Wait a minute. Solltest du nicht eher deinen Bullshit belegen.:confused: Warum bin ich auf einmal in der Beweispflicht wenn du und HOT dämliche Verschwörungstheorien verbreitet?:confused::eek::confused::eek:

LPP wurde viele linkedin-Einträge bestätigt und allein schon dass Polaris 10, ehemals Ellesmere auf 232mm² festgelegt wurde (somit also design done) und im gleichen Atemzug LPP genannt wurde sollte doch "Beweis" genug sein, also außer für euch beide und andere Chem Trail Fanatiker.

Aber ja, Greenland gibt es ja auch nicht mehr und Vega ist eine ganz neue GPU IP.;D;D;D

Locuza
2017-03-20, 13:24:15
Dann sollte es ja ein leichtes für Dich sein ein wörtliches Zitat, oder besser Video, von einem AMD- oder GloFo-Mitarbeiter zu finden, welcher Deinen "Bullshit" untermauert ...
Ende 2015 von GloFo:
AMD has taped out multiple products using GF’s 14nm Low Power Plus (14LPP) process technology and is currently conducting validation work on 14LPP production samples. Today’s announcement represents another significant milestone towards reaching full production readiness of GF’s 14LPP process technology, which will reach high-volume production in 2016. The 14LPP platform taps the benefits of three-dimensional, fully-depleted FinFET transistors to enable customers like AMD to deliver more processing power in a smaller footprint for applications that demand the ultimate in performance.

“FinFET technology is expected to play a critical foundational role across multiple AMD product lines, starting in 2016,” said Mark Papermaster, senior vice president and chief technology officer at AMD. “GF has worked tirelessly to reach this key milestone on its 14LPP process. We look forward to GF' continued progress towards full production readiness and expect to leverage the advanced 14LPP process technology across a broad set of our CPU, APU, and GPU products.”

“Our 14nm FinFET technology is among the most advanced in the industry, offering an ideal solution for demanding high-volume, high-performance, and power-efficient designs with the best die size,” said Mike Cadigan, senior vice president of product management at GF. “Through our close design-technology partnership with AMD, we can help them deliver products with a performance boost over 28nm technology, while maintaining a superior power footprint and providing a true cost advantage due to significant area scaling.”

GF’s 14LPP FinFET is ramping with production-ready yields and excellent model-to-hardware correlation at its Fab 8 facility in New York. In January, the early-access version of the technology (14LPE) was successfully qualified for volume production, while achieving yield targets on lead customer products. The performance-enhanced version of the technology (14LPP) was qualified in the third quarter of 2015, with the early ramp occurring in the fourth quarter of 2015 and full-scale production set for 2016.
https://www.globalfoundries.com/news-events/press-releases/globalfoundries-achieves-14nm-finfet-technology-success-for-next-generation-amd-products

Und:
https://www.3dcenter.org/dateien/abbildungen/AMD-Grafkchip-Project-F.png
https://www.3dcenter.org/news/amd-grafikchip-project-f-mit-232mm%C2%B2-chipflaeche-unter-der-14lpp-fertigung

Wobei ne, bleiben wir bei dem "Fakt", dass GloFo 14nm LPE irgendwie durch geschickte Formulierungen verschleiert hat.

BoMbY
2017-03-20, 13:26:09
Wait a minute. Solltest du nicht eher deinen Bullshit belegen.:confused: Warum bin ich auf einmal in der Beweispflicht wenn du und HOT dämliche Verschwörungstheorien verbreitet?:confused::eek::confused::eek:


Junge, wie soll ich bitte belegen, dass etwas nicht gesagt wurde bisher?

BoMbY
2017-03-20, 13:28:22
Ende 2015 von GloFo:

https://www.globalfoundries.com/news-events/press-releases/globalfoundries-achieves-14nm-finfet-technology-success-for-next-generation-amd-products


Ja, da steht, dass 14LPP Produkte ein tape-out hatten. Da steht aber nicht, dass es nie ein 14LPE-Produkt gegeben hat, oder geben wird.


Und:
https://www.3dcenter.org/dateien/abbildungen/AMD-Grafkchip-Project-F.png
https://www.3dcenter.org/news/amd-grafikchip-project-f-mit-232mm%C2%B2-chipflaeche-unter-der-14lpp-fertigung

Wobei ne, bleiben wir bei dem "Fakt", dass GloFo 14nm LPE irgendwie durch geschickte Formulierungen verschleiert hat.

Da steht nur nicht, dass das wirklich Polaris 10 ist, und ob sich der Plan nicht vielleicht geändert hat zwischen dem was er geschrieben hat, und was dann tatsächlich vom Band gelaufen ist. Vielleicht hat er ja an Polaris 20 gearbeitet?

Locuza
2017-03-20, 13:37:32
Wenn man mehrere Tape-Outs unter 14nm LPP hat, dann hat man mehrere Tape-Outs unter 14nm LPP.
Das war keine Ankündigung mit AMD plant oder möchte, sondern AMD hat schon.
Das war Ende 2015.

Unicous
2017-03-20, 13:37:34
@Locuza

Es wird nichts nutzen. Die beiden leben in ihrer eigenen Welt. Sobald man sie darauf hinweist, dass ihre Fantasiewelt nicht existiert ist man in der Beweispflicht zu belegen, dass sie sich das alles nur ausgedacht haben. Ein Teufelskreis dem man nicht entkommen kann.:ucrazy3:

Daher gilt: Die 232mm² LPP GPU exisitiert gar nicht, stattdessen ist Polaris 10/ Ellesmere mit den exakt gleichen Ausmaßen, obwohl ja LPP eine höhere Transistorendichte hat, in LPE gefertigt worden. Das ist zwar an sich schon sehr unwahrscheinlich, dass ein Chip in einem schlechteren Prozess exakt die gleiche Größe aufweist, aber so ist es nun mal. An diesen "Fakten" kann man nicht rütteln, auch wenn sich AMD zig unnütze und teuere tape outs eigentlich nicht leisten kann und komischerweise ewig gewartet hat, bis sie Polaris herausbringen, obwohl LPE zu der Zeit schon viele Monate MVP-ready war.

HOT
2017-03-20, 13:38:17
Moment mal, es gibt eine News auf CB dazu, da solltest du jetzt am besten nachweisen, dass das BS ist. Ein guter Anfang ist dazu, dass GloFo das 14LPP genannt hat, jedoch heißt das u.U. auch nix, da GloFo die Prozesse nennen kann, wie auch immer GloFo die Prozesse nennen will.
Und der Chip hätte dann ja 232nm in LPE, nicht in LPP. Mal sehen, wie groß P20 dann wirklich ist jetzt.

Unicous
2017-03-20, 13:45:39
vS4DNnp8ZhM

Locuza
2017-03-20, 13:52:31
Moment mal, es gibt eine News auf CB dazu, da solltest du jetzt am besten nachweisen, dass das BS ist. Ein guter Anfang ist dazu, dass GloFo das 14LPP genannt hat, jedoch heißt das u.U. auch nix, da GloFo die Prozesse nennen kann, wie auch immer GloFo die Prozesse nennen will.
Und der Chip hätte dann ja 232nm in LPE, nicht in LPP. Mal sehen, wie groß P20 dann wirklich ist jetzt.
Da man mehr als zwei Sätze scheinbar nicht auf einmal fassen kann, kopiere ich von GloFos Meldung entscheidende Informationen in nur noch kleinen Happen, sodass wir Schrittweise zum Ergebnis kommen (hoffentlich):
GF’s 14LPP FinFET is ramping with production-ready yields and excellent model-to-hardware correlation at its Fab 8 facility in New York. In January (2015), the early-access version of the technology (14LPE) was successfully qualified for volume production, while achieving yield targets on lead customer products. The performance-enhanced version of the technology (14LPP) was qualified in the third quarter of 2015, with the early ramp occurring in the fourth quarter of 2015 and full-scale production set for 2016.

Von mir aus ist der 14nm LPP Prozess von GloFo schlecht(er), aber wenigstens namentlich wurde Polaris nicht unter 14nm LPE gefertigt und mit leeren Händen irgendein Konstrukt zu fabrizieren, wo man vermutlich Samsungs 14nm Prozesse als Referenz nimmt, hat halt wirklich diesen ALU-Hut-Charakter.
Wenn P20/21 wirklich einen verbesserten Prozess verwenden sollten, dann nennen wir das von mir aus LPP-Super.

HOT
2017-03-20, 13:55:09
Jo, kann man sich drauf einigen, unter Vorbehalt zu BoMbYs Einwendungen. Fakt ist, es ist defintiv nicht der gleiche Chip.
Übrigens dasselbe noch von PCGH:
http://www.pcgameshardware.de/Polaris-Codename-265453/News/Low-End-GPU-angeblich-mit-640-Shadern-1223596/
Wird aber dieselbe Quelle sein.

Unicous
2017-03-20, 14:05:41
Fakt ist?:freak:


Welche Fakten? Erzähl doch keinen Unsinn, du hast den Chip noch nicht einmal gesehen, geschweige denn irgendwelche Informationen dazu außer den halbseidenen Einlassungen von WhyCry.
AMD verpasst "alten" Chips schon seit vielen, vielen Jahren neue Codenamen sogar wenn es nur Servervarianten davon sind. Das heißt aber nicht automatisch, dass der dem Chip zu Grunde liegende Die auch nur eine Veränderung genossen hat. Oft ist einfach nur ein verbesserter Prozess bzw. eine Veränderung der Charakteristika die ein wenig mehr Leistung bzw. Effizienz aus dem Chip kitzelt oder auch ganz plumpes Binning auf Halde.

Erzähl uns doch nichts vom Bären und angeblichen 'Fakten' und lerne den Konjunktiv richtig zu nutzen.

Bislang gibt es genau 0% Fakten/Indizien und 100% Gerüchte.

Locuza
2017-03-20, 14:08:19
Benchlife hat häufig legitime Folien und Quellen lange vor Produktveröffentlichungen, aber in dem Fall ist es nur ein Fließtext, den man natürlich aufgrund der vorliegenden Informationen anzweifeln kann.

Googel Translate:
First, the Polaris 10 will be renamed Polaris 20, there will be XTX and XL two products; conversion to the general path, then, is the Radeon RX 580 and Radeon RX 570.

Followed by Polaris 11 will be renamed Polaris 21, in fact, is Radeon RX 560.

The last Polaris 12 is a brand new product, which will be named Radeon RX 550.

The AMD Radeon's Polaris 20/21/12 will be replaced from the original 14nm FinFET LPE to the 14nm FinFET LPP process.

We may be more concerned about Radeon Vega this flagship display card, but at this stage of his information is not too much, but in the Radeon RX 500 series, we should be able to see its shadow.
https://benchlife.info/radeon-rx-500-with-14nm-finfet-lpp-process-03192017/

Unicous
2017-03-20, 14:21:09
Wie gesagt, das mit dem Umbenennen macht durchweg Sinn (wobei Polaris 12 ja aus dem Rahmen fallen würde) denn es wurde in der Vergangenheit von AMD auch so schon jährlich praktiziert aber der angebliche Umstieg von LPE auf LPP macht es eben überhaupt nicht.

Zumal Polaris 12 auf einmal LPP ist, aber nicht etwa Polaris 20 heißt, sondern den Namen behält, während bei den anderen Chips nur um einen 10 erhöht wird, obwohl AMD behauptete die Zahl würde lediglich die Design-Reinfolge darstellen.

BoMbY
2017-03-20, 14:47:17
Fakt ist?:freak:


Welche Fakten? Erzähl doch keinen Unsinn, du hast den Chip noch nicht einmal gesehen, geschweige denn irgendwelche Informationen dazu außer den halbseidenen Einlassungen von WhyCry.

[...]

Erzähl uns doch nichts vom Bären und angeblichen 'Fakten' und lerne den Konjunktiv richtig zu nutzen.

Bislang gibt es genau 0% Fakten/Indizien und 100% Gerüchte.

Du redest die ganze Zeit von Fakten, lieferst aber nicht einen einzigen. Das einzige was da Fakt ist, ist Dein aufgeblasenes Ego - Deine Meinung ist die allein gültige Wahrheit.

Unicous
2017-03-20, 14:57:44
Nur weil ich eurem Bullshit Paroli biete, heißt das nicht dass ich mein extrem!!! aufgeblasenes Ego schmeicheln will.

Mir geht es nur darum euren bullshit als das zu betiteln was es schlussendlich ist: bullshit. Es gibt genug Indizien, die natürlich keine Fakten an sich sein können, da AMD sich zu Linkedin-Einträgen nicht öffentlich äußert, sondern sie einfach löschen lässt (oder der Mitarbeiter dem zuvorkommt).

Marc Sauter behauptet, AMD hätte von LPP gesprochen, aber auch das ist euch nicht genug.

Ich wette selbst wenn AMD sich dazu äußern würde und klipp und klar sagen würde, man fertigt sämtliche Chips in 14LPP würdet ihr das immer noch nicht glauben. Weil euch die Selbstreflektion fehlt. Ihr könnt es nicht ertragen, falsch zu liegen. Ihr könnt es nicht ertragen für euer Gewäsch die Verantwortung zu tragen.

Wenn ich Müll laber und mir das nachgewiesen wird, oder ich sogar selbst darauf stoße habe ich kein Problem, das zuzugeben und ein mea culpa auszusprechen. Denn falsch zu liegen ist nicht schlimm. Es nicht zugeben zu wollen und auf seinem Standpunkt zu verharren obwohl das Gegenteil schon längst bewiesen wurde oder es so gut wie keine Anhaltspunkte für die entsprechenden Behauptungen gibt, das ist das eigentlich Verbrechen.

Gipsel
2017-03-20, 15:07:38
So, und jetzt konzentrieren wir uns hier wieder auf das Thema und unterlassen die Erörterungen von spezifischen Charaktereigenschaften anderer Forenteilnehmer.

Danke!

Dino-Fossil
2017-03-20, 16:08:08
Also falls das Gerücht über die Fertigung im verbesserten Prozess denn zutrifft, könnte man sich auch fragen, was man sich davon erwarten soll.
Die kolportierten Taktraten (falls zutreffend) liegen nur minimal höher als bisher.
Die GCN-Architektur an sich wurde mit Polaris ja auch nicht grundlegend überarbeitet (auch wenn AMD das vor dem Launch anders dargestellt hat) und die scheint der wesentliche Faktor für die ggü. nVidia niedrigere Effizienz zu sein.
Unterm Strich hätte man also leicht höhere Leistung bei geringfügig verbesserter Effizienz (an nVidia kommt man vor Vega sicherlich nicht viel weiter heran als bisher).
Sicherlich genug für eine typische Zwischengeneration, aber Wunder sind nicht zu erwarten.

Und andere Journalisten (Format_C) sprechen ja von reinen Rebrandings.
Evtl. gehen da die üblichen Fertigungsverbesserungen über die Zeit ein, aber ob's wirklich ein ganz neuer (und besserer) Prozess wird?

BoMbY
2017-03-20, 16:12:39
Ja, Marc glaubt das ein GloFo-Mitarbeiter über 14LPP gesprochen hat. Warum auch nicht, das ist ja deren Produkt? Aber hat der GloFo-Mitarbeiter auch explizit gesagt, dass Polaris 10 wirklich 14LPP nutzt?

Es bleibt also dabei: Es gibt bisher keinerlei stichhaltige Beweise dafür, dass AMD 14LPP für Polaris 10 nutzt. Jeder der etwas anderes behauptet, sollte etwas mehr als "Bullshit" liefern ...

HOT
2017-03-20, 16:17:09
Dino-Fossil
Erwarten kann man eine bessere Energieeffizienz und stabilere Taktraten, sonst nix. Das Produkt ändert sich fast gar nicht, wird ja eh durch den Speicher ausgebremst.

Locuza
2017-03-20, 16:58:41
Ja, Marc glaubt das ein GloFo-Mitarbeiter über 14LPP gesprochen hat. Warum auch nicht, das ist ja deren Produkt? Aber hat der GloFo-Mitarbeiter auch explizit gesagt, dass Polaris 10 wirklich 14LPP nutzt?

Es bleibt also dabei: Es gibt bisher keinerlei stichhaltige Beweise dafür, dass AMD 14LPP für Polaris 10 nutzt. Jeder der etwas anderes behauptet, sollte etwas mehr als "Bullshit" liefern ...
Ich habe dir mehr geliefert, als reinen Bullshit, aber das ist nicht stichhaltig genug für dich.
Ein einfaches Gerücht reicht dir aber scheinbar aus, um etwas zusammen zu fabrizieren, wo GloFo geschickt formuliert hat, um den "14nm LPE Fakt" zu verschleiern.

mboeller
2017-03-20, 17:06:00
Ja, Marc glaubt das ein GloFo-Mitarbeiter über 14LPP gesprochen hat. Warum auch nicht, das ist ja deren Produkt? Aber hat der GloFo-Mitarbeiter auch explizit gesagt, dass Polaris 10 wirklich 14LPP nutzt?

Es bleibt also dabei: Es gibt bisher keinerlei stichhaltige Beweise dafür, dass AMD 14LPP für Polaris 10 nutzt. Jeder der etwas anderes behauptet, sollte etwas mehr als "Bullshit" liefern ...

Definitive Infos wird es wohl für uns Außenstehende nie geben, aber doch starke Indizien für 14LPP.

Samsung hat 14LPE und 14LPP an Globalfounderies lizenziert. 14LPE wurde aber schon Ende 2014 für die Massenproduktion eingesetzt; zumindest war das der Plan. Siehe: https://www.globalfoundries.com/sites/default/files/samsung-globalfoundries-14nm-overview-presentation.pdf

14LPP wurde von AMD schon Ende 2015 für Testchips benutzt: https://www.heise.de/newsticker/meldung/Globalfoundries-meldet-Erfolg-bei-14-nm-Chips-fuer-AMD-2909803.html

Ein Meilenstein auf dem Weg dorthin ist die Meldung, dass Globalfoundries erste Prototypen mit FinFETs aus dem Fertigungsprozess "14LPP" (14 nm Low-Power Plus) an AMD geliefert hat. Um welche (Test-)Chips es sich dabei handelt, blieb allerdings offen.


Dabei kann es sich natürlich auch um ZEN Samples gehandelt haben.

14LPP ist damit aber IMHO zumindest vom Zeithorizont her wesentlich wahrscheinlicher als 14LPE das ja schon 1,5 Jahre vor Polaris für die Serienfertigung benutzt worden sein soll. Ich fände es seltsam wenn man den "14LPE Early" Prozess für Polaris benutzt hätte weil der "14LPP Enhanced" ja schon verfügbar war und die design Rules für beide Prozesse gleich sind.

BoMbY
2017-03-20, 18:35:42
Ich habe dir mehr geliefert, als reinen Bullshit, aber das ist nicht stichhaltig genug für dich.
Ein einfaches Gerücht reicht dir aber scheinbar aus, um etwas zusammen zu fabrizieren, wo GloFo geschickt formuliert hat, um den "14nm LPE Fakt" zu verschleiern.

Sorry, aber diese Indizien haben Lücken in der Größe des Grand Canyon.

Wie ich bereits sagte, habe ich die LPE-Vermutung schon lange vor der Info von Benchlife geäußert. Ich werde jetzt nur nicht alle meine Kommentare vom letzten halben Jahr auf diversen Seiten durchsuchen, aber ich sehe diese nur als Bestätigung.

Und 14LPP bei GloFo war mit Glück gerade zum Massenproduktionsstart von Polaris aus der Prototyp/Ramp-Up Phase heraus, und das Risiko von weiteren Verzögerungen war unter Umständen zu groß für AMD als die Entscheidung getroffen wurde.

Edit: Noch ein Indiz: Das Vega Tape-Out war wohl im Juni 2016, ein Jahr vor Produktstart. Das verkündete 14LPP Tape-Out war im November 2015 - fast nur noch ein halbes Jahr bis zum Start von Polaris.

Unicous
2017-03-20, 18:45:10
Nein, Vega tape out war nicht im Juni. Da haben sie "design done", also den Abschluss der Designphase, gefeiert.

Locuza
2017-03-20, 19:13:46
Sorry, aber diese Indizien haben Lücken in der Größe des Grand Canyon.

Wie ich bereits sagte, habe ich die LPE-Vermutung schon lange vor der Info von Benchlife geäußert. Ich werde jetzt nur nicht alle meine Kommentare vom letzten halben Jahr auf diversen Seiten durchsuchen, aber ich sehe diese nur als Bestätigung.

Und 14LPP bei GloFo war mit Glück gerade zum Massenproduktionsstart von Polaris aus der Prototyp/Ramp-Up Phase heraus, und das Risiko von weiteren Verzögerungen war unter Umständen zu groß für AMD als die Entscheidung getroffen wurde.

Edit: Noch ein Indiz: Das Vega Tape-Out war wohl im Juni 2016, ein Jahr vor Produktstart. Das verkündete 14LPP Tape-Out war im November 2015 - fast nur noch ein halbes Jahr bis zum Start von Polaris.
Genau solche Diskussionen empfinde ich als wahnsinnig.

Wenn die Indizien Lücken in der Größe des Grand Canyons besitzen, hat deine Vermutung und der neue Bericht von Benchlife Lücken in der Größe von Galaxien und genau dafür entscheidest du dich lieber, als für einen Grand Canyon.

Ich meine noch einmal:
AMD has taped out multiple products using GF’s 14nm Low Power Plus (14LPP) process technology and is currently conducting validation work on 14LPP production samples.
https://www.globalfoundries.com/news-events/press-releases/globalfoundries-achieves-14nm-finfet-technology-success-for-next-generation-amd-products

Wie absolut bizarr es wäre, wenn AMD nach den Tape-Outs festgestellt hätte, ne das passt irgendwie nicht, aus welchen grotesken Gründen auch immer, wir nehmen den LPE-Prozess der sowieso größtenteils identisch ausfällt.
Dann warten wir über ein Jahr und hauen ein Refresh auf Basis von 14nm LPP raus.

Und es gibt keine offiziellen Tape-Out-Berichte zu Vega.
Aber das ist vermutlich egal, weil das Bauchgefühl schwerer wiegt, als offizielle Presseankündigungen.

Raja hat im Juni 2016 getwittert das man einen Meilenstein von Vega 10 feiert:
http://extreme.pcgameshardware.de/attachments/919834d1476034271-amd-vega-geruechte-um-vorzeitigen-launch-offenbar-unzutreffend-vega-10-celebration-party.png
Der Meilenstein ist aber gar nicht spezifiziert.

Während der CES 2017 im Januar hat man die ersten konkreten Vega Details verlauten lassen und gemeint das die Vega Samples noch sehr jung sind:
Die Vega-GPU ist noch sehr jung. Auf dem Event Anfang Dezember sprach Koduri davon, dass die Chips erst wenige Wochen alt gewesen sind.
https://www.computerbase.de/2017-01/amd-vega-preview/

Es ist viel wahrscheinlicher, dass Vegas tape-out auch erst Ende 2016 stattgefunden hat, grob im selben Intervall wie Polaris, wo die Massenfertigung in der Regel ~ 6 Monate danach stattfindet.
Das kann natürlich variieren, schließlich hängt es vom Chip und dessen Komplexität ab.
Für Polaris selber sehe ich keine Gründe, wieso 6 Monate nachdem Tape-Out nicht ausreichend für 14nm LPP gewesen wären.

Gipsel
2017-03-20, 20:02:53
Verhaltet Euch gefälligst zivilisiert! Dies ist die letzte Warnung!

TheGood
2017-03-20, 20:06:31
Ach hier wird doch blos wieder versucht etwas gegen AMD aufzubauen, wenn die "neuen" Chips dann auf einmal doch nicht so effizient sind, wie manche es hier in ihren Glaskugeln lesen wollen.
Diese Diskussionskultur von manchen hier ist ja echt geradezu grotesk....

Zero-11
2017-03-20, 21:00:01
Irgendwas müsste ja anders sein Ich meine das ist der erste Rebrand dem Preissenkungen vorrausgehen.

Der_Korken
2017-03-20, 21:28:22
Angenommen P20/21 würden tatsächlich in leicht anderen Fertigungsverfahren gefertigt. Wieviel Arbeit hätten die Entwicklerteams dort reinstecken müssen im Vergleich zu einem Metal Spin, mit dem sich ein paar Prozent mehr Takt rausquetschen ließen? Ich fände es nämlich ziemlich unlogisch, dass AMD so kurz vor Veröffentlichung der Vega-Architektur noch viel Arbeit in Polaris versenkt. Da wären sie besser beraten, die zusätzliche Manpower in die kleinen Vega-Ableger zu investieren.

Locuza
2017-03-20, 21:31:51
Ach hier wird doch blos wieder versucht etwas gegen AMD aufzubauen, wenn die "neuen" Chips dann auf einmal doch nicht so effizient sind, wie manche es hier in ihren Glaskugeln lesen wollen.
Diese Diskussionskultur von manchen hier ist ja echt geradezu grotesk....
Im Gegenteil, beide sind eher Pro AMD, als Contra.

Irgendwas müsste ja anders sein Ich meine das ist der erste Rebrand dem Preissenkungen vorrausgehen.
Die Straßenpreise sind jetzt nicht deutlich geringer für die bisherigen Modelle geworden.
Aktuell sehe ich keine Gründe, wieso etwas anders sein müsste.
Selbst wenn der Chip effizienter ausfallen sollte, wird es sich nur um einen kleinen Rahmen handeln, dass sollte die Produkteigenschaften nicht nennenswert verändern.

Hawaii war am Ende deutlich günstiger zu haben, Grenada bot aber auch doppelt soviel VRAM an, erhöhte Chip- und Speicherfrequenzen, der Chip war aber der gleiche.
Man eig. ist das Chip rebranding bei AMD viel schlimmer, als die Vergabe von neuen Produktetiketten.

Unicous
2017-03-20, 21:33:18
@Der_Korken

Bei einem Wechsel von LPE auf LPP müsste man ein komplett "neues" Die designen, genau deswegen ist das eben extrem unwahrscheinlich (weil teuer und man power und Zeit fressend... also teuer:freak:), außer für einige wenige natürlich.:wink:

Odal
2017-03-20, 23:39:28
Dino-Fossil
Erwarten kann man eine bessere Energieeffizienz und stabilere Taktraten, sonst nix. Das Produkt ändert sich fast gar nicht, wird ja eh durch den Speicher ausgebremst.

So sehr hängt Polaris nun nicht an der Bandbreite. Ist natürlich Applikationsabhängig aber meinen Erfahrungen ist eine 1:1 Skalierung in weiter ferne und 10% mehr Speichertakt resultieren vielleicht in 5% mehr FPS. (Ausnahmen gibts sicherlich). Ich wette das hängt mal wieder am Frontend wie schon bei Tahiti.

Raff
2017-03-21, 12:37:41
Polaris' Frontend ist gut, das sieht man daran, dass entsprechende Grafikkarten in Full HD das beste Leistungsverhältnis gegenüber den schnellsten Grafikkarten erreichen. Das heißt, dass sie sich selbst auslasten können. Hawaii und Fiji gelingt das erst in hohen Auflösungen (wo Fiji dann wegen 4 GiB absäuft ...). Polaris braucht daher entweder Takt oder zusätzliche Rechenwerke (ALUs), um schneller zu werden. Mehr als zehn Prozent effektiver Leistung ist ohne Architekturänderungen aber nicht drin. Daher kann man bei Vega hoffen.

MfG,
Raff

BoMbY
2017-03-21, 13:29:02
Genau solche Diskussionen empfinde ich als wahnsinnig.

Wenn die Indizien Lücken in der Größe des Grand Canyons besitzen, hat deine Vermutung und der neue Bericht von Benchlife Lücken in der Größe von Galaxien und genau dafür entscheidest du dich lieber, als für einen Grand Canyon.

Nein, ich entscheide mich weder für das eine, noch das andere, solange weder das eine, noch das andere bewiesen ist ... Ich sage es ist möglich ...

BoMbY
2017-03-21, 13:30:46
@Der_Korken

Bei einem Wechsel von LPE auf LPP müsste man ein komplett "neues" Die designen, genau deswegen ist das eben extrem unwahrscheinlich (weil teuer und man power und Zeit fressend... also teuer:freak:), außer für einige wenige natürlich.:wink:

Nein, müsste man nicht. 14LPP nutzt z.B. die gleichen Standard Cell Libraries wie 14LPP.

Ravenhearth
2017-03-21, 14:23:48
Nein, müsste man nicht. 14LPP nutzt z.B. die gleichen Standard Cell Libraries wie 14LPP.
Offensichtlich, ist ja auch dasselbe :tongue:

Unicous
2017-03-21, 15:02:12
Nein, müsste man nicht. 14LPP nutzt z.B. die gleichen Standard Cell Libraries wie 14LPP.

Du weißt doch, dass das bullshit ist.:wink: Die Parameter sind nicht gleich, also kann auch der Die nicht gleich sein.

Hier geht es nicht um simples Retooling oder austauschbare Libraries sondern um einen verbesserten Prozess. Aber naja, in deiner Traumwelt geht das natürlich alles.;D;D;D

BoMbY
2017-03-21, 15:34:03
Du weißt doch, dass das bullshit ist.:wink: Die Parameter sind nicht gleich, also kann auch der Die nicht gleich sein.

Hier geht es nicht um simples Retooling oder austauschbare Libraries sondern um einen verbesserten Prozess. Aber naja, in deiner Traumwelt geht das natürlich alles.;D;D;D

Kannst Du eigentlich auch irgendwie diskutieren ohne persönliche Angriffe, welche praktisch jedes einzelne Deiner Posts enthält (welches nicht bereits moderiert wurde)?

14LPE und 14LPP sind größtenteils kompatibel, eben genau um einen einfachen und kostengünstigen Wechsel zu ermöglichen:


14LPE and 14LPP share the same design rules and most of the equipment is the same. [...] The Back-End-Of-Line (BEOL) is the same but 14LPP has some transistor enhancements. [...]

https://www.semiwiki.com/forum/content/5119-globalfoundries-14nm-process-update.html


The two processes LPE and LPP have the same design rules for fast migration.


https://www.semiwiki.com/forum/content/3895-globalfoundries-samsung-arm.html

Natürlich bedeutet eine Umstellung gewisse Kosten, aber auch eine normale neue Revision innerhalb eines Nodes gibt es nicht kostenlos.

Unicous
2017-03-21, 15:38:28
Du brauchst trotzdem einen neues Design. :up:


Und die Zitate helfen dir leider auch nicht, denn das Wichtigste lässt du außen vor.;)

http://news.mynavi.jp/articles/2015/12/28/processing/images/028.jpg

Skysnake
2017-03-21, 16:12:33
Nein, da muss ich ihm Recht geben Unicous. Es ist nicht klar, ob man da ein Redesign des Chips braucht.

Also zumindest für den Digitalkram würde ich sagen nein, da musste wohl wirklich nichts daran machen.

Am Ende läuft es halt nur mit mehr Takt.

Dabei sollte aber natürlich klar sein, das man damit dann nicht das Optimum aus dem neuen Prozess raus holt, weil man ja eventuell anders hätte verdrahten können. Bringen sollte es aber schon etwas.

Unicous
2017-03-21, 17:45:01
Du musst ihm recht geben weil es nicht klar ist?

Entschuldige, aber dieses Argument ist mir ein wenig zu dürftig.:rolleyes:

Skysnake
2017-03-21, 18:33:18
Wenn man wirklich die gleichen Designrules hat braucht man wahrscheinlich kein redesign.

Glaubt man der Aussage kann man ihm folgen in dem Punkt. Ist halt nur die Frage was mit dem analogkram ist...

Zudem glaube ich die Sache mit LPE nicht. Nur so btw

BoMbY
2017-03-21, 18:51:52
Also soweit ich das verstehe, könnte man im Prinzip das gleiche Design nehmen, und statt durch den 14LPE-Generator durch den 14LPP-Generator schicken, und es sollte prinzipiell funktionieren.

Natürlich muss man das Ergebnis auf allen Folgestufen normal verifizieren, aber das müsste man halt auch bei einer normalen neuen Revision machen, welche Änderungen am Grunddesign beinhalten.

Die Grundfrage wäre erstmal was Polaris 20 überhaupt ist?

AffenJack
2017-03-21, 18:55:07
Die Grundfrage wäre erstmal was Polaris 20 überhaupt ist?

Nö, die Grundfrage ist erstmal ob es P20 überhaupt gibt und es nicht alles ausgedacht wurde, wovon ich eher ausgehe.

Gipsel
2017-03-21, 19:20:03
Also soweit ich das verstehe, könnte man im Prinzip das gleiche Design nehmen, und statt durch den 14LPE-Generator durch den 14LPP-Generator schicken, und es sollte prinzipiell funktionieren.Wie Skysnake schon angedeutet hat, bedeutet "es funktioniert" nicht, daß es sehr gut oder gar optimal funktioniert. Wenn man das identische physische Design statt mit LPE einfach nur mit LPP produziert, wird es sicher nicht langsamer, aber vermutlich verschenkt man Einiges von den potentiellen Vorteilen (sowohl Geschwindigkeit als auch Energieverbrauch, da man an einigen Stellen ab und zu wohl einen anderen Transistortyp gewählt hätte, wenn man von vornherein auf die Eigenschaften von LPP optimiert hätte), ein neues Tapeout eines angepaßten physischen Designs wäre also performanter und/oder energieeffizienter.

Aber wie auch schon von Anderen gesagt, halte auch ich die These mit dem Schritt von LPE=>LPP für wenig wahrscheinlich, falls AMD nicht noch sowas selber verlautbart. Bisher hat man mehrere plausible Quellen, die seit 2015 nur von LPP sprechen und keine für LPE. Das ist im Prinzip nicht mehr als ein Gerücht.

Odal
2017-03-22, 00:19:08
Polaris' Frontend ist gut, das sieht man daran, dass entsprechende Grafikkarten in Full HD das beste Leistungsverhältnis gegenüber den schnellsten Grafikkarten erreichen. Das heißt, dass sie sich selbst auslasten können. Hawaii und Fiji gelingt das erst in hohen Auflösungen (wo Fiji dann wegen 4 GiB absäuft ...). Polaris braucht daher entweder Takt oder zusätzliche Rechenwerke (ALUs), um schneller zu werden. Mehr als zehn Prozent effektiver Leistung ist ohne Architekturänderungen aber nicht drin. Daher kann man bei Vega hoffen.

MfG,
Raff

Das ist natürlich ein Argument. Allerdings erklärt zuwenig ALUs nicht den geringen Unterschied (taktnormiert) zw. P10 XT und P10 Pro (12,5% mehr ALUs).

Palpatin
2017-03-22, 08:18:40
Das ist natürlich ein Argument. Allerdings erklärt zuwenig ALUs nicht den geringen Unterschied (taktnormiert) zw. P10 XT und P10 Pro (12,5% mehr ALUs).
Das stimmt. 480 und 470 skalieren sehr gut mit Takt, die mehr ALUs die die 480 Gegenüber der 470 hat, bringt die 480 so gut wie nirgendes auf die Straße.
470 liegt vom Frontend gut im Sweet Spot.

HOT
2017-03-22, 08:47:47
Das liegt nicht am Frontend sondern an ser Bandbreite. Da ist die 470 kuenstlich beschnitten, um Abstand zu erzeugen, das sieht man gut an der sapphire.

pilzsammler2002
2017-03-22, 09:03:12
Das liegt nicht am Frontend sondern an ser Bandbreite. Da ist die 470 kuenstlich beschnitten, um Abstand zu erzeugen, das sieht man gut an der sapphire.

Jap die Sapphire ist ansich die einzige 470 8GB die man empfehlen kann... Bisher 3 gehabt und alle liesen sich auch gut undervolten :freak:

Palpatin
2017-03-22, 09:25:24
Das liegt nicht am Frontend sondern an ser Bandbreite. Da ist die 470 kuenstlich beschnitten, um Abstand zu erzeugen, das sieht man gut an der sapphire.
Das unterstreicht doch die These das das Frontend bei der 480 die 12,5% mehr Alus bei gleichem Takt und gleicher Bandbreite zur 470 eben nicht auf die Straße bringt.

Dino-Fossil
2017-03-22, 12:01:19
Das unterstreicht doch die These das das Frontend bei der 480 die 12,5% mehr Alus bei gleichem Takt und gleicher Bandbreite zur 470 eben nicht auf die Straße bringt.

Wobei die Bandbreite bei den meisten 470ern etwas geringer ist, da der Speicher niedriger getaktet wird.

Der_Korken
2017-03-22, 15:56:43
Bei der Frage 32 vs 36 CUs finde ich den folgenden Test immer sehr gut:

https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/#abschnitt_die_einheitenskalierung_im_benchmark

Stand August 2016 brachten die 12,5% ALUs der 480 bei gleichen Chip- und Speichertakt 4,3% Mehrleistung im Schnitt. Der größte Ausreißer nach oben war Anno mit +10%. Das kann sich durch neuere Treiber aber natürlich wieder etwas zugunsten der 480 verschoben haben. Prinzipiell limitiert bei der 480 aber eher nicht die Anzahl der CUs.

AffenJack
2017-03-22, 17:40:56
Da betrachtet man aber bei gleicher Bandbreite und P10 mag Bandbreite schon ganz gern. Daher kann man davon keine Aussagen in Sachen Shaderauslastung tätigen. Das ist ja sowieso schwer, aber würde schon eher gehen, wenn man den Ram so runtertaktet, dass er dem Rechenleistungsunterschied entspricht. Aber selbst dann hat man bei gleichem Takt auch die gleiche Pixelfüllrate dank gleich viel ROPs und P10 hat ganz schön wenig Pixelfüllrate. Das sind alles Dinge die es verhindern, dass man wirklich sagen kann wie gut das Frontend den Chip nun auslasten kann.

BoMbY
2017-03-22, 17:44:53
Ich hab das mal mit der Single Core vs. Multi Core Performance verglichen. Bei 1080p skaliert es IMHO besser mit den MHz als den CUs, je höher die Auflösung wird, desto mehr werden die CUs interessant.

Interessant fände ich zum Beispiel mal einen Test bei verschiedenen Auflösungen, mit gleicher theoretischer TFlop/s-Leistung, aber unterschiedlichen CUs, am besten in der gleichen Generation. Also z.B. Tonga XT mit 32 CUs bei 1000 MHz vs. Fiji mit 64 CUs und 500 Mhz - wobei man da dann noch das Problem mit dem total unterschiedlichen RAM hätte.

Der_Korken
2017-03-22, 17:45:31
Da betrachtet man aber bei gleicher Bandbreite und P10 mag Bandbreite schon ganz gern. Daher kann man davon keine Aussagen in Sachen Shaderauslastung tätigen. Das ist ja sowieso schwer, aber würde schon eher gehen, wenn man den Ram so runtertaktet, dass er dem Rechenleistungsunterschied entspricht.

Den RAM bei 32CUs runterzutakten, macht auch keinen Sinn, denn dann weiß ich ja nicht mehr, ob der gemessene Unterschied auf die fehlenden CUs oder den langsameren VRAM zurückzuführen ist. Wenn dann müsste man die GPUs untertakten, weil dann der VRAM einfach nie limitiert. Man kann aber festhalten: Entweder skaliert das Frontend schlecht über 32 CUs hinaus oder der VRAM limitiert so stark, dass ein schnellerer Polaris-Chip ohne schnellen VRAM verschenkt wäre.

dargo
2017-03-22, 18:31:57
Bei der Frage 32 vs 36 CUs finde ich den folgenden Test immer sehr gut:

https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/#abschnitt_die_einheitenskalierung_im_benchmark

Stand August 2016 brachten die 12,5% ALUs der 480 bei gleichen Chip- und Speichertakt 4,3% Mehrleistung im Schnitt. Der größte Ausreißer nach oben war Anno mit +10%. Das kann sich durch neuere Treiber aber natürlich wieder etwas zugunsten der 480 verschoben haben. Prinzipiell limitiert bei der 480 aber eher nicht die Anzahl der CUs.
Der Vergleich ist auch etwas ungünstig wenn P10 stark an der Bandbreite hängt. Bei +12,5% CUs hätte man auch ruhig den Speicher auf 2250Mhz anheben sollen. Zumindest in Anno (nicht jedes Spiel hängt extrem an der Aluleistung) hättest du dann sicherlich die vollen +12,5% gesehen.

HOT
2017-03-22, 19:48:15
Der Chip wird die 4 mehr CUs 1:1 umsetzen können, wenn die Bandbreite da wäre.

mczak
2017-03-22, 21:33:16
Der Chip wird die 4 mehr CUs 1:1 umsetzen können, wenn die Bandbreite da wäre.
Nicht unbedingt, gibt ja auch andere Limitierungen - Frontend, Rasterizer, ROPs...
So als Faustregel, die CUs benötigen eigentlich immer ungefähr die Hälfte der Fläche (je nach Chip etwas mehr oder weniger) des Chips - wenn also eine Erhöhung der Anzahl CUs um x % eine Performancesteigerung bringt um x/2 % ist das ganz ok.

N0Thing
2017-03-23, 16:44:07
Nö, die Grundfrage ist erstmal ob es P20 überhaupt gibt und es nicht alles ausgedacht wurde, wovon ich eher ausgehe.

Wenn es einen P20 gibt, erwarte ich ein ähnliches Verhältnis zum P10 wie man es von Grenada und Hawaii kennt.

dildo4u
2017-03-29, 22:12:46
Die Referenz 580 kommt scheinbar mit 8xPin Stecker.

https://videocardz.com/67693/amd-radeon-rx-570-and-580-exposed

reaperrr
2017-03-29, 22:37:09
Die Referenz 580 kommt scheinbar mit 8xPin Stecker.

https://videocardz.com/67693/amd-radeon-rx-570-and-580-exposed
Alles andere hätte mich auch stark überrascht.
Selbst wenn die 580 ein paar Watt weniger als die 480 bräuchte (was ich bezweifle), alles andere als auf 8pin zu gehen wäre allein schon aus PR-Sicht viel zu riskant, egal ob es in der Praxis nötig ist oder nicht.

TGKlaus
2017-03-29, 22:49:36
Haette man sich hier nicht besser das Referenzmodell sparen sollen?

reaperrr
2017-03-29, 23:00:32
Haette man sich hier nicht besser das Referenzmodell sparen sollen?
Es bleibt abzuwarten, inwiefern das so in den Handel kommt. Aber für interne Tests brauchte AMD eh ein Referenzboard, und evtl. braucht die 580 auch ein verbessertes PCB, um die gewünschten Taktraten bei gewünschtem Verbrauch zu erreichen.
Bei manchen Boardpartnern kann man sich nicht drauf verlassen, dass die das zum Launch gut genug hinbekommen würden, dann ist es sicherer, ein Referenzdesign zu haben, um denen mehr Zeit zu geben.

Bei der 570 denke ich, dass die gar nicht als Referenzdesign in den Handel kommt (außer vielleicht von Sapphire, die eh die Referenzdesigns für AMD produzieren und schon die 470 als einzige mit Referenzlüfter gebracht haben).

Schaffe89
2017-03-29, 23:20:57
Die Referenz 580 kommt scheinbar mit 8xPin Stecker.

https://videocardz.com/67693/amd-radeon-rx-570-and-580-exposed

Scheint mir eher so als obs überhaupt keine Änderung geben wird, sondern einfach nen sinnlosen Aufguss.
Das Referenzmodell ist Müll, mal schauen ob sie diesmal wenigstens innerhalb der Spezifikationen bei der RX570 bleiben.
Alleine schon für die Einsteigerkarten so hohe Nummern zu wählen is schon Verarsche genug.

Der_Korken
2017-03-29, 23:57:53
Die Profikarte, die auf der RX480 basiert (Radeon Pro WX7100) zieht laut THG nur 137W und taktet kaum langsamer als die Referenzkarte (164W).

http://www.tomshardware.com/reviews/amd-radeon-pro-wx-7100,4896-4.html

Mit einem Dualslot-Kühler hätte man sicher noch etwas am Takt drehen können, ohne dass die Karte über 150W geht oder zu heiß wird. Man hätte die Modelle dann zur Sicherheit lieber RX560/570 nennen sollen. Der 8-pin-Stecker und die 80er Nummer sehen aber eher so aus, als würde man den Brüllwürfel zu Lasten des Verbrauchs (und der Lautstärke) noch weiter übertakten wollen.

Nightspider
2017-03-30, 00:48:14
Bekommt die RX580 jetzt ernsthaft keinen schnelleren GDDR5?

Gibts davon zu wenig oder was? -.-

Bandbreite ist imo das Hauptproblem von Polaris.

iuno
2017-03-30, 00:50:23
Wo gibt es denn >8 Gbps?
Ausserdem koennen AIBs ja customs mit OC bringen.

Nightspider
2017-03-30, 00:52:52
Gibts nicht schon seit letztem Jahr von Samsung 9gbps GDDR5?

Agent117
2017-03-30, 01:04:42
Ja, gibt es. Da wird leider Potential verschenkt, um die 580 wenigstens 10% schneller als die 480 zu bekommen. Wahrscheinlich schafft P10s MC die 9GT/s nicht zu einem hinnehmbaren Verbrauch. Übertakten konnte man den MC der 480 ja auf 4,5Ghz und den Speicher auf 9GT/s aber über den Verbrauch dabei weiß ich nix und auch nicht, ob es wirklich mit jedem Chip oder zumindest ausreichend vielen möglich war.

victore99
2017-03-30, 06:12:53
wenns nicht möglich ist, macht man es wie von Hawaii auf Grenada. Kleine Änderungen am Memory Controller und aufeinmal gingen 20% mehr Takt. Muss doch bei Polaris auch zu kleinem Preis gehen?

dildo4u
2017-03-30, 11:05:16
Wo gibt es denn >8 Gbps?


http://abload.de/img/a0e68eef1f198901b5304i7scg.jpg

Dino-Fossil
2017-03-30, 11:31:11
In Anbetracht der geleakten Taktraten (falls die stimmen) und des 8pin-Steckers, scheint es mir aktuell eher unwahrscheinlich, dass "P20" auf einem deutlich verbesserten Verfahren gefertigt wird.

HOT
2017-03-30, 11:56:07
Die Referenz bekommen keinen schnelleren RAM, das ist einfach nur Kostensache. Wenn die RX580 auf 199$ fallen muss man jeden Cent umdrehen.

Aber ich denke schon, dass es einen Polaris20 gibt, nur ist der ganz einfach LPP+, das wird kaum was ändern, nur AMDs Produktionskosten reduzieren.
Den 8-Pin-Stecker hat man doch nur deshalb verbaut, weil der 6-Pin-Stecker so schlecht angekommen ist. Das wird er einzige Grund sein. Die Blöße mit der verkackten Stromversorgung gibt man sich kein 2.s Mal.

Dino-Fossil
2017-03-30, 12:02:21
Ja, es gab ja nur die Spekulationen, dass P20 dank LPP jetzt viel besser wird als P10.
Aber das kam mir immer eher wie Wunschdenken vor. Zumal P10 auch nicht schlecht ist/war (ich hab ja selbst ne 480).

iuno
2017-03-30, 12:22:04
http://abload.de/img/a0e68eef1f198901b5304i7scg.jpg
https://i.imgur.com/MJK2dKy.png
Aber Nightspider hat die Frage eh schon beantwortet.

Pirx
2017-03-30, 12:22:38
In Anbetracht der geleakten Taktraten (falls die stimmen) und des 8pin-Steckers, scheint es mir aktuell eher unwahrscheinlich, dass "P20" auf einem deutlich verbesserten Verfahren gefertigt wird.
Jupp - wozu aber dann überhaupt der ganze Aufwand? Das hätte alles auch wunderbar ins bisherige 4xx-Schema gepasst.

iuno
2017-03-30, 12:24:16
Weil sich hoehere Zahlen besser verkaufen. Warum kommt die Frage jedes Jahr?
Mir waere es anders auch lieber, hilft aber nichts.

Noebbie
2017-03-30, 12:58:11
Waren die Folien mit dem Erklärungen zu dem Namensschema fake oder wurden die einfach von AMD wieder verworfen?

Eigentlich müssten sich die Karten doch RX 471 und RX 481 nennen (etc).

HOT
2017-03-30, 14:16:04
Ja, es gab ja nur die Spekulationen, dass P20 dank LPP jetzt viel besser wird als P10.
Aber das kam mir immer eher wie Wunschdenken vor. Zumal P10 auch nicht schlecht ist/war (ich hab ja selbst ne 480).
Die Karte ist halt so wie sie ist auch gut, besser wirds halt nur mit tile cache rendering.

iuno
2017-03-30, 14:25:24
Waren die Folien mit dem Erklärungen zu dem Namensschema fake oder wurden die einfach von AMD wieder verworfen?

Eigentlich müssten sich die Karten doch RX 471 und RX 481 nennen (etc).
485 waere vorgesehen gewesen. Die waren schon echt, aber die Thematik offenbar nicht wirklich ernst gemeint.

Dino-Fossil
2017-03-30, 14:31:16
Ich schätze den Marketingleuten wurde klar, dass sich eine 5xx am Markt besser macht als eine 4x5.
Das Schema war zwar technisch einigermaßen sinnvoll, aber nicht für Werbezwecke. Denke das kam aus der Technikabteilung und wurde vom Marketingpraktikanten ohne Rücksprache mit dem Vorgesetzten abgenickt. :freak:

Agent117
2017-03-30, 14:58:29
Mal noch ein anderer Gedanke. Ich habe nochmal par Tests zu RX 480 Partnerkarten überflogen und mir ist aufgefallen, dass die 1340Mhz Chiptakt der 580 doch recht brutal für P10 sind, was die Leistungsaufnahme betrifft.

Hier zum Beispiel die Sapphire RX 480 Nitor+ mit 1330 Mhz braucht schon 220W und hält laut Toms hardware nichtmal den Takt.

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS85L1cvNjUyMjQ0L29yaWdpbmFsLzAwLVBvd2VyLUNv bnN1bXB0aW9uLnBuZw==

Das deckt sich auch in etwa mit den Messungen von Computerbase

https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-oc-test/5/


Klar hat die Nitro + ein recht großzügiges Powerlimit und die RX 580 Referenz wird, wie die 480 Referenz, den Maximaltakt wohl oft nicht halten, sollte im Mittel aber schon um den relativen Betrag der Taktratenerhöhung von der 480 zur 580 höher takten, um auch etwas mehr Leistung zu bringen.

Da bedarf es meiner Meinung dann schon Prozessverbesserungen, denn ich kann mir nicht vorstellen, dass AMD für die Referenz auf 200W geht.
Wie hoch sollen denn dann die Partnerkarten takten, packen die dann die 1400Mhz ab Werk ?

Mangel76
2017-03-30, 15:27:40
Mal noch ein anderer Gedanke. Ich habe nochmal par Tests zu RX 480 Partnerkarten überflogen und mir ist aufgefallen, dass die 1340Mhz Chiptakt der 580 doch recht brutal für P10 sind, was die Leistungsaufnahme betrifft.

Hier zum Beispiel die Sapphire RX 480 Nitor+ mit 1330 Mhz braucht schon 220W und hält laut Toms hardware nichtmal den Takt.

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS85L1cvNjUyMjQ0L29yaWdpbmFsLzAwLVBvd2VyLUNv bnN1bXB0aW9uLnBuZw==

Das deckt sich auch in etwa mit den Messungen von Computerbase

https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-oc-test/5/


Klar hat die Nitro + ein recht großzügiges Powerlimit und die RX 580 Referenz wird, wie die 480 Referenz, den Maximaltakt wohl oft nicht halten, sollte im Mittel aber schon um den relativen Betrag der Taktratenerhöhung von der 480 zur 580 höher takten, um auch etwas mehr Leistung zu bringen.

Da bedarf es meiner Meinung dann schon Prozessverbesserungen, denn ich kann mir nicht vorstellen, dass AMD für die Referenz auf 200W geht.
Wie hoch sollen denn dann die Partnerkarten takten, packen die dann die 1400Mhz ab Werk ?

Naja, die Sapphire wird aber auch mit einer ordentlichen GPU-Spannung laufen ootb. Meine RX480 Red Devil will auch 1150 mV für 1330MHz einstellen. Wenn ich das im Wattman auf 1060 mV stelle, ist sie trotzdem stabil und verbraucht deutlich weniger. Vielleicht gibt es ja doch ein paar Prozessverbesserungen, die die nötigen Spannungen weniger weit streuen lassen. Dann kann man generell mit etwas geringeren Spannungen arbeiten und der Stromverbrauch hält sich auch in höheren Frequenzen in Grenzen.

Der_Korken
2017-03-30, 15:45:06
Mal noch ein anderer Gedanke. Ich habe nochmal par Tests zu RX 480 Partnerkarten überflogen und mir ist aufgefallen, dass die 1340Mhz Chiptakt der 580 doch recht brutal für P10 sind, was die Leistungsaufnahme betrifft.

Hier zum Beispiel die Sapphire RX 480 Nitor+ mit 1330 Mhz braucht schon 220W und hält laut Toms hardware nichtmal den Takt.

Die 1340 Mhz werden wie bei der 480 der maximale Boost sein. Letztere hat trotz 1266 max. Boost in der Praxis auch eher mit ~1180 Mhz getaktet. Auf die 580 übertragen kann man vielleicht so mit ~1260Mhz rechnen. Was ja auch völlig OK ist, denn wenn ich eine Karte so konfiguriere, dass sie eher mit max. Boost taktet, dann kann ich mir Sache auch sparen und wieder feste Taktraten vergeben wie zu Fermi/GCN 1.0-Zeiten (ich schreib das nur, weil ich immer das Gefühl habe, dass viele "den Boost halten" als Qualitätsmerkmal auffassen, dabei ist es eigentlich optimal den Boost immer höher so hoch zu wählen, dass er selten erreicht wird).

Screemer
2017-03-30, 18:10:29
also ich kenne keine ordentlich gekühlte 480 die nicht mind. 1300 dauerhaft hält, wenn man die vcore auf 1100mv anpasst. leider kenne ich auch keine die das als standard vcore hat... meine läuft mit 1087mv und 1340/2100MHz ohne jemals zu droppen.

Rampage 2
2017-03-30, 18:41:06
... meine läuft mit 1087mv und 1340/2100MHz ohne jemals zu droppen ...

Lässt sich der Speicher der 480 so schlecht übertakten?:eek: Die 1070 verwendet den gleichen Speicher (8Gbps) und schafft fast immer mindestens 2250MHz (also 9Gbps) oder mehr...

R2

Screemer
2017-03-31, 00:18:46
nicht getestet.

Schaffe89
2017-03-31, 01:35:41
Ich schätze den Marketingleuten wurde klar, dass sich eine 5xx am Markt besser macht als eine 4x5.

Wenn mans genau nimmt ist das schon ziemlich granzwertiges Umlabeln.
Die Geschichte mit dem LPP glaub ich persönlich nicht und für alles andere benötigt man hier innerhalb eines Jahres definitiv kein solches "Verarsche" Update. Das ist fast schlimmer als 8800gt zu 9800gt und Nvidia wurde dafür stramm in den Communities kritisiert, bei der RX580 bleibt die Kritik eher aus.

Entweder es liegt am Underdogbonus oder die Leute sind von solchen Namensgeschichten schon abgestumpft, vermutlich letzteres.

Mal noch ein anderer Gedanke. Ich habe nochmal par Tests zu RX 480 Partnerkarten überflogen und mir ist aufgefallen, dass die 1340Mhz Chiptakt der 580 doch recht brutal für P10 sind, was die Leistungsaufnahme betrifft.

Ich würde mich nicht wundern, wenn der Strombedarf der RX580 20/30 Watt über einer RX480 liegt. Hängt alles vom Powertarget ab.
Und wenn AMD wirklich eine Mehrleistung bringen will, muss der reale Takt schon nahe am Boost liegen, ansonsten wäre es einfach nur peinlich.
Warum man überhaupt nochmal Referenzdesigns auflegt und nicht wie bei der R9 390/390x nur Customdesigns erlaubt, ist für mich der einzige spannende Aspekt.

Screemer
2017-03-31, 09:40:36
..., bei der RX580 bleibt die Kritik eher aus.

Entweder es liegt am Underdogbonus oder die Leute sind von solchen Namensgeschichten schon abgestumpft, vermutlich letzteres.

Wie immer du weist noch nicht mal was kommt aber natürlich sind die amd fanboys schon wieder nicht fähig unveröffentlichte Produkte zu kritisieren.

Mangel76
2017-03-31, 09:43:35
Wenn mans genau nimmt ist das schon ziemlich granzwertiges Umlabeln.
Die Geschichte mit dem LPP glaub ich persönlich nicht und für alles andere benötigt man hier innerhalb eines Jahres definitiv kein solches "Verarsche" Update. Das ist fast schlimmer als 8800gt zu 9800gt und Nvidia wurde dafür stramm in den Communities kritisiert, bei der RX580 bleibt die Kritik eher aus.

Entweder es liegt am Underdogbonus oder die Leute sind von solchen Namensgeschichten schon abgestumpft, vermutlich letzteres.


Ich glaube auch nicht an LPE/LPP oder sonstige große Änderungen. Das hat aber auch nichts mit abgestumpft oder so zu tun. Das ist reines Marketing für die OEMs. Die schreien jedes Jahr nach neuen Bezeichnungen, die sie auf ihre Flyer drucken können, um ihre 0815-Kisten loszuwerden. Und wenn AMD da auch wieder ein wenig mitmischen will, müssen sie sich diesen Forderungen beugen. Vielleicht hatten sie wirklich vor, nur noch die letzte Ziffer zu ändern, wer weiß? Aber dann sagt ein Großkunde, ne, dass verkauft uns keine PCs, wir brauchen vorne ne Änderung, damit es nach "mehr" Neuerung aussieht. Der informierte Forumsleser mag sich darüber aufregen, aber so werden bei Media Markt, Saturn und Co eben Computer verkauft:
Verkäufer: "Hier ist unser neuestes Super-Gaming-Modell mit der brandneuen RX580 Grafikkarte für nie gesehene Grafikleistung!"
Browser-Game-Kiddie: "Au ja, Mami, den muss ich haben!";D

horn 12
2017-04-04, 22:33:02
WCCTECH hatte gerade eben für einige Sekunden die Performance der folgenden GPU´s:
RX 580 / 570 und 560 (550) Geleakt!

Erstaunlicherweise doch größerer Perforrmance Schub mit OC auf 1500 Mhz als angenommen, fast Fury Performance so wie es scheint!
RX 580 taktet mit etwa 1340 bis 1400+ Mhz, OC bis um 1500+ Mhz möglich gewesen.

Hier nun wieder present:
http://wccftech.com/amd-radeon-rx-580-570-560-3dmark-performance-benchmarks/

Gipsel
2017-04-04, 22:38:40
WCCTECH hatte gerade eben für einige Sekunden die Performance der folgenden GPU´s:
RX 580 / 570 und 560 (550) Geleakt!

Erstaunlicherweise doch größerer Perforrmance Schub als angenommen, fast Fury Performance so wie es scheint!
RX 580 taktet mit stolzen 1500+ Mhz

Hier nun wieder present:
http://wccftech.com/amd-radeon-rx-580-570-560-3dmark-performance-benchmarks/Nicht ganz. Standardtakt soll 1340MHz sein. Laut WCCFTech (wie zuverlässig das auch sein mag) lassen sich die Karten angeblich auf 1,5GHz übertakten und es gibt angebliche 3DMark-Zahlen auf diesen angeblich erreichten Taktraten.

dildo4u
2017-04-04, 22:53:14
480 liefen schon mit 1.5Ghz im 3DMark,die frage ist wie stabil das ist wenn die GPU länger belastet wird.

http://www.3dmark.com/fs/11620985

http://www.3dmark.com/fs/10335675

http://www.3dmark.com/fs/11871901

AffenJack
2017-04-04, 23:01:57
Nicht ganz. Standardtakt soll 1340MHz sein. Laut WCCFTech (wie zuverlässig das auch sein mag) lassen sich die Karten angeblich auf 1,5GHz übertakten und es gibt angebliche 3DMark-Zahlen auf diesen angeblich erreichten Taktraten.

WTFTech waren auch die, die schon bei der RX480 geschrieben haben, dass 1,5Ghz Übertaktung drin ist und wir wissen wie das ausgegangen ist. 2mal die gleiche Leier wird langweilig. Wahrscheinlich schaffen ja ein paar Glücksexemplare die Geschwindigkeit, die Regel wird das aber bestimmt nicht.

StefanV
2017-04-05, 03:41:16
Ja, nur mag man nicht ausschließen, dass es Änderungen gab, die höheren Takt ermöglichen.
Wie schon damals Hawaii -> Grenada...

TGKlaus
2017-04-05, 22:47:02
Mir würde ja schon ausreichen, wenn die Sapphire Nitro nen besseren Kühler bekommt und der Verbrauch etwas sinkt bei gleichbleibender Leistung

victore99
2017-04-05, 23:29:45
und dass generell mal gute Kühler gebaut werden.. also zum Beispiel Gigabyte..

Screemer
2017-04-05, 23:30:59
der kühler der asus strix ist auch super. gibt schon ordentliche 480er.

dildo4u
2017-04-08, 09:25:11
Gigabyte 580/570/550.


https://videocardz.com/68099/exclusive-gigabyte-radeon-rx-500-series-unveiled

Godmode
2017-04-09, 09:24:13
Gibt es schon Infos zu den Preisen der RX500 Serie?

aceCrasher
2017-04-09, 14:29:56
Gibt es schon Infos zu den Preisen der RX500 Serie?

Ja, im Videocardz Artikel über die Saphire Karten sind Preise zu sehen.

https://videocardz.com/67841/sapphire-radeon-rx-500-series-also-listed-online

Unicous
2017-04-09, 15:08:20
Das sind mit sehr großer Wahrscheinlichkeit Platzhalter, zudem scheinen das belgische Preise zu sein, und da beträgt die MwSt. 21%. Also nein, es gibt keine konkreten Infos zu den Preisen, ich würde aber mal ganz scharf davon ausgehen, dass sie sich an den Launchpreisen der 400er Serie orientieren.

Godmode
2017-04-09, 16:08:12
Ok, so lange dauert es ja nicht mehr. RX470 wurden jetzt zum Ende hin richtig verschleudert. 182 € zb. für die Saphire RX 470 4G Nitro+.

Screemer
2017-04-09, 16:11:56
Ok, so lange dauert es ja nicht mehr. RX470 wurden jetzt zum Ende hin richtig verschleudert. 182 € zb. für die Saphire RX 470 4G Nitro+.
Wirklich günstig war die asus strix 480 für 199€ inkl. Doom. Bin echt mal gespannt ob sich zur 580 viel tut. Ich bezweifle es.

Demogod
2017-04-09, 18:26:32
Ich will mir ja auch in ~3 Wochen ne 470 mit 4 GB holen (und dann nächstes Jahr ne Vega mit 8 GB HBM.. wenn die Preise vom HBM auch generell gedroppt sind). Allerdings will ich ne 470 die OOTB mit Hackintosh funktioniert und da habe ich nach kurzer Recherche irgendwie noch keine definitive Aussage (Reddit und TonyMacX)

Godmode
2017-04-09, 18:38:35
Ich will mir ja auch in ~3 Wochen ne 470 mit 4 GB holen (und dann nächstes Jahr ne Vega mit 8 GB HBM.. wenn die Preise vom HBM auch generell gedroppt sind). Allerdings will ich ne 470 die OOTB mit Hackintosh funktioniert und da habe ich nach kurzer Recherche irgendwie noch keine definitive Aussage (Reddit und TonyMacX)

Da musst du Glück haben. Aktuell bekommt man so gut wie keine RX470/RX480 mehr, außer irgendwelche komischen Modelle, die niemand haben will.

Demogod
2017-04-09, 19:23:40
was wären so generell deine Kriterien?? dual fan?

Rampage 2
2017-04-09, 20:07:12
Solange die 1060 (6GB) und die RX480/580 (8GB) inkl. Custom-Designs ~ 250€ oder mehr kosten, haben beide keine Daseinsberechtigung - Billig-1070er bekommt man schon für unter 400€ und selbst diese müsste im Preis runter (runter auf 299$ -> Endpreis in Europa dann 350-400€). Die MSRP der 1060/480/580 müsste mindestens 50$ runtergehen (249$ -> 199$).

Ergo:

1060-6G/RX480-8G/RX-580-8G : 199$

1070: 299$

1080: 450-500$

Mal sehen, ob Vega was an der Preisgestaltung ändert...

R2

Demogod
2017-04-09, 22:11:00
n weniger als 1 Jahr alter Chip (480) mit 8GB für <=200€ wäre allerdings ne Hausnummer und mMn auch ein wenig Träumerei. Für die 470 mit 4GB möchte ich allerdings eigtl auch nicht viel mehr als ca 160/170 ausgeben..

Rampage 2
2017-04-10, 01:54:41
n weniger als 1 Jahr alter Chip (480) mit 8GB für <=200€ wäre allerdings ne Hausnummer und mMn auch ein wenig Träumerei.


Es wären ja nicht 200€, sondern mehr - bei aktuellem Euro-Kurs würde der Spaß bei 225+ € losgehen; Custom-Designs sogar deutlich mehr...


Für die 470 mit 4GB möchte ich allerdings eigtl auch nicht viel mehr als ca 160/170 ausgeben..

mMn dürften AMD (4GB) und Nvidia (3GB) solche GPUs gar nicht erst anbieten - das ist verantwortungslos und eine Fortschrittsbremse! Wie sollen Spieleentwickler denn großzügig HiRes-Texturen und/oder große Spielwelten einsetzen, wenn immer noch eine beträchtliche Anzahl an Spielern noch mit 3-4GB VRAM rumeiern, weil ein paar Idioten sich im Jahr 2017 noch immer solche Karten gekauft haben...!?

Meine 4GB 770 reicht bereits jetzt schon nicht mehr aus - aber die hatte ich auch bereits 2014 gekauft...

R2

iuno
2017-04-10, 02:39:42
Was ist dein Problem? Deshalb hat jedes Spiel auch low res Texturen.

Demogod
2017-04-10, 10:19:45
ausserdem hat AMD doch festgestellt, dass viele Spiele die lokal (auf der Graka) alloziierten GBs garnicht ständig nutzen. Und wenn sie dann vernünftig in der Lage sind, dynamisch auch Systemram zu nutzen (als Cache.. in der Pyramide eins weiter unten) sollten 4 GB doch noch ein weilchen genügen..

BoMbY
2017-04-11, 12:51:58
Ist es jetzt heute, oder erst nächste Woche, für die RX 500 Serie? Ich schätze nächste Woche, um nicht mit den neuen Ryzen zu kollidieren?

dildo4u
2017-04-11, 13:09:13
Ist es jetzt heute, oder erst nächste Woche, für die RX 500 Serie? Ich schätze nächste Woche, um nicht mit den neuen Ryzen zu kollidieren?
17.April.

https://www.heise.de/newsticker/meldung/Radeon-RX-500-AMDs-naechste-Grafikkartenserie-erscheint-am-17-April-3656579.html

BoMbY
2017-04-13, 13:51:53
Schlechte Bilder von RX 500 Serie Folien: http://jisakutech.com/archives/2017/04/33003

[MK2]Mythos
2017-04-13, 14:39:49
Kein Direct Heat Exhaust mehr, heatpipes, das Referenz Design sieht ziemlich teuer aus.

Godmode
2017-04-13, 14:43:25
Schlechte Bilder von RX 500 Serie Folien: http://jisakutech.com/archives/2017/04/33003

Kein DHE-Design mehr? :confused:

Botcruscher
2017-04-13, 14:47:09
Nur im Vergleich zu einem einfach Alublock.

mboeller
2017-04-13, 14:55:23
Schlechte Bilder von RX 500 Serie Folien: http://jisakutech.com/archives/2017/04/33003

ein Vergleich mit der 380X; was soll das?

Dino-Fossil
2017-04-13, 15:00:17
380 -> 580

Mittelklasse vs. Mittelklasse. Offenbar kein Vergleich mit der 480, weil man da kaum einen Fortschritt hätte. Marketing halt.

Unicous
2017-04-13, 15:00:47
Ergibt schöne Balken und Faktoren.:freak:

Tru
2017-04-13, 15:09:01
"3rd Gen FinFET 14“ :popcorn:

Linmoum
2017-04-13, 15:12:26
Ergibt schöne Balken und Faktoren.:freak:
Mit "up to 1.1X higher Performance" lockst du halt niemanden hinter dem Ofen hervor. :tongue: Viel mehr, wenn überhaupt, wird es nicht werden. Es sei denn, das Referenzdesign taktet diesmal am oberen Limit, das der 480 hing ja idR irgendwo bei 11XX rum.

iuno
2017-04-13, 15:16:08
Ich gehe schon davon aus, dass die Referenz schon auch naeher oder ganz am boost max bleibt. Sonst haetten sie gar nicht erst einen neuen Kuehler bringen muessen. Das Ding aehnelt ja zumindest optisch schon mal dem Design von Sapphire, das iirc ganz ok war.
€: CB sah damals nur PT Limitierungen: https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-oc-test/3/#abschnitt_taktraten_unter_last Die koennen sie mit dem 8 Pin ja auch eliminieren.

dargo
2017-04-13, 15:20:16
ein Vergleich mit der 380X; was soll das?
Das soll heißen, dass sich von da aus ein Upgrade lohnt. :rolleyes: