PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 [42] 43 44 45 46 47 48 49 50 51

Unicous
2016-07-28, 13:18:37
Weil es so ist?:confused:

Schon einmal was von Copy Exactly gehört?:wink: Intels Fab-Strategie ihre Fertigungsanlagen so zu gestalten, dass jeder Chip zu jeder Zeit in den "kompatiblen" Fabs gefertigt werden kann. Das Tooling ist (so gut wie) identisch, die Arbeitsabläufe,... .

Bei Samsung/GF heißt das... Copy Smart.:freak:
Da einigt man sich darauf Tooling, die jeweiligen Prozesse etc. auf einander "abzustimmen". Da GF z.B. aber zur Zeit der Ankündigung der Partnerschaft schon Tools für ihren eigenen 14XM Prozess gekauft und z.T. glaube auch schon verbaut hatten wird das nicht mit einer "exact copy".

Bei IBM könnte das übrigens ähnlich sein. Ihr 14HP unterscheidet sich mMn deutlich von Samsung und GFs Herangehensweise. (edit: Und IBM ist/war auch nicht Teil der Allianz. Man wird sehen wie es bei 10nm/7nm aussieht, denn da wird GF das Szepter vollständig übernehmen)

Triskaine
2016-07-28, 14:29:37
Polaris 11 hat als zusätzliche Power Optimierung nur einen 8x PCIe Link. Hier (http://cdn.videocardz.com/1/2016/07/Sapphire-Radeon-RX-460-Dual-4.jpg) schön zu sehen. Für die Leistung sollte das bei einer GPU in dieser Klasse ohnehin keine Rolle spielen.

Skysnake
2016-07-28, 14:54:08
Weil es so ist?:confused:

Schon einmal was von Copy Exactly gehört?:wink: Intels Fab-Strategie ihre Fertigungsanlagen so zu gestalten, dass jeder Chip zu jeder Zeit in den "kompatiblen" Fabs gefertigt werden kann. Das Tooling ist (so gut wie) identisch, die Arbeitsabläufe,... .

Bei Samsung/GF heißt das... Copy Smart.:freak:
Da einigt man sich darauf Tooling, die jeweiligen Prozesse etc. auf einander "abzustimmen". Da GF z.B. aber zur Zeit der Ankündigung der Partnerschaft schon Tools für ihren eigenen 14XM Prozess gekauft und z.T. glaube auch schon verbaut hatten wird das nicht mit einer "exact copy".

Bei IBM könnte das übrigens ähnlich sein. Ihr 14HP unterscheidet sich mMn deutlich von Samsung und GFs Herangehensweise. (edit: Und IBM ist/war auch nicht Teil der Allianz. Man wird sehen wie es bei 10nm/7nm aussieht, denn da wird GF das Szepter vollständig übernehmen)
Unterschiedliche Tools sind nicht DAS Problem für den Kunden, so lange hinten das richtige Zeug innerhalb der richtigen Fehlertolleranzen rausfällt.

Also von daher ist da wirklich nicht klar, ob und wenn was man da ändern müsste, bzw an Masken neu machen muss.

Ich erwarte eigentlich nicht, das am Design an sich was geändert werden muss. Wenn muss wohl maximal für die Polymasken was Neues gemacht werden. Ansonsten hätte man den Prozess nicht lizensieren müssen und unter dem gleichen Namen vermarkten.

dargo
2016-07-28, 15:06:31
Polaris 11 hat als zusätzliche Power Optimierung nur einen 8x PCIe Link. Hier (http://cdn.videocardz.com/1/2016/07/Sapphire-Radeon-RX-460-Dual-4.jpg) schön zu sehen. Für die Leistung sollte das bei einer GPU in dieser Klasse ohnehin keine Rolle spielen.
Das PCB ist echt lustig. Das hat man offenbar wirklich nur wegen dem Kühler verlängert. Wobei ich mich gerade frage warum eigentlich? Mit kürzerem PCB wäre der Kühler doch effektiver weil ein Teil der Luft beim zweiten Lüfter durchströmen kann, siehe Fury Nitro.

ZOCKERHERZ
2016-07-28, 15:16:16
Warum nicht gleich passiv kühlen. Da kann man sich den ganzen Custom Kühler sparen.

tm0975
2016-07-28, 16:32:54
weil passiv kühlen überbewertet wird und es viel effektiver und sinnvoller ist, leise aber mit einem gesicherten luftstrom zu kühlen.

dargo
2016-07-28, 17:19:44
weil passiv kühlen überbewertet wird und es viel effektiver und sinnvoller ist, leise aber mit einem gesicherten luftstrom zu kühlen.
Sehe ich absolut genau so. Ich finde einen bis zwei sehr langsam drehende Lüfter besser da die Temperaturen nicht so hoch steigen. Und aus einem geschlossenen System hört man diese Lüfter dann eh nicht.

Loeschzwerg
2016-07-28, 17:42:52
Die weiteren Bilder (u.a. der Kühler) sind auch recht interessant: http://videocardz.com/62685/xfx-and-sapphire-radeon-rx-470-460-pictured-up-close

Skysnake
2016-07-28, 17:55:07
Was ist daran interessant?

Das ist doch ein extremer Billigkühler. Oder?

Loeschzwerg
2016-07-28, 17:58:05
Richtig :) Siehe die Diskussion von gestern ^^ *ITX!!!!!!*

M4xw0lf
2016-07-28, 18:01:41
http://cdn.videocardz.com/1/2016/07/XFX-Radeon-RX-470-DD-1.jpg

Haha, das weckt Erinnerungen - meine XFX Geforce 6800GT von 2004 hatte auch diesen albernen Karton ^^

http://gzhls.at/p/107133.jpg

Ich wollte immer die von Leadtek, aber die Lieferbarkeit damals war einfach nur besch... eiden. Bei der 6800 GT generell, wenn ich mich richtig erinnere.

Screemer
2016-07-28, 18:01:48
Ähh. Amd made in Taiwan?

http://cdn.videocardz.com/1/2016/07/Sapphire-Radeon-RX-460-Dual-2.jpg

Ist das der Aufdruck nach dem assembly?

Loeschzwerg
2016-07-28, 18:03:42
http://cdn.videocardz.com/1/2016/07/XFX-Radeon-RX-470-DD-1.jpg

Haha, das weckt Erinnerungen - meine XFX Geforce 6800GT von 2004 hatte auch diesen albernen Karton ^^

http://gzhls.at/p/107133.jpg

Inkl. dem Maskottchen von damals ^^ "RX 470" sieht btw. schön Retro aus.

M4xw0lf
2016-07-28, 18:09:23
Inkl. dem Maskottchen von damals ^^ "RX 470" sieht btw. schön Retro aus.
Stimmt, das ist wohl wirklich eine geupdatete Version von dem Hundevieh von damals :D

Screemer
2016-07-28, 18:16:02
Ähh. Amd made in Taiwan?

http://cdn.videocardz.com/1/2016/07/Sapphire-Radeon-RX-460-Dual-2.jpg

Ist das der Aufdruck nach dem assembly?
Bei p10 steht gar nix auf dem die und nur auf dem package steht made in tw.
https://www.techpowerup.com/img/16-06-22/153d.jpg

Fällt p11 bei tsmc vom Band? Eher kommt der Druck erst nach dem packaging drauf.

Skysnake
2016-07-28, 19:01:47
http://cdn.videocardz.com/1/2016/07/XFX-Radeon-RX-470-DD-1.jpg

Haha, das weckt Erinnerungen - meine XFX Geforce 6800GT von 2004 hatte auch diesen albernen Karton ^^

http://gzhls.at/p/107133.jpg

Ich wollte immer die von Leadtek, aber die Lieferbarkeit damals war einfach nur besch... eiden. Bei der 6800 GT generell, wenn ich mich richtig erinnere.
LOL Den Karton habe ich sogar mit Karte noch im Keller stehen :freak:

Mir ist damals die Karte während dem Betrieb explodiert.... Das war ziemlich unlustig, weil ich schauen wollte, ob Sie zu warm wird, weil ich Probleme hatte mit der Karte, und dann gibt es auf einmal nen fetten Lichtbogen keine 10cm neben mir. :eek: WTF hatte ich da nen Puls danach..

Unicous
2016-07-28, 19:27:20
Ähh. Amd made in Taiwan?

http://cdn.videocardz.com/1/2016/07/Sapphire-Radeon-RX-460-Dual-2.jpg

Ist das der Aufdruck nach dem assembly?

Ja. Sonst würde da ja "Diffused in" stehen. Assembly, Testing und Packaging wird seit Längerem outsourced. (Theoretisch könnte da auch Malaysia, Standort von AMDs ehemaliger Assembly-Fab, oder China stehen)

Bei Kabini war das z.B. auch schon so. Das ist eine Vorgabe aus den USA. Dort wo das Produkt zusammengebastelt wird muss auch das "country of origin" sein. bei Made in Germany muss der Großteil der Herstellung bzw. Arbeitsschritte in Deutschland stattgefunden haben.

HOT
2016-07-28, 20:51:13
Kann sein, aber sicher kann man sich da nicht sein.

Unicous
2016-07-28, 21:08:09
:confused:

Doch. Kann man.

Es wird, wie auch zuletzt Amkor sein, die mehrere Fabs in Taiwan haben. Braucht man auch keine Verschwörungstheorien erfinden, AMD hat bereits vor Längerem bestätigt, dass Polaris bei GF hergestellt wird.:rolleyes:

[MK2]Mythos
2016-07-28, 22:16:05
bei Made in Germany muss der Großteil der Herstellung bzw. Arbeitsschritte in Deutschland stattgefunden haben.
Aus eigener Erfahrung im Bereich der Flugzeugtriebwerke muss ich dir da widersprechen, teilweise kommen fast fertige Komponenen aus den USA oder Frankreich, bekommen hiere größtenteils nur noch ihre Qualitätsabnahme und ihren Stempel "Made in Germany".

Unicous
2016-07-28, 23:40:22
Ja gut, das Label ist eh nicht mehr das gedruckte Papier wert und in einer globalisierten Welt nicht mehr aufrecht zu erhalten.

Hier steht:

Herstellungsprozess ist entscheidend

Grundsätzlich wird für die Bezeichnung „Made in Germany“ die Herstellung in Deutschlandverlangt. Das OLG Stuttgart beschloss am 10.11.1995, dass entscheidend sei, dass die wesentlichen Bestandteile und die bestimmenden Eigenschaften der Ware, die in den Augen des Publikums deren Wert ausmachen, auf einer deutschen Leistung beruhen (Az. 2 U 124/95). In diesem Fall waren einzelne Teile und ganze Baugruppen eines industriellen Erzeugnisses im Ausland hergestellt worden, ohne dass eine Irreführung angenommen wurde. Maßgeblich ist ein entscheidender Wertschöpfungsanteil in Deutschland. Was der angesprochene Verkehr als wertbestimmend ansieht, wird man von Produkt zu Produkt bestimmen müssen. Der BGH entschied mit Urteil vom 23.3.1973, dass die Kennzeichnung dann zulässig ist, wenn es bei der Herstellung an einer nennenswerten ausländischen Beteiligung fehlt, die Ware vielmehr von der Konzeption bis zur technisch-fabrikatorischen Fertigstellung von Deutschen stammt und in Deutschland gefertigt ist (I ZR 33/72). Entscheidend ist im Wesentlichen die letzte wesentliche und wirtschaftlich gerechtfertigte Endbearbeitung bzw. Verarbeitung.

https://www.wbs-law.de/wettbewerbsrecht/rechtliche-anforderungen-die-bezeichnung-made-germany-56138/

Gerichtsurteile haben die Made in Germany Definition über die Jahre deutlich aufgeweicht... oder eher den heutigen Umständen angepasst.


Jedenfalls heißt es in diesem Fall, dass der Chip in der jeweiligen Fab aufs Substrat aufgebracht, durchkontaktet und getestet wurde. Und da man auf dem Chip nicht viel Platz hat, lässt man den Herstellungsort des Dies einfach weg.
Alles andere sind Verschwörungstheorien. (Zumal AMD ja bestätigt hat, dass Polaris bei GF hergestellt wird.)

StefanV
2016-07-29, 00:47:20
Warum nicht gleich passiv kühlen. Da kann man sich den ganzen Custom Kühler sparen.
Weil ein Lüfter, der sich ein kleines bisschen dreht (also z.B. ein 120mm Lüfter mit 300rpm) gleich mal 20-30K ausmachen kann, bei der Temperatur.

Ohne zwangsbelüftung steigt die Temperatur nur in unnötige höhen, du brauchst ein vielfaches der Kühloberfläche...
Und wofür jetzt genau?!

uweskw
2016-07-29, 07:39:38
:confused:

Doch. Kann man.

Es wird, wie auch zuletzt Amkor sein, die mehrere Fabs in Taiwan haben. Braucht man auch keine Verschwörungstheorien erfinden, AMD hat bereits vor Längerem bestätigt, dass Polaris bei GF hergestellt wird.:rolleyes:

14 nm wird doch bisher ausschließlich in Malta USA produziert. Wieso steht dann der Taiwan drauf?

greetz
US

y33H@
2016-07-29, 07:47:54
Packaging ...

uweskw
2016-07-29, 07:51:35
Packaging für den Chip? Echt?
Der wird doch komplett aus Malta geliefert. Oder schicken die Wafer?

greetz
US

SavageX
2016-07-29, 08:21:44
Malta liefert (so mir bekannt) "nur" Wafer - nichts, was man direkt auf Boards löten könnte und entsprechend auch nichts, was man als fertiges Produkt bezeichnen kann.

HOT
2016-07-29, 08:49:35
:confused:

Doch. Kann man.

Es wird, wie auch zuletzt Amkor sein, die mehrere Fabs in Taiwan haben. Braucht man auch keine Verschwörungstheorien erfinden, AMD hat bereits vor Längerem bestätigt, dass Polaris bei GF hergestellt wird.:rolleyes:
Jo kann man, ich erinnere mich. Offenbar steht "diffused" auch nur auf den Chips drauf die aus Dresden kommen.

Käsetoast
2016-07-29, 09:25:46
RX 460 verzichtet also auf 2 CUs und kriegt dafür Power Gating?

https://www.computerbase.de/2016-07/radeon-rx-470-460-angekuendigt/

Muss man verstehen, warum Polaris 10 das nicht bekommen hat? Hätte das bei der RX 480 dann mehr als die Chipfläche von 2 CUs gekostet? Finde ich jetzt irgendwie komisch - das Feature hätte den Verbauch der 480 wahrscheinlich doch ein gutes Stück senken können, oder?

y33H@
2016-07-29, 09:29:33
Das Power-Gating hat mit der Anzahl der CUs nichts zu tun. AMD war der Ansicht, man brauche das nur für P11 wegen Mobile (35W).

dargo
2016-07-29, 09:30:13
RX 460 verzichtet also auf 2 CUs und kriegt dafür Power Gating?

https://www.computerbase.de/2016-07/radeon-rx-470-460-angekuendigt/

Muss man verstehen, warum Polaris 10 das nicht bekommen hat?
Wahrscheinlich deshalb...
Die Radeon RX 460 soll darüber hinaus den Weg in diverse Notebooks finden – darum auch die Unterstützung von Power Gating, das Teile des Chips bei Nichtgebrauch deaktiviert, um Strom zu sparen.

MechWOLLIer
2016-07-29, 10:05:40
Muss man verstehen, warum Polaris 10 das nicht bekommen hat? Hätte das bei der RX 480 dann mehr als die Chipfläche von 2 CUs gekostet? Finde ich jetzt irgendwie komisch - das Feature hätte den Verbauch der 480 wahrscheinlich doch ein gutes Stück senken können, oder?
AMD meinte, Power Gating schluckt richtig viel Die Space (oder waren es Transistoren/beides), darum nur auf P11. Und zwar richtig viel.

Sunrise
2016-07-29, 10:34:30
...Muss man verstehen, warum Polaris 10 das nicht bekommen hat? Hätte das bei der RX 480 dann mehr als die Chipfläche von 2 CUs gekostet? Finde ich jetzt irgendwie komisch - das Feature hätte den Verbauch der 480 wahrscheinlich doch ein gutes Stück senken können, oder?
Den Vebrauch bei was? Bei Spielelast praktisch jederzeit im Vollastbereich wohl kaum und insofern würde das an der TDP nichts ändern. Wohl aber im Teillast- oder Idle-Betrieb (gravierend). Das ist aber eben genau der Grund, warum man nicht wahllos Transistoren unnötig verballert, sondern darauf achtet, ob es für das Marktsegment überhaupt Relevanz hat. IMHO die richtige Entscheidung von AMD.

Käsetoast
2016-07-29, 11:00:57
Ich hätte jetzt halt erwartet, dass das für AMD als "Packdichten König" im Bereich des Machbaren gelegen hätte bzw mit so einem Polaris hätte man doch auch was für die High End Notebooks gehabt...

Ist halt die Frage wie viel Fläche das kostet bei einem P10. Ich weiß gerade nicht wieviel Fläche ein CU so hat könnte man vielleicht mal ausrechnen wieviel Fläche das bei einem linearen Extrapolieren wäre, wenn bei der RX 480 also irgendwas von der Fläche von 4-6 CUs nötig wäre...

So eine 480 nuckelt ja nicht immer am Power Target herum. Wäre von daher interessant abzuschätzen wieviel mm^2 das gebraucht hätte...

Flusher
2016-07-29, 11:12:56
Den Vebrauch bei was? Bei Spielelast praktisch jederzeit im Vollastbereich wohl kaum und insofern würde das an der TDP nichts ändern. Wohl aber im Teillast- oder Idle-Betrieb (gravierend). Das ist aber eben genau der Grund, warum man nicht wahllos Transistoren unnötig verballert, sondern darauf achtet, ob es für das Marktsegment überhaupt Relevanz hat. IMHO die richtige Entscheidung von AMD.

Ja aber damit ist P10 auch automatisch für Laptops (abseits Desktop Replacement) gestorben.

iuno
2016-07-29, 13:01:54
AMD meinte, Power Gating schluckt richtig viel Die Space (oder waren es Transistoren/beides), darum nur auf P11. Und zwar richtig viel.
Finde das in eurem Artikel etwas missverstaendlich. Auch aeltere AMD GPUs machen power gating. Groessere, ganze Bloecke wie die VCE verbrauchen ja auch keinen Strom, wenn sie nicht verwendet werden. Bei P11 ist es eben noch feiner und jede CU kann abgeschaltet werden.
Ja aber damit ist P10 auch automatisch für Laptops (abseits Desktop Replacement) gestorben.
Ist das noch relevant?
Nachdem Nvidia das komplette Lineup rausgehauen hat, hat AMD da eh nichts zu melden. Was will P10 schon gegen GP104 machen? Die Anforderungen an das Design sind eher hoeher und die Leistung deutlich niedriger. GP106 ist sicher leichter zu handhaben und fuer die OEMs nicht teurer. Gegen GM204 und alles davor waere es OK gewesen, aber gegen Pascal hat man im mobilen Sektor doch wieder keine Chance.

Hakim
2016-07-29, 13:38:48
P10 hat doch schon 5,7 Mrd Transistoren und damit in der Hinsicht deutlich mehr als der direkte konkurrent mit nur 4,4 Mrd. P10 war vermutlich nicht auf soviel Takt ausgelegt und gönnt sich daher soviel Saft

tm0975
2016-07-29, 13:53:38
schaut ihr euch eigentlich die tests mal etwas genauer an oder lest ihr nur die überschriften. wenn man mal die oc's beiseite läßt beim p10 verbraucht er nicht mehr als die 1060. das ist dann nahezu identisch, wohlgemerkt bei mehr ram. und bei der performance ist die auswahl der titel entscheidend. noch 3 treiberupdates und auch da liegt die 480 dann vor der 1060. geschweige dann vulkan, dx12...
also warum soll das im mobilen segment nicht klappen? zumal die relationen grundsätzlich geringer werden.

Unicous
2016-07-29, 14:02:34
Jo kann man, ich erinnere mich. Offenbar steht "diffused" auch nur auf den Chips drauf die aus Dresden kommen.

btw.

http://news.mydrivers.com/Img/20120305/2012030504174147.png

Pitcairn... made in China.:wink:

Bei CB gab es dazu auch mal ein Bild.

https://www.computerbase.de/bildstrecke/39760/1/

Hakim
2016-07-29, 14:10:38
Nahezu identisch? Wenn man sich mehrere Reviews durchliest würde man im Mittel schon sagen 120W zu 160W. Das sind halt ~40W mehr. Es gibt hier und da Ausnahmen wo sie enger beisammen sind oder deutlich von einander weg.

Flusher
2016-07-29, 14:23:18
schaut ihr euch eigentlich die tests mal etwas genauer an oder lest ihr nur die überschriften. wenn man mal die oc's beiseite läßt beim p10 verbraucht er nicht mehr als die 1060. das ist dann nahezu identisch, wohlgemerkt bei mehr ram. und bei der performance ist die auswahl der titel entscheidend. noch 3 treiberupdates und auch da liegt die 480 dann vor der 1060. geschweige dann vulkan, dx12...
also warum soll das im mobilen segment nicht klappen? zumal die relationen grundsätzlich geringer werden.

Hast du mal den Stromverbrauch von P10 im Idle und Videowiedergabe gesehen? In diesen Verbrauchs-Gefilden sind nichtmal NVIDIAs HighEnd-Karten.

Käsetoast
2016-07-29, 14:37:11
Hast du mal den Stromverbrauch von P10 im Idle und Videowiedergabe gesehen? In diesen Verbrauchs-Gefilden sind nichtmal NVIDIAs HighEnd-Karten.
Wobei man da ja auch wieder aufpassen muss. Es gab am Anfang dann ja noch das Problem, dass die nicht gescheit runtergetaktet haben bei den ersten Treibern, weswegen sich das inzwischen dann wohl relativiert hat...

Zusammengefasst hat AMD die Software Seite echt verkackt. Stromaufnahme komplett daneben, Taktung läuft nicht rund und jetzt bei den Customs war teilweise das Temperatur Ziel auf 60°C oder was auch immer. Finde ich beim Tests lesen grauenhaft - vor allem wenn jetzt zum Beispiel bei Computerbase die Powercolor Devil bei der Lautstärke gut abschneidet, aber die Asus Strix mit sogar noch größeren Lüftern ziemlich schlecht d.h. laut ist wird es schwierig zu sagen, ob bei Asus irgendwas daneben ist oder ob bei dem Asus Test das Ding wegen dem fehlerhaften Temperatur Ziel unnötigerweise hochgedreht hat..

Finde ich insgesamt sehr verwirrend und ich hoffen, dass das bei der 470 und 460 kein solches Durcheinander gibt...

iuno
2016-07-29, 14:38:25
schaut ihr euch eigentlich die tests mal etwas genauer an oder lest ihr nur die überschriften. wenn man mal die oc's beiseite läßt beim p10 verbraucht er nicht mehr als die 1060. das ist dann nahezu identisch, wohlgemerkt bei mehr ram. und bei der performance ist die auswahl der titel entscheidend. noch 3 treiberupdates und auch da liegt die 480 dann vor der 1060. geschweige dann vulkan, dx12...
also warum soll das im mobilen segment nicht klappen? zumal die relationen grundsätzlich geringer werden.
1. Nein, das stimmt nicht.
2. Keinen OEM interessiert, wie zukunftsfaehig eine Komponente ist, sogar das Gegenteil ist der Fall.

tm0975
2016-07-29, 14:46:36
leistungsaufnahme gesamtsystem 1060 non oc = 480 silent

https://www.computerbase.de/2016-07/powercolor-radeon-rx-480-red-devil-test/5/

und im idle sind es 50 zu 60 watt, also egal...

zudem:

https://www.computerbase.de/2016-07/amd-crimson-16.7.3-treiber-beschleunigt-rx-480-in-tomb-raider-um-10-prozent/

Hakim
2016-07-29, 14:54:22
leistungsaufnahme gesamtsystem 1060 non oc = 480 silent

https://www.computerbase.de/2016-07/powercolor-radeon-rx-480-red-devil-test/5/

und im idle sind es 50 zu 60 watt, also egal...

zudem:

https://www.computerbase.de/2016-07/amd-crimson-16.7.3-treiber-beschleunigt-rx-480-in-tomb-raider-um-10-prozent/

Sry das ist aber etwas Rosinen picking, bei dem Spiel gib es wirklich nicht viel unterschied, aber auf NV läuft das System auch deutlich schneller, schau dir dazu bei den Ref RX480 oder 1060 Review auf CB die anderen 3 Spiele die ebenfalls gemessen wurden.

dildo4u
2016-07-29, 14:58:29
Sry das ist aber etwas Rosinen picking, bei dem Spiel gib es wirklich nicht viel unterschied, aber auf NV läuft das System auch deutlich schneller, schau dir dazu bei den Ref RX480 oder 1060 Review auf CB die anderen 3 Spiele die ebenfalls gemessen wurden.

Jup Witcher 3 läuft ca gleich schnell das ist besser als Vergleich.

http://abload.de/img/witchetzcs5w.png

Liszca
2016-07-29, 15:07:29
[...] Stromaufnahme komplett daneben, Taktung läuft nicht rund und jetzt bei den Customs war teilweise das Temperatur Ziel auf 60°C oder was auch immer. Finde ich beim Tests lesen grauenhaft - [...]

Zehn Watt mehr interessieren doch wirklich nur am laptop.

60°C machen dir sorgen? Meine GTX 970 habe ich umgeflasht, "temp target" ist auf 80°C so läuft sie seit fast zwei Jahren im 24/5 Betrieb.

Screemer
2016-07-29, 15:12:36
Jup Witcher 3 läuft ca gleich schnell das ist besser als Vergleich.

http://abload.de/img/witchetzcs5w.png
Mal wieder was gefunden was du über zig Threads verteilen kannst? Super.

Hakim
2016-07-29, 15:22:11
Bezüglich Verbrauch, also mich stört der mehr Verbrauch nicht mal direkt beim zocken, solange das System kühl und leise bleibt, aber idle und Video könnte AMD echt mal was besseren. Vielleicht sehen wir ja was davon beim P11

iuno
2016-07-29, 15:47:35
Es ging ja eben auch noch um Laptops.
Ja, was 2D/Video betrifft, koennte das CU Powergating schon ordentlich was bringen. Ich bin aber immer noch sehr gespannt, ob sich das auch im 3D Betrieb flink ohne Einbussen der smoothness machen laesst, waere dann aber wohl eher wieder bei sehr breiten Chips interessant.

stinki
2016-07-29, 17:00:08
http://forums.anandtech.com/showpost.php?p=38380846&postcount=2450

Polaris 10 = 1 CU[Power] + 2 CU[Graphics] + 2 CU[Graphics] + 2 CU[Pseudo-Physics/Graphics] + 2 CU[Pseudo-Audio/Graphics]
Das erklärt dann auch den etwas komischen Aufbau des DIE-shots den Gipsel auch schon mal angemerkt hatte...
http://www.3dcenter.org/abbildung/amd-polaris-10-dieshot-echt

Und würde bei 4 Clustered Compute Arrays (CCAs) maximal 96 CUs erlauben...

Unicous
2016-07-29, 17:02:46
(Nosta)SeronX ist ein bekannter Forentroll und Linkedin-Crawler der nur gequirlte Scheiße erzählt.

Käsetoast
2016-07-29, 17:49:28
60°C machen dir sorgen? Meine GTX 970 habe ich umgeflasht, "temp target" ist auf 80°C so läuft sie seit fast zwei Jahren im 24/5 Betrieb.
Das hast du wohl falsch verstanden. Es ging um die Lautstärke. Da vermute ich, dass beim Computerbase Strixx Test das Temperature Target auf 60°C eingestellt war und die deshalb so laut ist, weil die Lüfter dann natürlich unnötigerweise schon sehr früh hochdrehen. Natürlich könnten auch einfach die Lüfter schlecht sein oder irgendwas dient als Resonanzkörper. Finde ich halt nervig, dass man Tests nicht einfach so lesen und für sich auswerten kann. Idle Verbrauch könnte noch zu hoch sein, Lautstärke ebenfalls oder vielleicht auch nicht bei korrektem Treiber / BIOS. Ist alles sehr undurchsichtig...

Alles um die 480 herum wirkt halt wie mit der heißen Nadel gestrickt...

tech noir
2016-07-30, 02:26:27
Das hast du wohl falsch verstanden. Es ging um die Lautstärke. Da vermute ich, dass beim Computerbase Strixx Test das Temperature Target auf 60°C eingestellt war und die deshalb so laut ist, weil die Lüfter dann natürlich unnötigerweise schon sehr früh hochdrehen. Natürlich könnten auch einfach die Lüfter schlecht sein oder irgendwas dient als Resonanzkörper. Finde ich halt nervig, dass man Tests nicht einfach so lesen und für sich auswerten kann. Idle Verbrauch könnte noch zu hoch sein, Lautstärke ebenfalls oder vielleicht auch nicht bei korrektem Treiber / BIOS. Ist alles sehr undurchsichtig...

Alles um die 480 herum wirkt halt wie mit der heißen Nadel gestrickt...

Trau dich doch einfach den Artikel zu lesen: https://www.computerbase.de/2016-07/asus-radeon-rx-480-strix-test/4/#abschnitt_manuelle_lueftersteuerung_ruhe_ohne_nachteile

techpowerup und kitguru schreiben dazu sehr ähnliches.

Käsetoast
2016-07-30, 09:54:18
Trau dich doch einfach den Artikel zu lesen: https://www.computerbase.de/2016-07/asus-radeon-rx-480-strix-test/4/#abschnitt_manuelle_lueftersteuerung_ruhe_ohne_nachteile
Muss man halt alles im Kopf behalten - wenn man sich den Computerbase Test der Red Devil anguckt stehen da etwa wieder nur die Werte für das 65°C Target (das soweit ich weiß eigentlich nicht für die Karte angedacht war) drin. Muss man also immer im Kopf behalten welches Magazin für welche Karte nun mit welchen Settings getestet hat. Das finde ich bei der RX 480 halt maximal unübersichtlich bzw. so waren dann auch die ersten Custom Tests ein wenig unrühmlich wenn da selbst eine Strixx sich als Brüllwürfel herausstellt (und nicht alle Testmagazine machen sich die Mühe da mal ein wenig das "Warum?" zu hinterfragen)...

Leonidas
2016-07-30, 10:14:31
I
Woher kommen die 170W? Die RX480 sollte ein PT von 150W haben. AMD lässt immer nur etwas mehr durch. War schon bei Grenada und Fiji der Fall. Es gibt halt kein hartes Limit von exakt X Watt wie bei Nvidia.


Sie liegt beim Stromverbrauch weit drüber, da ist nicht irgendwie "bißchen" was drüber.

Außerdem scheint AMD das Abregel-Prozedere bei Polaris anders gelöst zu haben als früher. Es wird ähnlich wie bei nVidia härter an einem (nahezu) festen Limit abgeregelt - bringt Effizienzgewinne, wenn die Karte fast jederzeit am maximalen Power-Limit herumtanzt.




Haha, das weckt Erinnerungen - meine XFX Geforce 6800GT von 2004 hatte auch diesen albernen Karton ^^

http://gzhls.at/p/107133.jpg

Ich wollte immer die von Leadtek, aber die Lieferbarkeit damals war einfach nur besch... eiden. Bei der 6800 GT generell, wenn ich mich richtig erinnere.



Die hatte ich auch. Kann mich an den Karton erinnern!

fondness
2016-07-30, 10:16:03
Sie liegt beim Stromverbrauch weit drüber, da ist nicht irgendwie "bißchen" was drüber.

Außerdem scheint AMD das Abregel-Prozedere bei Polaris anders gelöst zu haben als früher. Es wird ähnlich wie bei nVidia härter an einem (nahezu) festen Limit abgeregelt - bringt Effizienzgewinne, wenn die Karte fast jederzeit am maximalen Power-Limit herumtanzt.


Es trotzdem nicht vergleichbar mit Nvidias PT-Limit/TDP, deshalb sollte man das auch nicht in einem Topf werfen. Eine Nvidia-Karte liegt immer exakt am PT-Limit, wenn nicht gerade die CPU limitiert. Eine RX480 verbraucht je nach Test zwischen ~147-168W.

Bei den drei getesteten Spielen von PCGH liegt die RX480 zB nirgends über 160W: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/RX-480-Test-1199839/#a4
170W erreicht man wohl nur in Ausnahmesituationen.

robbitop
2016-07-30, 10:19:58
Könnte es beim nicht exakten PT damit zusammenhängen, was Igor damals bei der Fury herausgefunden hat? Das bei tanzenden Taktraten die frametimes stottern? Oder hat man das jetzt lösen können?

AnarchX
2016-07-30, 10:31:43
Die hatte ich auch. Kann mich an den Karton erinnern!
Da sollte man mal wieder die Zähne (https://www.computerbase.de/2007-05/evga-erwirkt-einstweilige-verfuegung-gegen-xfx/)genauer anschauen. ;D

Jup Witcher 3 läuft ca gleich schnell das ist besser als Vergleich.

http://abload.de/img/witchetzcs5w.png
Da könnte man bald meinen AMD wäre eine Prozessnode hinter NV.:ugly:

-/\-CruNcher-/\-
2016-07-30, 10:36:14
Ich. :)


Woher kommen die 170W? Die RX480 sollte ein PT von 150W haben. AMD lässt immer nur etwas mehr durch. War schon bei Grenada und Fiji der Fall. Es gibt halt kein hartes Limit von exakt X Watt wie bei Nvidia.

Mein Augenschein bezieht sich hier immernoch auf HT4Us ermitteltes GTA 5 Ergebnis das sogar 10W über dem von Igor standard gemesenem war wozu es bis dato keine Erklärung zu gibt ;)

GTX 1060 = MAX 113,98 AVG 109,90
RX 480 = MAX 174,54

Round about 60W im Max unterschied und das ohne AC

Muss man halt alles im Kopf behalten - wenn man sich den Computerbase Test der Red Devil anguckt stehen da etwa wieder nur die Werte für das 65°C Target (das soweit ich weiß eigentlich nicht für die Karte angedacht war) drin. Muss man also immer im Kopf behalten welches Magazin für welche Karte nun mit welchen Settings getestet hat. Das finde ich bei der RX 480 halt maximal unübersichtlich bzw. so waren dann auch die ersten Custom Tests ein wenig unrühmlich wenn da selbst eine Strixx sich als Brüllwürfel herausstellt (und nicht alle Testmagazine machen sich die Mühe da mal ein wenig das "Warum?" zu hinterfragen)...

Hier fordere ich schon länger von den Reviewern volle Options Transparenz und mit voller meine ich nicht nur angaben der Presets sondern aller Optionen da Presets sich patch bedingt jederzeit ändern können.

Dino-Fossil
2016-07-30, 11:02:48
Ob AMDs Powerlimit-Ansatz jetzt von NVidias Ansatz abweicht, ist doch irrelevant.
Entscheidend ist auch mMn, dass die 480 bei entsprechender Auslastung in den Tests eigentlich immer über den von AMD genannten 150W liegt (ca 15W darüber) und man daher in der Tat keine Garantie hat, dass die 470 ihre 120W einhalten wird.

dargo
2016-07-30, 11:11:20
Sie liegt beim Stromverbrauch weit drüber, da ist nicht irgendwie "bißchen" was drüber.

Wenn du bei 7% weit drüber verstehst dann ja.

Hübie
2016-07-30, 11:41:22
Es sind 7-12%. Das sieht halt kacke aus, wenn man dann zusätzlich nicht die Leistung auf die Straße bringt. Langfristig wird die RX480 mit den deutlich mehr Rechenkernen das bessere, aber nie das effizientere Produkt sein.
Ich bitte ja seit längerem schon darum, das damals gezeigte Material mit Battlefront @86 Watt nachzubilden aber NIEMAND macht es. :rolleyes:

-/\-CruNcher-/\-
2016-07-30, 11:52:18
Wieso natürlich kann es das effizientere sein je nach Anwendungsfall vor allem bei VR würde ich hier klar zur RX 480 tendieren auch wenn Nvidia da versucht mit ("Hardware") Multi Projection eben den ausgleich zu schaffen, die gesammt Shaderlast von VR Works ist aber nicht ohne.

Dino-Fossil
2016-07-30, 12:02:50
Was mich noch interessieren würde, wären Tests zur Leistungsaufnahme bei "realistisch-optimierten" Einstellungen.
Also was man vermutlich beim Durchschnittskäufer der 480 findet:
fullHD Monitor mit 60Hz (also Vsync oder FTC an) , dazu eventuell einige Einstellungen nicht auf absolutem Maximum, sondern sinnvoll (d.h. ohne all zu großen Qualitätsverlust) verringert.

Anders gesagt: wieviel säuft P10, wenn man ihn nicht völlig ausreizt?

y33H@
2016-07-30, 12:09:06
Ohne Vsync als Bremse: quasi genauso viel.

fondness
2016-07-30, 12:20:38
Langfristig wird die RX480 mit den deutlich mehr Rechenkernen das bessere, aber nie das effizientere Produkt sein.


Effizienz ist Perf/Watt. Wenn sich das Performaceverhältnis zugunster der RX480 ändert, darf die RX480 auch mehr Verbrauchen für dieselbe Effizienz.

In Doom@Vulkan ist die RX480 zB mit hoher Wahrscheinlichkeit das effizientere Produkt.

-/\-CruNcher-/\-
2016-07-30, 12:24:12
Was mich noch interessieren würde, wären Tests zur Leistungsaufnahme bei "realistisch-optimierten" Einstellungen.
Also was man vermutlich beim Durchschnittskäufer der 480 findet:
fullHD Monitor mit 60Hz (also Vsync oder FTC an) , dazu eventuell einige Einstellungen nicht auf absolutem Maximum, sondern sinnvoll (d.h. ohne all zu großen Qualitätsverlust) verringert.

Anders gesagt: wieviel säuft P10, wenn man ihn nicht völlig ausreizt?


Halte ich für einen guten testcase non Low level

Low Level wird es dann vor allem wegen der gesammten Systemkonfiguration interessant :)

tbRyiQHv78k


Er führt die Tests ziemlich genial realistisch durch könnte man noch optimieren aber schon sehr ordentlich was er macht :)

Hätte Nvidia Volumetrics aber komplett abgeschaltet und nicht auf Low gelassen ;)

Troyan
2016-07-30, 12:31:23
Effizienz ist Perf/Watt. Wenn sich das Performaceverhältnis zugunster der RX480 ändert, darf die RX480 auch mehr Verbrauchen für dieselbe Effizienz.

In Doom@Vulkan ist die RX480 zB mit hoher Wahrscheinlichkeit das effizientere Produkt.

Mit hoher Wahrscheinlichkeit ist die Karte es nicht. :rolleyes:
107W - GTX1060: http://ht4u.net/reviews/2016/nvidia_pascal-architektur_geforce_gtx1060_gtx1070_und_gtx1080_im_test/index13.php
160W - RX 480: http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

Das ist OpenGL, wo die RX 480 meilenweit entfernt ist. In Vulkan wird die Karte wohl locker an die 170W für ~20% mehr Leistung gehen.

Mortalvision
2016-07-30, 12:38:03
Nönö, die rx480 ist nicht sooo effizient. Das liegt an den 2 GB mehr Speicher, und an der Architektur etc. Alles schon bekannt. Aber sie ist trotzdem kein Brüllwürfel wie die 390/390X Viecher mit 300-400 Watt. Also, 150-180 Watt wegzukühlen ist nun wirklich kein großer Deal!

dargo
2016-07-30, 12:39:53
Ich bitte ja seit längerem schon darum, das damals gezeigte Material mit Battlefront @86 Watt nachzubilden aber NIEMAND macht es. :rolleyes:
Würde eh zu nichts führen, schließlich waren das damals afaik nur 800Mhz + Vsync On.

dargo
2016-07-30, 12:44:56
Nönö, die rx480 ist nicht sooo effizient. Das liegt an den 2 GB mehr Speicher, und an der Architektur etc. Alles schon bekannt. Aber sie ist trotzdem kein Brüllwürfel wie die 390/390X Viecher mit 300-400 Watt.
Stop! Eine HiS R9 390 (Revision1 !) ist erstens kein Brüllwürfel und zweitens kein 300-400W Monster. Die liegt bei geschmeidigen 200+W. ;)

Achill
2016-07-30, 13:06:26
... wie die 390/390X Viecher mit 300-400 Watt. Also, 150-180 Watt wegzukühlen ist nun wirklich kein großer Deal!

So entstehen ... ähhh ... Legenden. :freak:

Dino-Fossil
2016-07-30, 13:11:15
Stop! Eine HiS R9 390 (Revision1 !) ist erstens kein Brüllwürfel und zweitens kein 300-400W Monster. Die liegt bei geschmeidigen 200+W. ;)

Eher Richtung 250+W, denke ich.

Unrockstar
2016-07-30, 13:24:47
http://cdn.videocardz.com/1/2016/07/XFX-Radeon-RX-470-DD-1.jpg

Haha, das weckt Erinnerungen - meine XFX Geforce 6800GT von 2004 hatte auch diesen albernen Karton ^^



Kann so gerne auch wieder kommen :) Leadtek hatte ich damals ne 9600GT, von XFX ne 7800Gt :D Der Karton war ähnlich, aber das schlimme war eher der Raudaubruder auf der Karte :D
Gottseidank gibt es diese Staubsauger nimmer ;D

Zum Design: Kann XFX gerne so bringen, das Hundevieh fand ich damals schon richtig cool, und die olle Ruby können sie sich auch sparen :D

@Dino Fossil:
Also ich habe 220W laut THG im Kopf, die R9 290 war ja auch in diesem Bereich.. Also 300-400W sind unrealistisch und dein 250W + sind die 390X
http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836-11.html
un hier die 290:
http://www.tomshardware.de/amd-radeon-r9-290-hawaii-review-benchmark,testberichte-241423-15.html

@TM0975:
Ich denke ne P10 mit 1000Mhz ist für Notebooks gut händelbar, zur not eben wie bei der PS4 Takt reduzieren.. Klar kommt man damit an Nvidias 1070M nicht ran, aber muss man auch nicht. Die 1060M könnte aber ein Problem werden, da ich vermute dass wir hier 970 Leistung für 75W sehen werden

AtTheDriveIn
2016-07-30, 13:39:24
Ich denke einige merken sich immer nur den Gesamtsystemverbrauch vom CB

dildo4u
2016-07-30, 13:44:49
un hier die 290:
http://www.tomshardware.de/amd-radeon-r9-290-hawaii-review-benchmark,testberichte-241423-15.html


Da wurde nur 1080p getestet jetzt testet er 4k um die Auslastung zu erhöhen.

http://www.tomshardware.de/amd-radeon-rx-480-polaris-grafikkarte-treiber,testberichte-242146.html

1080p Auslastungstest sind gerade bei AMD ziemlich unbrauchbar,da der Treiber die Karte nicht voll auslasten kann.

Dino-Fossil
2016-07-30, 13:49:01
Man findet recht unterschiedliche Werte, aber das liegt wohl auch daran, dass es viele customs mit mehr oder minder großem OC gab.
Z.b. hat tomshardware.de die MSI 390X Gaming mit 300W für die GPU gemessen.
Dennoch glaube ich, das ca 250W für eine 390 nicht so unrealistisch ist.

P.S.:
Wäre die 390 bei 220W, würde ich mich ernsthaft fragen, wie AMD die 480 trotz 14nm nur auf 160W drücken konnte - das ist ein Faktor von ca 1,4 - nicht mal annähernd die kolportierten 1,7 aus dem reinen Fertigungsvorteil.

Botcruscher
2016-07-30, 14:25:24
P.S.:
Wäre die 390 bei 220W, würde ich mich ernsthaft fragen, wie AMD die 480 trotz 14nm nur auf 160W drücken konnte - das ist ein Faktor von ca 1,4 - nicht mal annähernd die kolportierten 1,7 aus dem reinen Fertigungsvorteil.

Reine Preisoptimierung und volle Rückkompatibilität für die Konsolen.
Der Rest liegt in der AMD typisch hohen Vcore. Wer da dran dreht bekommt Hawaii auch unter die 200W und die 480 sicher auf 120. Dank der auf Unfähigkeit getrimmten AMD Marketingabteilung haben sich halt die Werte für den überlasteten Referenzfön und lächerliche 400W OC Modelle eingeprägt.

Leonidas
2016-07-30, 16:03:59
Stromverbrauchs-Meßwerte der reinen Grafikkarten (noch nicht von den neuen) wie immer hin in vollständiger Auflistung:
http://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten

Die 390 ist zwar selten getestet worden, aber dafür 290, 290X und 390X um so mehr. Kann man also gut interpolieren.

Hübie
2016-07-30, 18:54:12
Reine Preisoptimierung und volle Rückkompatibilität für die Konsolen.
Der Rest liegt in der AMD typisch hohen Vcore. Wer da dran dreht bekommt Hawaii auch unter die 200W und die 480 sicher auf 120. Dank der auf Unfähigkeit getrimmten AMD Marketingabteilung haben sich halt die Werte für den überlasteten Referenzfön und lächerliche 400W OC Modelle eingeprägt.

...was zu beweisen wäre. ;) AMDs Marketing legt also d.M.n. die Taktraten und/oder Spannungen fest, ja? :D Wenn du Hawaii unter 200 Watt drückst kannst du auch gleich das nächst kleinere Modell wegen der Performanceeinbußen kaufen.
Ein paar Watt gehen durch undervolting (5-10, vielleicht 15), aber was du da malst kann ich nicht glauben.

@Leonidas: In der Tabelle passt was mit der 390 nicht. (222+231)/2=250?:D Mach mal bitte einen aktuellen Vergleich. Thg z.B. hat ja auch die 390 mit bis zu 323 Watt gemessen X-D

Mortalvision
2016-07-30, 19:46:21
Arm, Tschuldigung! Wenn ich mich recht erinnere, wurden diese Wattzahlen nur bei bestimmten Benchmarks/Compute-Schleifen erreicht. Der normale Spieleverbrauch dürfte ca. 50-100Watt niedriger gewesen sein

Der_Korken
2016-07-30, 19:58:53
Es wurde ja schon drauf hingewiesen, dass man zwischen Referenz- und Customkarten unterscheiden muss. Genauso wie es 390X-Modelle mit >300W gibt, gibt es auch GTX970/980 OC-Modelle, die 250W sehen. Von daher sollten 250W für eine 390 schon okay sein und mit den 165W, die die 480-Referenz erreicht, verglichen werden.

dargo
2016-07-30, 20:10:26
Eher Richtung 250+W, denke ich.
Nein... näher an 200 als 250W in Furmark! ;)

dargo
2016-07-30, 20:14:56
P.S.:
Wäre die 390 bei 220W, würde ich mich ernsthaft fragen, wie AMD die 480 trotz 14nm nur auf 160W drücken konnte - das ist ein Faktor von ca 1,4 - nicht mal annähernd die kolportierten 1,7 aus dem reinen Fertigungsvorteil.
Ganz einfach... indem man die R9 390 bei hoher Spiele-Last relativ weit unter 1000Mhz betreibt. *hust* @HiS. :D

Um dich noch mehr zu verwirren... AMD ließ den Partnern sehr viel Spielraum bei Grenada. Das Resultat... zwischen der sparsamsten und hungristen 390 können schon mal ~100W liegen. Die Partner verwenden sehr unterschiedliche Taktraten und PTs. Die sparsamste 390 ist wie gesagt die HiS Revision 1, die Schluckschleudern MSI und Asus, Sapphire liegt dazwischen.

Wenn du Hawaii unter 200 Watt drückst kannst du auch gleich das nächst kleinere Modell wegen der Performanceeinbußen kaufen.

Ähm... not. ;)

Dino-Fossil
2016-07-30, 20:26:57
Ganz einfach... indem man die R9 390 bei hoher Spiele-Last relativ weit unter 1000Mhz betreibt. *hust* @HiS. :D

Um dich noch mehr zu verwirren...

Warum verwirren? Das da eine große Bandbreite herrscht ist mir klar, siehe auch meinen Beitrag weiter oben.
Die HIS kannte ich in der Tat nicht, aber sie scheint ja eher eine Ausnahme zu sein.
Leider kann ich keine Reviews zu deiner HIS finden, aber nützlich wäre es natürlich zu sehen, wo sie leistungsmäßig einzuordnen ist.
Die 480 liegt ja meistens ungefähr auf Höhe der 390 - wenn die HIS dann nicht spürbar langsamer wäre als eine Durchschnitts-390, wäre die 480 doch ziemlich enttäuschend im Vergleich, meinst du nicht?

Aber ob man für so einen Vergleich unbedingt den (verbrauchstechnischen) best-case heranziehen sollte, der sich vom Durchschnitt doch einigermaßen unterscheidet steht sowieso auf einem anderen Blatt.

dargo
2016-07-30, 20:35:27
Warum verwirren? Das da eine große Bandbreite herrscht ist mir klar, siehe auch meinen Beitrag weiter oben.
Die HIS kannte ich in der Tat nicht, aber sie scheint ja eher eine Ausnahme zu sein.

Kann man so sehen. Ein aktuelles Beispiel mit Doom @Vulkan. Default hat die Karte bis zu 1020Mhz bei +0,25mV. Damit liegt der Takt in 1440p @max. Details bei 925Mhz in Doom. Da meine Karte in jeder von mir genutzten Software auch mit -62mV (erst mit -75mV habe ich ganz selten leichte Grafikfehler in Witcher 3 gesehen) problemlos läuft liegt der Takt in Doom damit bei 980-990Mhz. Der Stromverbrauch liegt in beiden Fällen knapp über 200W. Und selbst bei den hohen Temperaturen fühlt sich die GPU mit max. 74°C bei 1580RPM Lüfter puddelwohl. Gleiches gilt für die VRMs.


Leider kann ich keine Reviews zu deiner HIS finden, aber nützlich wäre es natürlich zu sehen, wo sie leistungsmäßig einzuordnen ist.

Dafür braucht man doch keine Reviews. Nimm doch einfach eine R9 390 mit 1000Mhz. Wenn die Karte die 1000Mhz immer halten kann ist meine Karte ohne Undervolting ca. 6% langsamer (der GPU-Takt liegt zwar in Doom 7,5% tiefer, der Speichertakt bleibt aber identisch). Mit Undervolting gibt es bei 10-20Mhz weniger GPU praktisch keinen Unterschied. Es sei denn für dich sind 1-2% wichtig. :freak:

Dino-Fossil
2016-07-30, 20:38:41
Der Stromverbrauch liegt in beiden Fällen knapp über 200W.

Nur interessehalber: Wie gemessen?

dargo
2016-07-30, 20:45:16
Nur interessehalber: Wie gemessen?
Mit HWInfo64. Die c´t hatte bei meiner Karte 209W gemessen, eine Sapphire R9 390 lag bei denen bei 250W.

Der_Korken
2016-07-30, 20:52:32
Mit Undervolting bekommt man eine 480 auch recht sparsam. Einige Referenzkarten wurden z.B. mit 1040mV statt 1150mV ausgeliefert, was dazu führt, dass die Karten 1266Mhz in allen Spielen gehalten haben - ohne höheres PT wohlgemerkt. Mit Handoptimierungen bekommt man die sicherlich auch auf 130-140W runter, bei 0-3% Leistungsverlust. Allerdings ist die Streuung von 14nm (noch?) zu hoch, um solche Fälle zu verallgemeinern. Am Ende bleibt außer dem Fertigungsvorteil aber wirklich kein Effizienzgewinn durch Polaris selbst übrig.

dargo
2016-07-30, 20:54:47
Mit Undervolting bekommt man eine 480 auch recht sparsam.
Jepp... das ist für jeden Radeonuser ratsam. Mit Undervolting senkt man eben den Verbrauch oder erhöht die Leistung weil der Maximaltakt öfter oder dauerhaft gehalten wird. Je nachdem wie hoch das PT gesetzt ist.

btw.
Es gibt Spiele die bei mir auch mit -100mV problemlos laufen. Ich nehme aber den höchsten Wert von -62mV weil mir die Änderungen für jedes einzelne Spiel zu lästig dann sind.

Dino-Fossil
2016-07-30, 21:13:44
Am Ende bleibt außer dem Fertigungsvorteil aber wirklich kein Effizienzgewinn durch Polaris selbst übrig.

Das wurde ja leider sehr schnell klar.
Nur ist es so, dass sogar der Fertigungsvorteil seltsam niedrig ausfällt, wenn man davon ausginge, dass Karten wie Dargo's HiS die Norm für die 390 sind (mal angenommen HWInfo64 ist vertrauenswürdig was die Verbrauchsanzeige angeht)
.
Allerdings vermute ich, das eine solche HiS im direkten Benchmark-Vergleich mit der 480 etwas schlechter abschneidet, als es die anderen (stärker übertakteten) Varianten, die man dazu vermutlich herangezogen hat, tun.

dargo
2016-07-30, 21:58:45
Nur ist es so, dass sogar der Fertigungsvorteil seltsam niedrig ausfällt, wenn man davon ausginge, dass Karten wie Dargo's HiS die Norm für die 390 sind (mal angenommen HWInfo64 ist vertrauenswürdig was die Verbrauchsanzeige angeht)

Ich glaube du hast da einen kleinen Gedankenfehler. Du darfst nicht vergessen, dass ich undervolte und die HiS zusätzlich ein recht tiefes PT hat. Das ist schon fast mit einer Nano @Fury vergleichbar. Außerdem hat meine Karte einen mächtigen Custom-Kühler. Bei CB liegt die RX480 Referenz exakt gleichauf mit der R9 390 in 1440p. Damit ich aber die 1000Mhz ohne Undervolting halten kann müsste ich das PT schon um ca. 20% erhöhen. Damit bin ganz schnell wieder bei den "üblichen" ~250-260W.

Hübie
2016-07-30, 22:00:22
Ähm... not. ;)

Da hätte ich gerne den Beweis. Bedingung: 99% Auslastung und screenshot von hwinfo (Doom heizt eigentlich schon ganz gut @1440p). Da sind zwei Sensoren. Einmal GPU-Werte und VRAM-Werte. Die musst du addieren.

https://abload.de/thumb/his_r9-3909hucf.png (http://abload.de/image.php?img=his_r9-3909hucf.png)

Ist für mich schwer vorstellbar um die 200 Watt zu verbraten und dann so wenig Leistung zu opfern, daher mein Misstrauen. ;) Die 39 380X wilder in der 180-200 Watt Region.
Zudem stelle ich die Präzision solcher Messungen in Frage.

dildo4u
2016-07-30, 22:08:10
Die Yield's für volle 14/16nm Chip's sind einfach grottig,sieht man ja bei NV 1080 und 1060 sind deutlich weniger am Lager als 1070's.Um an vernünftige Stückzahlen bei der 480 zu kommen muss man also auch den absoluten Schrott nehmen,das erklärt die hohen Spannungen.Da sollte Vega deutlich effektiver sein kommt später und man kann dort dank 400€+ deutlich wählerischer sein.

gedi
2016-07-30, 23:24:53
Die Yield's für volle 14/16nm Chip's sind einfach grottig,sieht man ja bei NV 1080 und 1060 sind deutlich weniger am Lager als 1070's.Um an vernünftige Stückzahlen bei der 480 zu kommen muss man also auch den absoluten Schrott nehmen,das erklärt die hohen Spannungen.Da sollte Vega deutlich effektiver sein kommt später und man kann dort dank 400€+ deutlich wählerischer sein.

Das mag z.T. schon stimmen, allerdings teile ich auch die These, dass P10 von AMD vorab stärker eingeschätzt wurde, als er jetzt lediglich ist. Mit einer Baseclock von 1080Mhz (Boost bis 1150Mhz) bei 1.0V bei heutiger Performance, würde Polaris in wesentlich besserem Licht erscheinen lassen. Das Target konnte nur durch mehr Takt und dadurch verbunden höherer Leistungsaufnahme (vermutlich nur halbwegs) erfüllt werden.

Ich finde, die Devil zeigt im Ansatz schön, wohin die Reise hätte gehen können. Mit fertigem VBIOS wohl das beste Midrange-Produkt, imo.

dargo
2016-07-30, 23:28:37
@Hübie

Jetzt habe ich extra für dich nochmal HWInfo64 installiert. Aus mir unerklärlichen Gründen zeigt mir das Tool den Sensor vom Vram nicht. Deshalb muss man ca. 25W dazu nehmen. Ich hoffe das reicht dir.
https://www.youtube.com/watch?v=bSU52H635u0&feature=youtu.be

Intervall für alles beträgt 250ms.

PS: den avg. Wert kann ich dir leider nicht bieten da HWInfo64 auch den Verbrauch auf dem Desktop aufnimmt, sprich... Idle.

Der_Korken
2016-07-30, 23:33:00
Kommt drauf an, was man unter Yields versteht. Wenn es zu wenig funktionsfähige Chips sind, hätte AMD einfach die 470 zuerst launchen können, wo man den ganzen Ausschuss loswird. Die 480 kommt erst dann, wenn man genug Chips vorselektiert bzw. mehr volle Chips vom Band laufen. Momentan sieht es eher so aus, als würde die benötigte VCore stark schwanken.

Dass AMD P10 zu stark eingeschätzt hat, klingt dagegen plausibel. Wenn sie vorher gewusst hätten, dass die 1150Mhz nicht für das Performance-Target reichen, hätten sie den Chip gleich als 40CU-Design gebracht. Wären immer noch locker <250mm².

Hübie
2016-07-30, 23:37:02
Oh super. Danke. Also wenn man daraus jetzt ein Log macht und dann mal die 30 Watt für VRAM im Schnitt nimmt, dann kommst du schon eher auf 220-230 Watt. Leider lastet der Bench die Karte nur sehr kurz aus. Doom oder der neue 3D Mark im Loop wären da repräsentativer. Trotzdem gar nicht übel für die "olle" Grenada Granate. :D

dargo
2016-07-30, 23:41:10
Leider lastet der Bench die Karte nur sehr kurz aus. Doom oder der neue 3D Mark im Loop wären da repräsentativer.
Da ändert sich nichts weil die Karte einfach zu macht. Ist es denn wirklich so schwer zu verstehen? :tongue: In Doom geht die Karte einfach 15-25Mhz runter mit entsprechend geringerer Spannung (die hängt ja immer am Takt) um das PT einzuhalten. Ich könnte dem natürlich mit dem Treiber entgegenwirken und das PT leicht erhöhen. Aber wofür? Für die 1-2fps mehr? :ulol: Da ist mir eine leise Karte wichtiger. :)

Hübie
2016-07-30, 23:43:11
Man sieht jedoch zum Ende des Video deutlich seltener die <200 Watt was mir sagt, dass eben keine Hawaii so papperlapapp unter 200 Watt kommt. Und wenn dann tritt fast meine Aussage in Kraft: Nächst kleinere Karte kaufen ;)

dargo
2016-07-30, 23:44:53
Man sieht jedoch zum Ende des Video deutlich seltener die <200 Watt was mir sagt, dass eben keine Hawaii so papperlapapp unter 200 Watt kommt.

Ich sagte auch nicht, dass die Karte unter 200W liegt sondern knapp drüber. :) Für weniger als 200W im Schnitt müsste ich das PT leicht senken.

Und wenn dann tritt fast meine Aussage in Kraft: Nächst kleinere Karte kaufen ;)
Die nächst kleinere wäre R9 380X. Und da fehlt dir immer noch Leistung. Zudem nur 4GB. ;)

Dino-Fossil
2016-07-30, 23:45:15
Dass AMD P10 zu stark eingeschätzt hat, klingt dagegen plausibel. Wenn sie vorher gewusst hätten, dass die 1150Mhz nicht für das Performance-Target reichen, hätten sie den Chip gleich als 40CU-Design gebracht. Wären immer noch locker <250mm².

Oder P10 sollte ursprünglich auch mal HBM bekommen, oder war eigentlich zeitlich näher an Vega geplant, so dass gleich ein runderes Portfolio gekommen wäre.
Schade, dass man solche Dinge wohl nie erfahren wird.

Der_Korken
2016-07-31, 00:03:28
Was hätte HBM groß geändert? Vielleicht 20-30W Ersparnis bei 5% mehr Performance. Dafür wären die Karten aber viel zu teuer geworden. Da halte ich es für wahrscheinlicher, dass AMD die IPC zu hoch eingeschätzt hat. Sie haben ja durchaus Transistoren investiert, aber es kommt keine Leistung bei rum. Hawaii hat nur 10% mehr Transistoren und dafür 22% mehr CUs und Spieleleistung pro Takt trotz 1:2 DP.

gedi
2016-07-31, 00:09:19
@Dino-Fossil

Never ever. 4G sind heutzutage kein Verkaufs-Argument mehr. HBM2 ist noch zu selten und HBM generell nicht rentabel für diese Performanceklasse. Zudem würde HBM einen P10 in der Konstellation bandbreitentechnisch erschlagen. Dazu müsste bei P10 schon weit mehr als 1.5G Takt anliegen.

dargo
2016-07-31, 00:11:35
Zudem würde HBM einen P10 in der Konstellation bandbreitentechnisch erschlagen.
Warum? Mit einem Stack sind doch 256GB/s kein Problem.

gedi
2016-07-31, 00:17:37
Ich möchte behaupten, dass GDDR5 billiger ist und für den Endverbraucher auch wesentlich leichter zum handeln ist, wenn es ans Übertakten geht.

Kriton
2016-07-31, 00:20:51
Ich behaupte, der typische Endverbraucher übertaktet nicht. Und (behaupte weiterhin) HBM wäre momentan in dem Preisbereich nicht sinnvoll.

Im Übrigen hieß es doch schon vor längerem, dass Polaris noch nicht so viele Änderungen bringt, und die massiven erst mit Vega zu sehen sein würden.

Dino-Fossil
2016-07-31, 00:27:12
Sicher ist HBM im Moment unsinnig, deswegen hat P10 ja GDDR5.
Ich hab aber ein wenig den Eindruck bekommen, dass AMD die Verfügbarkeit (und den Preis) von HBM falsch eingeschätzt hat. Vermutlich auch einer der Gründe für das späte Erscheinen von Vega.

dargo
2016-07-31, 00:32:34
Also wenn man daraus jetzt ein Log macht und dann mal die 30 Watt für VRAM im Schnitt nimmt, dann kommst du schon eher auf 220-230 Watt.
Gesagt... getan. Ist aber ein ganz schöner Akt die richtigen Werte aus Exel rauszubekommen da HWInfo64 pro Zeile noch jede Menge Infos raushaut. :freak: Habe jetzt nochmal den Grafiktest 1 durchlaufen lassen. Ergebnis war 167W avg. Den Speicher muss man noch natürlich dazu nehmen.

PS: wir sind hier im falschen Thread für solche Spielchen.

iuno
2016-07-31, 01:46:42
Wenn du Hawaii unter 200 Watt drückst kannst du auch gleich das nächst kleinere Modell wegen der Performanceeinbußen kaufen.
Ein paar Watt gehen durch undervolting (5-10, vielleicht 15), aber was du da malst kann ich nicht glauben.
Nee, Hawaii um 200 Watt faehrt vielleicht nicht mehr durchgaengig die 1 GHz, sondern bei sehr fordernden Spielen wohl noch so um die ~900 MHz. Das ist aber immer noch deutlich(!) schneller als Tonga. Siehe auch http://ht4u.net/reviews/2015/watt_vs_frames_amd_r9_290x_und_nvidia_gtx_980_im_effizienztest/index6.php
Und das ist ohne UV und Feintuning.
UV bringt deutlich mehr als 15 Watt. Das Problem ist hier, dass das bei den neueren Karten, die den Maximaltakt nicht halten, nicht einfach abzulesen ist. Die "Ersparnis" fliesst dann direkt in hoeheren Takt ein, also mehr Leistung bei gleichem Verbrauch.
Da liegt leider in der Standardkonfiguration bei AMD mindestens seit Hawaii sehr viel brach. Um effizient zu werden braucht es halt feintuning, das will verstaendlicherweise nicht jeder machen.

Hübie
2016-07-31, 02:40:45
Habe jetzt nochmal den Grafiktest 1 durchlaufen lassen. Ergebnis war 167W avg. Den Speicher muss man noch natürlich dazu nehmen.

PS: wir sind hier im falschen Thread für solche Spielchen.

Der Test 1 ist für die Katz. Nehm mal was anderes und lass mal etwas aufwärmen. Aber ich denke (oder vermute nun) dass mein Bild von Hawaii aka Grenada bisher etwas überzeichnet war vom angeblich hohen Mehrverbrauch. Offenbar liegt da wirklich Potenzial brach, wie iuno sagte.
Ich erinnere mich, dass fondness sagte, dass AMD erst seit Fiji binning betreibt. Entsprechend dürfte da wohl weniger rauszuholen sein.

Wo wären wir denn richtig? Hawaii-Thread? Dann lass uns da weiter machen, mich interessiert das jetzt irgendwie. :D Danke für die Arbeit, dargo. Hau die Tabelle doch in den Thread rein.

StefanV
2016-07-31, 02:45:36
Dass AMD P10 zu stark eingeschätzt hat, klingt dagegen plausibel. Wenn sie vorher gewusst hätten, dass die 1150Mhz nicht für das Performance-Target reichen, hätten sie den Chip gleich als 40CU-Design gebracht. Wären immer noch locker <250mm².
Und was, wenn man mit GDDR5X geplant hat, 'im letzten Moment' aber auf GDDR5 umschwenken musste, aufgrund zu hoher Preise und zu schlechter Verfügbarkeit...

Naja, mal abwarten, ob wir eine AMD Karte mit 5X sehen werden, wenn andere Hersteller diesen Speicher auch fertigen...

Hübie
2016-07-31, 02:51:41
Wieso muss erst jemand anders den Speicher fertigen, damit man den bei AMD sieht? :confused: Polaris' MC hat nach meinen Infos einfach keine Implementierung für GDDR5X. Polaris wird aber mit hoher Wahrscheinlichkeit ein Refresh erhalten, der dass kann, denn die Änderungen sind wirklich nicht sehr groß - im Gegenteil. 80-90% vom Interface kann man übernehmen.

gedi
2016-07-31, 03:08:20
Wie stellt sich das mit der Vdroop-Geschichte beim P10 überhaupt dar? Beim OC von Tahiti und Hawaii war afair nicht die Vcore welche man benötigt hat das Problem, sondern vielmehr der Droop, so dass man immer eine höhere Vcore einstellen musste, weil beim absacken der Vcore die Grafikkarte instabil wurde.

StefanV
2016-07-31, 03:37:46
Wieso muss erst jemand anders den Speicher fertigen, damit man den bei AMD sieht? :confused:
Weil Polaris weiter unten angesiedelt ist und der Preis für die SPeicherchips wesentlich wichtiger ist als bei einer 800€ Mid Range Grafikkarte.

Leonidas
2016-07-31, 07:44:22
@Leonidas: In der Tabelle passt was mit der 390 nicht. (222+231)/2=250?:D Mach mal bitte einen aktuellen Vergleich. Thg z.B. hat ja auch die 390 mit bis zu 323 Watt gemessen X-D


Ich mach keinen ds aus 2 Werten. Aufgrund der manchmal sehr tanzenden Meßwerte viel zu risant. Die 390 wurde natürlich *geschätzt* Siehe Untertext zu jeder einzelnen Tabelle.



Arm, Tschuldigung! Wenn ich mich recht erinnere, wurden diese Wattzahlen nur bei bestimmten Benchmarks/Compute-Schleifen erreicht. Der normale Spieleverbrauch dürfte ca. 50-100Watt niedriger gewesen sein


Nada. Keine Compute- oder FurMark oder sonstwelche abweichenden Benchmarks. Nur Spielebenchmarks erlaubt.

Ailuros
2016-07-31, 07:46:20
Immer der unendliche Quatsch entweder mit den angeblich versteckten clusters die doch nie existierten oder den Speicher oder Kuehler vom Mars den auch nie jemand gesehen hat. Die RX480 sind ausgezeichnet positioniert mit ihrem Preis-/Leistungs-verhaeltnis und die 4GB die erst jetzt beim ausrollen sind, um ein gutes Stueck mehr.

Nein Polaris10 wurde mit HBM666 hergestellt nur um Luzifer zu ehren, denn selbst in der Hoelle haben sich anscheinend nichts besseres zu tun als fuer daemliches Silizium unendlich herumzueiern.....:rolleyes:

HOT
2016-07-31, 10:21:48
Natürlich wird P10 GDDR5X können, aber man wird da keine tolle Superversion mit bringen, das ist Unsinn. Er wird das können, um später das Ding zu refreshen und um etwas Strom einzusparen.

uweskw
2016-07-31, 12:36:19
@Hübie

Jetzt habe ich extra für dich nochmal HWInfo64 installiert. Aus mir unerklärlichen Gründen zeigt mir das Tool den Sensor vom Vram nicht. Deshalb muss man ca. 25W dazu nehmen. Ich hoffe das reicht dir.
https://www.youtube.com/watch?v=bSU52H635u0&feature=youtu.be

......

.....

Kann mir das jemand erklären? Bei 1:07 liegt die CPU Aufnahme bei ca. 105W, kurz danach bei über 200W. Optisch sind aber so gut wie keine Unterschiede erkennbar. Wofür wird da die Leistung in den Peaks verbraten?


Das mag z.T. schon stimmen, allerdings teile ich auch die These, dass P10 von AMD vorab stärker eingeschätzt wurde, als er jetzt lediglich ist. Mit einer Baseclock von 1080Mhz (Boost bis 1150Mhz) bei 1.0V.....
.........



Hab ich schon mal gefragt: Lässt sich die bei Takt X zu erwartende Leistung nicht viel leichter vorausberechnen als die tarsächliche Leistungsaufnahme bei diesem Takt?
Ich denke GF/AMD wurde überrascht wieviel Spannung und damit Stromverbrauch nötig ist um halbwegs brauchbare Chip-Ausbeute mit Polaris zu erreichen.
Deswegen hoffe ich auf auf deutliche Verbesserungen wenn Polaris von Samsung kommt.

greetz
US

Hübie
2016-07-31, 12:55:25
Natürlich wird P10 GDDR5X können, aber man wird da keine tolle Superversion mit bringen, das ist Unsinn. Er wird das können, um später das Ding zu refreshen und um etwas Strom einzusparen.

Und was macht dich da so verdammt sicher? :rolleyes:

dargo
2016-07-31, 12:58:38
Kann mir das jemand erklären? Bei 1:07 liegt die CPU Aufnahme bei ca. 105W, kurz danach bei über 200W. Optisch sind aber so gut wie keine Unterschiede erkennbar. Wofür wird da die Leistung in den Peaks verbraten?

Welche CPU? Das ist der Verbrauch der Grafikkarte (ohne Speicher)! Peaks und Downs sind völlig normal, das ist Powermanagement im ms Bereich. ;) Solche hohen Peaks gibts natürlich auch bei NV, schau dir einfach die Messungen von th an.

HOT
2016-07-31, 13:02:41
Und was macht dich da so verdammt sicher? :rolleyes:
Was macht dich so verdammt sicher, dass er es nicht kann? Dass er bisher nicht eingesetzt wird? AMD redet drumherum, es ist nie dementiert worden, also wird er es können.

Hübie
2016-07-31, 13:06:21
Aus einem Hinterstübchen wo es hieß es gäbe aktuell nur einen einzigen IHV der ein Interface dafür auf dem Markt hat. :P

uweskw
2016-07-31, 13:14:25
Welche CPU? Das ist der Verbrauch der Grafikkarte (ohne Speicher)! Peaks und Downs sind völlig normal, das ist Powermanagement im ms Bereich. ;) Solche hohen Peaks gibts natürlich auch bei NV, schau dir einfach die Messungen von th an.

Natürlich meine ich GPU:freak:
Dass es ein ständiges auf und ab im Verbrauch gibt ist schon klar. Aber das muss ja auch irgendwie technisch begründet sein, wenn von einem Frame zum anderen die Leistungsaufnahme fast verdoppelt wird. Besonders wenn optisch kaum ein Unterschied festzustellen ist.
Oder findet bei der Anzeige keine Glättung der Werte statt? Dann wäre die ja recht daneben.

greetz
US

Hübie
2016-07-31, 13:29:36
Das was du siehst ist längst fertig gerendert. Und wie präzise so eine Messung ist, weiß man genau so wenig wie die Abtastrate. So etwas kannst du nur erklären wenn du mit einem Messgerät, welches eine sehr hohe Auflösung bietet, und einem graphics debugger den renderprozess parallel dazu verfolgst. ;) Der Strom fliesst nicht konstant sondern wie Wellen eben in Peaks & Vales. Die GPU ist voller Kapazitäten die ge- und entladen werden.

Dino-Fossil
2016-07-31, 14:19:39
Es wird wohl schon einen Grund haben, dass GPU-Tests eigentlich immer mit Hardware-Lösungen den Verbrauch bestimmen, aber als Näherung ist es vermutlich brauchbar.

Der_Korken
2016-07-31, 14:22:47
Und was, wenn man mit GDDR5X geplant hat, 'im letzten Moment' aber auf GDDR5 umschwenken musste, aufgrund zu hoher Preise und zu schlechter Verfügbarkeit...

Das kann man natürlich nicht ausschließen, allerdings geisterten die 8Gbps/GDDR5 afaik schon relativ früh hier im Thread herum. Der Knackpunkt ist aber imho, dass die hohen Standardspannungen so nicht geplant waren. Ob man die Performance vorher falsch eingeschätzt hat oder der Prozess schlechter ausfiel als erwartet, wird uns aber nur AMD selbst sagen können.

Zur Entstehung des RV770 gab es doch mal ein langes Interview zwischen Anandtech und irgendwelchen Devs. Hat AMD sowas jemals nochmal gemacht? Bei Polaris hätte mich das echt interessiert.

OBrian
2016-07-31, 14:35:19
Und was macht dich da so verdammt sicher? :rolleyes:
weil es einfach nur logisch ist. Wenn das Interface so ähnlich ist und es somit kaum Mehraufwand ist, dann baut man die Fähigkeit doch ein, einfach um sich die Option offenzuhalten. Ob dann in anderthalb Jahren oder so tatsächlich was damit erscheint, ist sicherlich noch nicht entschieden, sondern hängt von den Marktbedingungen zu dem Zeitpunkt ab. Vielleicht muß eine Lücke gefüllt werden, vielleicht nicht.

Screemer
2016-07-31, 16:49:40
Der Test 1 ist für die Katz. Nehm mal was anderes und lass mal etwas aufwärmen. Aber ich denke (oder vermute nun) dass mein Bild von Hawaii aka Grenada bisher etwas überzeichnet war vom angeblich hohen Mehrverbrauch. Offenbar liegt da wirklich Potenzial brach, wie iuno sagte.
Ich erinnere mich, dass fondness sagte, dass AMD erst seit Fiji binning betreibt. Entsprechend dürfte da wohl weniger rauszuholen sein.

Wo wären wir denn richtig? Hawaii-Thread? Dann lass uns da weiter machen, mich interessiert das jetzt irgendwie. :D Danke für die Arbeit, dargo. Hau die Tabelle doch in den Thread rein.
im anhang findest du mein csv von knapp 70min The Divison. ich hab ne 290. der durchnschnitt bei "GPU VRM Power In (PIN) [W]"(GPU) ist knapp 159W und bei "GPU VRM Power In (PIN) [W]"(VRam) 32W. Das sind bereinigte Werte ohne die Senken beim wechseln der Instanzen. Dazu läuft die 290 mit 1040/1300MHz, -56mV und +10% PT. Screenshot von AB ist auch im Anhang. Gern reiche ich noch ein paar Sensorlogs nach, wenn gewünscht.

meine werte sind locker mit dargos vergleichbar und deshalb wundert mich, dass polaris so schlecht skaliert.

€dit: lässt sich übrigens mit dem gerneric log viewer (http://www.hwinfo.com/forum/Thread-LogViewer-for-HWINFO-is-available) wunderschön öffnen. nur für vrm 2 werden die gleichen werte angezeit. sind im log aber korrekt vorhanden.

Dino-Fossil
2016-07-31, 17:14:19
meine werte sind locker mit dargos vergleichbar und deshalb wundert mich, dass polaris so schlecht skaliert.

Bleibt noch die Frage in wieweit man einem Software-Tool da vertrauen kann.
Interessant wäre es natürlich auch, einen entsprechenden Test mit dem Tool und einer RX 480 zu machen und zu vergleichen.

Hübie
2016-07-31, 17:14:39
Hm, ich will den Thread hier nicht in OT führen, aber wir können gerne im Hawaii-Thread weiter machen. Es ist ja offensichtlich dass mein Bild von Hawaii so nicht richtig ist / war. Bin überrascht muss ich gestehen.

@Dino-Fossil: Das Tool zeigt nur Daten der Sensoren an. Also müsste man erfragen wie präzise diese sind. ;)

Dino-Fossil
2016-07-31, 17:55:08
@Dino-Fossil: Das Tool zeigt nur Daten der Sensoren an. Also müsste man erfragen wie präzise diese sind. ;)

Wie präzise und wie vollständig.
Ich vermute mal, die Daten werden auch für die internen Steuermechanismen der Karten (Taktrate, Powertarget, etc) herangezogen.
Aber was kommt z.B. noch an Verlusten auf der Karte dazu?

Wie ich schon sagte, es wird schon seine Gründe haben, warum die Leistungsaufnahme teils so aufwändig mittels spezieller Hardware gemessen wird.

StefanV
2016-07-31, 18:11:38
weil es einfach nur logisch ist. Wenn das Interface so ähnlich ist und es somit kaum Mehraufwand ist, dann baut man die Fähigkeit doch ein, einfach um sich die Option offenzuhalten. Ob dann in anderthalb Jahren oder so tatsächlich was damit erscheint, ist sicherlich noch nicht entschieden, sondern hängt von den Marktbedingungen zu dem Zeitpunkt ab. Vielleicht muß eine Lücke gefüllt werden, vielleicht nicht.
...und vorallendingen dem Preis von GDDR5X, welcher momentan wohl eher relativ weit von GDDR5 entfernt sein dürfte...

TerrorZivi
2016-07-31, 18:31:23
Die Messwerte sagen da wirklich nur die halbe Wahrheit. Beim Mining hat meine 290er ~150 Watt gezogen, laut der Sensoren in HWiNFO64, bei 947/1250 MHz und -75 mV, PT +50. Ohne die R9 verbraucht mein gesamtes System beim Mining ~ 250-260 Watt mit der R9 ~550-560 Watt, nach Steckdosenmessgerät. Da fehlen mal geschmeidige 150 Watt, inkl. aller Verluste und aus der Abwärme des Radiators kann ich mir auch kein Ei mehr kochen.

Da sieht man wie wichtig es ist mit gutem Equipment und Sachverstand direkt am Slot und den Steckern zu messen.

Mining ist hier natürlich wieder ein Extrem, da wirklich mal alle Einheiten der Karte ausgelastet sind. Wenn das jetzt im Gaming um 200 Watt wären wird die vorhandene Power einfach nicht ordentlich ausgenutzt.

iuno
2016-07-31, 19:24:23
Mining ist hier natürlich wieder ein Extrem, da wirklich mal alle Einheiten der Karte ausgelastet sind. Wenn das jetzt im Gaming um 200 Watt wären wird die vorhandene Power einfach nicht ordentlich ausgenutzt.
Nein, die Karte hat ja noch ein bisschen mehr als nur alus. ROPs und TMUs verbrauchen auch Strom. Es ist also noch nicht das absolute Maximum, wenn auch sehr nahe dran - Speicherbandbreite spielt ja auch eine Rolle, zumindest wenn du ethereum geschürft hast.

Edit: muss die Aussage revidieren. Zumindest Ethereum Mining ist bei mir sehr weit weg vom Maximalverbrauch.


Anwendung|Takt GPU (MHz)|Takt Speicher(MHz)|Watt (Steckdose)
Windows|300|150|56
Windows, Multi Monitor|300|1250|96
Ethminer*|1000|1250|246
FurMark|1000|1250|350
*mit den Settings vom dwarfpool: https://dwarfpool.com/faq/#maxspeed, resultiert in knapp 30 MH/s
-75 mV
GPU liegt allerdings dank Wasser auch bei max. 40°C, das macht ebenfalls sehr viel aus.

Als ich angefangen habe mit dem UV hatte ich schonmal Ergebnisse gepostet, hier auch die Temperatur miteinbezogen ("Messung" direkt zum Start und etwas spaeter). Damals noch -100 mV, das war aber nicht in jedem Spiel stabil.
Spannung|1250 mV|1150 mV
Leistungsaufnahme (Gesamtsystem) - Furmark (34°C)|398 Watt (~920 MHz)|356 Watt
Leistungsaufnahme (Gesamtsystem) - Furmark (80°C)|460 Watt (+20 PT)|395 Watt




Etwas OT, aber nochmal zur Verdeutlichung, was UV und niedrige Temperaturen bei den Chips bringt.

Screemer
2016-07-31, 19:31:20
Die Messwerte sagen da wirklich nur die halbe Wahrheit. Beim Mining hat meine 290er ~150 Watt gezogen, laut der Sensoren in HWiNFO64, bei 947/1250 MHz und -75 mV, PT +50. Ohne die R9 verbraucht mein gesamtes System beim Mining ~ 250-260 Watt mit der R9 ~550-560 Watt, nach Steckdosenmessgerät. Da fehlen mal geschmeidige 150 Watt, inkl. aller Verluste und aus der Abwärme des Radiators kann ich mir auch kein Ei mehr kochen.

Da sieht man wie wichtig es ist mit gutem Equipment und Sachverstand direkt am Slot und den Steckern zu messen.

Mining ist hier natürlich wieder ein Extrem, da wirklich mal alle Einheiten der Karte ausgelastet sind. Wenn das jetzt im Gaming um 200 Watt wären wird die vorhandene Power einfach nicht ordentlich ausgenutzt.
das ist durchaus richtig. allerdings nuckelt meine karte kombiniert in furmark gut und gerne 290-300W, wenn ich nur nach den hwinfo werten gehe. auch hierzu ein log im anhang. nur 6min lang, sonst platzt mir wohl vrm1. der liegt nach den 6min bei gut 125°C :ugly: Da muss man allerdings sagen, dass meine karte die 1040MHz konstant hält und nicht throtled. so weit ab können die werte also gar nicht sein. sie sind natürlich nicht im ansatz mit dem aufwand von pcgh/ht4u/thg vergleichbar, aber als richtwert denke ich nicht so verkehrt.

Unicous
2016-07-31, 21:01:19
TheStilt

If the Polaris dies had more room on them, they would say "Diffused in USA, Made in Taiwan". Packaged at Hu Kuo site by Amkor.

http://forums.anandtech.com/showpost.php?p=38394013&postcount=2619

Liszca
2016-07-31, 21:54:37
Ist mit einer passive gekühlten RX 460 zu rechnen, oder eher nicht?

Effe
2016-07-31, 22:08:46
Bei 60W Verbrauch sollte das locker gehen. HIS hat doch bspw. die 7750/250 passiv gekühlt.
Ich hoffe eher auf eine Low Profile.

Elkinator
2016-07-31, 22:54:53
Gibt es schon eine Erklärung dafür, warum auf P11 "Made in Taiwan" steht?
Wird doch in 14LPP gefertigt, kann also schlecht aus Taiwan kommen.

Effe
2016-07-31, 22:57:16
Aus dem gleichen Grund warum auf Kaveris: diffused in Germany und Made in Malaysia steht.
http://www.legitreviews.com/wp-content/uploads/2015/07/amd-7870-kaveri-apu-645x503.jpg

Elkinator
2016-07-31, 23:24:44
Ok, aber was ist in Taiwan?

Gorkon
2016-07-31, 23:33:07
Amkor...die den ganzen Schmuh zusammenklatschen ;)

https://www.google.de/maps/uv?hl=de&pb=!1s0x34683c37e2a8c48b:0x8d4a020949884f36!2m5!2m2!1i80!2i80!3m1!2i100!3m1!7e11 5!4s/maps/place/amkor%2Btaiwan/@24.8411188,121.2112493,3a,75y,4.77h,90t/data%3D*213m4*211e1*213m2*211sasbZ0UMIP6LCS52yGnHFYg*212e0*214m2*213m1*211s0x0:0 x8d4a020949884f36!5samkor+taiwan+-+Google-Suche&imagekey=!1e2!2sasbZ0UMIP6LCS52yGnHFYg&sa=X&ved=0ahUKEwilrse8057OAhWGBBoKHS-SDocQpx8IiQEwCg

Unicous
2016-08-01, 00:12:45
Ok, aber was ist in Taiwan?

Ist es wirklich solch eine riesige Überwindung zwei Posts (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11119326#post11119326) über dir zu lesen bevor du hier (auch ein paar Seiten zuvor) längst beantwortete Fragen stellst?

Elkinator
2016-08-01, 00:19:19
Ok, an die hab ich nicht gedacht, dachte die brauch man nur bei einem Package mit Interposer.

Aber sollte das nicht eigentlich dort gemacht werden, wenn man schon ein JV dafür gegründet hat?
AMD and Nantong Fujitsu Microelectronics to Establish Industry-Leading Semiconductor Assembly and Test Joint Venture (http://ir.amd.com/phoenix.zhtml?c=74093&p=announcement)

Ja, weil ich dich eigentlich auf der Ignore-Liste habe, w du auch hin gehörst!

Unicous
2016-08-01, 00:31:50
Ich frage mich gerade warum du nicht auf meiner ignore-Liste bist.:eek:


Warum sie nicht ihre eigenen Fabs nutzen? Höchstwahrscheinlich geringere Kosten und die Sache, dass sie ihre CPUs da schon "zusammenpacken" lassen. Amkor ist seit vielen Jahren Partner und im Zweifel auch günstiger als TSMC.

y33H@
2016-08-01, 10:04:51
Heute kamen übrigens die Samples der RX 470: https://www.facebook.com/golem/posts/10157355799585637

tm0975
2016-08-01, 10:40:38
wer lesen kann.... ok, donnerstag 15 uhr ist es soweit.

ich dachte aber, dass von der 460 und 470 nur custom designs kommen. sieht aber eher nach referenzklotz aus.

btw., die verfügbarkeit der 480 ist ja mittlerweile extrem lausig. gibt es nähere infos dazu? schlechtes angebot, hohe nachfrage? wenn die 470 gut lieferbar sein wird, werden es wohl die schlechten yields sein...

Disco_STFU
2016-08-01, 10:43:30
4. August

y33H@
2016-08-01, 10:58:06
ich dachte aber, dass von der 460 und 470 nur custom designs kommen. sieht aber eher nach referenzklotz aus.Custom meint in diesem Fall: Backplate, silberne Front und 1.216/3.500 statt 1.206/3.300 MHz.

dildo4u
2016-08-01, 12:06:49
Ich sehe hier nur 4GB Custom Modelle der 470,schätze mal ein Schachzug damit die 480 attraktiv bleibt.

http://wccftech.com/amd-radeon-rx-480-470-460-custom-models/

y33H@
2016-08-01, 14:57:47
Ich bin mal auf den Preis gespannt, tu mir mit 4GB bei der Performance aber bissi schwer ...

Raff
2016-08-01, 14:59:32
Circa GTX-970-Performance bei 4 GiB und 200 Euro: fänd ich dufte und ausbalanciert. Die Custom-Karten werden aber bestimmt Richtung 250 Euro gehen ...

MfG,
Raff

y33H@
2016-08-01, 15:28:09
Dafür kriegste dann halt schon quasi wieder ne RX 480 mit 8 GB.

Zergra
2016-08-01, 15:44:45
btw., die verfügbarkeit der 480 ist ja mittlerweile extrem lausig. gibt es nähere infos dazu? schlechtes angebot, hohe nachfrage? wenn die 470 gut lieferbar sein wird, werden es wohl die schlechten yields sein...
Denke eher das Ref Design wird nicht mehr gebaut. Daher alle Chips werden für die Custom Roms gespart. Daher auch die schlechte Verfügbarkeit. Yields sind dazu auch noch schlecht..

y33H@
2016-08-01, 15:48:36
Wie schon mal angemerkt: Bei mieser Yield ist's ja nicht so, dass Unmengen P10 für die RX 470 abfallen. Denn abseits von ein paar CUs kann so viel mehr defekt sein ... Cache, Frontend, SI usw.

Elkinator
2016-08-01, 15:54:56
Denke eher das Ref Design wird nicht mehr gebaut.
Die werden sicher noch lange produziert, aber hauptsächlich als OEM-Karten.

Daher alle Chips werden für die Custom Roms gespart. Daher auch die schlechte Verfügbarkeit.
Wie kommst du jetzt darauf?
Es gibt weniger Referenzkarten, weil so ziemlich jeder eine Custom will.

Yields sind dazu auch noch schlecht..
Sicher nicht schlechter als bei TSMC...

y33H@
2016-08-01, 16:07:08
TSMC hat aber halt bisschen mehr Kapazität ...

dildo4u
2016-08-01, 16:13:44
Polaris in der neuen XBox One S?

http://www.neogaf.com/forum/showpost.php?p=212113521&postcount=389

HOT
2016-08-01, 16:25:16
Muss ja, AMD hat ja keine andere 14nm Architektur. Das wird einfach ein Upgrade auf 12 Polaris-CUs sein mit 2 auf 14nm geschrupfte Jaguarmodulen.

Elkinator
2016-08-01, 16:45:59
Polaris in der neuen XBox One S?
Das Gerücht gibt es schon lange, GCN4 zu verwenden ist einfach billiger als GCN3 erst mal zu shrinken.

AnarchX
2016-08-01, 18:05:23
Als ob M$ sich nicht einen Shrink des XBO-SoCs leisten könnte. Polaris in der Neo ist wohl alles andere als bitkompatibel.
Möglicherweise ist auch 20nm @ GF, dazu gab es konkrete Gerüchte.

Unicous
2016-08-01, 18:18:13
In dem Post wird rein gar nichts über Polaris gesagt (oder habe ich etwas übersehen?), lediglich von halbierter Leistungsaufnahme in einigen Last-Szenarien wird gesprochen. Das bekommt man auch durch einen Shrink hin.

@AnarchX

20nm bin ich mir nicht sicher. Wo soll es da konkrete Gerüchte geben? Du meinst die Linkedin-Einträge? Das ist mittlerweile Ewigkeiten her und meiner Meinung nach nicht mehr aktuell. Große Verbesserungen bei der Leistungsaufnahme darf man sich da eigentlich auch nicht erwarten, ich gehe von 14nm aus. 20nm ist ja von allen Foundries so gut wie "abandoned" (bzw. geht man jetzt auf FDSOI ... das wäre auch noch eine Möglichkeit)

dildo4u
2016-08-01, 18:19:21
Und was ist mit HDR Support für Filme?Die 460 kommt ja auch in ein paar Tagen das könnte also passen.

Screemer
2016-08-01, 18:28:10
Als ob M$ sich nicht einen Shrink des XBO-SoCs leisten könnte. Polaris in der Neo ist wohl alles andere als bitkompatibel.
Möglicherweise ist auch 20nm @ GF, dazu gab es konkrete Gerüchte.
Es wurde ja schon zur Genüge spekuliert, dass Polaris eben ist wie er ist um genau das für Konsolen zu gewährleisten. Wundern würde es mich absolut nicht.

Unicous
2016-08-01, 18:32:11
Was hat das mit der 460 zu tun?:confused:

GCN supported HDR generell eh schon (min. ab Gen2) und leichte Anpassungen an den FFUs kann man immer implementieren, das ist jedenfalls kein eindeutiges Indiz für Polaris.

Elkinator
2016-08-01, 18:49:27
Als ob M$ sich nicht einen Shrink des XBO-SoCs leisten könnte.
Wer M$ schreibt hat wohl echt Probleme:\
Ob sie es sich leisten könnten ist ziemlich egal, es ergibt einfach keinen Sinn mehr Geld für etwas schlechteres zu zahlen

Polaris in der Neo ist wohl alles andere als bitkompatibel.
Eben schon, das war eine der ersten Infos die AMD zu GCN4 veröffentlicht hat.

Möglicherweise ist auch 20nm @ GF, dazu gab es konkrete Gerüchte.
20nm wurde bei AMD komplett eingestellt.

deekey777
2016-08-01, 20:03:45
Und was ist mit HDR Support für Filme?Die 460 kommt ja auch in ein paar Tagen das könnte also passen.
Ist es wirklich so schwer UVD/VCE auszutauschen?

Und wer sagt, dass UVD/VCE der Xbox One auf dem gleichen Level wie die der PC-Verwandten ist?

Die lustige Folie von AMD: http://images.anandtech.com/doci/9319/Slide%2038%20-%20Win%2010%20Acceleration.png?_ga=1.213685655.243017508.1468429845

An ein richtes Dementi kann mich nicht erinnern.
Was noch gegen Polaris in der Xbox One S spricht, ist der Umstand, dass es bereits kleinere Unterschiede zwischen der GCN1.1-ISA und der GCN1.2-ISA gibt. Polaris dürfte sich noch weiter unterscheiden.

HOT
2016-08-01, 20:05:40
GloFo hat erst 20 HPM und später 20 LPM gecancelt. Es gibt kein GloFo 20nm, nur 22FDX und der ist noch nicht produktionsreif. Eigentlich hätte der SoC auch Oktober 2015 erscheinen sollen, aber ohne 20nm erscheint das Teil eben erst jetzt. Der SoC ist mit an Sicherheit grenzender Wahrscheinlichkeit 14LPP.

dildo4u
2016-08-01, 20:07:09
Die neuen Konsolen kommen so oder so mit GCN 4.0 daher wird es schon Kompatibel sein.

Elkinator
2016-08-01, 20:28:33
Ist es wirklich so schwer UVD/VCE auszutauschen?
GCN3 müßte man trotzdem shrinken, wozu wenn es GCN4 in 14nm fertig gibt?

Die lustige Folie von AMD: http://images.anandtech.com/doci/9319/Slide%2038%20-%20Win%2010%20Acceleration.png?_ga=1.213685655.243017508.1468429845
Was ist daran lustig?
Es geht, aber nur über die Shader.
Ist aber auch egal 2016p60 kann der SOC nichtmal ausgeben...

dass es bereits kleinere Unterschiede zwischen der GCN1.1-ISA und der GCN1.2-ISA gibt.
Diese ISAs gibt es nicht!

Unicous
2016-08-01, 20:35:56
@deekey777

Die Fixed Function Units kann man wie gesagt leicht "austauschen", wie man ja auch bei den etlichen APU-Variationen aber auch GPU-Zwischengenerationen sieht. Stoney Ridge ist da ja das Paradebeispiel.


@dildo

Gesichert ist da gar nichts. Man kann auch weiterhin plump auf Gen2 setzen und lediglich die CUs skalieren.


@Elkinator Deine Semantik-Scheiße kannst du gerne in anderen Foren breittreten, hier wirst du keinen Blumentopf mit deiner Korinthenkackerei gewinnen. (Siehe auch Low Level API = Low Overhead API Geblubber :facepalm:)

deekey777
2016-08-02, 19:32:05
GCN3 müßte man trotzdem shrinken, wozu wenn es GCN4 in 14nm fertig gibt?


Was ist daran lustig?
Es geht, aber nur über die Shader.
Ist aber auch egal 2016p60 kann der SOC nichtmal ausgeben...


HEVC-Encoding in Echtzeit während Spielens über Shader? Das denke ich nicht.

y33H@
2016-08-03, 10:47:00
Das passiert übrigens auf einer 4-GByte-Karte, wenn man in Doom Nightmare erzwingt:

56926

MadManniMan
2016-08-03, 10:50:44
Das passiert übrigens auf einer 4-GByte-Karte, wenn man in Doom Nightmare erzwingt:

56926

Gib. Mehr. Diagramme!

dildo4u
2016-08-03, 10:54:40
NDA er gibt dir schon mher als er darf.

Raff
2016-08-03, 10:58:18
Pöser NDA-Vernichter. :tongue:

MfG,
Raff

y33H@
2016-08-03, 10:59:26
Oh, vertippt - war freilich die RX 480 mit 4 GB :P

Botcruscher
2016-08-03, 11:10:06
4GB sind halt zu wenig. Ist jetzt nicht verwunderlich und wird der Normalfall werden.

Dino-Fossil
2016-08-03, 11:13:04
Aber brauch man das?
Ich meine, sicher kann man eine 4GB Karte damit in die Knie zwingen, aber schaut die Grafik eine Stufe niedriger soviel schlechter aus?
Das vermisse ich in der aktuellen 4vs8GB Diskussion noch ein wenig:
Welche Einstellungen muss man wie verringern, damit es wieder gut läuft und welche optischen Einbusen bringt das dann mit?

dildo4u
2016-08-03, 11:17:04
Die Games werden dort schon wesentlich schlauer sperren Setting's oder passen Details dynamisch an.Für Leute die 150€ Karten kaufen kein großer Verlust,man müsste mal ein Test mit ein Paar Daus machen ob sie in Bewegung den Unterschied zwischen Ultra und Nightmare Settings sehen.

y33H@
2016-08-03, 11:21:53
CoD BO3 mit High/Extra und Doom mit Ultra/Nightmare:

https://abload.de/thumb/01-cod-bo3-highugjj9.jpg (http://abload.de/image.php?img=01-cod-bo3-highugjj9.jpg) https://abload.de/thumb/02-cod-bo3-extraf1jqb.jpg (http://abload.de/image.php?img=02-cod-bo3-extraf1jqb.jpg) https://abload.de/thumb/03-doom-ultra1qjob.jpg (http://abload.de/image.php?img=03-doom-ultra1qjob.jpg) https://abload.de/thumb/04-doom-nightmarescjy7.jpg (http://abload.de/image.php?img=04-doom-nightmarescjy7.jpg)

Dino-Fossil
2016-08-03, 11:27:03
CoD sieht man sicherlich auch an den Texturen eine deutliche Verbesserung (für "High" wirken die ganz schön unscharf), bei Doom ist man mMn schon bei Ultra auf hohem Niveau.

Disco_STFU
2016-08-03, 11:43:58
Mal so blöd in die Runde gefragt, wirds überhaupt RX 470 mit 8GB geben? Bis jetzt sah man ja nur 4GB...

Fällt bestimmt unter NDA was :freak:

HOT
2016-08-03, 11:59:44
GCN3 müßte man trotzdem shrinken, wozu wenn es GCN4 in 14nm fertig gibt?
[...]
Wenn das Teil von TSMC kommt wird das ein reiner Shrink sein mit etwas erneuertem I/O, sonst nix. Man hat das so billig wie möglich gemacht. Sieht man an der arschigen Energieeffizienz, trotz geringem Takt.

Soviel übrigens mit dem "mit 16nm säh das alles besser aus" gelaber -> busted

Paxwell ist halt teilweise TBR, das kann man mit GCN nicht wettmachen in der Energieeffizienz.

Lukaner
2016-08-03, 12:06:00
bei den cod BO Screens seh ich einen deutlichen Unterschied, bei Doom Ultra siehts schon gut aus, aber Doom Nightmare ist bei mir nochmal deutlich schärfer.
Muss aber dazu sagen, dass ich wohl ein Extremfall bin weil ich auf 108 Zoll 1080p zocke. Da fallen auch kleine Qualitätsunterschiede bei Texturen sehr schnell auf.

Insofern find ich es sehr begrüßenswert, wenn tendenziell immer bessere, wenn auch speicherhungrigere, Texturen verwendet werden.

Botcruscher
2016-08-03, 12:07:57
Aber brauch man das?
Kurz: Absolut ja! Texturen sind mit gigantischem Abstand das Letzte wo ich sparen würde. Dazu gibt es hier Grafikqualität ohne groß Rohleistung verblasen zu müssen.
Den Bloom, Blur und Postprocessingbullshit mach ich dagegen gerne aus. Frist Leistung ohne Ende, sieht Scheiße aus und erzeugt Sachen die mein Hirn schon in der Realität so weit möglich filtert. Das ist so wichtig wie head bobbing.

Muss aber dazu sagen, dass ich wohl ein Extremfall bin weil ich auf 108 Zoll 1080p zocke. Da fallen auch kleine Qualitätsunterschiede bei Texturen sehr schnell auf.

Urgs. Da geht doch alles im Brei unter. Setz dich mal vor 4K und erlebe vollkommen neues. Da sind selbst die Bodentexturen von Dota2 ein total neuer Detailgrad.

Mal so blöd in die Runde gefragt, wirds überhaupt RX 470 mit 8GB geben? Bis jetzt sah man ja nur 4GB...
Fällt bestimmt unter NDA was :freak:

Irgendwann sicher. Das AMD sich selber so schnell Konkurrenz macht glaube ich nicht.

Der_Korken
2016-08-03, 12:27:47
Für mich sehen die Texturen bei Doom High vs Ultra identisch aus. Nur die Schatten sind schärfer.

Dino-Fossil
2016-08-03, 12:38:48
Setz dich mal vor 4K und erlebe vollkommen neues. Da sind selbst die Bodentexturen von Dota2 ein total neuer Detailgrad.

Dafür kaufe ich aber heute keine 480.

Ansonsten ist man bei 1080p gerade auf kleineren Bildschirmen mit 4GB wohl noch eine Weile im grünen Bereich - solange man damit leben kann, dass man eben nicht auf den absolut höchsten Einstellungen spielt.
Aber das sind persönliche Präferenzen.

deekey777
2016-08-03, 12:43:50
Oh, vertippt - war freilich die RX 480 mit 4 GB :P
Klar doch, würde ich auch so behaupten. ;D

Locuza
2016-08-03, 12:59:51
http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf

56 VGPRS on consoles ( PS4 )
Higher on PC due to compiler inefficiency :frown: ( @ AMD compiler team, pretty plz fix - throwing perf out )
I have a dream that one day AMD has gescheite Treiberabteilung.

fondness
2016-08-03, 13:07:29
Wenn da trotz der bereits sehr guten Performance noch immer solche Defizite vorhanden sind, zeigt das nur, wie gut die Architektur eigentlich ist. Bei NV müssen sie über UBOs / Constant Buffer gehen, was zu "more / ugly code" führt. Aber ja, ist natürlich schade, dass hier mal wieder Potential verschenkt wird.

Dino-Fossil
2016-08-03, 13:43:14
Das AMD Potential verschenkt sieht man doch, wenn man Rohleistung mit der gelieferten Performance ggü. NVidia vergleicht.
Da geht sicher noch was, das ist nicht nur die Architektur an sich, die da bremst.

fondness
2016-08-03, 13:49:31
Sinnloser Vergleich, bei CPUs vergleiche ich ja auch nicht stupide GFLOPs. Eine moderne GPU-Architektur ist längst viel zu komplex, als dass die Rohleistung noch irgendwas Aussagen würde.

Complicated
2016-08-03, 13:54:46
GCN3 müßte man trotzdem shrinken, wozu wenn es GCN4 in 14nm fertig gibt?
Wurde auf 16nm geshrinkt bei TSMC
http://www.planet3dnow.de/cms/25650-xbox-one-s-mit-amd-soc-in-16-nm-finfet-von-tsmc/
Die große Überraschung ist jedoch die Fertigung der APU. Wurde das SoC für die Xbox One bisher in 28 nm Strukturen bei GlobalFoundries produziert, wird es für die Xbox One S in 16 nm FinFET-Technologie bei TSMC in Taiwan hergestellt, wo auch NVIDIAs Pascal vom Band läuft.Somit hat AMDs SEMI-Custom Fertigung auch die neuen Katzenkerne aka "Tiger" als auch GCN3 in 16nm zur Verfügung.
In jedem Fall ist es erstaunlich, wie portierbar so ein APU-Design zu sein scheint, insbesondere ob der Größe von 363 mm² (auf jetzt 240 mm²), der Komplexität und der beiden verschiedenen Compute-Unit-Typen (CPU und GPU) in einem Die.Erster Test:
http://www.eurogamer.net/articles/digitalfoundry-2016-microsoft-xbox-one-s-review
Verbraucht weniger und ist dafür lauter :freak:

Locuza
2016-08-03, 13:58:28
Die Xbox One verwendet GCN Gen 2 und nicht Gen 3.
Und Jaguar/Puma/Tiger ist praktisch das gleiche, wenn die Architektur absolut identisch ist und sich nur die jeweilige Umsetzung unterscheidet.

Unicous
2016-08-03, 14:08:24
Gibt auch keinerlei Hinweise auf Tiger verstehe nicht, warum Dresdenboy z.B. in einigen Foren davon spricht. Cheetah und Tiger sind offensichtlich Nachfolge-Katzendesigns die meines Erachtens mit Stoney Ridge und Co. eingestampft wurden. Ich schätze auch bis auf den Shrink auf FinFET hätte es keine größeren Änderungen gegeben.

Complicated
2016-08-03, 14:13:39
GCN3 liegt nahe bei einem Shrink, doch du hast recht gesichert ist das nicht.
AMD konnte auch in der selben Fertigung mit der selben Architektur einiges raus holen bei Puma+.

Lukaner
2016-08-03, 14:23:41
Urgs. Da geht doch alles im Brei unter. Setz dich mal vor 4K und erlebe vollkommen neues. Da sind selbst die Bodentexturen von Dota2 ein total neuer Detailgrad.

Mit knapp 6m Sitzabstand geht das gut, ist vom Pixelmatsch nix anderes als 1080p am Schreibtisch mit 24 Zoll, nur in Groß. Wenns mich stören würde, würd ich am Schreibtisch spielen. :smile:
Leider sind sowohl 4k Beamer als auch 4k Monitore nach wie vor "etwas" zu teuer für mich. Kosten halt noch das vielfache wie 1080p-Pendants, und zu solchen Preisen bekomm ich keine Clearance von der Frau ;D

MMn wird 4k erst interessant, wenns gute 4k-Monitore um ca. 250 Euro und Grafikkarten in der GTX1080-Leistungsregion um 400 Euro gibt. Da hoff ich auf einen Vega-Ableger in ca. einem Jahr. :biggrin:

sry for OT

Locuza
2016-08-03, 14:23:48
GCN3 liegt nahe bei einem Shrink, doch du hast recht gesichert ist das nicht.
AMD konnte auch in der selben Fertigung mit der selben Architektur einiges raus holen bei Puma+.
Es ist ein shrink vom vorherigen SoC mit einem speziell angepassten GCN Gen 2 Chip.
Ein Update auf GCN Gen 3 würde bedeuten das sie den Chip stellenweise stark überdenken müssten.
Was macht man mit der DCC?
Was ist mit dem custom Command-Processor? Schmeißt man den von der Xbox One weg und baut den originalen von GCN Gen 3 ein oder macht man das gleiche wieder und lässt seinen speziellen CP eingebaut?
Natürlich hat sich die ISA ein wenig verändert, die Scalar-Unit und die Geometry-Engines.

HOT
2016-08-03, 14:52:48
Gibt auch keinerlei Hinweise auf Tiger verstehe nicht, warum Dresdenboy z.B. in einigen Foren davon spricht. Cheetah und Tiger sind offensichtlich Nachfolge-Katzendesigns die meines Erachtens mit Stoney Ridge und Co. eingestampft wurden. Ich schätze auch bis auf den Shrink auf FinFET hätte es keine größeren Änderungen gegeben.
Eingestampft wurden sich sicherlich nicht, da sie ja offensichtlich für SemiCustom gebraucht werden. Ich denke auch, dass das alles dieselbe Architektur ist, die Codenamen nur für die jeweiligen Implemetationen der jeweiligen Fertigungsprozesse stehen, also
Jaguar -> 28nm HP TSMC
Puma -> 28A GloFo
Panther (= Puma+?) -> 28A GloFo
Tiger -> 16FF+ TSMC
Cheetah -> 14LPP GloFo/Samsung

Für SemiCustom sind die Jaguars ja weiterhin sehr wichtig. Für AMDs APUs dürfte sich aber XV einfach besser eignen, also bessere Ergebnisse liefern als die Katzen, daher der Schwenk bei StoneyRidge. Nur können die Konsolen ja nicht einfach die CPU-Architektur wechseln.

Edit: korrigiert, danke fürs raussuchen

Beemas gab es nicht von TSMC, aber es gab ja die AM1-Jaguars von GloFo, welche wohl aber eher teildeaktivierte Beemas waren und den Namen Jaguar wohl nur proforma tragen.

Unicous
2016-08-03, 15:11:15
Puma ist Beema und gab es sowohl bei TSMC als auch bei GloFo. Panther (zumindest als Codename) ist schon viel älter.


August 2010 – February 2014[...]

August 2010- April 2012 Staff verification engineer/lead of Verification Methodology Team
Project: Knisale/Panther
**Overall local DV lead for Kinsale DV team, lead 28 DV engineers located in China
**Acting GNB lead for Panther DV team(during June/July) ,lead 20+ DV engineers located in China

Kinsale dürfte hier der Plattformname sein.

Darüber hinaus gab es auf dem AMD-exklusiven 28A/SHP einen Tapeout für ein Produkt namens Panther.

Level 2 Spot Light Award - Support AMD Panther TO
April 2014

Level 2 Spot Light Award - Good support for AMD 28A Panther 2 Tapeout
March 2014


CHEETAH
Starting May 2015


Currently working on AMD’s Cheetah project, the 14nm FINFET based microprocessor. Responsible for handling of the 2kB macro. Working with AMD’s flow for publish (IPCR), scaling and conversion (compiling) of .LIBs, helping with schematics for experimentation purposes

TIGER
December 2014 – April 2015

Worked on AMD’s TIGER project, the 16nm based microprocessor. Worked on the 2kB macro, used as L1 cache. Responsibilities included working on Nanotime vs HSPICE correlation, analysing keeper circuits, running beta ratio simulations for specified noise margins, working with various threshold device types, timing analysis and meeting the requirements, working with dual port SRAMs, bitcell degradation analysis,electromigration (Signal and Power), ESPSHELL and coverage,electrical design checks and noise checks, and closure.

fondness
2016-08-03, 19:37:47
RX 470 Customs:
http://videocardz.com/62803/asus-strix-rx-470-gigabyte-rx-470-g1-gaming-xfx-rx-470-black-pictured

Gibt wohl gar kein Ref-Design...

y33H@
2016-08-03, 19:43:01
Mindestens die Sapphire ist (quasi) Referenz-Design.

56933

Godmode
2016-08-03, 21:18:53
Gibt es eigentlich irgendwelche Neuigkeiten zum größeren Vega Chip, ich bin da leider absolut nicht auf dem Laufenden.

Pirx
2016-08-03, 21:22:56
RX 470 Customs:
http://videocardz.com/62803/asus-strix-rx-470-gigabyte-rx-470-g1-gaming-xfx-rx-470-black-pictured

Gibt wohl gar kein Ref-Design...
Werden 8GB-RX470er von AMD verhindert oder wird es sowas (in Bälde) geben?

edit: aha gibt zumindest Anzeichen http://www.heise.de/preisvergleich/sapphire-radeon-rx-470-nitro-11256-02-20g-a1483282.html

Dino-Fossil
2016-08-03, 21:25:50
Falls die erstmal nicht kommen, dann wohl weil die div. Hersteller sich von der 480 deutlicher absetzen wollen.

w0mbat
2016-08-03, 21:28:43
Sowohl 16nm als auch 14nm haben aktuelle relativ schlechte yields. Deshalb gibt es so wenig GTX 1080er und so viele GTX 1070er und deshalb ist die RX 480 rar und die 470er werden deutlich besser verfügbar sein.

Kann gut sein, dass wir im Herbst deutlich mehr Karten im Vollausbau sehen, sowohl bei Nvidia als auch bei AMD, und dass die Karten dann auch besser gehen. Je nach dem wie die RX 470er abschneiden, hol ich mir eine, oder warte auf Vega.

Eine Sapphire RX 470 mit 8GB und guten Taktraten + leisem Kühler für unter 240€ ist mein Traum.

iuno
2016-08-03, 21:28:52
Gibt es eigentlich irgendwelche Neuigkeiten zum größeren Vega Chip, ich bin da leider absolut nicht auf dem Laufenden.
Weder zum kleineren, noch zum groesseren ;p

Thunder99
2016-08-03, 22:20:00
Warte auch auf Infos. Meine Hawaii Karte ist zwar nett aber ich brauche bald ein neues Spielzeug :freak: :). Schneller effizienter und aktuelle Features wären ein muss und nett :D

Schnoesel
2016-08-03, 22:30:05
Wo sind die ganzen 4K HDR Monitore mit DP1.3? Erst dann kauf ich auch ne Karte. Für meinen ollen 1440p@60HZ reicht auch die jetzige.

y33H@
2016-08-03, 22:33:13
Die RX 470 gibt's mit 4G und 8G, ist ne Partner-Entscheidung.

raumfahrer
2016-08-03, 23:22:12
Eine Sapphire RX 470 mit 8GB und guten Taktraten + leisem Kühler für unter 240€ ist mein Traum.

Das habe ich mir lange Zeit eher von der 480 erwartet. Am Anfang mit knapp über 250 Euro, nach ein zwei Monaten dann vlt. noch 240 Euro. Die aktuelle Situation bei beiden Herstellern ist ein Witz.

OBrian
2016-08-03, 23:38:56
ja, aber es bleibt abzuwarten, ob diese hohen Preise von den Chiphersteller ausgehen oder ob die Händler das von sich aus so machen. Evtl. ist es auch nur ein Deutschland- oder Europa-Phänomen.

Wenn es vom Handel ausgeht, dann sollte sich das bei genügender Liefermenge von selbst nach unten bewegen, weil die Händler dann wieder gegeneinander kämpfen. Bei knapper Versorgung kann jeder die ihm vom Distributor/Hersteller zugestandene Menge problemlos absetzen, egal wo er den Preis ansetzt. In einiger Zeit (Wochen bis einige Monate spätestens) sollte sich das also niedriger einpendeln.

iuno
2016-08-04, 01:07:08
ja, aber es bleibt abzuwarten, ob diese hohen Preise von den Chiphersteller ausgehen oder ob die Händler das von sich aus so machen. Evtl. ist es auch nur ein Deutschland- oder Europa-Phänomen.
In den USA wurden/werden die Referenzkarten mW. immerhin zum MSRP verkauft und nicht 5% darueber.

Loeschzwerg
2016-08-04, 07:31:17
Das waren die Preise, welche vor einer Woche gehandelt wurden. Mir schwant Schlimmes.

Here are the prices in the US and UK:
AMD RX 480 UK price

4GB VRAM: $199 / £180 inc VAT
8GB VRAM: $239 / £220 inc VAT

The following prices are rumoured (no official prices have been announced yet):
AMD RX 470 UK price

4GB VRAM: $149 / £140 inc VAT
8GB VRAM: $179 / £165 inc VAT

AMD RX 460 UK price

2GB VRAM: $99 / £90 inc VAT
4GB VRAM: $129 / £120 inc VAT

http://www.pcadvisor.co.uk/new-product/pc-components/amd-rx-480-470-460-uk-release-date-price-specs-3642524/

Die Preise wurden auch schon vor über einem Monat so erwähnt. Mal schauen was davon übrig bleibt.
http://en.yibada.com/articles/134917/20160624/amd-radeon-rx-470-8gb-will-cost-179-460-launch.htm

Erste Karten
http://videocardz.com/62803/asus-strix-rx-470-gigabyte-rx-470-g1-gaming-xfx-rx-470-black-pictured

http://geizhals.de/sapphire-radeon-rx-460-11257-00-20g-a1483312.html?hloc=at&hloc=de

RX460 2GB für 129€ in Ö.

Pirx
2016-08-04, 07:42:14
Die Preise kann man in 1-2 Monaten mal für voll nehmen, wenn sich hoffentlich alles eingepegelt hat.

Godmode
2016-08-04, 07:53:05
Weder zum kleineren, noch zum groesseren ;p

Sie könnten zumindest ein bisschen was teasern. :(

Loeschzwerg
2016-08-04, 07:56:52
Die Preise kann man in 1-2 Monaten mal für voll nehmen, wenn sich hoffentlich alles eingepegelt hat.

Sowieso :) Über den Fehler bei den technischen Daten (Baffin XT) würde ich freuen ^^

Sehen wir neben der RX 470 heute auch die RX 460?

dildo4u
2016-08-04, 07:59:01
460 kommt näste Woche.

http://www.heise.de/newsticker/meldung/AMD-legt-nach-Radeon-RX-460-und-RX-470-kurz-vor-Verkaufsstart-3282938.html?wt_mc=rss.ho.beitrag.rdf

Loeschzwerg
2016-08-04, 08:02:29
Danke :) Ganz abgeschrieben habe ich das Teil nämlich noch nicht, auch wenn mir ein voller Chip lieber wäre.

Iruwen
2016-08-04, 09:42:43
Sie könnten zumindest ein bisschen was teasern. :(
Lieber nicht, sonst steigern sich die Erwartungen wieder ins Unermessliche.

Dino-Fossil
2016-08-04, 10:19:56
Danke :) Ganz abgeschrieben habe ich das Teil nämlich noch nicht, auch wenn mir ein voller Chip lieber wäre.

Mir persönlich ist der Sprung zw 460 und 470 etwas zu groß.
Die AMD-eigenen Benches ( falls die Folien,die ich natürlich gerade nicht mehr finden kann, echt sind angeblich sogar bestätigt, siehe z.B. chip.de ) sehen sie ca 1,3x schneller als die 260X, damit wäre sie sogar relativ deutlich etwas langsamer als die 370.
Bleiben noch die modernisierten Features.
Kann man nur hoffen, dass sie einigermaßen deutlich unter 75W bleibt, sonst sehe ich gerade nicht wo der große Fortschritt ist.

j4l
2016-08-04, 10:48:04
Mir persönlich ist der Sprung zw 460 und 470 etwas zu groß.
Die AMD-eigenen Benches ( falls die Folien,die ich natürlich gerade nicht mehr finden kann, echt sind angeblich sogar bestätigt, siehe z.B. chip.de ) sehen sie ca 1,3x schneller als die 260X, damit wäre sie sogar relativ deutlich langsamer als die 370 und ungefähr auf dem Niveau der 7850.
Bleiben noch die modernisierten Features.
Kann man nur hoffen, dass sie wenigstens einigermaßen deutlich unter 75W bleibt, sonst sehe ich gerade nicht wo der große Fortschritt ist.

Wie rechnest du? Die 260x liegt bei Index 200. 30% drauf sollte also fast genau die 370 treffen. Die 460 wird also die Ersetzung der 7870/270/370 zum (leicht höheren) Preis der 360 und bildet damit den neuen Boden aka die Einstiegsklasse. KLar, hängt natürlich viel davon ab, wie gut sie den Takt hält.

Dino-Fossil
2016-08-04, 10:55:39
Wie rechnest du?

Argh! Stimmt, mein Fehler. Man sollte nebenher nicht zu viele andere Dinge tun.
Hatte ursprünglich auch noch 20% gerechnet, dann aber gesehen, dass es vielleicht laut AMD doch näher an 30% sind.

uweskw
2016-08-05, 14:29:47
Ist jetzt schon etwas bekannt ob Samsung in die Polaris/Vega Fertigung einsteigt?

greetz
US

kuj0n
2016-08-06, 08:23:23
Daten zur ASUS STRIX Radeon RX 460 OC (http://videocardz.com/62976/asus-strix-radeon-rx-460-leaked)

fondness
2016-08-06, 09:29:08
38,6% faster the Reference in Gaming :ugly:

Entweder taktet das Referenzdesign sehr niedrig, oder ASUS übertreibt leicht^^

https://s32.postimg.org/jcf7zcykl/ASUS_STRIX_RX_460_6_VC.jpg (https://postimg.org/image/4t82xy5fl/)

dildo4u
2016-08-06, 09:31:58
Die 460 Referenz zieht den Storm ja komplett aus dem Slot,da wird der Takt massiv eingeschränkt sein.Das könnte die Werte erklären.

MadManniMan
2016-08-06, 09:43:36
Oder einfach 4 vs. 2 GB RAM.

victore99
2016-08-06, 11:00:49
2vs4 GByte bei Hitman? Hitman mit 2G auf 1440p und Ultra geht doch gar nicht?
Vielleicht hat Asus auch mit dem Speichertakt gespielt. Vielleicht läuft die Referenz auf 6gbit/sec - bei dem TDP-Limit wahrscheinlich - und Asus hat andere Module für 8/9gbit verbaut.
Dann noch etwas takt auf der GPU-sollte die Performance schon ergeben können. Dann braucht man aber nen Stecker.. Is kein Problem, meistens. Zudem ließen sich kleine AMDs immer weiter takten. 20% halte ich für möglich, aber fast 40% durch OC? Niemals mit demselben Speicherausbau.

mboeller
2016-08-06, 11:25:36
Computerbase fasst das ganze schön zusammen:

https://www.computerbase.de/2016-08/radeon-rx-460-amd-asus-strix-2-4-gb/

Mehr Infos anscheinend am Montag um 15:00 Uhr

iuno
2016-08-06, 11:38:26
Computerbase fasst das ganze schön zusammen:

https://www.computerbase.de/2016-08/radeon-rx-460-amd-asus-strix-2-4-gb/

Mehr Infos anscheinend am Montag um 15:00 Uhr

OpenGL 4.4 :confused: :ulol:

OC_Burner
2016-08-06, 14:48:18
Hier mal ein echter Polaris 10 Die-Shot :smile:

https://c4.staticflickr.com/9/8709/28186269603_3dc54c3f1b_c.jpg (https://flic.kr/p/JWHZXz)

gewisse Unterschiede sind dann im Vergleich zum schematischen Die-Shot dann doch zu sehen.

https://abload.de/img/polaris_10_die_layout2gp4m.png


Mal schauen was sich aus dem GPU-Die unter anderem Licht und ein paar extra Schleifvorgängen noch herausholen läßt.

Unicous
2016-08-06, 14:52:56
:eek::eek:

Du bist ja verrückt.

:eek::eek:


(y)(y):massa::massa::up::up:

reaperrr
2016-08-06, 15:10:28
Der echte Dieshot ist übrigens ggü. dem Schematischen vertikal gespiegelt (oder eher umgekehrt).

Loeschzwerg
2016-08-06, 15:27:48
Fett :cool::cool: War hoffentlich ne defekte Karte?

Sonst finde ich die Unterschiede zum schematischen Shot überschaubar.

reaperrr
2016-08-06, 16:02:04
Was mir beim Vergleich mit einem Tonga-Dieshot aufgefallen ist:

Selbst normiert auf den gleichen Herstellungsprozess - also bei gleicher Frontend- und CU-Größe - ist der Bereich rechts zwischen CUs, L2-Cache PCIe-Lanes usw. (also die Region, wo u.a. UVD, VCE, Display-Engine usw. liegen), bei P10 nur halb so groß wie bei Tonga.

Egal was es nun letztlich ist, ob Tonga in Wahrheit ein SoC mit integrierter SB und CPU-Kernen ist oder irgendetwas anderes, Tonga hat definitiv irgendwelchen ungenutzten(?) Sch... integriert, selbst wenn man Tonga 1/3 des SI und L2 entfernen und den Chip auf 14nm shrinken würde wäre er trotz 4 CUs weniger noch größer als P10.
Ob die Audio-DSPs so groß waren? Aber dann hätten auch Bonaire und Hawaii schon größer sein müssen, außerdem scheint dieser Bereich auch bei Fiji kleiner zu sein als bei Tonga.

Echt ein Rätsel, würde mich immer noch interessieren, was AMD da drin versteckt hat.

AnarchX
2016-08-06, 16:09:57
Vielleicht ist es die Hardware-Virtualisierung (Multiuser GPU Technologie), welche bisher nur Tonga Karten anbieten.

Hübie
2016-08-06, 17:52:29
Gut möglich. Die Virtualisierung findet ja vorwiegend auf Speicherebene statt und Tonga hat im Vergleich zu P10 eine größeres SI. Wo ich gerade davon spreche. Das sieht aufm Shot nach einem erweiterten GDDR5-Interface aus. Kenne ich so noch nicht und wäre ein Hinweis dass man hier doch 5X anbinden könnte. Mir fehlt jedoch gerade der Vergleich zu anderen AMD-GDDR5 MC. Was denkt ihr? :|

reaperrr
2016-08-06, 19:07:52
@Hübie Was genau meinst du mit 'erweitert'?

Tonga hat 6x64bit, P10 8x32bit, also optisch vom Layout her nicht direkt vergleichbar.
Zwei 32-bit MC von P10 scheinen etwas größer zu sein als ein 64-bit MC von Tonga, das kann aber einfach daher kommen, dass die Steuer-Logik für jeden MC vermutlich gleich groß ist, egal ob das zugehörige Interface 32 oder 64 bit hat.

5X-Support kann da natürlich trotzdem drin schlummern, bin mir aber nicht sicher, ob man das optisch unterscheiden könnte.

AnarchX
2016-08-06, 19:10:12
Der IMC für Polaris 10 ist für 8Gbps+ GDDR5 ausgelegt, insofern ist er schon deswegen größer/anders.

Hübie
2016-08-06, 19:35:15
Ich bin leider nur am Smartphone sonst würde ich das gerne markieren und mir noch mal dir JESD232 ansehen um zu vergleichen was am PHY dazukommt. Ich denke schon dass man es sieht, aber da es hier so schnell nix vom GP104/102 geben wird haben wir also nix zum referenzieren.

Schlammsau
2016-08-06, 19:49:51
Was meint ihr, wird die 460 schneller als die R9 380X sein?

Screemer
2016-08-06, 19:54:57
ich sag mal pauschal nein und gehe eher von max. gleichstand in den besten fällen aus. die 380x hat ca. 75% der leistung einer rx 480. die rx 460 wird wiederum nur ca. 61% der Einheiten dieser haben. da wird wird sogar gleichstand schwer.

Der_Korken
2016-08-06, 19:56:34
Was meint ihr, wird die 460 schneller als die R9 380X sein?

Unwahrscheinlich. Die 470 ist gerade mal 30% schneller und die 460 ist weniger als eine halbe 470. Das dürfte selbst für die 370 knapp werden.

AnarchX
2016-08-06, 19:57:42
Wohl eher 30℅ langsamer.

Schlammsau
2016-08-06, 20:02:33
Autsch, dann wäre aber ein echt riesiger Abstand zwischen der 460 und 470. Mit was will man diesen Abstand füllen, mit Luft und Liebe?

boxleitnerb
2016-08-06, 20:11:14
Erste Benchmarks gibt es schon:
http://videocardz.com/63033/gigabyte-radeon-rx-460-windforce-2x-performance-leaked

Liegt ca. 15% vor der R260X.

MadPenguin
2016-08-06, 20:11:50
Autsch, dann wäre aber ein echt riesiger Abstand zwischen der 460 und 470. Mit was will man diesen Abstand füllen, mit Luft und Liebe?

Braucht es etwas dazwischen, das eine Zielgruppe anspricht, die leistungstechnisch dazwischen einkauft?