PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

Korfox
2016-06-29, 19:43:52
Wobei eine Dual-RX470 (respektive RX480 mit deutlich gesenkten Taktraten) doch durchaus ziemlich cool sein könnte, wenn die RX470 tatsächlich so weit näher am Sweetspot agiert...

Ich denke, die RX480 ist genau das, was viele hier schon erwartet haben: Die 200-300€-Aufrüstoption für jene, denen die 970 bisher zu teuer war und die keine 3,5GB+0,5GB-Speicher haben wollten.
Dass sich nicht an die Spezifikationen gehalten wird ist schade, ansonsten macht die Karte vieles richtig.

Gipsel
2016-06-29, 20:00:18
HT4U misst bei maximiertem PT in HAWX gar bis zu 230W: http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

Da ist mir die harte Sperre von Boost 2.0/3.0 sowie Powertune bei der Nano doch eindeutig lieber.Na wenn Du +50% auf's Powertarget gibst, mußt Du auch mit bis zu +50% erhöhtem Verbrauch rechnen, da einfach erst deutlich höher abgeregelt wird.
230W/1,5 = ??? ;)

Trotzdem muß man natürlich sagen, daß der Verbrauch klar suboptimal ist. Hätte der deutlich unter 150W betragen (halt die mal rumspukenden ~110W statt im Schnitt eben ~160-165W oder so bei Standardeinstellungen), wäre die Performance wohl auch in Ordnung gegangen. Entweder haben die da irgendein Problem beim Design übersehen oder der 14LPP-Prozeß bei GF ist schlicht nicht sonderlich gut (gerüchteweise gibt es ja zumindest noch arge Probleme mit dem Yield). Auf jeden Fall scheinen sie den Chip für die RX480 deutlich über den Sweetspot gejagt zu haben, was natürlich gar nicht gut für die Energieeffizienz aussieht.

Da kann man nur hoffen, das die für Vega versprochenen Energieeffizienzsteigerungen gegenüber Polaris (etwa +40%, falls man den Präsentationen trauen kann [deren Glaubwürdigkeit haben ja mit dem Polaris-Launch nicht gerade gewonnen]) auch in voller Höhe ankommen, besser wäre wohl, noch mehr rauszuholen, damit man bei der Energieeffizienz halbwegs in Schlagdistanz kommt.

Nikstar
2016-06-29, 20:08:29
Hat zufällig jemand einen Test zur etwas höher getakteten Rx 480 von xfx gefunden?
Würde mich mal interessieren was die Änderung des Chiptakts von 1120MHz (1266 Boost) auf 1288MHz bringt.
Vermutlich lasse ich die Karte zurückgehen, in der Beschreibung stand 'maximaler Verbrauch 150 Watt', dem ist aber laut diversen Tests der Referenzmodellen ja leider nicht der Fall. Preisminderung? :freak:

Gipsel
2016-06-29, 20:10:01
Hier zählt man nur 36: http://www.heise.de/newsticker/meldung/Polaris-ist-da-AMD-Grafikkarte-Radeon-RX-480-mit-hoher-Spieleleistung-und-einem-Makel-3251042.html?view=zoom;zoom=1
Der Die-Shot kann auch ein Bullshot sein.Das ist ganz sicher kein echter Die-Shot sondern eine Montage, wie man sie sonst bei nV immer wieder sieht.

Arcanoxer
2016-06-29, 20:10:14
Nö. Ist ein Zahlendreher. ;)
Wohl eher nicht, Witcher 3 kommt auf 192W mit der RX480 in "uber".
Und das ist bestimmt kein Zahlendreher. ;)

http://www.hardware.fr/articles/951-9/consommation-efficacite-energetique.html

Gipsel
2016-06-29, 20:11:42
Hat zufällig jemand einen Test zur etwas höher getakteten Rx 480 von xfx gefunden?
Würde mich mal interessieren was die Änderung des Chiptakts von 1120MHz (1266 Boost) auf 1288MHz bringt.Das ist ja nur die normale OC-Variante von XFX, bei der Black Edition geht es auf 1328MHz (ebenfalls Referenzdesign und -kühler nur mit zusätzlicher Backplate).

Rabiata
2016-06-29, 20:12:37
Ich könnte mir vorstellen, dass die RX 490 sowas wird wie die 380X im Vergleich mit der 380: 4 zusätzliche CUs, aber gleicher Chip- und Speichertakt wie bei der RX 480. Denn beim Takt ist die 480 schon jetzt an der Kotzgrenze, glaube kaum, dass man da noch was drauflegt. Dann hoffentlich gleich mit 1x8 Pin.
Aber mindestens 1x8 Pin, falls die Abwärme noch weiter steigt lieber gleich 2x6 Pin :biggrin:.

Parallel dazu wäre auch eine "RX Nano" mit RX 490 Chip aber Untertaktung nicht verkehrt, angenommen daß da ähnliche Einsparungen drin sind wie seinerzeit bei Fiji.
RX 480 Performance bei 100W, und die Versprechungen wären im Nachhinein doch noch eingehalten :wink:.

reaperrr
2016-06-29, 20:14:20
Wo hat die 480 ihren Sweetspot? Bestimmt nicht bei 150 Watt.
Definitiv nicht.

Man braucht sich eigentlich nur die Voltages zu den einzelnen Power-States anschauen.

Der Sweetspot liegt offensichtlich eher im Bereich 1120 MHz.

1120 * (0,968 * 0,968) ~= 1050

1266 * (1,150 * 1,150) ~= 1675

100 / 1050 * 1675 = 159,5


Im Klartext: Zumindest die GPU (ohne Speicher etc.) verbraucht im maximalen PT @ 1266 MHz mit Standardspannung 1,15V knapp 60% mehr als auf Basistakt mit dazugehöriger Spannung 0,968V.

Da die Karte @1266 MHz eh in einigen Spielen ziemlich bandbreitenlimitiert ist, stelle ich hier einfach mal die Behauptung auf: AMD hat die Karte nur aus Marketinggründen* überhaupt höher als 1120-1160 MHz getaktet, aus technischer Sicht war es nämlich Blödsinn. Ich denke, die 1154 MHz, die mal vor vielen Wochen im Umlauf waren, werden auch der ursprüngliche Maximaltakt gewesen sein, mit ~1000 MHz Basis- und 1154 MHz Maximaltakt @ entsprechend niedrigen Voltages wäre die Karte auch etwa so effizient geworden, wie mal angekündigt, bloß hätten die etwas kürzeren Balken in Benchmarks und die niedrigeren MHz auf der Verpackung sich halt Marketing-technisch nicht so gut gemacht.

*@1120 MHz wäre die Karte meistens langsamer als die 390, nur ca. = Ref. 970, und Taktdifferenz zu Pascal noch größer


Ich hatte eh vor, auf die RX 470 zu warten. Das wird vom Gesamtpaket die beste Polaris-Karte werden, was im Grunde abzusehen war.

Gipsel
2016-06-29, 20:15:43
Wohl eher nicht,Na klar sind das 169W statt 196W.
Witcher 3 kommt auf 192W mit der RX480 in "uber".
Und das ist bestimmt kein Zahlendreher. ;)
http://www.hardware.fr/articles/951-9/consommation-efficacite-energetique.htmlMit erhöhtem Powertarget kommt man natürlich höher. Versuch's mal mit einem besseren Argument. :rolleyes:

Nikstar
2016-06-29, 20:19:09
Das ist ja nur die normale OC-Variante von XFX, bei der Black Edition geht es auf 1328MHz (ebenfalls Referenzdesign und -kühler nur mit zusätzlicher Backplate).
Von der gibt es doch auch keine Tests?
Die ist ja bis auf noch mehr Mhz fast identisch mit der normalen OC.

Beim Test (http://www.golem.de/news/radeon-rx-480-im-test-eine-bessere-grafikkarte-gibt-es-fuer-den-preis-nicht-1606-121715.html)auf Golem steht
Polaris 10 (teildeaktiviert)
Worauf bezieht sich denn 'teildeaktiviert'?

Arcanoxer
2016-06-29, 20:23:43
Na klar sind das 169W statt 196W.

Versuch's mal mit einem besseren überhaupt mal mit ein Argument. :rolleyes:
Link?

Gipsel
2016-06-29, 20:34:25
Von der gibt es doch auch keine Tests?
Die ist ja bis auf noch mehr Mhz fast identisch mit der normalen OC.

Beim Test (http://www.golem.de/news/radeon-rx-480-im-test-eine-bessere-grafikkarte-gibt-es-fuer-den-preis-nicht-1606-121715.html)auf Golem steht

Worauf bezieht sich denn 'teildeaktiviert'?Daß sie sagen, Polaris10 hätte eigentlich 40 (2560 SPs) CUs verbaut.

=====================

Versuch's mal mit einem besseren überhaupt mal mit ein Argument. :rolleyes:
Link?Gehirn einschalten? :rolleyes:

Schau Dir alle anderen Messungen (auch auf anderen Seiten) an und betrachte z.B. auch mal die Korrelation des Gesamtverbrauchs mit dem über den Slot und dann ordne das mal ein! Das kann nur ein Zahlendreher sein (der eventuell demnächst korrigiert wird, falls es HT4U kümmern sollte).

Ravenhearth
2016-06-29, 20:42:52
Wo? Auf dem DIE Shot zähle ich davon nichts.

Computerbase und Golem schreiben das bspw:

Für den kompletten Chip macht das 40 Compute Units, freigeschaltet sind bei der Radeon RX 480 aber nur 36 dieser Blöcke; das macht 2.304 Shader.

Gipsel
2016-06-29, 20:44:06
Und es ist ja eben auch kein echter Dieshot. Das Bild sagt also gar nichts.

Nikstar
2016-06-29, 20:46:57
Versuch's mal mit einem besseren überhaupt mal mit ein Argument. :rolleyes:
Link?
Ich mische mich ungern in eure Streitigkeiten ein.
Aber wenn es 196 Watt gewesen wären und kein Zahlendreher, meinst du nicht im Test stände etwas davon?
Unter normalen Umständen erreichte die Karte diese Werte nicht, nur bei Power-Tune-Limits stand
Bis zu 230 Watt Gesamt-Leistungsaufnahme forderte sich die RX 480 hier ein
Und rechts (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php)in der PEG-Sot-Tabelle sieht man es auch.

G3cko
2016-06-29, 20:49:39
Wurde dies eigentlich schon diskutiert?
https://www.youtube.com/watch?v=C9eMciZGN4I

Raytracing durch Asynchronous Shader finde ich schon ein starkes Brett. Ist es bald also nun möglich Raytracing mit Rasterisation zu kombinieren?

Die Leistungsaufnahme über den PCIe Slot finde ich aber grenzwertig.

AnarchX
2016-06-29, 20:55:52
Und es ist ja eben auch kein echter Dieshot. Das Bild sagt also gar nichts.
Aber warum das ganze so verheimlichen, die 11% reißen es dann auch nicht mehr raus.

Auf jeden Fall wird die GPU RX 480 von AMD als Polaris10 XT benannt und XT war bisher immer die höchste Ausbaustufe.
Da trifft vielleicht das gleiche wie bei Tonga ein, der auch seine 384-Bit nie aktivieren durfte. Die 40 CUs sind ein Puffer für 14nm und der Vollausbau wäre im Vergleich zu Pascal nicht sonderlich attraktiv und ist nicht vermarktbar.

iuno
2016-06-29, 20:55:59
Schon strange, dass es tatsaechlich 40 CUs sind, so wie urspr. angenommen. Fehlplanung, geplante Redundanz wegen den Yields oder doch noch mehr Einheiten fuer eine XTX mit 40 CUs, GDDR5X und evtl. sonst mehr Einheiten?
:confused:

Gibt es jetzt eigentlich noch keine Daten zu 460/470?

captain_drink
2016-06-29, 20:59:04
Fehlplanung, geplante Redundanz wegen den Yields

Eine Mischung aus beidem wäre mein Tipp, falls die Gerüchte über die schlechten Yields bei GF stimmen sollten.

Gipsel
2016-06-29, 21:04:22
Was sollte das nun?Er weiß, daß in ein paar Wochen der Respin kommt, der alle Probleme behebt und dann mit allen 40 CUs @ 1,5+GHz bei <130W mit 12Gbps GDDR5X für <299€ auf den Markt geworfen wird. :freak:

Nein. Ganz ehrlich? Ich habe keine Ahnung, was er uns damit sagen wollte.

Gipsel
2016-06-29, 21:07:35
Klicks Generieren.Das klingt gar nicht so abwegig. :|

captain_drink
2016-06-29, 21:08:29
Wolfgang hatte sich zu dem Kommentar ja so geäußert: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11083638&postcount=8646

Daraus wird man auch nicht unbedingt schlauer...

Edit: Obwohl, vielleicht doch: https://www.computerbase.de/forum/showthread.php?t=1595928&page=10&p=18961713#post18961713

gedi
2016-06-29, 21:16:26
Eine Mischung aus beidem wäre mein Tipp, falls die Gerüchte über die schlechten Yields bei GF stimmen sollten.

DER Konter auf eine 1060ti :biggrin:

Im ernst: Was ich mich immer gefragt habe war, warum alle Welt von einem engen verbesserten Package sprechen, welches allerdings sich in kaum etwas zur Konkurrenz unterscheidet. Wegen den paar Prozent auf den höheren Takt verzichten? Vielleicht sind die Informationen bez. der Packdichte lediglich auf die aktiven Einheiten gemünzt?

Vielleicht ist es ja wirklich so: 2560SPs, 64ROPs, 160TMUs und im Idealfall Support für GDDR5X. Takt:1.2G, Vram: up to 10GB/s, TDP:180W(:freak:).

Ravenhearth
2016-06-29, 21:17:51
Na wenn, dann 160 TMUs :D

gedi
2016-06-29, 21:23:48
Na wenn, dann 160 TMUs :D

Stimmt :biggrin:, ich habe noch an Hawaii XT gedacht :wink:

Gipsel
2016-06-29, 21:27:14
Versuch's mal mit einem besseren überhaupt mal mit ein Argument. :rolleyes:
Link?Gehirn einschalten? :rolleyes:

Schau Dir alle anderen Messungen (auch auf anderen Seiten) an und betrachte z.B. auch mal die Korrelation des Gesamtverbrauchs mit dem über den Slot und dann ordne das mal ein! Das kann nur ein Zahlendreher sein (der eventuell demnächst korrigiert wird, falls es HT4U kümmern sollte).
Der Vollständigkeit halber:
Es war laut zuständigem Redakteur natürlich ein Zahlendreher, der jetzt korrigiert wird (http://ht4u.net/forum/index.php/topic,67077.msg505922.html#msg505922).

robbitop
2016-06-29, 21:34:28
P10 mit 64 ROPs wäre vor allem in hohen Auflösungen oft deutlich schneller als P10 mit lediglich derer 32.
Mit höherer Auflösung steigt eher die Auslastung der CUs als die der ROPs.
Die ROPs sind IMO kein Flaschenhals bei Polaris 10.

][immy
2016-06-29, 21:48:40
Aber warum das ganze so verheimlichen, die 11% reißen es dann auch nicht mehr raus.

Auf jeden Fall wird die GPU RX 480 von AMD als Polaris10 XT benannt und XT war bisher immer die höchste Ausbaustufe.
Da trifft vielleicht das gleiche wie bei Tonga ein, der auch seine 384-Bit nie aktivieren durfte. Die 40 CUs sind ein Puffer für 14nm und der Vollausbau wäre im Vergleich zu Pascal nicht sonderlich attraktiv und ist nicht vermarktbar.
mhh.. 9600XT ... wenn ich mich nicht irre, war die nicht so besonders doll und häufig untertaktet. Aber ok, für den Chip selbst war es der vollausbau.

Gab es da nicht noch das XTX-Kürzel.
Ich vermute einfach mal, das da noch was nachgeschoben wird, sobald die Fertigung besser läuft. Die 4 CUs zu verschwenden, die sie funktionieren würde, wäre einfach zu schade. Jetzt am Anfang ist es noch klar aber in ein paar Monaten dürfte die Fertigung deutlich besser laufen.

gedi
2016-06-29, 21:49:21
Mit höherer Auflösung steigt eher die Auslastung der CUs als die der ROPs.
Die ROPs sind IMO kein Flaschenhals bei Polaris 10.

Da wäre ich mir nicht so sicher: In praktisch jeder Anwendung knickt P10 ab 1440p überproportional stark ein (im Vgl. zu Hawaii). Ich weiß jetzt nicht, ob 40CUs dieses Problem lösen würden.

Nimm z.B. den 3Dk13: Im Performance-Preset auf Augenhöhe mit Hawaii XT und GTX980 mit steigender Auflösung starker Abfall der Performance im Vgl.

Selbiges in AotS: Im Vgl. zu Hawaii eine komplette Krücke.

Dural
2016-06-29, 21:50:29
Also nur zum mitschreiben, amd sagt 36cu und kein gddr5x, die "quellen" sagen 40cu und gddr5x. Die yield sind zu schlecht für einen vollausbau, als beweis wird p100 und intel genannt, also 600mm2 chips aufwärts.

Wir reden hier von einem 230mm2 chip, das glaube ich erst wenn ich die volle version in den händen halte!

captain_drink
2016-06-29, 21:52:44
Da wäre ich mir nicht so sicher: In praktisch jeder Anwendung knickt P10 ab 1440p überproportional stark ein (im Vgl. zu Hawaii). Ich weiß jetzt nicht, ob 40CUs dieses Problem lösen würden.


Würde es nicht, da P10 in allen Auflösungen weitestgehend gleichmäßig ausgelastet wird. Der Abstand zu Hawaii wäre aber über alle Auflösungen geringer.

Nikstar
2016-06-29, 21:59:48
Jetzt mal nochmal nachgehakt, die Watt übers Limit könnten doch das Mainboard/die Leitungen beschädigen?
Hätte man so eine hohe Verlustleistung bei einem 8-pin-pcie gehabt? :mad:

dildo4u
2016-06-29, 22:00:54
Jetzt mal nochmal nachgehakt, die Watt übers Limit könnten doch das Mainboard/die Leitungen beschädigen?
Hätte man so eine hohe Verlustleistung bei einem 8-pin-pcie gehabt? :mad:
8 Pin ginge bis 225 Watt wäre also genug gewesen da hätte man nicht zu viel über den Slot ziehen müssen.

robbitop
2016-06-29, 22:05:48
Da wäre ich mir nicht so sicher: In praktisch jeder Anwendung knickt P10 ab 1440p überproportional stark ein (im Vgl. zu Hawaii). Ich weiß jetzt nicht, ob 40CUs dieses Problem lösen würden.

Die Balance ist im Vergleich zu Hawaii, Fijii und Tahitii halt eine andere. Alle drei GPUs hatten keine "high-res Stärke" sondern eine "low-res Schwäche".
Tonga und insbesondere Polaris haben diese Schwäche beseitigt, in dem das Front-End aufgestockt wurde. Hinzu kommt, dass die Taktrate der RX480 mit zunehmender Auflösung wegen des Powertargets auch noch sinkt! (lies mal das PCGH Review - die haben das gemessen)

Eine hohe Auflösung verlagert immer die Auslastung hin zu den Ausführungseinheiten. Hohe Geometrielast und wenig Auflösung immer hin zu Frontend und Backend (ROPs).

gedi
2016-06-29, 22:13:48
Würde es nicht, da P10 in allen Auflösungen weitestgehend gleichmäßig ausgelastet wird. Der Abstand zu Hawaii wäre aber über alle Auflösungen geringer.

Ich sehe dies anders: Es stimmt, dass Hawaii unter 1080p oft seine Kraft nicht zur Strecke bringt (obwohl es wohl besser geworden ist). Zudem reagiert Hawaii ungewöhnlich stark auf Latenzen, s.h. eine Optimierung desgleichen bringt mehr als ungewöhnlich viel Vram-Takt und z.T. GPU-Takt. Brandbreite hat er zudem ja eh mehr als genug.

P10, so interpretiere ich die Ergebnisse, geht spätestens ab 1440p die Puste aus. Für mich enttäuschend sind die Ergebnisse im Vergleich zum 3.5+0.5 Design unter 4k, wo man aufgrund mehr Bandbreite und mehr Vram eigentlich deutlicher im Vorteil sein sollte. Was ich mit der Aussage allerdings nicht ausdrücken wollte ist, dass ich P10 als 4k-Karte erwartet habe.

Allerdings, je mehr Reviews ich lese, desto besser finde ich die Karte. Im Endeffekt erfüllt P10 das, was man erwarten durfte und das P/L ist wirklich mehr als angemessen. Was P10 wirklich kann, werden wir wahrscheinlich erst mit entsprechenden Custom-Designs erfahren.

Gipsel
2016-06-29, 22:19:38
Mit höherer Auflösung steigt eher die Auslastung der CUs als die der ROPs.Typischerweise nicht. Die ROP-Last skaliert normalerweise linear mit der Pixelshaderlast, die mit steigender Auflösung natürlich ansteigt. Traditionell bleibt aber die Vertexshaderlast (wo ich jetzt mal alle Shadertypen vorm Rasterizer subsummiere) praktisch konstant (stimmt nicht mehr so ganz, falls man z.B. abhängig von der Auflösung auf etwa konstant große Dreiecke [in Pixeln] tesselliert, aber es steigt relativ gesehen immer noch weniger stark). Die Gesamtshaderlast steigt also normalerweise weniger stark als die ROP-Last mit der Auflösung an.
Die ROPs sind IMO kein Flaschenhals bei Polaris 10.Das dürfte immer situationsabhängig sein. Ein paar Prozent könnte man mit 64 (oder auch 48) ROPs vermutlich ab und zu schon rausholen. Nur meinte AMD offenbar, daß sich der zusätzliche Flächeneinsatz im Schnitt nicht wirklich lohnt.

Nikstar
2016-06-29, 23:13:51
8 Pin ginge bis 225 Watt wäre also genug gewesen da hätte man nicht zu viel über den Slot ziehen müssen.
Eben!
Gibt es keine Richtlinien die eine Grafikkarte mit Pcie erfüllen muss um z.B. das Logo auf der Verpackung zu haben?
Ich habe wirklich das Gefühl AMD möchte unbedingt verklagt werden.
Mal sehen wann die ersten Mainboards kaputt gehen.

mczak
2016-06-29, 23:33:05
Jetzt mal nochmal nachgehakt, die Watt übers Limit könnten doch das Mainboard/die Leitungen beschädigen?

Erscheint mir extrem unwahrscheinlich dass da wirklich was kaputtgehen könnte, dafür ist die Ueberbelastung zu gering. Schlimmstenfalls dürfte die Spannung minim einbrechen, was sich wiederum auf die Stabilität auswirken könnte, aber Polaris soll ja mit sowas gut zurechtkommen. Ist aber trotzdem enttäuschend...

ks
2016-06-29, 23:34:14
Die Energieeffizienz von Polaris in Form der RX 480 liegt jetzt grob auf dem Niveau von Maxwell in Form der 970/980 oder der R9 Nano. Das ist wirklich enttäuschend. Die ursprünglichen spekulierten 110-130W wären in Ordnung gewesen, aber 160W sind definitiv zu viel. Fraglich ist nun, woran es liegt. Am Prozess? Der Architektur? CB schreiben zumindest, dass Polaris10 im Gegensatz zu Polaris11 nicht (!) einzelne CUs powergaten kann. Die Spannungen scheinen zudem etwas zu hoch zu sein. Auch der 8 Gbps-Speicher dürfte sich nachteilig auswirken. Mich würde mal interessieren, wie viel die RX480 noch verbraucht, wenn man den Speicher auf 2500 MHz untertaktet. Dann kann man einschätzen, wie viel die Karte in etwa verbrauchen würde, wäre sie mit 10Gbps-GDDR5X bestückt. Wobei fraglich ist, ob Polaris das überhaupt unterstützt.
Zum Thema Powergating bei Polaris 10 ( was ich schade finde. Kann es aber der Grund sein, warum die Karte Über >150 Watt bzw. der Spezifikationen zieht?)

Aus dem Linux Treiber (polaris10_clockpowergating.c )

/* This function is for Polaris11 only for now,
* Powerplay will only control the static per CU Power Gating.
* Dynamic per CU Power Gating will be done in gfx.
*/
int polaris10_phm_enable_per_cu_power_gating(struct pp_hwmgr *hwmgr, bool enable)
{



btw. meine Aussage wg. 1660MHz revidiere ich, die Prüfung existiert auch schon beim Fiji und da sind andere "Chips" auf dem Board gemeint. Schade :(

OBrian
2016-06-29, 23:48:46
Also 165 W sind Powertarget 0%, PT +50% ergibt die 230 W worst case bei Hawk irgendwas. PT bei -50% ergäbe dann doch gerade mal 110 W, evtl. war das die Zahl, die wir mal gerüchteweise gehört haben.

Würde mich mal interessieren, was passiert, wenn man das Powertarget um 10% runterdreht, dann müßten die 150 W ja eingehalten werden, und viel MHz gehen sicher noch nicht verloren.

Wie ist das eigentlich: Bei einem anderen Platinendesign, was ja eh gebraucht wird, um mehr aus den PCIe-Steckern zu ziehen, kann man doch ggf. auch über andere Bauteile noch was einsparen. Weiß jemand, ob die beim Refdesign verbauten Mist sind, so lala oder schon Oberklasse?

dildo4u
2016-06-29, 23:58:58
Power Hungrige Games wie Anno 2205 bremsen die Karte mit begrenztem TDP zu stark daher vermutlich das hohe TDP Limit.

http://abload.de/img/powerffus9c.png


https://www.computerbase.de/2016-06/radeon-rx-480-test/5/#abschnitt_die_radeon_rx_480_taktet_wie_die_nano

mczak
2016-06-30, 00:02:51
Zum Thema Powergating bei Polaris 10 ( was ich schade finde. Kann es aber der Grund sein, warum die Karte Über >150 Watt bzw. der Spezifikationen zieht?)

Kann eigentlich nicht der Grund sein, Powergating bringt ja nur was wenn die CUs abgeschaltet werden. Bei Maximallast also unerheblich.


Würde mich mal interessieren, was passiert, wenn man das Powertarget um 10% runterdreht, dann müßten die 150 W ja eingehalten werden, und viel MHz gehen sicher noch nicht verloren.

Mich würden auch noch tiefere Werte interessieren (also eben z.B. die -50%). Die Energieeffizienz _könnte_ deutlich nach oben gehen.


Wie ist das eigentlich: Bei einem anderen Platinendesign, was ja eh gebraucht wird, um mehr aus den PCIe-Steckern zu ziehen, kann man doch ggf. auch über andere Bauteile noch was einsparen. Weiß jemand, ob die beim Refdesign verbauten Mist sind, so lala oder schon Oberklasse?
Dass das wirklich Mist ist denke ich nicht, minim besser ist sicher vorstellbar. Ein echter Gewinn könnte durch bessere Kühllösung zustandekommen (weil der Stromverbrauch des Chips ja nicht unerheblich von der Temperatur abhängt).

reaperrr
2016-06-30, 00:03:21
Das dürfte immer situationsabhängig sein. Ein paar Prozent könnte man mit 64 (oder auch 48) ROPs vermutlich ab und zu schon rausholen. Nur meinte AMD offenbar, daß sich der zusätzliche Flächeneinsatz im Schnitt nicht wirklich lohnt.
Was auch gerne (auch von Test-Autoren) übersehen/vergessen wird, ist die Z/Stencil-Rate. Der Z/Stencil-Durchsatz pro ROP ist bei AMD eh schon nur halb so hoch, wenn dann auch noch nur halb so viele ROPs verbaut werden, hat z.B. GM204 halt mal eben den vierfachen(!) Z/Stencil-Durchsatz, was bei sehr hoch auflösenden Stencil Shadow Maps durchaus eine Rolle spielen kann bzw. eigentlich schon fast muss.

Ich habe zum Beispiel die starke Vermutung, dass hier der Hauptgrund lag, warum sich in der Risen 3 EE die Verhältnisse durch die Bank zugunsten Nvidia verschoben haben, schließlich waren die höher auflösenden Shadowmaps einer der Hauptpunkte unter den grafischen Verbesserungen.

-/\-CruNcher-/\-
2016-06-30, 00:16:23
Das wäre eine Katastrophe.

Nicht jeder nutzt überhaupt die Discrete DSPs, für eine Teil der userschicht sind sie buchstäblich Balast der Weg kann aus dem Discrete GPU Design ;)

Die 970 ist ja auch erst durch die RX480 so massiv im Preis gefallen.

Die 480 hat immerhin die moderneren Features, ACEs, VP9 Support usw...

Full Hardware H.265 Decode nicht vergessen die GTX 970 VP6 schaft keinen komplexen 4K Broadcast Stream, da geht ihr sprichwörtlich mit der Cuda Decode Acceleration die Puste aus und frist strom ohne Ende wenn die Shader plötzlich ran müssen ;)

0.850v Video Decode schaft aber der VPX6 mit seinen 400 MHz bei 4k 60 FPS H.264 ohne Probleme in der GTX 970 ;)

Wurde dies eigentlich schon diskutiert?
https://www.youtube.com/watch?v=C9eMciZGN4I

Raytracing durch Asynchronous Shader finde ich schon ein starkes Brett. Ist es bald also nun möglich Raytracing mit Rasterisation zu kombinieren?

Die Leistungsaufnahme über den PCIe Slot finde ich aber grenzwertig.

Nichts anderes wird schon die ganze Zeit gemacht ;)

Hybrid Rasterisation/Raytracing ist fast überall im Einsatz auch über Compute.

Und bist jetzt kein Ende in sicht es nimmt zu.

mczak
2016-06-30, 00:41:07
Was auch gerne (auch von Test-Autoren) übersehen/vergessen wird, ist die Z/Stencil-Rate. Der Z/Stencil-Durchsatz pro ROP ist bei AMD eh schon nur halb so hoch, wenn dann auch noch nur halb so viele ROPs verbaut werden, hat z.B. GM204 halt mal eben den vierfachen(!) Z/Stencil-Durchsatz, was bei sehr hoch auflösenden Stencil Shadow Maps durchaus eine Rolle spielen kann bzw. eigentlich schon fast muss.

Taktbereinigt ist es dann ein Faktor 6... Klar die Karte ist eh in einer anderen Liga, aber die GTX 1060 liegt dann immer noch bei einem Faktor 4 (mal angenommen die 192bit/48 ROP bewahrheiten sich). Aber wie stark sich das auswirkt wage ich keine Prognose.

Gibt es eigentlich irgendwo Reviews zur 4GB Version? Habe gerade gesehen die wird auch schon (z.B. bei alternate) als lieferbar gelistet. Und das zu einem echten Kampfpreis (billiger als alle 380X, ziemlich genau 380 bzw. GTX 960 4GB Niveau...). Die geringere Speicherbandbreite sollte sich ja etwas auswirken (es stellt wohl keiner 4gb 8gbps Chips her?) aber die Karten steckt man ja trotzdem sowas von locker in die Tasche :biggrin:.
(Wobei ja auch die 8GB Version mit einem Preis deutlich unter allen R9 390 daherkommt, von daher möchte ich ja nicht zu negativ klingen, halt einfach schade dass die Effizienz nicht etwas besser ist dann wäre die Karte ziemlich perfekt.)

TheGood
2016-06-30, 01:23:05
Allerdings, je mehr Reviews ich lese, desto besser finde ich die Karte. Im Endeffekt erfüllt P10 das, was man erwarten durfte und das P/L ist wirklich mehr als angemessen. Was P10 wirklich kann, werden wir wahrscheinlich erst mit entsprechenden Custom-Designs erfahren.

So sehe ich das auch, sowie jeder halbwegs objektive Beobachter. Die Karte ist in Ihrem Preissegment wirklich gut. Klar hätte es noch etwas schnell sein können, aber im Grunde passt es doch ganz gut.
Interessant ist, dass es so krazze Schwankungen gibt. Mal unter 970 mal über 980. ES wäre interessant herauszufinden an was es liegt und ob hier noch optimierungspotential per Software gibt.
Allerdings wirklich enttäsucht bni ich auch beim Verbrauch. Ich hatte schon weniger erwartet. Am Ende ist mir das wurscht, aber die Karte ist mir zu stark am Limit gebaut. Daher warte ich noch auf ein Customdesign mit einem silent Lüfter. Dann wird aber zugeschlagen.

StefanV
2016-06-30, 01:38:24
Jetzt mal nochmal nachgehakt, die Watt übers Limit könnten doch das Mainboard/die Leitungen beschädigen?
Hätte man so eine hohe Verlustleistung bei einem 8-pin-pcie gehabt? :mad:
Unwahrscheinlich, bei nur einer Karte...

Insbesondere wenn du 'nen Board hast, dass für 2 oder mehr ausgelegt ist...

TheGood
2016-06-30, 01:38:30
Bzgl. Effizienz habe ich die Vermutung dass GCN gar nie so effizient wie die Maxwell/Pascal Architektur werden kann. imho sieht man das auch am p100, der Richtung GCN geht, aber imho nicht die Effizienz der alten Architektur hat. (zumindest war das mein Eindruck)

-/\-CruNcher-/\-
2016-06-30, 01:46:11
Das ist auch korrekt alles hat Vor und Nachteile AMD versucht die Probleme anderswo im System zu kompensieren innerhalb ihrer HSA und Nvidia wird den gleichen Weg gehen :)
HBM und Shrinking sind schonmal 2 Wege zu versuchen es zu kompensieren alleridngs scheint das Shirking was die Effizienz angeht noch Probleme zu machen und ist Suboptimal der Glofo 14nm Prozess.
Aber auch PowerTune wird sicher weiter optimiert mit Vega :)

Aber man hat es mit dem Shrinking schonmal gut hinbekommen trotz des Overhead zumindestens an Maxwell zu kommen von der Effizienz und ohne HBM :)

TheAntitheist
2016-06-30, 04:06:42
Aber man hat es mit dem Shrinking schonmal gut hinbekommen trotz des Overhead zumindestens an Maxwell zu kommen von der Effizienz und ohne HBM :)
Die haben sie eben nicht erreicht, Maxwell@16nm wäre deutlich effizienter.

Ravenhearth
2016-06-30, 04:08:42
Toll, den gibts aber nicht. Maxwell ist 28nm, und den haben sie erreicht.

TheAntitheist
2016-06-30, 05:00:58
Toll, den gibts aber nicht. Maxwell ist 28nm, und den haben sie erreicht.
der vergleich ist aber dann quatsch

Pirx
2016-06-30, 07:11:15
Die "Effizienz" wäre top, wenn sie nicht für die letzten ~100 MHz für die 1266 MHz so eine hohe Spannung bräuchten. Dumm gelaufen, knapp daneben ist auch vorbei, oder so.

edit: stimmt egtl. nicht, denn die Stufen davor haben auch ziemlich hohe Spannungen. https://www.computerbase.de/2016-06/radeon-rx-480-test/12/#abschnitt_viel_potenzial_fuer_undervoltage_bei_der_rx_480

X.Perry_Mental
2016-06-30, 09:46:33
edit: stimmt egtl. nicht, denn die Stufen davor haben auch ziemlich hohe Spannungen. https://www.computerbase.de/2016-06/radeon-rx-480-test/12/#abschnitt_viel_potenzial_fuer_undervoltage_bei_der_rx_480
Wieviel davon wohl auf AMDs Chip-Design und wieviel auf GloFos 14er-Prozess zurückzuführen ist?

iuno
2016-06-30, 09:47:07
Die "Effizienz" wäre top, wenn sie nicht für die letzten ~100 MHz für die 1266 MHz so eine hohe Spannung bräuchten. Dumm gelaufen, knapp daneben ist auch vorbei, oder so.

edit: stimmt egtl. nicht, denn die Stufen davor haben auch ziemlich hohe Spannungen. https://www.computerbase.de/2016-06/radeon-rx-480-test/12/#abschnitt_viel_potenzial_fuer_undervoltage_bei_der_rx_480
Das ist offenbar immer noch ein grosses Problem, obwohl AMD davon ausging, dass sich das durch 14 LPP groesstenteils loest. CB hat ein Sample, das keine paar MHz nach oben mehr mitgemacht hat, -75 mV waren aber kein Problem... :usad: Performance hoch, Verbrauch runter. Wer Feintuning betreiben will, hat mit dem WattMan sehr gute Moeglichkeiten. Nur sollte man das auch mal von Haus aus besser hinbekommen...

Dural
2016-06-30, 10:28:28
Habe gerade einen grösseren Distributor angerufen, laut Online Angaben sollen 11 Stk. Asus an Lager sein, per Telefon sagten sie mir aber das die Karten im Moment für den Verkauf gesperrt und keine an Lager sind :confused:

Das wird wohl nix bis Freitag :rolleyes:

Mortalvision
2016-06-30, 10:29:51
Erste Bilder der Customs:

Sapphire. Wohl mit zwei 92/100 mm Lüftern. Sehr edel und schlicht gehaltenes Design. 8 pin Anschluss!

http://a.disquscdn.com/get?url=http%3A%2F%2Fcdn.videocardz.com%2F1%2F2016%2F06%2FSAPPHIRE-Radeon-RX-480-NITRO.jpg&key=DTSmfjpVcS-kfmXVFnSt0A&w=800&h=336

Asus mit drei Lüftern, vermutlich ca. 75-80 mm. Backplate. Stromanschluss vermutlich 2* 6 pin (rechts unten an den Karten im zweiten Bild)

http://rog.asus.com/media/1467228455226.jpg

http://cdn.wccftech.com/wp-content/uploads/2016/06/Asus-RX-480-Strix-635x421.jpg


Und zuletzt MSI: Ähnliche Größe wie Sapphire, aber das übliche, verspielte rot/schwarze Design. Eben "combat-ready"^^

http://cdn.wccftech.com/wp-content/uploads/2016/06/MSI-Radeon-RX-480-GAMING-X.jpg

jorge42
2016-06-30, 10:52:38
Erste Bilder der Customs:

Sapphire. Wohl mit zwei 92/100 mm Lüftern. Sehr edel und schlicht gehaltenes Design. 8 pin Anschluss!

http://a.disquscdn.com/get?url=http%3A%2F%2Fcdn.videocardz.com%2F1%2F2016%2F06%2FSAPPHIRE-Radeon-RX-480-NITRO.jpg&key=DTSmfjpVcS-kfmXVFnSt0A&w=800&h=336
haben dafür einen Display Port "gespendet"? Das Bild sieht nach 1 HDMI, 2 DP, 1 DVI. Für mich derzeit die ansprechendste Custom version, brauche dann keinen Adapter.

Gipsel
2016-06-30, 11:26:10
haben dafür einen Display Port "gespendet"? Das Bild sieht nach 1 HDMI, 2 DP, 1 DVI. Für mich derzeit die ansprechendste Custom version, brauche dann keinen Adapter.
Die untere Reihe kann doch komplett unverändert bleiben. Also 3xDP, 1x HDMI und 1x DVI dann oben in der Slotblende. Auch das Referenz-PCB hat Lötkontakte für genau die Konfiguration.

Thunder99
2016-06-30, 11:33:42
Nüchtern betrachtet bringt RX480 gegenüber aktuellen AMD Beschleunigern überhaupt keine Verbesserungen oder Neuerungen, ausser gesenktem Stromverbrauch und Preise.
Nimmt man dann noch nVidia in die Gleichung mitrein, fällt der Stromverbrauch komplett raus und es bleibt nur noch der Preis - und dies ist für mich kein technisches Merkmal.
Dann lies/schaue dir die Präsentation und Review nochmal an. Unter anderem

neue Display Engine (up to 5k)
neue Video Engine
verbesserte Speicherkompression
...

Ob wir wirklich eine Variante mit 40Cu sehen wage ich zu bezweifeln wenn alles auf 36 promotet wurde. Für eine 490 ist das zu wenig. Evt als Refresh für die Vega Serie als RX485/RX580 wie damals nvidia mit der GTX400er zu 500er Serie? :confused:

HOT
2016-06-30, 11:51:47
Der hat keine 40 CUs, kann man auf dem Die sehen, siehe PCGH-Test beispeilsweise. Ich bin langsam davon ab, dass die 490 ein P10 ist, es wird wohl ein V11 sein. Langsam vermute ich, dass V11 vor V10 kommt und ein High-End-Chip ist. V10 ist sicher das große Ding, der hatte neulich Tapeout und dürfte ca. 450mm² sein und damit Hawaii-Klasse entsprechen. Man wird versuchen den auf 1400-1500MHz hochzuziehen um mit GP102 mithalten zu können mMn. Denn nachdem man weiss, was P10 kann, muss da eigentlich noch was dazwischen kommen.

Also:
V10
64CUs
300W TDP
2-4 HBM2-Stacks (je nach Variante)
ca. 1500MHz 14nm FinFET @ 1,2V
ca. 450mm²
-> R500-Serie Frühjahr 2017

V11
52CUs
230W TDP
384Bit GDDR5 8Gbps
1200-1400MHz 14nm FinFET @ 1,2V oder gar 16FFC.
ca. 330mm²
-> RX490 und RX Fury

Navi -> Post GCN -> 7nm GloFo (AKA 10nm FDSOI/FF)

Und die Spannung wird einfach dem frischen Prozess geschuldet sein. Man wollte einfach weniger Chips wegschmeißen. Das hat bei AMD ja Tradition, siehe z.B. die hohe Tahiti-Spannung oder die AthlonII damals. Das hat auch nix mit dem Takt zu tun mMn. Man hat einfach beim PCB zu knapp kalkuliert, das ist alles.

Ist eigentlich was bekannt, ob jetzt P10 1:2 DP mitbringt? Sieht ja fast so aus, als hätte der nicht zu unterschätzende Profi-Qualitäten.


BITTE BITTE BITTE AMD!!! KEINEN LAUNCH VON REFERENZDESIGNS MEHR!!!!
Das war bei Cayman scheisse, das war bei Hawaii richtig scheisse, das war bei FuryX ne Katastrophe und bei P10 hab ich kein Wort mehr dafür! Lasst es einfach!

Th3o
2016-06-30, 11:52:33
Erste Bilder der Customs:

Sapphire. Wohl mit zwei 92/100 mm Lüftern. Sehr edel und schlicht gehaltenes Design. 8 pin Anschluss!

http://a.disquscdn.com/get?url=http%3A%2F%2Fcdn.videocardz.com%2F1%2F2016%2F06%2FSAPPHIRE-Radeon-RX-480-NITRO.jpg&key=DTSmfjpVcS-kfmXVFnSt0A&w=800&h=336

Asus mit drei Lüftern, vermutlich ca. 75-80 mm. Backplate. Stromanschluss vermutlich 2* 6 pin (rechts unten an den Karten im zweiten Bild)

http://rog.asus.com/media/1467228455226.jpg

http://cdn.wccftech.com/wp-content/uploads/2016/06/Asus-RX-480-Strix-635x421.jpg


Und zuletzt MSI: Ähnliche Größe wie Sapphire, aber das übliche, verspielte rot/schwarze Design. Eben "combat-ready"^^

http://cdn.wccftech.com/wp-content/uploads/2016/06/MSI-Radeon-RX-480-GAMING-X.jpg

hoffentlich werden diese Custom Karten zu annehmbaren Preisen angeboten. ~300 € ist für mich die Obergrenze.

Dorn
2016-06-30, 11:54:11
Ob wir wirklich eine Variante mit 40Cu sehen wage ich zu bezweifeln wenn alles auf 36 promotet wurde. Für eine 490 ist das zu wenig. :confused:
Sehe ich auch so, die 490 kann nur Vega sein. Hoffe inständig das diese im Oktober erscheint.

Loeschzwerg
2016-06-30, 12:02:36
Schon strange, dass es tatsaechlich 40 CUs sind, so wie urspr. angenommen. Fehlplanung, geplante Redundanz wegen den Yields oder doch noch mehr Einheiten fuer eine XTX mit 40 CUs, GDDR5X und evtl. sonst mehr Einheiten?
:confused:


Also wenn P10 wirklich 40 CUs hat, dann wollte man ursprünglich vielleicht "breiter" fahren, bei gleichzeitig niedrigerem Takt. Letztendlich hat dann die Ausbeute einen Strich durch die Rechnung gemacht und man musste den aktuellen Weg einschlagen.
Passt dann auch zur Verletzung der Specs.

Mit der RX490 ist sicher Vega 10 gemeint.

Thunder99
2016-06-30, 12:16:13
@HOT: Das ist kein echter DIE Shot. Die Erklärung dazu schreibt ja Löschzwerg :)

Unicous
2016-06-30, 12:17:48
Er checkt das nicht. Er lebt in seiner eigenen "Realität".:rolleyes:

Sunrise
2016-06-30, 12:35:31
...BITTE BITTE BITTE AMD!!! KEINEN LAUNCH VON REFERENZDESIGNS MEHR!!!!
Das war bei Cayman scheisse, das war bei Hawaii richtig scheisse, das war bei FuryX ne Katastrophe und bei P10 hab ich kein Wort mehr dafür! Lasst es einfach!
Man will eben einen niedrigen Zielpreis und CF-Kompatibilität (Radial-Exhaust) und das ist eben fast immer der Fallstrick. AMD will immer unbedingt billig sein.

So ein AIB-Design a la MSI Gaming X und jeder zweite wäre sofort heiß auf die Karte. Da wäre auch der teilweise höhere Stromverbrauch (den sowieso fast niemand wirklich juckt) vollkommen uninteressant.

Aber so ein Paket mit 8GB VRAM, spitzen Kühler, leise, gutes OC-Potential (>1,4GHz) und dann für 250 EUR und AMD könnte sich vor der Nachfrage nicht mehr retten.

Nunja, jetzt kommt es eben nachträglich nach mit wahrscheinlich eher um die 300 EUR.

Mortalvision
2016-06-30, 12:50:31
V11 noch mit gddr5? Ich dachte, beide Vega bekommen hbm2???

OBrian
2016-06-30, 13:23:18
Jetzt mal nochmal nachgehakt, die Watt übers Limit könnten doch das Mainboard/die Leitungen beschädigen?
Hätte man so eine hohe Verlustleistung bei einem 8-pin-pcie gehabt? :mad:
wenn man nur einen 8-pin statt dem 6-pin anlötet, dann genauso auch. Man muß das Platinendesign modifizieren, damit weniger Strom aus dem Slot angefordert wird und entsprechend mehr über die Zusatzstecker. Andere Bauteile auf dem Referenzlayout reichern sicherlich schon.

der vergleich ist aber dann quatsch
ja natürlich, ist aber auch letztlich egal. Man muß gar nicht der beste in der Effizienz sein. Hätte man evtl. auch besser hinkriegen können, wenn man den Chip konservativer getaktet hätte. Aber das wichtige Ziel ist eine Wärmeentwicklung im Gehäuse, die der Kunde akzeptabel findet.

Stromverbrauch vom finanziellen Standpunkt aus interessiert ja selbst hierzulande kaum, und wir haben mit die höchsten Privatkunden-Strompreise weltweit, anderswo ist das gar kein Thema.

Hawaii war unattraktiv, weil man damit wirklich das Zimmer aufheizt, ganz anderen Aufwand mit der Gehäusebelüftung treiben muß usw. Diese P10-Karten werden sich problemlos einfügen in jeden Mittelklasse-Gamer-PC. Die Pascal-Karten mögen sparsamer sein, aber das wird Nvidia wahrscheinlich gar nicht so viel nützen.

Ich erinnere daran, wie übel die 4850 war, 50 W im Idle verbraten. Aber der Gesamtverbrauch war eben auch noch in diesem akzeptablen Rahmen. Die Karte war recht beliebt, wegen des Gesamtpaketes.

Wo Stromverbrauch dann eher ein Thema ist, das sind Notebooks. Aber dafür ist ja in erster Linie Polaris 11 am Start, und da sind ja umfangreichere Stromsparmechanismen vorgesehen, das geht im Aufwand wohl Richtung Carrizo bzw. drüber hinaus, da wird jedes Milliwatt rausgequetscht. Falls Nvidias GP 106 bei Volllast effizienter ist, aber diese Teillast-Geschichten schlechter erledigt (weiß man ja alles nicht nicht, nur mal angenommen), dann greift der Notebook-OEM möglicherweise doch lieber zu P11.

V11 noch mit gddr5? Ich dachte, beide Vega bekommen hbm2???
einer davon sicherlich, also wohl derjenige, der vorher unter Greenland lief. Aber wir wissen ja nicht, ob das der kleinere Vega 11 oder der größere Vega 10 ist. Der andere Vega kann also größer oder kleiner sein.

Also gibt es entweder einen kleinen Vega mit 2 Stacks HBM (wäre ja ungefähr die Bandbreite von Fiji) und einen fetten High-End-Chip mit vier Stacks - oder es gibt einen großen mit 2x HBM (etwas über Fury-X-Performance) und einen kleinen mit einem 384-bit-SI mit GDDR5 oder 5X (ungefähr Nano-Performance). Der Uber-Monster-Chip würde dann erst Navi. Im ersteren Falle wäre die 490 dann eine aufgebohrte P10-Karte, im zweiten Falle wäre die 490 dann evtl. Vega 11.

Man weiß es nicht^^

Ist eigentlich was bekannt, ob jetzt P10 1:2 DP mitbringt? Sieht ja fast so aus, als hätte der nicht zu unterschätzende Profi-Qualitäten.
also hiernach: http://www.anandtech.com/bench/product/1748?vs=1722 (man richte seine Aufmerksamkeit auf "Compute: Folding@Home Double Precision") sieht es doch nach 1:4 aus, wenn ich das richtig deute. Immerhin nicht 1:16...

Isen
2016-06-30, 13:40:32
Gab es zu dieser hier auch so viel rum gemopper???

https://abload.de/img/05-asus-gtx-960-strixt6szc.png (http://abload.de/image.php?img=05-asus-gtx-960-strixt6szc.png)

igg
2016-06-30, 13:43:44
Ich will irgendwie nicht so recht glauben, dass man mit diesem Stromfresser jenseits der Spezifikationen angeblich massenhaft OEM Deals kassiert hat. Evtl. für die kleineren? RX470, RX460?

Thunder99
2016-06-30, 13:44:54
Im Review Thread ja.

Evt kann man das mit einem BIOS Update abmildern?
Screenshot war ja auf eine 960 bezogen :redface: Mal schauen was AMD da macht

Isen
2016-06-30, 13:45:16
@igg

Ich denke da solltest du deinen Örtlichen Flanders aufsuchen. Glaube ist nicht Wissen, sondern nur blabla.

Dino-Fossil
2016-06-30, 13:52:27
Ich will irgendwie nicht so recht glauben, dass man mit diesem Stromfresser jenseits der Spezifikationen angeblich massenhaft OEM Deals kassiert hat. Evtl. für die kleineren? RX470, RX460?

Naja, nachdem ich noch ein wenig dazu gelesen habe, würde ich sagen, dass es in den allermeisten Fällen kein Problem machen sollte.
Es ist nicht schön und hätte mMn nicht passieren dürfen, aber es werden kaum massenhaft Mainboards deswegen abrauchen.

Ein Stromfresser ist die GPU auch nicht, sie ist nur leider nicht so effizient wie sie es eigentlich sein sollte - unterm Strich aber eine für OEMs gute Lösung, da der Verbrauch noch in Ordnung geht (ein 450-500W Netzteil reicht locker aus), die Leistung passt und sie billig ist.

y33H@
2016-06-30, 13:52:38
Gab es zu dieser hier auch so viel rum gemopper???Kein Referenz-Design :P

Isen
2016-06-30, 13:58:09
Kein Referenz-Design :P


Interessant. Dann darfst du keine Customs mehr Kritisieren?

reaperrr
2016-06-30, 14:03:24
Ich will irgendwie nicht so recht glauben, dass man mit diesem Stromfresser jenseits der Spezifikationen angeblich massenhaft OEM Deals kassiert hat. Evtl. für die kleineren? RX470, RX460?
Warum nicht? Die 8GB-Variante kostet kaum mehr als eine 970 und ist schneller, wenn man Referenz mit Referenz vergleicht. Der Verbrauch ist auch "nur" im Vergleich zu den deutlich teureren GP104-Karten schlecht.

Die 4GB-Variante wiederum ist spottbillig und da AMD schlauerweise nur die 8GB-Version mit höherem Speichertakt an die Reviewer gegeben hat, denken sicher auch viele weniger Informierte, die 4GB-Version wäre auch so schnell.

Die GTX 1060 wird teurer sein und weniger Speicher haben (bezogen auf 6 vs. 8 und 3 vs. 4 GB), außerdem soll zumindest die erste Charge im Juli nach meinen Infos möglicherweise garnicht auf GP106, sondern massiv beschnittenen GP104 beruhen. Egal ob's stimmt oder nicht, in solchen Mengen wie es für OEM-Deals nötig wäre wird GP106 wohl frühstens ab August verfügbar sein, also bleibt es wohl dabei, dass AMD zumindest im OEM-Bereich 6-8 Wochen Vorsprung hat, was zusammen mit günstigeren Preisen für viele Back-to-School Design-Wins gereicht haben könnte.

Ansonsten ist es aber wahrscheinlich, dass du trotzdem insofern Recht hast, dass die Mehrheit der Design-Wins mit RX 460 und 470 erzielt wurden. Die 470 wird sowohl ein besseres Perf./Watt- als auch P/L-Verhältnis haben als die 480, und die 460 wird erstmal weitgehend konkurrenzlos sein (GM107 zu alt und zu langsam, GM206 zu groß/teuer, GP107/108 noch zu weit weg).

TheGood
2016-06-30, 14:15:02
Ich will irgendwie nicht so recht glauben, dass man mit diesem Stromfresser jenseits der Spezifikationen angeblich massenhaft OEM Deals kassiert hat. Evtl. für die kleineren? RX470, RX460?
+-150 Watt = Stromfresser. Schön, dass dann die 1070 und 1080 und 970 und was sonst noch so unterwegs ist alles Stromfresser sind.
Es wird doch dauernd um Objektivität gebeten, also bitte nimm dir das auch zu herzen...

Ich bin gespannt wieviel Design Wins sie überhaupts hatten. Das ist ja noch völlig unklar...

Loeschzwerg
2016-06-30, 14:20:15
Gab es zu dieser hier auch so viel rum gemopper???

https://abload.de/img/05-asus-gtx-960-strixt6szc.png (http://abload.de/image.php?img=05-asus-gtx-960-strixt6szc.png)

Das ist genauso beschissen, aber da trifft es im schlimmsten Fall nur Asus.

Das ist doch bei diesen ganzen "extreme OC" Varianten das gleiche Spiel, wo mit z.B. 3x 8 Pin auch die Spec gebrochen wird. U.a. Deshalb findest du solche karten auch nicht bei Systemanbietern. Aber ja, für Retail ist das relativ egal, auch wenn es zu Probleme (Störstrahlung) kommen kann.

Undertaker
2016-06-30, 14:23:33
+-150 Watt = Stromfresser. Schön, dass dann die 1070 und 1080 und 970 und was sonst noch so unterwegs ist alles Stromfresser sind.
Es wird doch dauernd um Objektivität gebeten, also bitte nimm dir das auch zu herzen...

Effizienz ergibt sich aus Verbrauch und Performance, insofern verbietet es sich, Verbräuche zwischen 970/RX 480 und GTX 1070/1080 direkt gegeneinander zu stellen.

Die Leistung einer GTX 970/RX 480 bei 150 Watt zu liefern ist für ein 28nm Produkt von 2014 gut, für einen 14nm Chip von 2016 nicht. Wer objektiv sein will, muss das auch klipp und klar so sagen.

Dass ein ineffizienteres Produkt über einen niedrigeren Preis dennoch attraktiv sein kann, steht auf einem anderen Blatt.

Isen
2016-06-30, 14:24:43
@Loeschzwerg,

Lightning genauso. Die zieht gern mal über Spec sowohl NV als auch die AMD Variante. Woran ich das merke? Meine Soundkarte gibt dann nette Störungen durchs Mic (Skype, TS etc) weiter. Aber nur im LN2 Bios wo dann alle 3 Anschlüsse belastet werden :D

Loeschzwerg
2016-06-30, 14:32:35
Jup, Lightning und wie die sich alle nennen :) Solche Störungen habe ich mit der R9 Nano auf dem Onboard Sound auch, aber in der Regel habe ich eh eine USB Audiolösung angeschlossen und dann ist mir das egal.

StefanV
2016-06-30, 14:33:48
Gab es zu dieser hier auch so viel rum gemopper???

https://abload.de/img/05-asus-gtx-960-strixt6szc.png (http://abload.de/image.php?img=05-asus-gtx-960-strixt6szc.png)
Keine Karte mit AMD/Radeon Chip...

HOT
2016-06-30, 14:39:11
Ich will irgendwie nicht so recht glauben, dass man mit diesem Stromfresser jenseits der Spezifikationen angeblich massenhaft OEM Deals kassiert hat. Evtl. für die kleineren? RX470, RX460?
Ja sicher, vor allem 470 und 460. Zudem ist für OEMs nicht so entscheidend, ob die Leistungsaufnahme nicht optimal ist, denen ist vor allem die Lieferbarkeit riesiger Mengen wichtig und genau das gewinnt AMD ggü. NV momentan.

StefanV
2016-06-30, 14:41:08
Und eben auch die Leistung zu welchem Preis...

Dino-Fossil
2016-06-30, 14:46:23
Keine Karte mit AMD/Radeon Chip...

Oder eher, wie y33H@ gepostet hat: kein custom.

Achtung, es folgen meine persönlichen Überlegungen:
Ich denke, die meisten Hardware-Magazine überlegen sich sehr genau ob sie den Kartenherstellern ans Bein pinkeln. Siehe den handzahmen Umgang der PCGamesHW mit MSI und ASUS bei der kürzlichen Review-Bios-Kontroverse.

Kann halt schnell mal passieren, dass man keine Karten mehr für lau bekommt, was finanziell für die Magazine schwer bis nicht zu stemmen ist.

captain_drink
2016-06-30, 15:02:57
Zudem ist für OEMs nicht so entscheidend, ob die Leistungsaufnahme nicht optimal ist,

PCIe-Compliance ist denen aber durchaus wichtig, selbige kann die 480 momentan aber nicht bieten. Da muss entweder ein neues BIOS (mit niedrigerer Leistung) oder ein neues Boarddesign her.

Pirx
2016-06-30, 15:06:17
Ja sicher, vor allem 470 und 460. Zudem ist für OEMs nicht so entscheidend, ob die Leistungsaufnahme nicht optimal ist, denen ist vor allem die Lieferbarkeit riesiger Mengen wichtig und genau das gewinnt AMD ggü. NV momentan.
Leider nicht wirklich, oder gibts schon Infos, wann RX 470 und 460 rauskommen? edit: ok "im Juli";( http://www.3dcenter.org/news/amd-kuendigt-radeon-rx460-und-rx470-fuer-den-juli

igg
2016-06-30, 15:08:32
PCIe-Compliance ist denen aber durchaus wichtig, selbige kann die 480 momentan aber nicht bieten. Da muss entweder ein neues BIOS (mit niedrigerer Leistung) oder ein neues Boarddesign her.
Sehe ich auch so. Wenn sich Heise zu einer sehr deutlichen Warnung bewegen lässt, ist es nicht nur Fanboy-Gemopper. Ich vermute ja weiterhin, dass Takt und Spannung über dem ursprünglichen Designziel liegen.

Dino-Fossil
2016-06-30, 15:13:23
Laut AMD haben sie die Compliance sogar bekommen...

Und Heise ist auch nicht mehr was es mal war.

TheGood
2016-06-30, 15:13:39
PCIe-Compliance ist denen aber durchaus wichtig, selbige kann die 480 momentan aber nicht bieten. Da muss entweder ein neues BIOS (mit niedrigerer Leistung) oder ein neues Boarddesign her.
Da sie laut AMD den Test bei PCI-SIG geschafft hat, ist diese Aussage so nicht richtig... Die Frage ist wie die getestet haben und warum es, komplett andere Messungen gibt.
Vielleicht braucht man bei Ökostrom mehr Strom für die gleiche Leistung :) hahaha der war gut :)

captain_drink
2016-06-30, 15:17:31
Da sie laut AMD den Test bei PCI-SIG geschafft hat, ist diese Aussage so nicht richtig... Die Frage ist wie die getestet haben und warum es, komplett andere Messungen gibt.

Ja, hab ich im anderen Thread auch gerade gelesen.
Ob sich OEMs damit zufrieden geben, dass eine PCI-Compliance nominell vorliegt, auch wenn diese real (nach den bislang vorliegenden Informationen) nicht gegeben ist?

Isen
2016-06-30, 15:21:43
@Loeschzwerg,

bei mir isses sogar bei der essence stx :D
Selbst Slot wechseln hilft da nicht mehr.
Ich hak das Thema eh ab. Sicherheit ist teuer und die kriegst du nur auf dem Papier :P

Skysnake
2016-06-30, 15:25:18
PCIe-Compliance ist denen aber durchaus wichtig, selbige kann die 480 momentan aber nicht bieten. Da muss entweder ein neues BIOS (mit niedrigerer Leistung) oder ein neues Boarddesign her.
Hast du in die Specs geaschaut? Wenn nein wäre ich damit immer vorsichtig...

Man muss beachten, dass das eine hochfrequent aufgelöste Messung der Leistungsaufnahme ist bei THG...

Nur mal so als kleine Denkstütze. Netzteile müssen laut der ATX Spec für einige ms einen kompletten Wegfall des Netzes verkraften können....

Andersrum muss man natürlich die Last die die GPU zieht auch über eine gewisse Zeitspanne mitteln. Das kann gut sein, das THG hier zu fein auflöst.

N0Thing
2016-06-30, 15:26:07
Da sie laut AMD den Test bei PCI-SIG geschafft hat, ist diese Aussage so nicht richtig... Die Frage ist wie die getestet haben und warum es, komplett andere Messungen gibt.
Vielleicht braucht man bei Ökostrom mehr Strom für die gleiche Leistung :) hahaha der war gut :)

Ich kann mir gut vorstellen, dass es einfach eine Standardanwendung gibt, mit der die Stromverbrauchsmessungen durchgeführt werden und dort der Stromverbrauch geringer ausfällt, als bei den meisten Spielen.

Wenn man sich die Messergebnissen von HT4U schaut, würde ein Test mit Skyrim quasi genau auf den Punkt landen, im Gegensatz zu allen anderen Messungen.

Spiels|Leistungsaufnahme maximal Gesamt|Leistungsaufnahme maximal PEG-Slot
TES V: Skyrim |150,11W|70,71W


http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

Loeschzwerg
2016-06-30, 15:29:10
@Loeschzwerg,

bei mir isses sogar bei der essence stx :D
Selbst Slot wechseln hilft da nicht mehr.
Ich hak das Thema eh ab. Sicherheit ist teuer und die kriegst du nur auf dem Papier :P

Autsch, hätte ich nicht erwartet. Behalte ich definitiv im Hinterkopf falls ich mal wieder auf eine interne Soundlösung setzen sollte. Danke :)

Edit: Weiß man eigentlich was für einen Speicherausbau die RX460 bekommen soll? Sind da 2 und 4GB am Start?

reaperrr
2016-06-30, 15:49:29
Edit: Weiß man eigentlich was für einen Speicherausbau die RX460 bekommen soll? Sind da 2 und 4GB am Start?
Wird beides geben nach dem was ich gelesen habe, wobei 2GB wohl den Anfang machen werden.

][immy
2016-06-30, 16:13:11
Ich kann mir gut vorstellen, dass es einfach eine Standardanwendung gibt, mit der die Stromverbrauchsmessungen durchgeführt werden und dort der Stromverbrauch geringer ausfällt, als bei den meisten Spielen.

Wenn man sich die Messergebnissen von HT4U schaut, würde ein Test mit Skyrim quasi genau auf den Punkt landen, im Gegensatz zu allen anderen Messungen.

Spiels|Leistungsaufnahme maximal Gesamt|Leistungsaufnahme maximal PEG-Slot
TES V: Skyrim |150,11W|70,71W


http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

also wenn ich mir die Ergebnisse von Comptuerbase & co ansehe, können die eigentlich nur einen Fehler in der Messung gehabt, oder tatsächlich eine Defekte Karte abbekommen haben.
Die Meisten haben das gesamtsystem vermessen und dabei sind nicht ansatzweise die Werte entstanden die in diese Richtung zeigen. Kurze Peaks kann es immer mal geben (lassen sich kaum vermeiden) aber wenn die Karte unter last an die 200Watt allein schon verbrauchen würde, wäre auch die Last des gesamten Systems deutlich hoch gegangen. Das sehe ich in den tests der anderen Reviewer nicht.

Troyan
2016-06-30, 16:21:20
Die Karte riegelt bei ~170W ab. 200W sind nur zu erreichen, wenn das Temperatur- und Stromverbrauchslimit aufgehoben wird. Siehe hier: http://www.hardware.fr/articles/951-9/consommation-efficacite-energetique.html

N0Thing
2016-06-30, 16:36:46
[immy;11085725']also wenn ich mir die Ergebnisse von Comptuerbase & co ansehe, können die eigentlich nur einen Fehler in der Messung gehabt, oder tatsächlich eine Defekte Karte abbekommen haben.
Die Meisten haben das gesamtsystem vermessen und dabei sind nicht ansatzweise die Werte entstanden die in diese Richtung zeigen. Kurze Peaks kann es immer mal geben (lassen sich kaum vermeiden) aber wenn die Karte unter last an die 200Watt allein schon verbrauchen würde, wäre auch die Last des gesamten Systems deutlich hoch gegangen. Das sehe ich in den tests der anderen Reviewer nicht.

Woraus schließt du auf eine defekte Karte? Die Review-Karten brauchen ja keine 200W, liegen eher bei 160-170W. Vergleiche zwischen Messungen mit Komplettsystemen sind leider nicht hilfreich, da die Systeme unterschiedlich sein können und auch die anderen Komponenten das Ergebnis zum Messzeitpunkt beeinflussen könnten.

Auf welche Reviews beziehst du dich denn abseits von Computerbase? & co und die anderen helfen da nicht weiter.

Fliwatut
2016-06-30, 16:38:41
Sapphire. Wohl mit zwei 92/100 mm Lüftern. Sehr edel und schlicht gehaltenes Design. 8 pin Anschluss!

http://a.disquscdn.com/get?url=http%3A%2F%2Fcdn.videocardz.com%2F1%2F2016%2F06%2FSAPPHIRE-Radeon-RX-480-NITRO.jpg&key=DTSmfjpVcS-kfmXVFnSt0A&w=800&h=336

"The black mini skirt" :cool: Bei der Karte soll man die Lüfter ohne Demontage des Kühlers und der Abdeckung ("shroud") wechseln können. Lt. Ed von Sapphire wären die Lüfter die häufigste Ursache von RMA, mit der Karte soll man die Lüfter per Software prüfen können und wenn einer (oder beide) außerhalb der Spezifikation laufen, neue Lüfter bestellen, ohne die Karte hin- und herschicken zu müssen.

Fliwatut
2016-06-30, 16:50:14
Die Leistung einer GTX 970/RX 480 bei 150 Watt zu liefern ist für ein 28nm Produkt von 2014 gut, für einen 14nm Chip von 2016 nicht.
Stört das ernsthaft jemand? Derjenige sollte sich dann vllt. ein Tablet kaufen. Selbst wenn man 50W pro Stunde weniger verbrauchen würde, wären das bei 4h Hardcorezocken täglich und einem Strompreis von 25 Cent/kWh gerade mal 18,25 € weniger Stromkosten pro Jahr. Das ist doch völlig irrelevant.

Fliwatut
2016-06-30, 16:53:13
PCIe-Compliance ist denen aber durchaus wichtig, selbige kann die 480 momentan aber nicht bieten.
Kann sie durchaus, die RX 480 hat den Test bei PCI-SIG bestanden.

Dino-Fossil
2016-06-30, 16:59:02
Stört das ernsthaft jemand? Derjenige sollte sich dann vllt. ein Tablet kaufen. Selbst wenn man 50W pro Stunde weniger verbrauchen würde, wären das bei 4h Hardcorezocken täglich und einem Strompreis von 25 Cent/kWh gerade mal 18,25 € weniger Stromkosten pro Jahr. Das ist doch völlig irrelevant.

Wie man's nimmt. AMD hat ja deutliche Effizienzsteigerungen auch jenseits des Fertigungsvorteils versprochen. Davon ist leider kaum was übrig geblieben.
Ich sehe zwar den aktuellen Effizienzvorteil von NVidia gegenüber AMD in der Realität als niedriger an als auf dem Papier und 150W sind ein Bereich in dem es langsam jammern auf hohem Niveau ist.
Aber wenn man nur durch Shrink an die Vorgängerarchitektur des Konkurrenten herankommt ist das eben keine große Leistung.

Und ja, mich kümmert es durchaus - ich bleibe nunmal gerne unter ca 125W bei meiner GPU, ist so eine psychologische Grenze für mich. Die 480 ist da leider deutlich drüber, also warte ich jetzt erstmal auf die 470...

Undertaker
2016-06-30, 16:59:55
Stört das ernsthaft jemand? Derjenige sollte sich dann vllt. ein Tablet kaufen. Selbst wenn man 50W pro Stunde weniger verbrauchen würde, wären das bei 4h Hardcorezocken täglich und einem Strompreis von 25 Cent/kWh gerade mal 18,25 € weniger Stromkosten pro Jahr. Das ist doch völlig irrelevant.

Mal davon abgesehen, dass man damit nach 2 Jahren einen eventuellen Aufpreis von vielleicht 40 Euro fast komplett egalisiert hätte (die meisten werden wohl weniger spielen, aber das war ja deine Rechnung ;)), so geht es doch hier nicht in erster Linie ums Geld. Effizienz ist sexy, weil sie bei gleichem Kühler und gleichem Netzteil zu weniger Lautstärke und Abwärme führt. Dafür zahlen viele Nutzer sehr gerne einen angemessenen Aufpreis.

captain_drink
2016-06-30, 17:03:15
Kann sie durchaus, die RX 480 hat den Test bei PCI-SIG bestanden.

Die Diskrepanz besteht aber weiterhin. Misst man bei der SIG anders oder wurde ein von den Retail-Samples verschiedenes Engineering Sample zur Prüfung bereitgestellt? Und falls eins von beiden oder beides der Fall sein sollte, legen OEMs auf nominelle Zertifikate oder reale Werte wert? Trotz offiziellem Zertifikat ist das nicht ganz klar.

Thunder99
2016-06-30, 17:10:03
Wie man's nimmt. AMD hat ja deutliche Effizienzsteigerungen auch jenseits des Fertigungsvorteils versprochen. Davon ist leider kaum was übrig geblieben.
Ich sehe zwar den aktuellen Effizienzvorteil von NVidia gegenüber AMD in der Realität als niedriger an als auf dem Papier und 150W sind ein Bereich in dem es langsam jammern auf hohem Niveau ist.
Aber wenn man nur durch Shrink an die Vorgängerarchitektur des Konkurrenten herankommt ist das eben keine große Leistung.

Und ja, mich kümmert es durchaus - ich bleibe nunmal gerne unter ca 125W bei meiner GPU, ist so eine psychologische Grenze für mich. Die 480 ist da leider deutlich drüber, also warte ich jetzt erstmal auf die 470...
Das ist was wo ich mit erscheinen der GTX 260 aufgegeben hatte :freak: . Ich wollte ursprünglich nur eine Grafikkarte mit 1x6 Pin. Mittlerweile, da ich Leistung haben möchte, bei 2x 8 Pin gelandet :freak: (in der Regel aber bei 6+6 oder 6+8).

Rechne daher mit Vega auch auf 6+8

fondness
2016-06-30, 17:21:39
Die Diskussion mit den PCIe-Specs ist doch rein akademischer Natur. Die Karte wurde mittlerweile tausendfach verkauft und es gibt nicht eine Person, die irgend ein Problem deswegen meldet. Die PCIe-Sig hat zudem bestätigt, dass der Standard eingehalten wird. Klar, wenn man sonst keine Argumente hat, kann man deswegen natürlich noch ewig herum trollen.

victore99
2016-06-30, 17:23:21
Das ist was wo ich mit erscheinen der GTX 260 aufgegeben hatte :freak: . Ich wollte ursprünglich nur eine Grafikkarte mit 1x6 Pin. Mittlerweile, da ich Leistung haben möchte, bei 2x 8 Pin gelandet :freak: (in der Regel aber bei 6+6 oder 6+8).

Rechne daher mit Vega auch auf 6+8

Meine GTX 650 Ti Boost arbeitet auch jenseits der Specs - Powerlimit von 180W (geflasht) und 1,25V an PciE und 6pin..
Hat meinem H77-DS3H nicht geschadet, meinem System Power 8 400W auch nicht..
Mein Traum ist immernoch eine Karte, mit 1x 8pin und 3x 6pin.
Naja, nur ein Traum.

Ich sehe keinen logischen Grund, warum AMD nicht den Stecker überreizt. Die Adern können locker 7A ab - zusammen 21A bei 12V ergeben grob 250W.

Worst Case: oft wird einfach nur 2x Masse dazugeklipst wird zu 8pin.. 150W gehen locker.
Nur wieso überlastet AMD den armen PciE?

Dino-Fossil
2016-06-30, 17:25:29
Ich versuch's halt noch. ;)

Aber damit ist P10 das erste ernsthafte Upgrade für mich seit Ewigkeiten, weswegen ich über den Aspekt der 480 eben etwas enttäuscht bin.
Ich warte mal ab ob es noch ein paar Artikel gibt, die darauf eingehen wie sich die 480 verhält, wenn man sie in Richtung Effizienz tuned und wie die 470 aussieht.
Alternativ bliebe mir dann noch die 1060, aber die muss mich schon sehr überzeugen (P/L, Performance, Specs), da ich von NVidia derzeit nicht sehr angetan bin.

Loeschzwerg
2016-06-30, 17:32:42
Wird beides geben nach dem was ich gelesen habe, wobei 2GB wohl den Anfang machen werden.

Gut, dann hoffe ich mal auf die 4GB Version :)

Bin ja gespannt ob die Karte in der Art erscheint wie Lisa diese gezeigt hat (PCB), dann kann ich da wieder einen 6Pin (+ SMD Bauteile) anbringen, wie schon bei meiner 750Ti :D

Agent117
2016-06-30, 17:38:36
Ich hoffe man wird die nächsten Wochen etwas mehr zum Prozess hören. Wäre schon gant gut zu wissen ob es nun am Design oder am Prozess liegt dass die Perf/W so enttäuschend ist.
Ist auch schon etwas mies dass Raja Koduri noch meinte im Interview sie würde weniger als 150W verbraten und dann noch die knappe Stromversorgung.
Da könnte wirklich was schiefgelaufen sein.

Dann fallen aber irgendwie auch die hohen Taktraten verglichen mit Polaris 11 ins Auge. Vlt wollte man auch bei 1150Mhz da sein wo man jetzt bei 1270 ist und die IPC Steigerungen haben dann letztlich in Spielen nicht durchgeschlagen wie erhofft bzw. der Treiber ließ sich nicht weit genug optimieren und das Potential wurde anfangs etwas zu optimistisch eingeschätzt und der Takt musste dann rauf stattdessen. Die IPC ist ja in den meisten Spielen kaum gestiegen mit dem durchschnittlichen Boost als Grundlage.

Noch viele offene Fragen, hoffe wir kriegen noch etwas mehr Infos um das besser einschätzen zu können auch in Bezug auf Vega.

Fliwatut
2016-06-30, 17:47:59
Davon ist leider kaum was übrig geblieben.
Im Vergleich zur 390? Da sehe ich aber eine ziemliche Steigerung.

...ist so eine psychologische Grenze für mich.
Persönliche Präferenzen sind ja auch ok, dann muss man seine Hardware eben danach einkaufen, mir ist die Leistung einer Grafikkarte viel wichtiger als der Stromverbrauch auf eh schon niedrigem Niveau.

---

Effizienz ist sexy, weil sie bei gleichem Kühler und gleichem Netzteil zu weniger Lautstärke und Abwärme führt.
So wirklich laut ist der Refkühler der 480 nicht, erst wenn man OC-Experimente macht und das Ding aufdrehen muss wird es unschön.

Wenn es jetzt um 200W Unterschied ginge, dann würde ich das ja noch als Kritikpunkt gelten lassen, aber bei den recht geringen Unterschieden wird es dann doch schon zur Erbsenzählerei.

Fliwatut
2016-06-30, 17:50:38
Trotz offiziellem Zertifikat ist das nicht ganz klar.
Bisher weiß man nur, dass die Karte bei einige Testern mehr Strom zieht, als sie ziehen dürfte. Das ist alles und es wird mMn. sehr stark aufgebauscht, ehe man richtige Erkenntnisse hat. Liegt es am Chip-/Boarddesign, dann ist es für AMD ein GAU, dann können sie die Refkarten einstampfen, ist es irgendwas anderes (BIOS, Treiber), dann ist das kaum der Rede wert. Das muss aber erstmal vernünftig aufgeklärt werden, ehe man ein Urteil fällt.

M4xw0lf
2016-06-30, 17:53:15
Die Diskussion mit den PCIe-Specs ist doch rein akademischer Natur. Die Karte wurde mittlerweile tausendfach verkauft und es gibt nicht eine Person, die irgend ein Problem deswegen meldet.
O rly? Einen ganzen Tag nach Verkaufsstart gibt es keine Beschwerden? :freak:

reaperrr
2016-06-30, 17:55:25
Die IPC ist ja in den meisten Spielen kaum gestiegen mit dem durchschnittlichen Boost als Grundlage.
Das kann man aufgrund des Bandbreitenlimits und der unterschiedlichen Zahl an CUs und vor allem ROPs zwischen P10 und Hawaii noch gar nicht so genau sagen.

Richtig Aufschluss bringen würde es mMn erst, wenn man später die 470 4GB gegen die 380X antreten lassen würde, bei identischen Taktraten, weil die auf dem Papier dann identische Specs hätten (vom größeren L2 bei P10 abgesehen).

Allerdings müsste man die beiden mit nur ca. 900MHz Chiptakt antreten lassen, damit die 380X nicht zu sehr durch die Bandbreite gebremst wird und man auch wirklich die Frontend- und CU-Verbesserungen zu Gesicht bekommt.

fondness
2016-06-30, 17:56:53
O rly? Einen ganzen Tag nach Verkaufsstart gibt es keine Beschwerden? :freak:

Was genau ist daran witzig? Wenn auch nur ein Promille der Käufer deswegen Probleme hätte, wäre das längst bekannt. Ganz abgesehen von den ganzen Reviewern und OEM-Kunden weltweit.

M4xw0lf
2016-06-30, 18:00:54
Was genau ist daran witzig? Wenn auch nur ein Promille der Käufer deswegen Probleme hätte, wäre das längst bekannt. Ganz abgesehen von den ganzen Reviewern und OEM-Kunden weltweit.
Es erwartet ja niemand, dass das Brett auf der Stelle die Grätsche macht; wenn überhaupt, dann sollte sich das erst langfristig bemerkbar machen.
Und eventuelle Lautsprecher-Störgeräusche durch die PCIe-Last wird auch nicht jeder gleich mit der Karte in Verbindung bringen.

captain_drink
2016-06-30, 18:01:31
Du erwartest also Rückmeldungen über Langzeitfolgen einen Tag nach Verkaufstart?

Edit: ninja'd

Agent117
2016-06-30, 18:23:47
Das kann man aufgrund des Bandbreitenlimits und der unterschiedlichen Zahl an CUs und vor allem ROPs zwischen P10 und Hawaii noch gar nicht so genau sagen.

Richtig Aufschluss bringen würde es mMn erst, wenn man später die 470 4GB gegen die 380X antreten lassen würde, bei identischen Taktraten, weil die auf dem Papier dann identische Specs hätten (vom größeren L2 bei P10 abgesehen).

Allerdings müsste man die beiden mit nur ca. 900MHz Chiptakt antreten lassen, damit die 380X nicht zu sehr durch die Bandbreite gebremst wird und man auch wirklich die Frontend- und CU-Verbesserungen zu Gesicht bekommt.


Das wäre ein sehr interessanter Vergleich; hoffe dass das einer dann macht.

Dass mit ROPs und Bandbreite ist natürlich ein Argument, dachte bisher dass die ROPs bei den meisten Spielen nicht so den Einfluss haben (solange es nicht deutlich zu wenig sind) und dass die Bandbreite bei der angeblich 35-38% großen Ersparnis durch die neue DCC halbwegs ausreicht.

Vlt schätze ich das mit den ROPs auch etwas falsch ein. Wenn ich das bei AMD (und auch Nvidia?) richtig in Erinnerung habe wären 64 ROPs an 256 Bit das nächst größer mögliche (48 gehen wg. Anbindung nicht?).

32 zusätzliche ROPs kosten aber geschätzte 20mm² mehr DIE-Size (etwas aus der Luft gegriffen können auch 15 oder 35 sein). Das war es AMD vlt nicht Wert. Wir wissen hoffentlich bald mehr.

Dino-Fossil
2016-06-30, 18:31:33
Im Vergleich zur 390? Da sehe ich aber eine ziemliche Steigerung.


Ja, im Rahmen dessen, was durch den neuen Prozess zu erwarten war.
Aber AMD hatte auch Verbesserungen an der Architektur versprochen.
Und davon kommt bei der 480 zu wenig an.
Versteh mich nicht falsch, gegenüber Hawaii ist das ein echter Fortschritt, aber er ist trotzdem kleiner als angedeutet (und nötig mMn).
Interessant finde ich aber die Frage nach dem warum.

Gipsel
2016-06-30, 18:41:29
Vlt schätze ich das mit den ROPs auch etwas falsch ein. Wenn ich das bei AMD (und auch Nvidia?) richtig in Erinnerung habe wären 64 ROPs an 256 Bit das nächst größer mögliche (48 gehen wg. Anbindung nicht?).NVidia war da bisher immer recht starr, bei AMD gab es durchaus auch etwas mehr Flexibilität. So wurden bei Tahiti (im Prinzip auch Tonga) 32 ROPs und ein 384Bit Interface verbaut (bei Tonga nur 256Bit aktiv). Mit einer (nicht vollständig vernetzter) Crossbar dazwischen geht das alles, auch 48 ROPs an 256Bit.

Also im Prinzip wäre für die Einschätzung der Architekturverbesserungen ein Vergleich von Tonga in Form der 380X mit Polaris 10 schon optimal. Die RX470 wird ja wohl praktisch identische Hardware-Specs haben. Taktet man die dann noch auf 380X-Level runter (Speicher natürlich am besten auch), bleibt ja nur der L2-Cache und die verbesserte DCC als Unterschied übrig (Tonga hat die erste Version der DCC auch schon, Hawaii überhaupt nicht, was den Vergleich ebenfalls erschweren würde).

TheAntitheist
2016-06-30, 18:46:00
Also ich fühle mich auch stark von AMD veräppelt, 120 Watt angepeilt und 165 kommen dabei raus, sind 37,5% mehr Verbrauch als gedacht. Der Preis wird durch die Customs auch noch auf knapp 300 hoch gehen, das lohnt sich ja kaum noch...

Nvidia hält jetzt alle Asse in der Hand, die 1060 wird schneller und effizienter und dann sieht es wieder düster für AMD aus.
Wir können nur hoffen das bei ZEN wenigstens die versprechen eingehalten werden.

robbitop
2016-06-30, 18:49:34
Naja Polaris 10 hat laut AMD eine 15% höhere Auslastung der CUs. Das könnte auch als Störgröße einwirken. Aber unabhängig davon könnte man einen Bandbreitenskalierungstest machen mit beiden.

RX480 reagiert schon relativ gut auf Speicherübertaktung. Völlig unlimitiert scheint man also hinsichtlich Bandbreite nicht zu sein. GP104 als 1070 bringt bei gleicher Bandbreite massiv mehr Leistung auf die Straße - daraus folgere ich, dass NV offenbar noch deutlich besser mit der Bandbreite umgehen kann (bzw sie effektiver nutzen kann).

Nikstar
2016-06-30, 18:49:54
Also ich fühle mich auch stark von AMD veräppelt, 120 Watt angepeilt und 165 kommen dabei raus, sind 37,5% mehr Verbrauch als gedacht. Der Preis wird durch die Customs auch noch auf knapp 300 hoch gehen, das lohnt sich ja kaum noch...

Nvidia hält jetzt alle Asse in der Hand, die 1060 wird schneller und effizienter und dann sieht es wieder düster für AMD aus.
Wir können nur hoffen das bei ZEN wenigstens die versprechen eingehalten werden.

Mit dem veräppelt hast du recht, aber wieso sollte sich keine Custom für 300 Euro lohnen? Die werden ja auch schneller da höher getaktet.


Ist das schon bestätigt? :rolleyes:

TheAntitheist
2016-06-30, 18:59:41
Mit dem veräppelt hast du recht, aber wieso sollte sich keine Custom für 300 Euro lohnen? Die werden ja auch schneller da höher getaktet.


Ist das schon bestätigt? :rolleyes:
klar, dann verbrauchen die 250 watt für 150MHz mehr, wo ist denn dann bitte der Sinn? dann kann man auch direkt eine 390x nehmen.

Mortalvision
2016-06-30, 19:15:18
klar, dann verbrauchen die 250 watt für 150MHz mehr, wo ist denn dann bitte der Sinn? dann kann man auch direkt eine 390x nehmen.

Eine 390X mit nur 250 Watt? Zeig mal her :D

Herr Doktor Klöbner
2016-06-30, 19:25:05
Die Karten sind schon mit Referenztakt offensichtlich derart außerhalb ihres sweet spot betrieben das meines Erachtens auch bei custom Modellen übertakten keinen Sinn macht, das läuft daraus hinaus sich 10% Mehrleistung mit Verbräuchen klar jenseits 200 Watt zu erkaufen, das ist doch kein vernünftiges Verhältnis.

Vielleicht wird GloFo mit Verbesserungen im laufenden Prozess eine bessere Chipgüte erreichen, aber ein OC Wunder wird Polaris wohl nicht mehr werden.

y33H@
2016-06-30, 19:34:42
Die PCIe-Sig hat zudem bestätigt, dass der Standard eingehalten wird.Hab ich wohl übersehen, wo?

Undertaker
2016-06-30, 19:40:58
Wenn es jetzt um 200W Unterschied ginge, dann würde ich das ja noch als Kritikpunkt gelten lassen, aber bei den recht geringen Unterschieden wird es dann doch schon zur Erbsenzählerei.

Wenn wir z.B. über 100W vs. 150W reden, wären das immerhin 50% mehr, was ich nicht als Erbsenzählerei bezeichnen würde. Um das abzuführen, muss ein identischer Kühler mindestens 50% schneller drehen, vermutlich sogar eher das doppelte (Drehzahl zu Luftdurchsatz und Luftdurchsatz zu Kühlleistung skalieren nicht linear). Bei <20% würde ich natürlich nichts sagen, dass sind Peanuts.

tdon
2016-06-30, 19:46:30
Die Diskussion mit den PCIe-Specs ist doch rein akademischer Natur.


Das ist eine Behauptung, die du nicht belegen kannst. Mit so einer Aussage wäre ich vorsichtig.


Die Karte wurde mittlerweile tausendfach verkauft und es gibt nicht eine Person, die irgend ein Problem deswegen meldet.

Das beweist gar nichts. Hast du jeden einzelnen befragt? Steht irgendwo geschrieben, dass sich jeder in einem dir kontrollierten Forum zu melden hat? Und vor allem wird sich so ein Problem nicht nach einem Tag bemerkbar machen, sondern eher langfristig, sofern es denn Probleme gibt. Das kann niemand abschätzen. Auch Du nicht.



Die PCIe-Sig hat zudem bestätigt, dass der Standard eingehalten wird.

Das sagt ohne Infos überhaupt gar nichts aus. Ohne zu wissen, Was und Wie dort getestet wird. Im Umkehrschluss wirft du den Testern eine Falschmessung vor. Genauso könnte man AMD Betrug und Täuschung vorwerfen.


Klar, wenn man sonst keine Argumente hat, kann man deswegen natürlich noch ewig herum trollen.


Dein Beitrag ist doch das beste Beispiel fürs Getrolle. Null sinnvolle Argumente hast du. Einfach nur eklig, wie du AMD ständig verteidigst.

Raff
2016-06-30, 19:48:12
Und eventuelle Lautsprecher-Störgeräusche durch die PCIe-Last wird auch nicht jeder gleich mit der Karte in Verbindung bringen.

Wenn das direkt und erst nach dem Wechsel der Grafikkarte auftaucht: doch! :D

MfG,
Raff

M4xw0lf
2016-06-30, 19:51:08
Wenn das direkt und erst nach dem Wechsel der Grafikkarte auftaucht: doch! :D

MfG,
Raff
Nicht wenn man als erstes mal ein wenig stromhungriges Spiel anwirft :tongue:

StefanV
2016-06-30, 20:12:07
Die Diskussion mit den PCIe-Specs ist doch rein akademischer Natur.
Nein, schlicht BULLSHIT.

Guggsu hier:
http://www.overclock.net/t/1604477/reddit-rx-480-fails-pci-e-specification/100#post_25305968

Schön zu wissen wäre, was das Board bei den PCIe Power Registern auswirft...

Gipsel
2016-06-30, 20:22:56
Naja Polaris 10 hat laut AMD eine 15% höhere Auslastung der CUs. Das könnte auch als Störgröße einwirken.Also in meinen Augen ist das keine Störgröße sondern als Teil des Performancezuwachses durch die Architekturänderungen der so zu vermessende Effekt. ;)

gedi
2016-06-30, 20:26:25
Das ist eine Behauptung, die du nicht belegen kannst. Mit so einer Aussage wäre ich vorsichtig.



Das beweist gar nichts. Hast du jeden einzelnen befragt? Steht irgendwo geschrieben, dass sich jeder in einem dir kontrollierten Forum zu melden hat? Und vor allem wird sich so ein Problem nicht nach einem Tag bemerkbar machen, sondern eher langfristig, sofern es denn Probleme gibt. Das kann niemand abschätzen. Auch Du nicht.




Das sagt ohne Infos überhaupt gar nichts aus. Ohne zu wissen, Was und Wie dort getestet wird. Im Umkehrschluss wirft du den Testern eine Falschmessung vor. Genauso könnte man AMD Betrug und Täuschung vorwerfen.




Dein Beitrag ist doch das beste Beispiel fürs Getrolle. Null sinnvolle Argumente hast du. Einfach nur eklig, wie du AMD ständig verteidigst.

Doch kann er - HT4U haben Ihren Artikel überarbeitet: http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

Fliwatut
2016-06-30, 20:43:14
Aber AMD hatte auch Verbesserungen an der Architektur versprochen.
Und davon kommt bei der 480 zu wenig an.
Kannst du das genauer erklären? Welche Änderungen am Design hätten denn wie viel Senkung des Stromverbrauchs nach sich ziehen sollen und was hat da jetzt nicht funktioniert? Was hättest du an der Architektur geändert, um richtig Strom zu sparen?

Fliwatut
2016-06-30, 20:46:46
Um das abzuführen, muss ein identischer Kühler mindestens 50% schneller drehen...
Solange es leise bleibt, ist die Lüfterdrehzahl nicht wirklich wichtig, oder?

maximus_hertus
2016-06-30, 20:51:14
Gibt es eigentlich Infos, wann die RX 470 bzw. die RX 460 kaufbar sein werden?

M4xw0lf
2016-06-30, 20:55:34
Gibt es eigentlich Infos, wann die RX 470 bzw. die RX 460 kaufbar sein werden?
Wieso, stapeln sie sich schon in eurem Lager ohne Info zum Verkaufsstart? :upara:

Zergra
2016-06-30, 20:56:02
Gibt es eigentlich Infos, wann die RX 470 bzw. die RX 460 kaufbar sein werden?
Nächste Woche soll was kommen :wink:

Undertaker
2016-06-30, 21:01:59
Solange es leise bleibt, ist die Lüfterdrehzahl nicht wirklich wichtig, oder?

Dann nicht. Schon bei 100 Watt braucht es aber einen Monsterkühler, damit man wirklich nichts hört. Ich wüsste keine GTX 970/980 (als Beispiel für Karten in der Verbrauchsklasse der RX480), die das auch schaffen. Hinzu kommt dann halt noch der Lärm durch höhere Drehzahlen des Netzteiles sowie die dann erforderliche, stärkere Gehäusekühlung.

Es gibt sicher Leute, denen das egal ist. Als Silent-Freak legt man dafür aber gerne einen gewissen Aufpreis hin. :)

Fliwatut
2016-06-30, 21:04:49
Ist dir der Refkühler der 480 zu laut?

fondness
2016-06-30, 21:10:49
Hab ich wohl übersehen, wo?

Ich denke du weißt auf was ich mich beziehen, nämlich die Aussage von Robert Hallock.

Undertaker
2016-06-30, 21:12:24
Ist dir der Refkühler der 480 zu laut?

Ich glaube seit der seeligen GTX 7950 gab es keine wirklich leisen Referenzkühler mehr, weder von AMD noch Nvidia. :freak: Custom-Kühler ist so oder so Pflicht, bezogen auf das CB-Messverfahren will ich max. 30 29 dB(A)* in Spielen. Mit der RX 480 wird das vermutlich schwer... Undervolting oder eine näher am Sweet-Spot-liegende RX 470 wären evtl. eine Notlösung, aber ein bisschen Mehrleistung soll ja auch herausspringen.

*aktuell habe ich ~28,5 dB(A) bei 720 rpm Lüfterdrehzahl. Mehr soll es eigentlich nicht werden. :D

fondness
2016-06-30, 21:14:44
Das ist eine Behauptung, die du nicht belegen kannst. Mit so einer Aussage wäre ich vorsichtig.



Das beweist gar nichts. Hast du jeden einzelnen befragt? Steht irgendwo geschrieben, dass sich jeder in einem dir kontrollierten Forum zu melden hat? Und vor allem wird sich so ein Problem nicht nach einem Tag bemerkbar machen, sondern eher langfristig, sofern es denn Probleme gibt. Das kann niemand abschätzen. Auch Du nicht.




Das sagt ohne Infos überhaupt gar nichts aus. Ohne zu wissen, Was und Wie dort getestet wird. Im Umkehrschluss wirft du den Testern eine Falschmessung vor. Genauso könnte man AMD Betrug und Täuschung vorwerfen.

Wie schon gesagt, klar kann man jetzt ewig Panik schieben. Den endgültigen Beweis, dass es nie zu Problemen kommen wird, kann schließlich niemand erbringen, wie auch? Es ist eine unnötige Schlamperei, die hätte vermieden werden müssen, die aber ohne Folgen bleiben wird - ja soweit lehne ich mich aus den Fenster.


Einfach nur eklig, wie du AMD ständig verteidigst.

Wer so etwas eklig findet, nimmt die Sache zu ernst. :)

mczak
2016-06-30, 21:16:04
Also in meinen Augen ist das keine Störgröße sondern als Teil des Performancezuwachses durch die Architekturänderungen der so zu vermessende Effekt. ;)
Sehr schön ausgedrückt :smile:
Der Gewinn dank Architekturverbesserungen dürfte wahrscheinlich je nach Benchmark ziemlich unterschiedlich sein.

Loeschzwerg
2016-06-30, 21:20:22
Ich glaube seit der seeligen GTX 7950 gab es keine wirklich leisen Referenzkühler mehr, weder von AMD noch Nvidia. :freak:

Leider :( Unnötige Sparmaßnahmen. Die Lautstärke der GTX 1070 @ Vapro Chamber (GTX 1080) wäre mal interessant zu hören/messen.

Der Kühler der RX 480 ist leider zu sehr auf "billig" getrimmt. Klar, das spricht für die Customs, aber versaut den Ersteindruck.

robbitop
2016-06-30, 21:35:46
Die Frage ist, ob für den Preis deutlich mehr geht in Bezug auf einen Referenzkühler. Wie war da der Kühler der GTX960? (die 1060 gibt es ja schließlich noch nicht)

Undertaker
2016-06-30, 21:38:28
Gab es bei der GTX 960 überhaupt ein Referenzdesign? :confused: Aber was juckt einen schon der Referenzkühler, ein paar Wochen auf gute Customs würde ich bei jeder Karte warten.

robbitop
2016-06-30, 21:40:09
Es scheint ja einige zu "jucken", da es ein Kritikpunkt an der RX480 zu sein scheint.

raumfahrer
2016-06-30, 21:57:09
Ich bin jetzt grad nicht so heiß, 40+ Seiten Review Thread und 20+ Seite hier durchzuwühlen.

Wurde irgendwo schon die Leistung/Fläche diskutiert? Die 1080 lasse ich wegen GDDR5X mal beiseite. Stattdessen der Vergleich mit der 1070.

Die 480 hat bei 232mm² nach Launchanalyse 530% Leistung. Die 1070 liegt mit 314mm² (allerdings nur 75% Shader aktiv) bei 800%. Ganz naiv also 530/232 gegen 800/(0.75*314). Letzteres macht aber natürlich nicht so viel Sinn. Also irgendeine "effektive" Chipfläche annehmen. Welchen Wert müsste da angesetzt werden? 85%? Mehr, weniger?

Bei geratenen 85% hätte die 1070 immerhin gute 30% mehr Leistung/Fläche. Titan X gegen Fury X war dagegen grad mal ~12% für die Titan.

Liegt sowas am Design, oder hat sich AMD hier mit GF in den Fuß geschossen? Womit wir auch schon bei der Leistungsaufnahme sind. Kann man abschätzen, ob das eher ein Design- oder ein Prozessproblem ist?

In dem Zusammenhang auch eine Frage an die E-Techniker und sonstige, die sich auskennen: Wie viel können die PCB-Komponenten am Wirkungsgrad machen? Also z.B. der Verlust durch hochwertige Spannungswandler gegen "billige"?

Die unerwartet hohen Preise (ich habe die 8GB bei 250 Euro erwartet, also 1.1 Wechselkurs + Märchensteuer) schiebe ich mal den bekloppten Briten in die Schuhe.

MilesEdgeworth
2016-06-30, 21:57:54
http://www.overclock.net/t/1604477/reddit-rx-480-fails-pci-e-specification/100#post_25305968


Danke für den Link, das ist tatsächlich ganz interessant. Wahrscheinlich geht das aber sowieso unter..

Ich zitiere mal direkt aus dem Spec-Sheet (http://composter.com.ua/documents/PCI_Express_Base_Specification_Revision_3.0.pdf): (S. 639)


Slot Power Limit Value
– In combination with the Slot Power Limit Scale value, specifies
the upper limit on power supplied by the slot (see Section 6.9) or
by other means to the adapter. Power limit (in Watts) is calculated
by multiplying the value in this field by the value in the Slot Power
Limit Scale field except when the Slot Power Limit Scale field
equals 00b (1.0x) and Slot Power Limit Value exceeds EFh, the
following alternative encodings are used:
F0h = 250 W Slot Power Limit
F1h = 275 W Slot Power Limit
F2h = 300 W Slot Power Limit
F3h to FFh = Reserved for Slot Power Limit values above 300 W

Screemer
2016-06-30, 22:07:46
Danke für den Link, das ist tatsächlich ganz interessant. Wahrscheinlich geht das aber sowieso unter..

Ich zitiere mal direkt aus dem Spec-Sheet (http://composter.com.ua/documents/PCI_Express_Base_Specification_Revision_3.0.pdf): (S. 639)
also ist das ganze gewyine über das "spezifizierte" 75W maximum völlig für die katz? find ich ausgesprochen lustig. das hat schon wieder den anstrich, als hätte man zwanghaft etwas gesucht um die 480 in schlechtem licht dastehen zu lassen. das stinkt ganz gewaltig. wie kann man auslesen, wie das eigene board die powerlimits festlegt?

MilesEdgeworth
2016-06-30, 22:09:14
also ist das ganze gewyine über das "spezifizierte" 75W maximum völlig für die katz? find ich ausgesprochen lustig. das hat schon wieder den anstrich, als hätte man zwanghaft etwas gesucht um die 480 in schlechtem licht dastehen zu lassen. das stinkt ganz gewaltig.

Den Eindruck habe ich zumindest. Den Reviewern möchte ich dennoch keine Bösartigkeit unterstellen, die haben echt sehr gute Arbeit geleistet bei den Reviews der RX 480. :smile: Die meisten werden es einfach gar nicht besser wissen - wer liest sich auch ein Datenblatt zu PCIE durch :ugly:

robbitop
2016-06-30, 22:12:21
Ich bin jetzt grad nicht so heiß, 40+ Seiten Review Thread und 20+ Seite hier durchzuwühlen.

Wurde irgendwo schon die Leistung/Fläche diskutiert? Die 1080 lasse ich wegen GDDR5X mal beiseite. Stattdessen der Vergleich mit der 1070.

Die 480 hat bei 232mm² nach Launchanalyse 530% Leistung. Die 1070 liegt mit 314mm² (allerdings nur 75% Shader aktiv) bei 800%. Ganz naiv also 530/232 gegen 800/(0.75*314). Letzteres macht aber natürlich nicht so viel Sinn. Also irgendeine "effektive" Chipfläche annehmen. Welchen Wert müsste da angesetzt werden? 85%? Mehr, weniger?

Bei geratenen 85% hätte die 1070 immerhin gute 30% mehr Leistung/Fläche. Titan X gegen Fury X war dagegen grad mal ~12% für die Titan.

Liegt sowas am Design, oder hat sich AMD hier mit GF in den Fuß geschossen? Womit wir auch schon bei der Leistungsaufnahme sind. Kann man abschätzen, ob das eher ein Design- oder ein Prozessproblem ist?


NV kann Pascal unglaublich hoch takten, ohne dass die Leistungsaufnahme explodiert. Das ging schon bei Maxwell besser als bei AMD. Möglicherweise ist der 14LPP nicht ganz so gut in der Hinsicht wie 16FF+ - aber mit ziemlicher Sicherheit liegt das auch am Chipdesign.

Und genau diese Charakteristik brachte NV mit Maxwell und nun insbesondere mit Pascal so unglaublich viel.

Loeschzwerg
2016-06-30, 22:15:08
Die Frage ist, ob für den Preis deutlich mehr geht in Bezug auf einen Referenzkühler. Wie war da der Kühler der GTX960? (die 1060 gibt es ja schließlich noch nicht)

GTX 960 Ref./OEM war ähnlich der einer GTX 670.

Wenn die Referenz so wenige Leute interessiert, dann hätte man auch 5-10€ für einen besseren Kühler draufschlagen (PT Max.) und einen besseren Ersteindruck abliefern können. Der Kühler hat halt absolut keinerlei Reserven :(

Oder man startet ohne Ref.-Karte für den Retail Markt. Für Tester gibt es Ref.-Karten als Richtwert und Customs.

y33H@
2016-06-30, 22:19:22
In der PCIe Card Electromechanical Spec stehen klipp und klar 5,5A @ 12V.

robbitop
2016-06-30, 22:19:33
GTX 960 Ref./OEM war ähnlich der einer GTX 670.

Wenn die Referenz so wenige Leute interessiert, dann hätte man auch 5-10€ für einen besseren Kühler draufschlagen (PT Max.) und einen besseren Ersteindruck abliefern können. Der Kühler hat halt absolut keinerlei Reserven :(

Oder man startet ohne Ref.-Karte für den Retail Markt. Für Tester gibt es Ref.-Karten als Richtwert und Customs.

So ein Produkt ist knapp kalkuliert. IMO sind Referenzlüfter selten gut. Und wenn sie denn leise sind, haben sie noch viel seltener hohe Reserven.
Entsprechend sollte man das dann aber auch für alle Karten für alle IHVs gleich bewerten.

Raff
2016-06-30, 22:20:18
Leider :( Unnötige Sparmaßnahmen. Die Lautstärke der GTX 1070 @ Vapro Chamber (GTX 1080) wäre mal interessant zu hören/messen.

Kommende PCGH, ab morgen digital zu haben. ;)

MfG,
Raff

Gipsel
2016-06-30, 22:20:38
also ist das ganze gewyine über das "spezifizierte" 75W maximum völlig für die katz?Eventuell, aber sicher ist das nicht. Es ist nicht hundertprozentig klar, ab das slot power limit eventuell für den Gesamtverbrauch der Karte (inklusive PCIe-Steckern) gilt. In älteren Versionen der Spec steht explizit "specifies the upper limit on power supplied by slot", in neueren Versionen eben "by the slot (see Section 6.9) or by other means" (other means = PCIe-Stecker?), wobei der Verweis auf Abschnitt 6.9 wieder direkt hinter Slot steht, betreffender Abschnitt aber dann wiederum "usage for the entire adapter" erwähnt. So richtig konsistent finde ich das nicht.

gedi
2016-06-30, 22:20:58
Ich bin jetzt grad nicht so heiß, 40+ Seiten Review Thread und 20+ Seite hier durchzuwühlen.

Wurde irgendwo schon die Leistung/Fläche diskutiert? Die 1080 lasse ich wegen GDDR5X mal beiseite. Stattdessen der Vergleich mit der 1070.

Die 480 hat bei 232mm² nach Launchanalyse 530% Leistung. Die 1070 liegt mit 314mm² (allerdings nur 75% Shader aktiv) bei 800%. Ganz naiv also 530/232 gegen 800/(0.75*314). Letzteres macht aber natürlich nicht so viel Sinn. Also irgendeine "effektive" Chipfläche annehmen. Welchen Wert müsste da angesetzt werden? 85%? Mehr, weniger?

Bei geratenen 85% hätte die 1070 immerhin gute 30% mehr Leistung/Fläche. Titan X gegen Fury X war dagegen grad mal ~12% für die Titan.

Liegt sowas am Design, oder hat sich AMD hier mit GF in den Fuß geschossen? Womit wir auch schon bei der Leistungsaufnahme sind. Kann man abschätzen, ob das eher ein Design- oder ein Prozessproblem ist?

In dem Zusammenhang auch eine Frage an die E-Techniker und sonstige, die sich auskennen: Wie viel können die PCB-Komponenten am Wirkungsgrad machen? Also z.B. der Verlust durch hochwertige Spannungswandler gegen "billige"?

Die unerwartet hohen Preise (ich habe die 8GB bei 250 Euro erwartet, also 1.1 Wechselkurs + Märchensteuer) schiebe ich mal den bekloppten Briten in die Schuhe.

An den Wandlern kann es nicht liegen, denn das PCB ist hochwertiger gestrickt als bei z.B. einer 1080: http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-PCB-Overkill-1200256/

Zwecks dem Verbrauch - nichts wird so heiß gegessen, wie es gekocht wird: https://techaltar.com/amd-rx-480-gpu-review/4/

Screemer
2016-06-30, 22:23:06
Den Eindruck habe ich zumindest. Den Reviewern möchte ich dennoch keine Bösartigkeit unterstellen, die haben echt sehr gute Arbeit geleistet bei den Reviews der RX 480. :smile: Die meisten werden es einfach gar nicht besser wissen - wer liest sich auch ein Datenblatt zu PCIE durch :ugly:
einen guten einwurf gabs auch bei oc.net
Those tests were only done on higher quality boards, might it be possible that the card only uses 75W+ because the mainboard allowed to do so?wenn es richtig ist, dass der maximale powerdraw beim post vom board/bios/vbios festgelegt wird, dann könnte da durchaus was dran sein. würde mich wirklich interessieren.

€dit:

das ding verletzte die pci-e spec aber auch, oder? wäre vielleicht was für 480 user ;)

N9SLjiR7Q4s

captain_drink
2016-06-30, 22:23:41
also ist das ganze gewyine über das "spezifizierte" 75W maximum völlig für die katz?

Nö: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11086179&postcount=874

Wäre übrigens gut, wenn man nur einen Thread zur 480 hätte. Sonst muss man alles immer zwei Mal posten...

robbitop
2016-06-30, 22:25:30
Kommende PCGH, ab morgen digital zu haben. ;)

MfG,
Raff
Inklusive RX480 Test? :)

Fliwatut
2016-06-30, 22:26:20
Ich glaube seit der seeligen GTX 7950 gab es keine wirklich leisen Referenzkühler mehr, weder von AMD noch Nvidia. :freak:
Glauben ist nicht wissen ;) Aber egal, für dich sind andere Dinge wichtiger als für mich, ein Hersteller muss da Kompromisse machen, um möglichst viele Kunden zu erreichen, da fallen Ultra-Silentfans und Extremenergiesparer raus, die müssen sich dann anderweitig helfen und zur Not mehr bezahlen.

Ich will hier auch nicht komplett ignorant rüberkommen, wie gesagt, wenn wir über wirklich signifikanten Mehrverbrauch reden würden, dann sähe ich das wohl auch so. Und ich lege auch wert auf ein ruhiges System und dass ich im Sommer nicht auch noch von der GPU gegrillt werde, weswegen ich trotz relativ akutem "Haben wollen" auf Karten wie die R9 390 verzichtet habe, 970 und 980 hatten mir immer schon zu wenig RAM, ich möchte eine GPU nicht alle zwei Jahre wechseln müssen, ein bisschen Nachhaltigkeit ist ja jetzt auch nicht so schlecht für die Umwelt und die Ressourcen. Da kommt die 480 gerade recht, es muss nur noch etwas mehr Leistung her, ob die jetzt 30 W mehr verbraucht, ist mir schnuppe, die hohen Temperaturen - mit denen ja aber auch 1070/80 zu kämpfen haben - finde ich da eher nicht so toll.

Loeschzwerg
2016-06-30, 22:28:22
Kommende PCGH, ab morgen digital zu haben. ;)

MfG,
Raff

Fett, da bin ich mal gespannt :)

Gipsel
2016-06-30, 22:28:40
In der PCIe Card Electromechanical Spec stehen klipp und klar 5,5A @ 12V.Und in der PCIe Base Spec steht, daß es eine Form-Faktor-Spezifikation gibt (die abhängig vom Slot 10W, 25W oder eben bei PEG 75W sagt) und ein Slot Power Limit und eine Karte das jeweils höhere von beidem benutzen darf, je nachdem, wie das Slot Power Limit auf der jeweiligen Platform vom BIOS gesetzt ist. Unklar ist nur, worauf sich das Slot Power Limit genau bezieht und eben eventuell schon die PCIe-Stecker inkludiert (da frage ich mich dann aber, wie das Board wissen will, was da angesteckt ist, wäre irgendwie eine idiotische Spec).

Die eigentlichen PCIe-Slots (die einfachsten, die ich auf die Schnelle gefunden habe) haben ein Rating von 1,1A pro Pin. Bei acht 12V-Pins im Slot wären das also gute 100W maximal. Für mehr müßte man dann wohl bessere Slots (oder nicht-Standard-Formfaktoren wie für die MXM-ähnlichen Tesla-Karten [die locker 250W über ihre Slots ziehen]) verbauen. Wahrscheinlicher wird es bei mehr als 100W über den Slot insbesondere bei Budget-Lösungen kritisch.

Edit:
Oops, sind nur fünf 12V-Pins im PCIe-Slot. Da wird es bei Billigslots also tatsächlich schon bei exakt 66W (was exakt so auch in der elektromechanischen Spec steht, zusammen mit den drei 3,3V Pins ergibt das dann in der Summe grob die 75W) über die 12V im Slot eng. Da kann man nur hoffen, daß auf den meisten Mainboards etwas bessere Versionen mit minimal dickeren Kontakten (die dann mehr Strom vertragen) verbaut sind. Sonst läuft man insbesondere mit OC Gefahr, sich die Karte im Slot festzuschweißen.

raumfahrer
2016-06-30, 23:31:00
An den Wandlern kann es nicht liegen, denn das PCB ist hochwertiger gestrickt als bei z.B. einer 1080: http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-PCB-Overkill-1200256/

Zwecks dem Verbrauch - nichts wird so heiß gegessen, wie es gekocht wird: https://techaltar.com/amd-rx-480-gpu-review/4/

Das liest sich gut. Aber sie schreiben auch "Mit einem Widerstand von 6 Milliohm statt 4,2 sind sie lediglich etwas ineffizienter.". Das sind 40% mehr Widerstand. Ob das jetzt wirklich linear in die Leistung wandert, wie mir meine Schulphysik P = R * I² sagt, weiß ich nicht.

Die Verbrauchswerte sind interessant. Der Idle-Wert weicht ja ziemlich deutlich von den anderen Reviews ab (9W ggn. 16W). Sie greifen auch direkt an Slot und Stecker ab.

Ravenhearth
2016-07-01, 00:08:51
Das liest sich gut. Aber sie schreiben auch "Mit einem Widerstand von 6 Milliohm statt 4,2 sind sie lediglich etwas ineffizienter.". Das sind 40% mehr Widerstand. Ob das jetzt wirklich linear in die Leistung wandert, wie mir meine Schulphysik P = R * I² sagt, weiß ich nicht.

Die Verbrauchswerte sind interessant. Der Idle-Wert weicht ja ziemlich deutlich von den anderen Reviews ab (9W ggn. 16W). Sie greifen auch direkt an Slot und Stecker ab.

Das macht Tomshardware aber auch. Und ht4u iirc ebenfalls. Beide kommen auf etwa 165W.

Dino-Fossil
2016-07-01, 00:17:15
Tja, da hatte mich der Vodafone/Kabel Deutschland Totalausfall erwischt...

Kannst du das genauer erklären? Welche Änderungen am Design hätten denn wie viel Senkung des Stromverbrauchs nach sich ziehen sollen und was hat da jetzt nicht funktioniert? Was hättest du an der Architektur geändert, um richtig Strom zu sparen?

Ach komm, wir wissen beide, dass hier kaum ein Forumsleser eine qualifizierte Antwort liefern kann. Aber:
AMD selbst gibt den Effizienzgewinn aus 28nm->14nm mit 1,7 an.
Die 480 zieht im Durchschnitt offenbar ungefähr 160W, eine 390 (die im Mittel ähnliche Leistung liefert) ca 250W, d.h. P10 liegt in der 480 sogar ein wenig unter diesen 1,7x, die man laut AMD schon rein durch die 14nm Fertigung bekommt. Nochmal - ein reiner die-shrink sollte das laut AMD locker bewerkstelligen.

Zusätzlich zum Effekt aus der Fertigung hatte AMD aber auch von AMD-spezifischen (also wohl auf die Architektur? oder Software?) bezogenen Verbesserungen geredet, die den Effizienzgewinn auf "bis zu 2,8x" steigern sollen. Nun wissen wir alle, das man solchen Marketingangaben nicht wirklich trauen kann, aber sicherlich würde ich doch mehr als 1,7 erwarten?

Ich erwarte nicht, dass AMD in Punkto Effizienz plötzlich NVidia überrundet - GCN hat gewisse Vorteile gegenüber Maxwell und Pascal die ich gerne mitnehme, auch wenn ich dafür etwas mehr Verbrauch habe.
Aber es lässt sich nicht abstreiten, dass Maxwell/Pascal aktuell meist die effizientere Architektur ist, sowohl wenn es um Energieverbrauch, als auch das Verhältnis von Rohleistung zu erbrachten fps geht.


Edit:
Oops, sind nur fünf 12V-Pins im PCIe-Slot. Da wird es bei Billigslots also tatsächlich schon bei exakt 66W (was exakt so auch in der elektromechanischen Spec steht, zusammen mit den drei 3,3V Pins ergibt das dann in der Summe grob die 75W) über die 12V im Slot eng. Da kann man nur hoffen, daß auf den meisten Mainboards etwas bessere Versionen mit minimal dickeren Kontakten (die dann mehr Strom vertragen) verbaut sind. Sonst läuft man insbesondere mit OC Gefahr, sich die Karte im Slot festzuschweißen.

Lass mal die Kirche im Dorf - ein Slot, bei dem du so schnell eine Verschweißung der Kontakte riskierst, wäre vermutlich schon selbst außerhalb der Spezifikation. Zumindest die 480 reicht da wohl nicht aus.

Gipsel
2016-07-01, 00:27:58
Die Verbrauchswerte sind interessant. Der Idle-Wert weicht ja ziemlich deutlich von den anderen Reviews ab (9W ggn. 16W). Sie greifen auch direkt an Slot und Stecker ab.Wenn die da keinen Fehler gemacht haben, ist der Test sehr mysteriös, da sie die Einzigen sind, die nur 116W@stock und 129W im übertakteten Zustand gemessen haben. Aber immerhin liegt die Performance auch ziemlich weit oben, was sie bei dem niedrigen Verbrauch ja eigentlich auch muß (weil der Chip dann wohl permanent bei Maximaltakt kleben würde). Wie wahrscheinlich es ist, daß jemand einen Chip erwischt, der glatt mal 35% oder so weniger verbraucht als die der anderen Tester, kann sich jeder selbst überlegen. Soo variabel kann der 14LPP-Prozeß doch wohl nicht sein.

Gipsel
2016-07-01, 00:48:59
Lass mal die Kirche im Dorf - ein Slot, bei dem du so schnell eine Verschweißung der Kontakte riskierst, wäre vermutlich schon selbst außerhalb der Spezifikation. Zumindest die 480 reicht da wohl nicht aus.Bei ATX-Steckern, die dauerhaft oberhalb ihres Ratings betrieben wurden, habe ich das schon zwei mal gesehen (einmal nach einem Jahr, das andere mal nach gut zwei Jahren des Gebrauchs). Das geht dann irgendwann schneller, als man vielleicht glaubt. Hat man einen 50% höheren Strom auf den Pins als das, wofür sie gerated sind (und das wäre bei 100W über den Slot der Fall, falls auf dem Mainboard die billigsten Slots verlötet sind), ist der Spannungsabfall an den Kontakten ebenfalls 50% höher, macht also Faktor 2,25 höhere Leistung, die direkt an den Kontakten verbraten wird. Dadurch wärmt sich das auf, was den Kontaktwiderstand typischerweise weiter erhöht => noch mehr Leistung wird verbraten. Das kann Dir irgendwann einfach weglaufen und zu schmoren anfangen. Ryan Shrout bei PCPer hat z.B. einen gut 0,4V hohen Spannungsabfall der Versorgung über den Slot unter Last gemessen (die über den 6Pin-Stecker fiel um vielleicht 50mV, es war also wirklich der Versorgungsweg). Bei 1,6A pro Pin wären das ~0,6W Heizleistung direkt an dem Pin der Karte (auf dem benutzten hochqualitativen Mainboard, wird kaum so viel über die Kupfertraces im Board abfallen). Laß mal mit der Zeit den Übergangswiderstand noch etwas größer werden und dann wird das recht schnell übel, da dort kaum eine wirksame Kühlung existiert.

Dino-Fossil
2016-07-01, 01:06:51
Wie definierst du dauerhaft in dem Zusammenhang?
Eine GPU wird ja üblicherweise nicht ständig Volllast laufen.
Und custom-Modelle sind ja anscheinend häufiger mal jenseits der PCIe-Spezifikationen. Es passiert also nicht erst seit der 480.

Ich will das nicht einfach abtun, aber wenn es so leicht passieren könnte, würde man wohl häufiger davon hören.
Von daher halte ich es zwar für sehr zweifelhafte Ingenieursarbeit (und noch dazu ein vermeidbares Problem), aber dennoch nicht für so ein großes Risiko, wie es teils dargestellt wird.

Nightspider
2016-07-01, 01:11:59
Das mit dem 2nd pass encoding finde ich interessant. Ist das in hardware?
Könnte mir gut vorstellen das sich das in software realisieren lässt. Vor allem wenn Nvidias decoder immer noch deutlich schneller sind. Ob das jetzt auch auf die encoder zutrifft weiß ich allerdings nicht.
Wenn diese dynamische kompression sichtbare Vorteile bringt wäre das toll.
Auf dem Vergleichsbild ist der Unterschied jedenfalls schon recht groß.

http://scr3.golem.de/screenshots/1606/Radeon-RX-480-Test/Test-Radeon-RX-480-19.png

Der_Korken
2016-07-01, 01:15:56
Wenn die da keinen Fehler gemacht haben, ist der Test sehr mysteriös, da sie die Einzigen sind, die nur 116W@stock und 129W im übertakteten Zustand gemessen haben. Aber immerhin liegt die Performance auch ziemlich weit oben, was sie bei dem niedrigen Verbrauch ja eigentlich auch muß (weil der Chip dann wohl permanent bei Maximaltakt kleben würde). Wie wahrscheinlich es ist, daß jemand einen Chip erwischt, der glatt mal 35% oder so weniger verbraucht als die der anderen Tester, kann sich jeder selbst überlegen. Soo variabel kann der 14LPP-Prozeß doch wohl nicht sein.

Könnte es vielleicht sein, dass laufend neue Revisionen/Steppings (oder wie auch immer man das nennt) von P10 produziert wurden und die meisten der aktuellen Samples einfach unglaublich schlecht weil schon etwas älter sind? Da die Yields angeblich noch unterirdisch sind, wäre es ja nicht abwegig, dass auch die Taktbarkeit aufgrund schlechter Prozessreife so schlecht ist. Das würde zumindest die Hoffnung schüren, dass die ominöse RX490 einfach eine RX480 done right ist, die ihre 1266Mhz bei humanen 1V schafft, statt 1,15V. Da sähe die Effizienz plötzlich deutlich besser aus und man käme ein paar Prozent über der 480 raus, da man den Boost öfter halten könnte.

Dino-Fossil
2016-07-01, 01:21:34
Naja, klingt mir zu sehr nach Wunschdenken.

Die meisten Reviews waren ja einigermaßen konsistent was Leistung und Verbrauch angeht. Wenn da ein einziges aus dem Rahmen fällt, ist das Problem wohl eher beim Review selbst zu suchen.

Der_Korken
2016-07-01, 01:30:21
Ja, Optimismus ist bei AMD in letzter Zeit leider unangebracht. Ich dachte nur zurück an Fermi, wo die GTX480 mit nur 480 statt 512 Shadern und einem enormen Verbrauch kam. GF110 brachte kurze Zeit später dann Vollausbau mit mehr Takt bei weniger Verbrauch.

Agent117
2016-07-01, 01:36:46
Könnte es vielleicht sein, dass laufend neue Revisionen/Steppings (oder wie auch immer man das nennt) von P10 produziert wurden und die meisten der aktuellen Samples einfach unglaublich schlecht weil schon etwas älter sind? Da die Yields angeblich noch unterirdisch sind, wäre es ja nicht abwegig, dass auch die Taktbarkeit aufgrund schlechter Prozessreife so schlecht ist. Das würde zumindest die Hoffnung schüren, dass die ominöse RX490 einfach eine RX480 done right ist, die ihre 1266Mhz bei humanen 1V schafft, statt 1,15V. Da sähe die Effizienz plötzlich deutlich besser aus und man käme ein paar Prozent über der 480 raus, da man den Boost öfter halten könnte.

Laut PCGH wird die RX 490 nicht auf P10 basieren, entscheidendes Kriterium ist wohl dass RX 490 > 256 Bit haben soll nach einer AMD Namensklassifizierung.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-RX-490-Release-2016-1200076/

Neue Revisionen macht man nicht ohne Not, das kostet AMD auch richtig Kohle. Würde ansonsten Dino-Fossil Recht geben, wäre bei 14LPP aber noch vorsichtig, sind ja immerhin die ersten größeren GPUs die bei GF/Samsung? hergestellt werden. Es wäre schon denkbar dass spätere Samples mit weniger Spannung laufen und man im Mittel bei nur noch 140W liegt.
115W wie in dem einen aus der Reihe tanzenden Test aber wohl eher nicht.

N0Thing
2016-07-01, 02:25:47
Laut PCGH wird die RX 490 nicht auf P10 basieren, entscheidendes Kriterium ist wohl dass RX 490 > 256 Bit haben soll nach einer AMD Namensklassifizierung.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-RX-490-Release-2016-1200076/

Das ist aber dämlich formuliert, klingt nach einem Tippfehler/Wortdreher.
Zudem liegt uns nun die offizielle Definition der aktuellen Nomenklatur seitens AMD vom Launch-Event in München vor, laut der die 90er-GPU ein über 256 Bit breites Speicher-Interface aufweisen und zum Spielen in Ultra HD geeignet sein soll.

Eindeutiger wäre "laut der die 90er-GPU ein größeres als ein 256 Bit breites Speicher-Interface aufweisen und zum Spielen in Ultra HD geeignet sein soll."

-/\-CruNcher-/\-
2016-07-01, 02:50:42
"The black mini skirt" :cool: Bei der Karte soll man die Lüfter ohne Demontage des Kühlers und der Abdeckung ("shroud") wechseln können. Lt. Ed von Sapphire wären die Lüfter die häufigste Ursache von RMA, mit der Karte soll man die Lüfter per Software prüfen können und wenn einer (oder beide) außerhalb der Spezifikation laufen, neue Lüfter bestellen, ohne die Karte hin- und herschicken zu müssen.

Die idee ist ansich ja nicht schlecht spart Müll spart nerven spart kosten bei RMAs ;)

Nur wenn jetzt jedes Jahr die Lüfter ausfallen wäre das irgendwo nicht mehr so nice ;)

Sprich nun verbauen wir nur noch Lüfter mit 365 Tage MTBF ;)

Wenn das dann funktionieren sollte wer weiss was dann demnächst alles noch so zum Ersatzteil wird.

Digidi
2016-07-01, 04:17:55
Bei ATX-Steckern, die dauerhaft oberhalb ihres Ratings betrieben wurden, habe ich das schon zwei mal gesehen (einmal nach einem Jahr, das andere mal nach gut zwei Jahren des Gebrauchs). Das geht dann irgendwann schneller, als man vielleicht glaubt. Hat man einen 50% höheren Strom auf den Pins als das, wofür sie gerated sind (und das wäre bei 100W über den Slot der Fall, falls auf dem Mainboard die billigsten Slots verlötet sind), ist der Spannungsabfall an den Kontakten ebenfalls 50% höher, macht also Faktor 2,25 höhere Leistung, die direkt an den Kontakten verbraten wird. Dadurch wärmt sich das auf, was den Kontaktwiderstand typischerweise weiter erhöht => noch mehr Leistung wird verbraten. Das kann Dir irgendwann einfach weglaufen und zu schmoren anfangen. Ryan Shrout bei PCPer hat z.B. einen gut 0,4V hohen Spannungsabfall der Versorgung über den Slot unter Last gemessen (die über den 6Pin-Stecker fiel um vielleicht 50mV, es war also wirklich der Versorgungsweg). Bei 1,6A pro Pin wären das ~0,6W Heizleistung direkt an dem Pin der Karte (auf dem benutzten hochqualitativen Mainboard, wird kaum so viel über die Kupfertraces im Board abfallen). Laß mal mit der Zeit den Übergangswiderstand noch etwas größer werden und dann wird das recht schnell übel, da dort kaum eine wirksame Kühlung existiert.

Schon mal die Stecker von Apple Lightning und Micro USB angeschaut? Die sind viel dünner als die pcie Stecker und dort jagt man über 1 Pin bis zu 2 Ampere. Ich hab schon Micro USB Ladegerät mit 3 Amper gesehen. Da musste ja jedes Tablet\handy schmoren ?

Gipsel
2016-07-01, 04:50:16
Wie definierst du dauerhaft in dem Zusammenhang?24/7 Betrieb.
Eine GPU wird ja üblicherweise nicht ständig Volllast laufen.Habe ich mal vor einiger Zeit mal getan (eine HD4850 mit milder Übertaktung und Stock single-slot-Kühler über ein Jahr dauerhaft bei ~100°C GPU-Temperatur, läuft heute immer noch ;)).
Und die ganzen Miner machen es heute auch.
Das Problem ist nicht strikt die Dauer der Lastsituation (das erhöht nur die Wahrscheinlichkeit des Auftretens), sondern daß es ein sich selbst verstärkender Effekt ist. Die Kontakte altern etwas, wodurch der Widerstand etwas steigt. Dadurch wird der Kontakt wärmer, was die Alterung beschleunigt, bis es Dir irgendwann in wenigen Sekunden unter Last das Plastik um die Kontakte wegschmilzt/verbrennt, bevor die Kiste abstürzt (bei einem der oben erwähnten Vorfälle habe ich live am Rechner gesessen, als es passierte; es stank mit einem mal kräftig und Rauch kam raus, er lief aber noch 20 Sekunden oder so weiter, bis er abschmierte, weil sich zwei Pins durch die hohe Temperatur ausgelötet hatten). Steckkontakte sind immer potentielle Schwachstellen, wo man sich also besser etwas Reserve lassen sollte, um genau so was zu vermeiden.
Und genau diese Reserve fehlt eventuell, wenn man den PCIe-Slot mit bis zu +50% seiner gerateten Stromstärke betreibt (bei OC), die zudem über 5 direkt benachbarte bzw. gegenüberliegende Pins im Slot gehen (die Wärme kann sich also auch schlecht verteilen sondern tritt punktuell auf gerade mal 3mm verteilt auf). Das ist schon etwas anderes als mit den 6Pin- und 8Pin-Steckern, die ja eigentlich für deutlich höhere Stromstärken, als in der PCIe-Spec stehen, zugelassen sind.
Und custom-Modelle sind ja anscheinend häufiger mal jenseits der PCIe-Spezifikationen. Es passiert also nicht erst seit der 480.Den Slot so deutlich über 75W zu betreiben ist schon irgendwie Neuland. Kann sein, daß praktisch alle Mainboard-Hersteller 20 Cent mehr ausgeben und Slots mit Kontakten verbauen, die z.B. je 2A vertragen (dann hätte man eine äquivalente Situation zu den 6 Pin und 8 Pin-Steckern, wo auch ohne Probleme deutlich mehr als die spezifizierten 75W bzw. 150W drüber gehen). Wetten würde ich aber nicht unbedingt darauf.

Im Normalfall sollte das schon durchhalten. Aber es könnte durchaus sein, daß sich das Risiko, den Slot und somit das Board zu beschädigen, mit erhöhtem PT und OC meßbar zunimmt.

Mortalvision
2016-07-01, 07:48:31
Und auch Powercolor kommt mit einer Custom Karte. Leider gibt es bisher nur einen Teaser und die Spekulation, dass es sich um einen hochwertigen Mix aus Wasser- und Luftkühlung handeln soll...

http://www.fudzilla.com/news/graphics/40983-powercolor-teases-new-radeon-rx-480-devil-graphics-card

Coming in week of July 11th

Powercolor has announced a new competition which is also a teaser for the new Devil series graphics card, the Radeon RX 480 Devil.

It is obvious that Powercolor can't disclose any details about the new Devil RX 480, and even does not mention it anywhere, we are quite sure that this will be one of the highest clocked RX 480 on the market and will probably feature a high-end cooling solution. Powercolor has decided that the best way to promote its new Devil series graphics card is to hold a giveaway for it.

The last Devil series graphics card from Powercolor was the R9 390X which came with a special hybrid liquid+air cooler so we are sure that Devil RX 480 will be interesting as well.

While we do not have any information regarding the Devil RX 480, we think that we have stumbled upon a relaease date for it in the terms and conditions of the giveaway. As the competition ends during the week of July 11th, so the Devil RX 480 will be offically announced on that date as well and will be probably available at that date. This date is just over a week from the RX 480 official launch date which is great since earlier rumors suggested that custom RX 480 could come later in July.

Hopefully, we will be able to find out more about Powercolor's flagship and special edition RX 480 soon so stay tuned.

Zergra
2016-07-01, 08:32:52
Den Slot so deutlich über 75W zu betreiben ist schon irgendwie Neuland. Kann sein, daß praktisch alle Mainboard-Hersteller 20 Cent mehr ausgeben und Slots mit Kontakten verbauen, die z.B. je 2A vertragen (dann hätte man eine äquivalente Situation zu den 6 Pin und 8 Pin-Steckern, wo auch ohne Probleme deutlich mehr als die spezifizierten 75W bzw. 150W drüber gehen). Wetten würde ich aber nicht unbedingt darauf.


Ob das Neuland ist kann doch erstmal keiner sagen, dafür müsste man sich das bei älteren Karten genauer Anschauen. Außerdem kann man vorher ja nicht genau sagen was die Hersteller über das Mainboard "gezogen" haben oder was über die 6Pin Stecker.

Skysnake
2016-07-01, 09:36:35
Doch kann er - HT4U haben Ihren Artikel überarbeitet: http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php
hmm.. Interessante Tabelle, allerdings fehlen mir dazu noch weitere Daten. Ich gehe nämlich davon aus, das man mehr als diese 5,5A als Einschaltstrom ziehen darf. Da sind ja alle Caps leer, und die Spec sieht ja auch vor, das man innerhalb so und so vieler ms das Device oben haben muss....

Dafür müsste man aber die gesamte! Spec mal durchwühlen, und das ist echt mit richtig Arbeit verbunden. Ich würde mich daher am ehesten auf die Aussagen/Zertifizierung der PCI-Sig verlassen. Die kennen ihre Spec besser als wir alle zusammen. Was aber natürlich NICHT! heisen mag, das man eine gewisse Konstellation einfach nicht bedacht hat! Dann wäre die Arbeit der Tester wirklich gut, da sich daraus ein erweiterter Test der PCI Sig ergeben würde/müsste. Das ist grundsätzlich zu begrüßen. Allerdings könnte man AMD dann auch nicht wirklich einen echten Strick daraus drehen, denn Sie haben ja wohl die Zertifizierung bekommen... Zwar ist es unschön und sollte nicht passieren, aber offensichtlich ist das hier ja nicht ganz so offensichtlich.

Danke für den Link, das ist tatsächlich ganz interessant. Wahrscheinlich geht das aber sowieso unter..

Ich zitiere mal direkt aus dem Spec-Sheet (http://composter.com.ua/documents/PCI_Express_Base_Specification_Revision_3.0.pdf): (S. 639)
Ja und da sieht man mal wieder, wie zerpflückt die Spec ist... Daher halte ICH mich mit jedweder Aussage zu den elektrischen und mechanischen Spezificationen auch lieber zurück. Das ist einfach sehr sehr unübersichtlich und wirklich nicht ganz trivial.

Den Eindruck habe ich zumindest. Den Reviewern möchte ich dennoch keine Bösartigkeit unterstellen, die haben echt sehr gute Arbeit geleistet bei den Reviews der RX 480. :smile: Die meisten werden es einfach gar nicht besser wissen - wer liest sich auch ein Datenblatt zu PCIE durch :ugly:
Wobei man sagen muss, das es derartige Probleme schon früher gab. Enermax hat z.B. für MultiGPU bei einem ihrer dicken Netzteile extra eine Anleitung beigelegt, wie man Quad-SLI/CrossFire anschließen soll ans NT....

Und auch ansonsten ist es an sich bekannt, das MBs mit der Spannungsversorgung über die Slots bei MultiGPU probleme bekommen können. Daher waren doch eine ganze Zeit lang Boards in Mode die einen extra Molex Anschluss auf dem MB hatten um die Spannungsversorgung zu stabilisieren, oder haben eben mehr 4/8 Pin CPU Stecker aufm Board.

Eventuell, aber sicher ist das nicht. Es ist nicht hundertprozentig klar, ab das slot power limit eventuell für den Gesamtverbrauch der Karte (inklusive PCIe-Steckern) gilt. In älteren Versionen der Spec steht explizit "specifies the upper limit on power supplied by slot", in neueren Versionen eben "by the slot (see Section 6.9) or by other means" (other means = PCIe-Stecker?), wobei der Verweis auf Abschnitt 6.9 wieder direkt hinter Slot steht, betreffender Abschnitt aber dann wiederum "usage for the entire adapter" erwähnt. So richtig konsistent finde ich das nicht.
Naja, an sich sollte das schon gehen. Wenn du ein Device in den PCI-E Slot steckst, laufen ja dann erstmal die Config Cycles, nachdem das Ding Strom hat. Da gibt es meines Wissens nach auch durchaus unterschiedliche Betriebsmodi der Devices. Da kannste dann natürlich alles mögliche Auhandeln/Auslesen.

Der Powerup Prozess von PCI-E devices ist gar nicht sooo einfach! Hatte mich mal ganz am Rand mit jemanden unterhalten, der sich damit beschäftigt hat. Gerade die spezifizierten Timings wann was passiert sein muss können Kopfzerbrechen machen.

Und in der PCIe Base Spec steht, daß es eine Form-Faktor-Spezifikation gibt (die abhängig vom Slot 10W, 25W oder eben bei PEG 75W sagt) und ein Slot Power Limit und eine Karte das jeweils höhere von beidem benutzen darf, je nachdem, wie das Slot Power Limit auf der jeweiligen Platform vom BIOS gesetzt ist. Unklar ist nur, worauf sich das Slot Power Limit genau bezieht und eben eventuell schon die PCIe-Stecker inkludiert (da frage ich mich dann aber, wie das Board wissen will, was da angesteckt ist, wäre irgendwie eine idiotische Spec).

Die eigentlichen PCIe-Slots (die einfachsten, die ich auf die Schnelle gefunden habe) haben ein Rating von 1,1A pro Pin. Bei acht 12V-Pins im Slot wären das also gute 100W maximal. Für mehr müßte man dann wohl bessere Slots (oder nicht-Standard-Formfaktoren wie für die MXM-ähnlichen Tesla-Karten [die locker 250W über ihre Slots ziehen]) verbauen. Wahrscheinlicher wird es bei mehr als 100W über den Slot insbesondere bei Budget-Lösungen kritisch.

Edit:
Oops, sind nur fünf 12V-Pins im PCIe-Slot. Da wird es bei Billigslots also tatsächlich schon bei exakt 66W (was exakt so auch in der elektromechanischen Spec steht, zusammen mit den drei 3,3V Pins ergibt das dann in der Summe grob die 75W) über die 12V im Slot eng. Da kann man nur hoffen, daß auf den meisten Mainboards etwas bessere Versionen mit minimal dickeren Kontakten (die dann mehr Strom vertragen) verbaut sind. Sonst läuft man insbesondere mit OC Gefahr, sich die Karte im Slot festzuschweißen.
Was man hier aber auch! bedenken sollte ist, das man die Karten ja auch einstecken muss. Das wird aktuell noch gar nicht berücksichtigt. Ich bin mir gerade nicht sicher, wie es bei PCI-E aussieht, aber wenn ich mich richtig erinnere dann habe ich bei MESSANINE Buchsen schon Werte von rund 10-20 Steckzyklen gesehen, für die Sie spezifiziert sind....

Dann muss man auch bedenken, das Mainboards der Tester wohl sehr oft gesteckt werden und auch sehr oft außerhalb der Specs betrieben werden durch die OC Tests.

Keine Ahnung, wie und ob sich das auswirkt, aber bevor man jetzt jemand köpft sollte man sicherheitshalber das auch mal abklopfen und eventuell mit neuem Board und neuem NT nachtesten.

Wenn die da keinen Fehler gemacht haben, ist der Test sehr mysteriös, da sie die Einzigen sind, die nur 116W@stock und 129W im übertakteten Zustand gemessen haben. Aber immerhin liegt die Performance auch ziemlich weit oben, was sie bei dem niedrigen Verbrauch ja eigentlich auch muß (weil der Chip dann wohl permanent bei Maximaltakt kleben würde). Wie wahrscheinlich es ist, daß jemand einen Chip erwischt, der glatt mal 35% oder so weniger verbraucht als die der anderen Tester, kann sich jeder selbst überlegen. Soo variabel kann der 14LPP-Prozeß doch wohl nicht sein.
Sicher?

Also ich sehe das überhaupt nicht als unrealistisch an. Zumindest für einzelne Transistoren kann die Schwankung schon so groß sein, wobei das dann eben Wafer to Wafer + Transistor to Transistor variationen sind und nicht innerhalb eines Wafers. Ob sich das dann natürlich auf den gesamten Chip hochskalieren lässt kann ich nicht sagen, da ich keine Daten zu Wafer to Wafer mehr im Kopf habe und es natürlich auch anderere Prozesse waren mit denen ich gearbeitet habe. Aber prinzipiell würde ich es als nicht völlig unrealistisch empfinden.

Der witz an den Neuerungen von AMD bezüglich ihrer dynamischen Voltageskalierung ist ja, dass Sie das onChip messen. Das sollte dazu führen, dass du Chips nutzen kannst, die du sonst hättest wegschmeisen müssen, aber auch dass du Chips effizienter betreiben kannst. Aber auch, dass du schlechte MEssschaltungen hast und den Chip ineffizienter betreibst als eigentlich nötig....

Unterm Strich bringt es etwas, aber sofern AMD nicht binning macht für die Reviewer, was man sich ja eigentlich wünscht, dann kann es schon sein, dass die Chips für die Reviewer aus einer begrenzten Charge kommen, die halt nicht so knalle ist, aber durch den normalen Binningprozess durchgekommen sind. Wer weiß ob man da nicht auch irgendwas nicht bedacht hat mit zu testen beim Binning. Das Binning wird ja, sofern man nicht einfach nur sagt läuft, sehr komplex durch die nun genutzten Verfahren...

Btw. Lustigerweise hatte ich vor kurzem eine angeregte Diskussion mit einem Mitarbeiter eines HPC-Anbieters über die Prozessvariation und wie man damit umgeht, insbesondere auch bezüglich solcher Verfahren wie AMD jetzt nutzt und Intel/nVidia auch nutzen.

Kernaussage von mir war mehr oder weniger, das man da ruhig auf die Kacke hauen soll/wird, und man damit in Tests glänzt. Wer kramt denn schon eine 2 Jahre alte CPU nochmals raus und testet die nach, ob die 10% schlechter Performt, als da wo man sie gekauft hat :wink:
Mal ganz zu schweigen davon, das man eben durch Selektieren der Chips sehr schöne Reviews generieren kann.

Btw. sollte man bereits jetzt alte CPUs nachtesten, bzw zumindest bei neueren ins Auge fassen, wobei 24/7 Linkpack für >1 Jahr angebracht ist.
Da wird man sicherlich auch heute schon interessante Erkenntnisse gewinnen, und es wird nicht besser... Das Problem, mit einem Einzeltest kannste da rein gar nichts mehr anfangen... Da brauchste schon 1.000 oder besser 10.000 Testsamples. -_-

Bei ATX-Steckern, die dauerhaft oberhalb ihres Ratings betrieben wurden, habe ich das schon zwei mal gesehen (einmal nach einem Jahr, das andere mal nach gut zwei Jahren des Gebrauchs). Das geht dann irgendwann schneller, als man vielleicht glaubt. Hat man einen 50% höheren Strom auf den Pins als das, wofür sie gerated sind (und das wäre bei 100W über den Slot der Fall, falls auf dem Mainboard die billigsten Slots verlötet sind), ist der Spannungsabfall an den Kontakten ebenfalls 50% höher, macht also Faktor 2,25 höhere Leistung, die direkt an den Kontakten verbraten wird. Dadurch wärmt sich das auf, was den Kontaktwiderstand typischerweise weiter erhöht => noch mehr Leistung wird verbraten. Das kann Dir irgendwann einfach weglaufen und zu schmoren anfangen. Ryan Shrout bei PCPer hat z.B. einen gut 0,4V hohen Spannungsabfall der Versorgung über den Slot unter Last gemessen (die über den 6Pin-Stecker fiel um vielleicht 50mV, es war also wirklich der Versorgungsweg). Bei 1,6A pro Pin wären das ~0,6W Heizleistung direkt an dem Pin der Karte (auf dem benutzten hochqualitativen Mainboard, wird kaum so viel über die Kupfertraces im Board abfallen). Laß mal mit der Zeit den Übergangswiderstand noch etwas größer werden und dann wird das recht schnell übel, da dort kaum eine wirksame Kühlung existiert.
0,4V ist schon hart. Ich hatte allerdings auch mal mit nem Hersteller gesprochen, der bei kontakten auch festgestellt hat, dass sich das Gold von den Kontakten abträgt. War für den wohl auch eher uncool.

So jetzt habe ich aber viel geschrieben.

Fassen wir also nochmals zusammen.

1. Ganze! PCI-E Spec lesen
2. Tests mit neuem Board, GPU und NT
3. Warten was PCI Sig und AMD sagen
4. Am Ende! Fair urteilen. Also wenn AMD scheise gebaut hat, dann draufhauen, wobei bei einer einzelnen Karte wohl eher keine Instabilitäten auftreten sollten, bei 3+ aber deutlich erhöhte Wahrscheinlichkeit. Aber eben auch Asche über das eigene Haupt streuen, wenn es am Ende doch nichts wirklich zu meckern gibt. Also insbesondere auch die SAche geraderücken, wenn die ZErtifizierungstests von PCI nicht ausreichend sind. Ein Hersteller MUSS! sich darauf auch verlassen können!

Raff
2016-07-01, 09:44:24
Inklusive RX480 Test? :)

Yep. Und das war sowas wie Zauberei angesichts der zur Verfügung stehenden Zeit.

MfG,
Raff

Gipsel
2016-07-01, 10:26:13
1. Ganze! PCI-E Spec lesen
Uff, allein die Base-Spec hat schon 900 Seiten. Das tue ich mir nicht an. Da warte ich lieber auf offizielle Aussagen. :rolleyes:

Skysnake
2016-07-01, 10:33:39
Ich auch ;)

Ich hatte ja mal nur ganz am Rande mit der PCI-E Sig zu tun, und das hat mir wirklich schon gelangt... Ich verzichte wirklich gerne.

Nikstar
2016-07-01, 10:38:53
Hat jemand Ahnung von Mainboards und kann mir sagen, ob die Stromleitungen von Mainboards mit Crossfiresupport zusammen zum ersten und zweiten PCIE Slot laufen?
Dann gäbe es doch garkein Problem mit den über 75 Watt oder?
AMD lässt ziemlich lange auf eine Antwort warten. :(

Auch interessant:
https://www.youtube.com/watch?v=zU7BibxgQSM

Dino-Fossil
2016-07-01, 10:38:55
Im Normalfall sollte das schon durchhalten. Aber es könnte durchaus sein, daß sich das Risiko, den Slot und somit das Board zu beschädigen, mit erhöhtem PT und OC meßbar zunimmt.

Da würde ich dir wohl zustimmen. OC ist mit dem Referenzdesign aktuell definitiv nicht zu empfehlen und würde das Problem, so es denn existiert wohl verschärfen.

Ansonsten halte ich das Problem aber für eher akademisch. Die allerwenigsten Nutzer haben so eine Karte 24/7 unter Volllast laufen - und dafür wäre das ganze System vermutlich schon wieder nicht spezifiziert, üblicherweise nimmt man dafür doch spezielle Hardware (also wenn man eine Garantie will, dass die Hardware das mitmacht) und die kostet (Server, etc.) auch wieder extra, oder?

Wobei es mich jetzt schon mal interessieren würde, wie sich so ein Stecker in Normalbetrieb, bei "Überlastung" und im Dauerbetrieb thermisch und elektrisch verhält.

Auch möglich, dass wie von anderen angedeutet, häufiges Kartentauschen vielleicht mehr Probleme (durch Abrieb der Kontakte) verursacht, als so ein paar Lastspitzen für sich alleine.

Hat jemand Ahnung von Mainboards und kann mir sagen, ob die Stromleitungen von Mainboards mit Crossfiresupport zusammen zum ersten und zweiten PCIE Slot laufen?

Angeblich sind zwei PCIe-Slots für GPUs üblicherweise zusammen angebunden, so dass du dann von der reinen Versorgung her bei single-card Betrieb in der Tat mehr zur Verfügung hast. HAst du aber nach Aussage von z.B. andill in der Praxis eh.

Hübie
2016-07-01, 10:46:48
Glauben ist nicht wissen ;) Aber egal, für dich sind andere Dinge wichtiger als für mich, ein Hersteller muss da Kompromisse machen, um möglichst viele Kunden zu erreichen, da fallen Ultra-Silentfans und Extremenergiesparer raus, die müssen sich dann anderweitig helfen und zur Not mehr bezahlen.

Ich will hier auch nicht komplett ignorant rüberkommen, wie gesagt, wenn wir über wirklich signifikanten Mehrverbrauch reden würden, dann sähe ich das wohl auch so. Und ich lege auch wert auf ein ruhiges System und dass ich im Sommer nicht auch noch von der GPU gegrillt werde, weswegen ich trotz relativ akutem "Haben wollen" auf Karten wie die R9 390 verzichtet habe, 970 und 980 hatten mir immer schon zu wenig RAM, ich möchte eine GPU nicht alle zwei Jahre wechseln müssen, ein bisschen Nachhaltigkeit ist ja jetzt auch nicht so schlecht für die Umwelt und die Ressourcen. Da kommt die 480 gerade recht, es muss nur noch etwas mehr Leistung her, ob die jetzt 30 W mehr verbraucht, ist mir schnuppe, die hohen Temperaturen - mit denen ja aber auch 1070/80 zu kämpfen haben - finde ich da eher nicht so toll.

Einer der vernünftigsten Beiträge seit gefühlten 40 Seiten. :smile:

@Skysnake: Hast du Urlaub oder was? :D Meinst du mit abgetragenem Gold die Elektronenmigration?

M4xw0lf
2016-07-01, 10:53:58
@Skysnake: Hast du Urlaub oder was? :D Meinst du mit abgetragenem Gold die Elektronenmigration?
Elektromigration. Elektronen migrieren sowieso immer fröhlich durch die Gegend :tongue:

Digidi
2016-07-01, 10:59:28
Uff, allein die Base-Spec hat schon 900 Seiten. Das tue ich mir nicht an. Da warte ich lieber auf offizielle Aussagen. :rolleyes:

Über Micro USB type C kann man über 1 Pin 2,5 Ampere übertragen und das bei 20 Volt also 50w. Der Pin ist 0,25mm breit bei PCI-E ist der Pin 0,7mm breit
https://media.licdn.com/mpr/mpr/shrinknp_1000_1000/AAEAAQAAAAAAAAarAAAAJGYwNzViYjhmLTUxZWEtNDQ2Yi1iOTYwLWMyY2I0OTllM2NhMQ.jpg


Die müssten jetzt alle Panik bekommen!

Loeschzwerg
2016-07-01, 11:11:43
Über Micro USB kann man über 1 Pinn 2,5 Ampere übertragen und das bei 20 Volt also 50w. Der Pin ist 0,25mm breit bei PCI-E ist der Pin 0,7mm breit
https://media.licdn.com/mpr/mpr/shrinknp_1000_1000/AAEAAQAAAAAAAAarAAAAJGYwNzViYjhmLTUxZWEtNDQ2Yi1iOTYwLWMyY2I0OTllM2NhMQ.jpg


Die müssten jetzt alle Panik bekommen!

20V?! :| Edit: Achso USB 3.1...

HarryHirsch
2016-07-01, 11:13:59
Das mit dem 2nd pass encoding finde ich interessant. Ist das in hardware?
Könnte mir gut vorstellen das sich das in software realisieren lässt. Vor allem wenn Nvidias decoder immer noch deutlich schneller sind. Ob das jetzt auch auf die encoder zutrifft weiß ich allerdings nicht.
Wenn diese dynamische kompression sichtbare Vorteile bringt wäre das toll.
Auf dem Vergleichsbild ist der Unterschied jedenfalls schon recht groß.

http://scr3.golem.de/screenshots/1606/Radeon-RX-480-Test/Test-Radeon-RX-480-19.png

ist das bild aus ner folie? link?

Nikstar
2016-07-01, 11:25:41
ist das bild aus ner folie? link?
http://www.golem.de/news/radeon-rx-480-im-test-eine-bessere-grafikkarte-gibt-es-fuer-den-preis-nicht-1606-121715-9.html
Bild Nr. 53

Skysnake
2016-07-01, 11:30:38
Einer der vernünftigsten Beiträge seit gefühlten 40 Seiten. :smile:

@Skysnake: Hast du Urlaub oder was? :D Meinst du mit abgetragenem Gold die Elektronenmigration?
Ja, warum? ;)

Gipsel
2016-07-01, 13:44:36
Über Micro USB type C kann man über 1 Pin 2,5 Ampere übertragen und das bei 20 Volt also 50w. Der Pin ist 0,25mm breit bei PCI-E ist der Pin 0,7mm breit
https://media.licdn.com/mpr/mpr/shrinknp_1000_1000/AAEAAQAAAAAAAAarAAAAJGYwNzViYjhmLTUxZWEtNDQ2Yi1iOTYwLWMyY2I0OTllM2NhMQ.jpg

Die müssten jetzt alle Panik bekommen!Die Kontaktflächen auf der PCIe-Karte sind vielleicht 0,7mm breit, die Federkontakte im Slot aber doch meist erheblich weniger. Wie gesagt, bei den erstbesten billigen Slots die man findet, sind diese Kontakte nur für bis zu 1,1A spezifiziert. Und Ryan Shrout von PCPer hat z.B. unter Last einen merklichen Spannungsabfall (doch vermutlich überwiegend an diesen Kontakten) vermessen, was mir dann doch etwas zu denken gibt. Wie gesagt, als Normalnutzer kann das Alles relativ problemlos sein. Aber wenn man seine Karte im Slot schon 50 mal gewechselt hat, übertaktet und dann keine deutlich besseren Slots verbaut sind, könnte das dann mitunter eben sehr eng werden.

Dural
2016-07-01, 14:18:59
Was ich an der ganzen sache überhaupt nicht nachvollziehen kann, wie so um alles in der Welt zieht AMD nicht einfach mehr Strom über den PCI-E Stecker??? Dies wäre doch sicherlich deutlich sinnvoller gewessen als über den PCI-E Slot.

dildo4u
2016-07-01, 14:24:20
Laut ihren Test's haben sie die 150 ja nicht gebrochen vermutlich war der Lasttest Minecraft.

Thunder99
2016-07-01, 14:39:13
Wird wohl hoffentlich Konsequenzen haben. Oder es wird im Laufe der Chipproduktion automatisch besser wenn der Prozess reift? :confused:

Sie sollten die Custom Lösungen nun schneller erlauben. Damit die Welt sieht das es besser geht

Tru
2016-07-01, 14:44:00
Sie sollten die Custom Lösungen nun schneller erlauben.

Wer sagt, dass sie das nicht schon getan haben? :P

Dural
2016-07-01, 14:51:06
Was bringt Poaris 5% mehr Leistung? richtig nicht wirklich viel. :wink:

Und mehr als 5% dürften in Serie im Moment kaum möglich sein.

Thunder99
2016-07-01, 16:04:31
Ausgehend von dem Base Clock dürften da 10% schon möglich sein bei besserer Effizienz und Lautheit

Dural
2016-07-01, 16:47:56
Wer sagt den das man bei 10% mehr Takt auch 10% mehr Leistung hat?
Der Speicher wird in der regel nicht angerührt, am Ende werden wir bei den 5% laden ;)

Und überhaupt 10% mehr Takt, das sind 1392MHz, in Serie kannst du das Vergessen im Moment, wie schon gesagt ;)
Maximum schätze ich derzeit auf 1350MHz.

fondness
2016-07-01, 16:53:05
Wer sagt den das man bei 10% mehr Takt auch 10% mehr Leistung hat?
Der Speicher wird in der regel nicht angerührt, am Ende werden wir bei den 5% laden ;)

Und überhaupt 10% mehr Takt, das sind 1392MHz, in Serie kannst du das Vergessen im Moment, wie schon gesagt ;)
Maximum schätze ich derzeit auf 1350MHz.

Das Refdesign taktet häufig kaum über 1.1Ghz, eine Karte die 1350Mhz Takt hält, hätte also in der Praxis schon deutlich mehr Takt.

Thunder99
2016-07-01, 16:55:19
Wer sagt den das man bei 10% mehr Takt auch 10% mehr Leistung hat?
Der Speicher wird in der regel nicht angerührt, am Ende werden wir bei den 5% laden ;)

Und überhaupt 10% mehr Takt, das sind 1392MHz, in Serie kannst du das Vergessen im Moment, wie schon gesagt ;)
Maximum schätze ich derzeit auf 1350MHz.
Stimmt auch wieder, wobei ich bei Sapphire schon davon ausgehe, dass auch ein RAM OC wieder angeboten wird (Stichwort Vapor-X)

Dural
2016-07-01, 16:59:28
Natürlich gehe ich von max PT/TT aus, und da halten die 1266MHz immer:

https://www.computerbase.de/2016-06/radeon-rx-480-test/5/

Der_Korken
2016-07-01, 16:59:37
Laut ihren Test's haben sie die 150 ja nicht gebrochen vermutlich war der Lasttest Minecraft.

Mit Shadermod wird meine 7950 genauso heiß wie in Witcher 3. (sorry for offtopic)

Langsam hasse ich AMD dafür, dass sie die 75W für PCIe überschreiten. Nicht so sehr aus technischen Gründen, weil es dafür Custom-Modelle geben wird. Sondern weil sich hier in den Polaris-Threads alle auf dutzenden die Köpfe einschlagen :freak:

reaperrr
2016-07-01, 17:00:50
Oje, AMD...

Laut OcUK soll die 480-4GB bereits EOL sein(!), zumindest im Referenzdesign. Obwohl sie sich gut verkauft. Aber vermutlich ging es AMD mehr ums "199$"-Marketing und die 8GB-Variante hat eine etwas höhere Marge.
Naja, vielleicht gibt's ja 4GB-Varianten von den AIBs.

Zudem gibt es im offiziellen AMD-Forum die ersten Berichte, nach denen die Karte auf einigen Mainboards tatsächlich die PCIe-Slots gekillt hat. Und das am ersten Tag...
Wenn das stimmt, kann das für AMD noch übel werden, wenn sie die Situation falsch handhaben. Eigentlich auch, wenn sie das richtig handhaben, denn dann müssten sie entweder ein niedrigeres PT über den Treiber erzwingen oder die Karten zurückrufen...

Linmoum
2016-07-01, 17:09:54
Laut OcUK soll die 480-4GB bereits EOL sein(!), zumindest im Referenzdesign. Obwohl sie sich gut verkauft. Aber vermutlich ging es AMD mehr ums "199$"-Marketing und die 8GB-Variante hat eine etwas höhere Marge.
Naja, vielleicht gibt's ja 4GB-Varianten von den AIBs.
Wurde doch schon vor einigen Wochen spekuliert, dass das 4GB-Modell vorrangig von den AIBs übernommen werden soll.

Nikstar
2016-07-01, 17:58:14
Gabs den Link hier schon?
https://www.amd4u.com/amdgamepromo/
Dort standen wohl diverse RX 4x0 Grafikkarten, auch RX 490.
Bekommt man also mit den neuen Custom Designs auch noch Spiele?

AnarchX
2016-07-01, 18:00:31
Diskussion zur RX 480 >hier< (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574144).
Im Spekulations-Thread ist über noch nicht veröffentliche Polaris/Vega-Produkte zu diskutieren.

AnarchX
2016-07-01, 18:51:44
Hier zählt man nur 36: http://www.heise.de/newsticker/meldung/Polaris-ist-da-AMD-Grafikkarte-Radeon-RX-480-mit-hoher-Spieleleistung-und-einem-Makel-3251042.html?view=zoom;zoom=1

Vielleicht braucht es da einen Polaris12 via Respin um alle CUs zu aktivieren.
Laut PCGH Carsten ist der Shot so korrekt:

Actually, AMD explained it to me like this:
The basis is an actual die shot. It is enhanced with an image of the floor plan and then processed to highlight certain areas the team considers of interest.
https://forum.beyond3d.com/posts/1927330/

Undertaker
2016-07-01, 18:51:56
Das Refdesign taktet häufig kaum über 1.1Ghz, eine Karte die 1350Mhz Takt hält, hätte also in der Praxis schon deutlich mehr Takt.

Es sind schon knapp 1,2 GHz im Schnitt wenn man mal bei CB schaut:

https://www.computerbase.de/2016-06/radeon-rx-480-test/5/

Wenn man sieht wie darüber der Verbrauch explodiert und wie schnell die Bandbreite limitiert, sehe ich wenig Sinn daran den Chip weiter auszuquetschen. Selbst wenn AMD im Hintergrund ein paar bessere Chips selektieren kann, würde ich davon eher eine verbrauchsoptimierte "Nano" haben wollen.

Unicous
2016-07-01, 19:01:04
Laut PCGH Carsten ist der Shot so korrekt:

https://forum.beyond3d.com/posts/1927330/

Eben nicht. Sie haben vllt. Teile eines die shots genommen, den Rest aber gephotoshopped. Sie man ja auch eindeutig. Und wenn das mit den 40 CUs stimmt haben sie die 4 CUs einfach wegrationalisiert und den Rest entsprechend angepasst.

Das ist jedenfalls eindeutig kein die shot mit Falschfarben.

AnarchX
2016-07-01, 19:12:58
Schlussendlich heißt es da auf Chipworks&Co. zu warten. Interessant ist jedenfalls am Shot, dass die mittleren 4 CUs wohl dem Command-Processor zugeordnet scheinen. Vielleicht steht das im Zusammenhang mit der Reservierungsfunktion.

Janos
2016-07-01, 20:08:21
[QUOTE=Der_Korken;11087111]Mit Shadermod wird meine 7950 genauso heiß wie in Witcher 3. (sorry for offtopic)
Langsam hasse ich AMD dafür, dass sie die 75W für PCIe überschreiten./QUOTE]


Firma hassen? Du solltet mal über deine Einstellung zum Kapitalismus nachdenken...

Ich bin heute von einer 7950 boost auf die RX480 gewechselt.
Sie macht was sie soll, unter Windows 10 und Ubuntu 16.04 Treiber installiert, gebootet und geht.
Angespielt habe ich DOOM, Witcher 3, Fallout4 und Lord of the Fallen und während ich das schreibe, wird mir bewusst, dass mir der Lüfter nicht aufgefallen ist.

Danke an AMD, für ein gutes P/L Verhältnis, nicht mehr und nicht weniger

Sunrise
2016-07-01, 20:09:21
Oje, AMD...

Laut OcUK soll die 480-4GB bereits EOL sein(!), zumindest im Referenzdesign. Obwohl sie sich gut verkauft. Aber vermutlich ging es AMD mehr ums "199$"-Marketing und die 8GB-Variante hat eine etwas höhere Marge.
Naja, vielleicht gibt's ja 4GB-Varianten von den AIBs.
Wir hatten bereits vorher die Information, dass AMD selbst nur ein Referenzdesign mit 8GB anbieten wird und das ist auch gut so, denn AMD braucht Argumente für die RX480 und der Speicherausbau ist eines davon.

Akkarin
2016-07-02, 00:42:56
Ich hab grad mal ein wenig mit zahlen gespielt und dabei ist mir aufgefallen dass P10 ne leicht niedrigere perf/bandwidth und perf/flops hat als Tonga. WTF hat AMD da gebaut ? Perf/triangles ist leicht höher, nur perf/pixels ist deutlich höher bei P10. Tonga ist jetzt fast 2 Jahre her und es gab immernoch 0 performancesteigerung seitens AMDs.

Digidi
2016-07-02, 00:45:32
@Akkarin

Das sind Rohleistungswerte. AMD hat sich eher um die Schnittstellen zwischen den einzelnen Komponenten gekümmert. Das ist AMDs Baustelle. Ressourcen hat AMD genug auf den CHIP. Nur sie gut zusammen zu bringen das fehlt noch AMD

Nur mal ein Vergleich die Spekulierte Gpu106 soll 4,4 Gflops Leistung haben. Polaris hat 5,5 Gflops, konnte sie aber unter DX11 nicht nutzen.

AMD wird sich auch nicht mehr so auf die Architektur kümmern, sondern versuchen die Software auf Ihre Architektur anzupassen. Das ist AMDs größtes Problem. Die Hardware ist Top und sehr gut ausbalanciert. Das wichtigste ist Shaderleistung denn die erzeugt die ganzen Effekte. Der Vorbau zerlegt nur die Polygonen in Pixel und der Nachbau schmeißt einfach nur die Pixel auf den Schirm.

Die Rasterizer und die Rops sind total überbewertet. Nur mal am Beispiel der Rops. AMD kann mit 32 Rops 41.000.000.000 Pixel pro Sekunde ausgeben. 4k hat 8.294.400 Pixel. Das heißt in einer Sekunde kannst du 4900 4k Bilder darstellen. Das heißt bei den magischen 60 fps kannst du Pro Frame 82 Bilder berechnen.

Akkarin
2016-07-02, 00:50:38
Das sind effizienswerte. Wenn sich AMD wirklich um die "schnittstellen" zwischen den Komponenten gekümmert hätte wäre die auslastung=effizienz ja hoch gegangen. Ist sie aber nicht.

Bei sachen wie perf/w oder perf/transistor (letzteres eine leicht unsinnige metric, aber man kann mm^2 sonst einfach gar nicht zwischen verschiedenen processen vergleichen) liegt man sogar teilweise hinter der eigenen 28nm gen zurück. Irgendwas ist da schief gegangen.

Digidi
2016-07-02, 00:56:23
@Akkarin

Doch sie ist hoch gegangen, hauptsächlich bei DX11 und bei Tesselation. Ich vermute mal das AMD auch noch ein paar Features eingefügt hat die erst so richtig bei DX12 zu tragen kommen.

Die Developer müssen jetzt erst mal dafür vorbereitet werden und da kommt bestimmt noch ein White Paper über die does and don't.

Akkarin
2016-07-02, 01:09:00
Sag doch APIs wenn du APIs meinst und nicht "Schnittstellen zwischen komponenten" :freak:. Technisch korrekt ja, aber so kommts zu missverständnissen.

Wenn ich die Werte aus der 3dCenter Launchanalyse einfach in nen excel spreadshett eingeben gibt es bei AMD 0 Leistungswachstum/rohleistung. Kann man natürlich rein auf die Treiber schieben und auf DX12 hoffen, aber das finde ich dann doch etwas mau.

Digidi
2016-07-02, 01:14:29
Nein ich meinte auch Interne Schnittstelle. zB. Kann Amd jetzt besser seine Shader auslasten weil sie besser aus dem Rasterizer kommen. Deshalb ist die 480 nun auch besser in dx11.
Wieso soll Amd noch in dx11 groß investieren? Alle neuen Titel werden wohl mit dx12 kommen! Schon alleine weil der Konsoleport damit einfacher ist als mit dx11

Akkarin
2016-07-02, 01:17:50
zB. Kann Amd jetzt besser seine Shader auslasten weil sie besser aus dem Rasterizer kommen.

Davon sieht man im durchschnitt aber nix.

Wieso soll Amd noch in dx11 groß investieren? Alle neuen Titel werden wohl mit dx12 kommen! Schon alleine weil der Konsoleport damit einfacher ist als mit dx11

Weil leute immernoch alte DX11 spiele benutzen wollen ? Weil alle reviewer immernoch hauptsächlich DX11 benchen und es wohl 1-2 Jahre dauern wird bis sich das ändert ?

Digidi
2016-07-02, 01:21:40
Aber alle alten Spiele laufen doch noch gut auf der rx 480?

Wie gesagt die ganzen aaa Titel werden in dx12 kommen und auch viele kleinere Spiele werden in dx12 von den Konsolen rüber schwappen! Das ist AMDs Vision!

ilibilly
2016-07-02, 08:36:31
Oh mann polaris war jetzt eine echte enttäuschung, meine euphorie zu vega hält sich mittlerweile in grenzen.
Ich hoffe nur das sie damit deutlich die 1080 schlagen jnd nicht nur aufschlueßen.

AnarchX
2016-07-02, 10:47:32
Laut Luxx hat die RX 460 auch schon 48W ASIC TDP (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39615-amd-radeon-rx-480-im-test.html) und wieder typische 75W ohne externe Versorgung. Da sind die mobilen Versionen doch hoffentlich besser selektiert

iuno
2016-07-02, 10:58:32
http://3dcenter.org/news/namensschema-der-amd-radeon-400-serie-erklaert

http://m.3dcenter.org/dateien/abbildungen/AMD-Radeon-400-Serie-Namensschema.vorschau2.png
Wer glaubt an >256 bit bei polaris 10? :ulol:
Die RX 490 sollte damit ein anderer chip sein

AnarchX
2016-07-02, 11:00:20
2x256-Bit > 256-Bit ;D

SavageX
2016-07-02, 11:09:51
Bemerkenswert finde ich da die letzte Ziffer "Revision". Planen die jetzt auch bei GPUs "mid-life" Auffrischungskuren wie bei den APUs (Trinity zu Richland, Kaveri zu Godaveri, Carrizo zu Bristol Ridge)?

Zergra
2016-07-02, 11:15:06
Bemerkenswert finde ich da die letzte Ziffer "Revision". Planen die jetzt auch bei GPUs "mid-life" Auffrischungskuren wie bei den APUs (Trinity zu Richland, Kaveri zu Godaveri, Carrizo zu Bristol Ridge)?
Gab es doch auch schon früher mal. R9 285 zb.

SavageX
2016-07-02, 11:18:44
Gab es doch auch schon früher mal. R9 285 zb.

Ja, ich frage mich nur, ob die mit "Revision" tatsächlich noch ein weitere Runde Arbeit am Silizium investieren (wie bei den APUs, das sind neue Steppings), oder ob die wie bisher (?) einfach warten, bis die Fertigung mehr Routine hat und schnellere Bins anfallen.

memakr
2016-07-02, 11:39:13
Weiß jemand, wann genau die RX470 Testsamples verschickt werden bzw. wann diese Karte dann offiziell in den Handel gelangen soll?

LadyWhirlwind
2016-07-02, 11:48:07
Ja, ich frage mich nur, ob die mit "Revision" tatsächlich noch ein weitere Runde Arbeit am Silizium investieren (wie bei den APUs, das sind neue Steppings), oder ob die wie bisher (?) einfach warten, bis die Fertigung mehr Routine hat und schnellere Bins anfallen.

Ich würde das jetzt einfach mal als eine Möglichkeit ansehen, die beim Namensschema berücksichtigt werden muss. Es gibt sicher Szenarien wo eine 2. Revision Sinn machen könnte.

Unrockstar
2016-07-02, 12:08:20
Ich würde das jetzt einfach mal als eine Möglichkeit ansehen, die beim Namensschema berücksichtigt werden muss. Es gibt sicher Szenarien wo eine 2. Revision Sinn machen könnte.

P10 zb. Die Asic von 110W für nen 14nm Prozess finde ich nun nicht berauschend. Wenn TSMC Vega 11 zeigt, dann wird es intressant wie viel besser der 16nm ist.
Derzeit sind die P10 Karten ja schneller weg als du GPU sagen kannst. mit einem angepassten PTT sollte man auch weniger Probleme haben. Ich hätte an AMDs Stelle, aber die Platine nicht so overpowerd designt.. Das sollte auch so 10-15W an Leistung fressen.
Ich bin gespannt was Sapphire und MSI da rausholen. Und ich bin sehr gespannt wie GP106 sich dagegen verhält.. die 15% auf die RX480 ist nun auch nichts besonderes, man wäre damit auch "nur" auf 980 Niveau
Ich kann mir sehr gut vorstellen, dass es am Prozess liegt. Die Asic des P10 müsste eigentlich bei unter 90W sein, denn die Asics der 28nm Chips waren auch nicht so Katastrophal höher.
Alles im Allen, fraglich ob es an P10 liegt, oder nicht vllt doch an Samsung/GF.

memakr
2016-07-02, 12:11:02
Wenn TSMC Vega 11 zeigt, dann wird es intressant wie viel besser der 16nm ist.


Ist das denn schon sicher, dass V11 wirklich bei TSMC gefertigt wird. Falls ja, kann mir mal jemand ne Quelle zum Lesen mitteilen? Danke...

Edit: V10 auch?

iuno
2016-07-02, 13:04:14
Bemerkenswert finde ich da die letzte Ziffer "Revision". Planen die jetzt auch bei GPUs "mid-life" Auffrischungskuren wie bei den APUs (Trinity zu Richland, Kaveri zu Godaveri, Carrizo zu Bristol Ridge)?
Kann schon sein, gerade mit der neuen Fertigung.
Tahiti hat damals auch einen Respin bekommen.
Oder nur kleine Refreshes im Lineup, waere auf jeden Fall auch "ehrlicher" als "Grenada" usw.

Gab es doch auch schon früher mal. R9 285 zb.
Nein, Tonga ist ein ganz anderer Chip als Tahiti
Ist das denn schon sicher, dass V11 wirklich bei TSMC gefertigt wird.

Edit: V10 auch?
Nein

Unrockstar
2016-07-02, 13:32:34
Ist das denn schon sicher, dass V11 wirklich bei TSMC gefertigt wird. Falls ja, kann mir mal jemand ne Quelle zum Lesen mitteilen? Danke...

Edit: V10 auch?
Bisher weiß ich auch nicht mehr als du. Es ist ein Gerücht, bisher.

HOT
2016-07-02, 13:43:29
Ist das denn schon sicher, dass V11 wirklich bei TSMC gefertigt wird. Falls ja, kann mir mal jemand ne Quelle zum Lesen mitteilen? Danke...

Edit: V10 auch?

Ausgemachter Quatsch ist das. Und das liegt auch nicht am Prozess. Maxwell hatte ebenfalls ne bessere Taktbarkeit bei gleichem Prozess.

Und man tanzt auch nicht auf 2 Hochzeiten. Natuerlich kommt vega ebenfalls von GloFo.

Immer bedenken liebe GloFo-Basher: Im gleichen Prozess kommt ein 95W Broadwell-like 8-Kerner mit fast 4GHz, dagegen ist ne 200mm2 GPU ein Witz von der Schwierigkeit her.

reaperrr
2016-07-02, 14:44:49
Immer bedenken liebe GloFo-Basher: Im gleichen Prozess kommt ein 95W Broadwell-like 8-Kerner mit fast 4GHz, dagegen ist ne 200mm2 GPU ein Witz von der Schwierigkeit her.
;D
Was ich an Gerüchten aufgeschnappt habe, versuchen die Ingenieure derzeit, bis zum Launch noch auf 3,5 GHz zu kommen, 3,3-3,4 sind wohl wahrscheinlicher, letzter bekannter Stand soll ~3,1 GHz gewesen sein.

Und P10 ist mit seinen 232mm² und 5,7 Mrd. Transistoren höchstwahrscheinlich größer und deutlich komplexer als Zen :wink:

Knuddelbearli
2016-07-02, 15:31:04
Einblick auf Vega? Was für ein Einblick soll das sein das Vega auch langsam wird? Für Neukäufer mag die 480 ja interessant sein, aber als 970 Besitzer wundere ich mich doch etwas über die Karten. Klar hat NV mit der 970 viel Geld gemacht aber das AMD hingeht und eine Karte entwirft für die nächste Generation die gerade mal auf 970 Level ist kommt mir seltsam vor, da hätte ich mehr erwartet.


Also wunderst dich auch über die 1060 die ebenso gerademal auf dem level sein wird?
oder gar GP108 der weit darunter sein wird. Es gibt nicht nur topdogs ...

Hübie
2016-07-02, 15:38:55
Man sollte imo stets Preispunkte vergleichen und hier ist die RX 480 ziemlich allein. Passt also zur Leistung.

HOT
2016-07-02, 15:54:21
;D
Was ich an Gerüchten aufgeschnappt habe, versuchen die Ingenieure derzeit, bis zum Launch noch auf 3,5 GHz zu kommen, 3,3-3,4 sind wohl wahrscheinlicher, letzter bekannter Stand soll ~3,1 GHz gewesen sein.

Und P10 ist mit seinen 232mm² und 5,7 Mrd. Transistoren höchstwahrscheinlich größer und deutlich komplexer als Zen :wink:
Unsinn. Eine CPU ist ein völlig anderes Kaliber und die letzten Gerüchte besagten, dass es wirklich gut läuft - sind aber nur Gerüchte, nichtsdestotrotz ändert das nichts an der aussage.

dildo4u
2016-07-02, 15:59:27
Hier ist noch ein Interview mit AMD was bestätigt das 480 der volle Chip ist.

http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-PCB-Overkill-1200256/

fondness
2016-07-02, 16:14:20
Hier ist noch ein Interview mit AMD was bestätigt das 480 der volle Chip ist.

http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-PCB-Overkill-1200256/

Sorry, aber da glaube ich den Ingenieuren mehr.


AMDs Ingenieure sagten 40 CUs beim Abendessen :cool:


Tonga hatte zu Beginn auch nur 256 bit SI und 28 CUs. Das mit dem 384bit SI wurde erst mehr als ein Jahr nach Veröffentlichung offiziell.

Ein voller Chip verkauft sich eben besser, deshalb wird das auch offiziell bestritten. Blöd, dass sich wohl ein Ing verplappert hat.

Thomas Gräf
2016-07-02, 16:25:30
Ein doch sehr zaghafter Einstieg von AMD oder besser gesagt von GloFo mit diesen 480 Chip.
Da wartet noch ein Vega mit ca 500'er Chipfläche? Naja. Vertrauen in eine neue Technik sieht anders aus.
Denkemal für 2016 wars das, da kommt nix mehr in Sachen Zen oder Vega.

Nakai
2016-07-02, 16:26:45
So ein paar Fragen, was mich bei P10 wundert:
- wieso keine 64 ROPs oder nur 48 ROPS?
- wieso nicht 40 CUs?

Gut, dann wäre der Chip wohl eher 250mm² groß...und bräuchte dann noch mehr Bandbreite, weil mehr ROPs. Wieso hat man nicht auf GDDR5X dann geschielt? Oder besseres DCC verbaut? Klar, braucht das Resourcen und Entwicklungsaufwand...die man hätte investieren sollen. Nur besseres DCC und 64 ROPs hätte den Chip sehr gut getan und man wäre "geschätzt" ~10% schneller im Schnitt, evtl sogar etwas mehr.

Aber es sieht wohl so aus, als ob P10/11 eher ein GF-Shrink von den geplanten 20nm GPUs ist.

Und nun weiter beim meckern:
http://www.hardware.fr/articles/951-8/performances-theoriques-geometrie.html

Primitive Discard Accelerator my ass. Das Ding cullt etwa 10~20% besser als die Vorgänger. Und man ist immer noch Welten hinter NV. Genauso das gleiche bei der Tesselation. 10~20% besser als die Vorgänger.

Perf/Watt ist man etwa 50% besser als die Vorgänger.
Höchstwahrscheinlich ist der GF-Prozess nicht sonderlich ausgereift...


Und Vega wird eher TSMC als GF, schon reinher vom TSV. Ich glaube nicht, dass eine Produktionsweg mit GF aufgebaut wurde.

€:

AMDs Ingenieure sagten 40 CUs beim Abendessen :cool:

Ach du sch****...Tonga 2.0 Reloaded Beta? Bekommt wohl Apple. Oh Gott, ich glaube P10 ist noch ein Beta.

:facepalm::facepalm::facepalm: