PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

fondness
2016-06-29, 12:55:49
NDA fällt um 15:00 Uhr, dann bitte fleissig Reviews hier posten. :)

Ein kleiner Vorgeschmack:
https://www.youtube.com/watch?v=5CJBaZ9V2Eo

Benchmarks ab 3:50

Reviews (de):
https://www.computerbase.de/2016-06/radeon-rx-480-test/
http://www.golem.de/news/radeon-rx-480-im-test-eine-bessere-grafikkarte-gibt-es-fuer-den-preis-nicht-1606-121715.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39615-amd-radeon-rx-480-im-test.html
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/RX-480-Test-1199839/


Reviews (en):
http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview
http://www.eurogamer.net/articles/digitalfoundry-2016-amd-radeon-rx-480-review
http://www.guru3d.com/articles-pages/amd-radeon-r9-rx-480-8gb-review,1.html
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise
https://www.techpowerup.com/reviews/AMD/RX_480_CrossFire/
http://techreport.com/review/30328/amd-radeon-rx-480-graphics-card-reviewed
http://www.tomshardware.co.uk/amd-radeon-rx-480-polaris-10,review-33587.html
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_rx_480/s01.php
http://www.phoronix.com/scan.php?page=article&item=amdgpu-rx480-linux&num=1
Reviews (andere Sprachen):

Gesplittete Diskussion über die Strombelastbarkeit des PCIe-Slots: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574341&

CompuJoe
2016-06-29, 15:00:22
Computerbase

https://www.computerbase.de/2016-06/radeon-rx-480-test/

Iruwen
2016-06-29, 15:02:08
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39615-amd-radeon-rx-480-im-test.html

Michalito
2016-06-29, 15:03:16
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_rx_480/s01.php


Igor is lost in translation^^

http://www.tomshardware.co.uk/amd-radeon-rx-480-polaris-10,review-33587.html



http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview
https://www.techpowerup.com/reviews/AMD/RX_480/
& Crossfire
https://www.techpowerup.com/reviews/AMD/RX_480_CrossFire/

Raff
2016-06-29, 15:03:16
Radeon RX 480 (8 GiByte) im Test: Preisbrecher mit 14-nm-Technik (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/RX-480-Test-1199839/)

MfG,
Raff

y33H@
2016-06-29, 15:04:30
Golem-Test: http://www.golem.de/news/radeon-rx-480-im-test-eine-bessere-grafikkarte-gibt-es-fuer-den-preis-nicht-1606-121715.html

Unicous
2016-06-29, 15:04:45
HWLuxx?:eek: Seriously?:freak:


The AMD Radeon RX 480 Review - The Polaris Promise (http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise)


AMD's Radeon RX 480 graphics card reviewed
Star of wonder, star of night (http://techreport.com/review/30328/amd-radeon-rx-480-graphics-card-reviewed)

Immortal
2016-06-29, 15:07:10
Anandtech preview: http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview

Rockhount
2016-06-29, 15:07:59
What's brilliant about the RX 480 is that buying into this excellent experience is now $100-$130 cheaper than it was.

Eurogamer Review
http://www.eurogamer.net/articles/digitalfoundry-2016-amd-radeon-rx-480-review

RoughNeck
2016-06-29, 15:10:32
Guru3D
http://www.guru3d.com/articles-pages/amd-radeon-r9-rx-480-8gb-review,1.html

memakr
2016-06-29, 15:12:47
Geil, in TW3 hängt die Karte in FHD die 970 sowas von ab. Gekauft....

iuno
2016-06-29, 15:13:50
Also 256 € UVP mit 8 GiB, sieht doch dafuer nicht schlecht aus.

phoronix lahmt gerade, hat aber den Test oben:
http://www.phoronix.com/scan.php?page=article&item=amdgpu-rx480-linux

Blediator16
2016-06-29, 15:15:56
Ganz ehrlich. Für 14nm ist das eine unglaubliche Enttäuschung...

(del)
2016-06-29, 15:16:17
Igor is lost in translation^^

Du weißt doch, dass 3DCenter.org meine Artikel meist nicht verlinkt. war mit dem Effizienztest nicht anders :)

AMD Radeon RX 480 im Test: Kann Polaris gegen Pascal kontern? (http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140.html)

dildo4u
2016-06-29, 15:16:26
Geil, in TW3 hängt die Karte in FHD die 970 sowas von ab. Gekauft....
Wo?

http://abload.de/img/8240035j2v.png

Michalito
2016-06-29, 15:17:50
Du weißt doch, dass 3DCenter.org meine Artikel meist nicht verlinkt. war mit dem Effizienztest nicht anders :)

AMD Radeon RX 480 im Test: Kann Polaris gegen Pascal kontern? (http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140.html)


Das wird noch :wink:

r3ptil3
2016-06-29, 15:18:34
Autsch...
http://media.bestofmicro.com/J/W/591692/gallery/02-Overview-Gaming_w_600.png

Pirx
2016-06-29, 15:18:41
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/

Schlammsau
2016-06-29, 15:19:20
Autsch, der Vebrauch ist aber deutlich über dem was ich geschätzt und erhofft habe. ☹

160W voll ausgelastet .... kleiner Hoffnungsschimmer, evtl verbraucht die 4gb version weniger!?

Distroia
2016-06-29, 15:19:55
Nicht schneller als eine GTX 970 und selbst bei Performance/Watt kaum besser. Das ist ein Vergleich gegen die letzte Generation UND 14 nm gegen 28 nm! Ich bin maßlos enttäuscht. Wollte eigentlich eine RX 480 kaufen, jetzt wird es wohl zum ersten mal eine NVidia. Ich hab nicht so lange auf 14 nm gewartet, nur um eine Karte zu kaufen, die weniger effizient ist als eine Karte der Konkurrenz im alten Prozess.

Ich würde so gerne AMD unterstützen, aber so leider nicht.

Linmoum
2016-06-29, 15:19:58
Wo?

http://abload.de/img/8240035j2v.png
https://i.gyazo.com/4aa2cba9baeb91401985e77e914b8a7d.png

Blediator16
2016-06-29, 15:20:59
https://i.gyazo.com/4aa2cba9baeb91401985e77e914b8a7d.png

Oh wow das macht den Unterschied :rolleyes:

(del)
2016-06-29, 15:21:21
Autsch...
http://media.bestofmicro.com/J/W/591692/gallery/02-Overview-Gaming_w_600.png

DAS ist Autsch:
http://media.bestofmicro.com/A/N/591359/gallery/18-Gaming-Bars_w_600.png

Flusher
2016-06-29, 15:22:18
Hier der LaunchTest von HT4U (zum Glück mal wieder dabei)

http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/

Leistungsaufnahme @Idle: 17 W (Fail)
Durchschnittliche Leistungsaufnahme @ Games: 155 W (und damit über 980 GTX und TBP/PCIe Spezifikationen!)
Max Leistungsaufnahme @ PowerVirus: 165 W

Temp @ last: 86 °C (Kühler hat wenig Reserven)
Max OC ohne VGPU erhöhung: 1340/2100 MHz

Performance im Parcour im vgl. zur 980 GTX:

@FHD: -12 %
@1440p: -10 %
@4k: -7 %

Schaut man sich den Stromverbrauch und die Performance an, ist das eher entäuschend (finde ich).

deekey777
2016-06-29, 15:23:03
Computerbase

https://www.computerbase.de/2016-06/radeon-rx-480-test/
AMD wirbt bei Polaris zudem mit einer verbesserten Streaming-Qualität zum Beispiel für Twitch. So kann die neue GPU nun beim Fast-HQ-Encoding ein 2-Pass-Encoding (bei H.264 und HEVC) durchführen, das die Streaming-Qualität deutlich verbessern soll.



Das ist ja interessant.

dildo4u
2016-06-29, 15:23:16
https://i.gyazo.com/4aa2cba9baeb91401985e77e914b8a7d.png
Hängt vermutlich davon ab welche Stelle man Bencht hier im Wald.

http://abload.de/img/wirtz81sk3.png

Linmoum
2016-06-29, 15:23:40
Nicht schneller als eine GTX 970 und selbst bei Performance/Watt kaum besser. Das ist ein Vergleich gegen die letzte Generation UND 14 nm gegen 28 nm! Ich bin maßlos enttäuscht. Wollte eigentlich eine RX 480 kaufen, jetzt wird es wohl zum ersten mal eine NVidia. Ich hab nicht so lange auf 14 nm gewartet, nur um eine Karte zu kaufen, die weniger effizient ist als eine Karte der Konkurrenz im alten Prozess.

Ich würde so gerne AMD unterstützen, aber so leider nicht.
?
Laut CB ist die Karte unter 1080p rund 5% schneller als eine 970, wer mit max. PT/TT leben kann kommt sogar auf 9% im Schnitt.

Oh wow das macht den Unterschied :rolleyes:
Sind Stock vs. Stock immerhin 19%, finde ich jetzt nicht unbedingt wenig.

Ex3cut3r
2016-06-29, 15:24:08
Für mich eine absoulute Enttäuschung, spiele in 3440x1440, was soll ich mit so einer Leistung anfangen? Die 1070 kommt zum Glück morgen, alles richtig gemacht.. :)

Adam D.
2016-06-29, 15:25:17
Seufz, wollte AMD echt gerne unterstützen, aber als Besitzer einer GTX970 ist das nicht mal ein Sidegrade :(

(del)
2016-06-29, 15:25:30
Die Karte zieht bis 20% über Specs auf dem PEG, Spitzen bis 200 Watt. Das sollte so eigentlich nicht mal verkauft werden.

Godmode
2016-06-29, 15:25:53
Für mich eine absoulute Enttäuschung, spiele in 3440x1440, was soll ich mit so einer Leistung anfangen? Die 1070 kommt zum Glück morgen, alles richtig gemacht.. :)

Schau dir mal die Chipfläche an und dann wird dir vielleicht klar, warum Polaris nicht so schnell sein kann wie eine 1070. Polaris wird mit GP106 konkurrieren.

https://www.computerbase.de/2016-06/radeon-rx-480-test/

Blediator16
2016-06-29, 15:26:01
Mehr als eine 200€ Karte ist das nicht. Wenn sie die Preise nicht schleunigst anpassen, dann wirds ein riesen Disaster für AMD. Der Launch ist meiner Meinung nach sowieso schon ein Disaster.

Linmoum
2016-06-29, 15:26:53
Für mich eine absoulute Enttäuschung, spiele in 3440x1440, was soll ich mit so einer Leistung anfangen? Die 1070 kommt zum Glück morgen, alles richtig gemacht.. :)
Was hattest du denn an eine $199-Karte für Erwartungen in Sachen 3440x1440? :freak:

Natürlich ist die 1070 da deutlich besser, das war aber auch schon lange klar.

Michalito
2016-06-29, 15:27:13
Coustom wird es richten..

Für mich eine absoulute Enttäuschung, spiele in 3440x1440, was soll ich mit so einer Leistung anfangen? Die 1070 kommt zum Glück morgen, alles richtig gemacht.. :)

Du Superhecht... In 4 K von einer 250€ Karte 4 K zu verlangen, aber den Preis der 1070 völlig ausblenden. Möchtest du ernst genommen werden?

Blediator16
2016-06-29, 15:28:08
Coustom wird es richten..

Jop und irgendwann die Software und dann irgendwann DX12. Irgendwann :rolleyes:
Meinst du Customs werden plötzlich weniger verbrauchen und gleichzeitig billiger sein?

Voodoo6000
2016-06-29, 15:28:31
Für mich eine absoulute Enttäuschung, spiele in 3440x1440, was soll ich mit so einer Leistung anfangen? Die 1070 kommt zum Glück morgen, alles richtig gemacht.. :)
Ja, eine 260€ Karte ist langsamer als eine GTX 1070 für 500€ wie unerwartet:freak:

Die Leistung liegt zwischen GTX 970 und GTX 980 und damit genau so wie ich es erwartet habe. So, jetzt muss noch die MSI Custom erschienen und die RX480 ist gekauft:)

dildo4u
2016-06-29, 15:28:35
Scheint Treiber Probleme bei GTA5 zu geben.


https://c2.staticflickr.com/8/7338/27901911811_7017f71d6e_o.png

Ex3cut3r
2016-06-29, 15:29:53
Schau dir mal die Chipfläche an und dann wird dir vielleicht klar, warum Polaris nicht so schnell sein kann wie eine 1070. Polaris wird mit GP106 konkurrieren.

https://www.computerbase.de/2016-06/radeon-rx-480-test/

Ja, das ist mir schon klar. Aber ich hab mir trotzdem etwas stärkeres gewünscht. Wäre gut für uns Endverbraucher gewesen, aber so verstehe ich Nvidia, die wussten ganz genau, was Polaris kann und haben die Preise angezogen.

Coustom wird es richten..



Du Superhecht... In 4 K von einer 250€ Karte 4 K zu verlangen, aber den Preis der 1070 völlig ausblenden. Möchtest du ernst genommen werden?

3440x1440 ist nicht 4K, da fehlen ca 3 Millionen Pixel, und deine Beleidigungen kannst du dir sparen.

Grüße Joseph

Lowkey
2016-06-29, 15:31:58
Lohnt sich die 4 Gbyte Version? Laut dem ersten Test auf Anantech ist sie kaum langsamer.

Nun ist klar warum die Preise für Nano und Fury stabil sind.

Laut den Tests sind die Treiber in einer Art von Beta Stadium.

Der Kühler ist zu schwach/laut.

Die Leistungsaufnahme durch den PCI-E ist ein Problem.

Das Stromverbrauchslevel ist knapp vor Maxwell.

Hakim
2016-06-29, 15:32:02
das die mal nach Ewigkeiten nicht den Video Verbrauch wesentlich bessern??

http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index16.php


für mich insgesamt enttäuschend, leider

Sunrise
2016-06-29, 15:32:21
Also die Leistungsaufnahme im Idle sollte eigentlich vielen zu denken geben.

Laut HT4U (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index15.php) ist diese schlechter als bei einer 390X, obwohl wir hier von theoretisch sehr stromsparenden 14nm ggü. 28nm ausgehen müssten. Es sind 17,11W bei der RX480 und "nur" 14,41W bei der 390X Tri-X.

Mich würde mal interessieren, wie sich das erklären lässt. Benötigt AMD da soviel Spannung auf de Chips (selbst bei Idle-Taktraten), dass man hier sogar schlechter als eine 390X ist?

Das ist für mich eine maßlose Enttäuschung, muss ich leider so sagen. Also irgendwas stimmt hier nicht.

Entweder AMD hat hier volle Lotte auf Dichte und Leistung optimiert und komplett das Stromsparen vernachlässigt (das verschlechtert die Verbesserungen bei Polaris unnötig) oder aber der GloFo-Prozess hat so seine Eigenheiten, wie schon beim Apple A9 zu sehen.

soLofox
2016-06-29, 15:33:43
http://www.mindfactory.de/search_result.php?search_query=RX+480&x=24&y=13

269EUR bei MF für 8GB
219EUR bei MF für 4GB

Zergra
2016-06-29, 15:34:29
Lohnt sich die 4 Gbyte Version? Laut dem ersten Test auf Anantech ist sie kaum langsamer.

Ja das P/L ist dort wesentlich besser.

HT4U (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index15.php) ist diese schlechter als bei einer 390X, obwohl wir hier von theoretisch sehr stromsparenden 14nm ggü. 28nm ausgehen müssten. Es sind 17,11W bei der RX480 und "nur" 14,41W bei der 390X Tri-X.

.

CB schreibt das es ein Treiberfehler ist, daher angeblich sollen es nur 11W sein.

Troyan
2016-06-29, 15:34:37
Schau dir mal die Chipfläche an und dann wird dir vielleicht klar, warum Polaris nicht so schnell sein kann wie eine 1070. Polaris wird mit GP106 konkurrieren.

https://www.computerbase.de/2016-06/radeon-rx-480-test/

GP104 ist 35% größer und hat 26% mehr Transistoren. Die GTX1080 ist 70% schneller bei gleichem Stromverbrauch.

Die GTX1070 hat die selbe Bandbreite und ist mit 14% mehr Rechenleistung >30% schneller bei einer 24% geringeren Stromaufnahme.

Die Palit Jetstream kostet 84% mehr als die 480 und leistet 61% mehr. Da ist ein kaum bedeutender Aufpreis von einer Custom-GTX1070 zur Referenz-480.

Undertaker
2016-06-29, 15:35:02
Coustom wird es richten..


Lautstärke und Temperaturen, dazu das PCIe-Problem. An der Leistung wird sich bei dem OC-Potential wohl nicht so sehr viel tun, zumindest wenn der Verbrauch nicht völlig durch die Decke gehen soll.

Generell ist die für 14nm schwache Effizienz für mich der eigentliche Knackpunkt. :( Die Performance ist für den Preis angemessen, auch wenn die Karte kein besonderes Schnäppchen ist. Zumindest nicht mit 8 GB, die 4 GB Version ist attraktiver.

MadManniMan
2016-06-29, 15:35:14
Ganz ehrlich. Für 14nm ist das eine unglaubliche Enttäuschung...

This.

Ich wäre ja mit irgendwas an Effizienz zwischen Fury und Nvidia-16nm schon zufrieden gewesen, aber DAS?

http://tpucdn.com/reviews/AMD/RX_480/images/perfwatt_1920_1080.png

( http://www.techpowerup.com/reviews/AMD/RX_480/25.html )

dildo4u
2016-06-29, 15:35:24
Also die Leistungsaufnahme im Idle sollte eigentlich vielen zu denken geben.

Laut HT4U (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index15.php) ist diese schlechter als bei einer 390X, obwohl wir hier von theoretisch sehr stromsparenden 14nm ggü. 28nm ausgehen müssten. Es sind 17,11W bei der RX480 und "nur" 14,41W bei der 390X Tri-X.

Mich würde mal interessieren, wie sich das erklären lässt. Benötigt AMD da soviel Spannung auf de Chips (selbst bei Idle-Taktraten), dass man hier sogar schlechter als eine 390X ist?

Das ist für mich eine maßlose Enttäuschung, muss ich leider so sagen. Also irgendwas stimmt hier nicht.

Ist ein Treiberbug laut PCGH.

Frosty
2016-06-29, 15:35:32
da kann man nur hoffen, dass die custom designs der rx480 mindestens einen 8-pol pci-e stecker haben werden, damit der peg-steckplatz nicht so stark überbelastet wird.
die msi rx480 gaming 8g wird sicherlich eine feine karte, sogar noch mit dvi.:)

konkretor
2016-06-29, 15:35:54
Die Karte zieht bis 20% über Specs auf dem PEG, Spitzen bis 200 Watt. Das sollte so eigentlich nicht mal verkauft werden.


könnte noch einem Problem werden?


Ok sehe gerade

http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php


oh no :-(

Distroia
2016-06-29, 15:36:10
?
Laut CB ist die Karte unter 1080p rund 5% schneller als eine 970, wer mit max. PT/TT leben kann kommt sogar auf 9% im Schnitt.


Sind Stock vs. Stock immerhin 19%, finde ich jetzt nicht unbedingt wenig.

Laut Anandtech sind sie ziemlich genau gleichschnell bei den avg. fps, wobei die Frametimings dafür sorgen, dass sie effektiv sogar schlechter abschneidet. Gegen neuere Karten von NVidia sieht es dann richtig düster aus, im alten Prozess wohlgemerkt!

Ich will mich auch nicht um ein paar Prozent streiten. Lass sie von mir aus ein paar Prozent schneller sein, dann kann sie gerade mal gleichziehen mit den Tis, was die Effizienz angeht. Und das ist 14 nm gegen 28 nm! Selbst von einem einfachen Shrink hätte ich mehr erwartet. Was zur Hölle ist da schiefgelaufen?

USS-VOYAGER
2016-06-29, 15:37:02
öhm dann hat sich die 480 doch erstmal erledigt lohnt einfach nicht zu wechseln. Und für die Leistung finde ich sie auch zu teuer. Wenn die 8gb Version bei 200€ angekommen ist hole ich mir vielleicht zwei davon.

Sunrise
2016-06-29, 15:37:54
CB schreibt das es ein Treiberfehler ist, daher angeblich sollen es nur 11W sein.
Ok, gut zu wissen, das macht die Sache dann doch wieder deutlich besser.

Botcruscher
2016-06-29, 15:39:15
Was soll das Genörgel schon wieder. Leistung zwischen 970 und 980 war jenseits einiger Hype-Trolle absolut klar.

Warum NV irgendwelche Preise der 1070 angepaßt haben soll ist auch schleierhaft. Da kommt die 1060. Das die Karte ein anderes Marktsegment anpeilt wurde schon vor über einem Jahr gepredigt. Alles andere ist Realitätsverweigerung. Einzig der Kühler ist mal wieder richtig beschissen und die 2€ mehr hätten ein deutlich besseres Produkt gemacht. Damit tut sich AMD keinen gefallen.

30@Frames
2016-06-29, 15:39:22
Also die Leistungsaufnahme im Idle sollte eigentlich vielen zu denken geben.

Laut HT4U (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index15.php) ist diese schlechter als bei einer 390X, obwohl wir hier von theoretisch sehr stromsparenden 14nm ggü. 28nm ausgehen müssten. Es sind 17,11W bei der RX480 und "nur" 14,41W bei der 390X Tri-X.

Mich würde mal interessieren, wie sich das erklären lässt. Benötigt AMD da soviel Spannung auf de Chips (selbst bei Idle-Taktraten), dass man hier sogar schlechter als eine 390X ist?

Das ist für mich eine maßlose Enttäuschung, muss ich leider so sagen. Also irgendwas stimmt hier nicht.

Entweder AMD hat hier volle Lotte auf Dichte und Leistung optimiert und komplett das Stromsparen vernachlässigt (das verschlechtert die Verbesserungen bei Polaris unnötig) oder aber der GloFo-Prozess hat so seine Eigenheiten, wie schon beim Apple A9 zu sehen.

17Watt:eek::eek: DREI WATT MEHR:eek: Weltuntergang. :eek:Das macht im Jahr 5 Euro mehr
Ich lach mich jedesmal Schrott;D Manche Menschen kann man nicht mehr retten, sorry. Oder auch lustig, GPU A : hat 3FPS mehr und ist 0.2Snne lauter.als GPU B: aber dafür 2EUROundfunfzig billiger... die ganze Welt spiel verrückt. Get a lIFE, echt jungs

hesTeR-
2016-06-29, 15:40:16
219 für ne 4gb

leistung knapp unter der
980 (billigster preis 349)
390x (billigster preis 329)

das ist wie ich finde eins ehr gutes P/L verhälnis für eine Full HD karte in abstrichen wqhd...

Linmoum
2016-06-29, 15:40:39
AMD hat am Grundaufbau der GPU jedoch nichts geändert. So verfügt die Radeon RX 480 mit 36 Compute Units laut AMD über den Maximalausbau von Polaris 10 – auch wenn ComputerBase von externen Quellen erfahren hat, dass eigentlich 40 CUs vorhanden sind.

Der_Korken
2016-06-29, 15:40:50
Ich schließe mich dem Tenor an: Absolute Enttäuschung aus technischer Sicht. Klar werden jetzt wieder einige kommen, dass die Karte aber so und so viel billiger ist als die alten Karten, aber das ist genau das Problem: Sie muss über den Preis verkauft werden, weil sie sonst wenig Argumente bietet.

Im Grunde ist der Sprung von Tonga/Hawaii auf Polaris nicht größer als der von Maxwell auf Pascal und insgesamt etwa so groß, wie man ihn von einem reinen Shrink erwarten würde. Das heißt, dass der Effizient-Vorsprung von Nvidia genauso groß bleibt wie bei Maxwell. Die Versprechungen von 2,5x oder 2,8x fache Effizienz gegenüber dem Vorgänger sind somit nichts weiter als heiße Luft. Dabei waren sie alles andere als unrealistisch, denn Nvidia hat beim Übergang von Kepler auf Maxwell auch massiv zugelegt und das ohne neuen Prozess. Bei 110W Verbrauch wäre P10 ganz OK und man hätte sagen können, dass AMD auf Nvidia aufgeholt hätte. Im Vergleich zu meiner 7950 schafft die RX480 nicht mal doppelte Performance bei gleichem Verbrauch und das obwohl erstere bald 4 Jahre alt wird. Immerhin ist sie etwas günstiger, sodass wenigstens bei P/L knapp Faktor 2 herrscht.

Was mich auch stört, sind so Kleinigkeiten wie der hohe Verbrauch beim Multimonitorbetrieb oder bei Videos (bezogen auf den CB-Test). Empfinde ich als absolut unnötig, dass man bei so einer Karte auch bei den B-Noten schlampt.

Schnoesel
2016-06-29, 15:40:54
Leistungsaufnahme @Idle: 17 W (Fail)


Unter Windows benötigt das Testsystem mit der Radeon RX 480 57 Watt. Das ist ein vergleichbarer Wert, den auch AMD-Produkte mit der Tonga-GPU erreichen. Im Vergleich zu Nvidias FinFET-Grafikkarten fällt auf, dass Nvidia den Energiehunger im Desktop-Betrieb deutlich senken konnte. Eigentlich sollte dies auch bei der Radeon RX 480 so sein. Laut Nachfrage bei AMD gibt es aktuell einen Treiberfehler, der die Idle-Leistungsaufnahme von elf Watt auf etwa 17 bis 18 Watt ansteigen lässt. Wenn ein entsprechendes Update erscheint, wird ComputerBase die Messung erneuern.

https://www.computerbase.de/2016-06/radeon-rx-480-test/9/

Ich wäre ja mit irgendwas an Effizienz zwischen Fury und Nvidia-16nm schon zufrieden gewesen, aber DAS?

Diagramm nicht verstanden? Es ist laut diesem zwischen Fury und 16nm

dildo4u
2016-06-29, 15:41:11
219 für ne 4gb

Gibt es Benches der 4GB Version sie hat langsameren Speicher.

MadManniMan
2016-06-29, 15:41:53
Was soll das Genörgel schon wieder. Leistung zwischen 970 und 980 war jenseits einiger Hype-Trolle absolut klar.

Mich enttäuscht die Effizienz massiv. Wir sprechen hier von 28 nm --> 14 nm und die Karte bewegt sich auf demselben Niveau, wi Maxwell/Fury Nano? Seriously?


17Watt:eek::eek: DREI WATT MEHR:eek: Weltuntergang. :eek:Das macht im Jahr 5 Euro mehr
Ich lach mich jedesmal Schrott;D Manche Menschen kann man nicht mehr retten, sorry. Oder auch lustig, GPU 1: hat 3FPS mehr und ist 0.2Snne lauter.. die ganze Welt spiel verrückt. Get a lIFE, echt jungs

Du verstehst schon, dass es niemandem um die absoluten Werte geht? Dass es darum geht, dass ein solches neues Produkt aus Prinzip zumindest gleich gut, auf keinen Fall aber schlechter sein sollte?

F5.Nuh
2016-06-29, 15:42:02
Mal die aktuellen Treiber abwarten. Aber schade um die 480

Mal sehen was die 490 schafft

Lowkey
2016-06-29, 15:42:43
Gibt es Benches der 4GB Version sie hat langsameren Speicher.

Auf anandtech sieht mir der Speicher gleich aus bzw. ist vermutlich ein Druckfehler.

soLofox
2016-06-29, 15:43:51
Was soll das Genörgel schon wieder. Leistung zwischen 970 und 980 war jenseits einiger Hype-Trolle absolut klar.

der hype train war zu schnell :usad:

bin auch ein bisschen enttäuscht, aber der preis wird sich mit sicherheit bei 250EUR einpendeln, da gibt es dann absolut nichts negatives zu sagen. die RX 480 ist mit sicherheit keine schlechte karte und AMD wird noch einiges am treiber optimieren.


ich bleibe bei meiner 290X, die ich seit oktober 2013 habe und die durch immer bessere treiber bis heute sehr gut läuft.

ich weiss nicht wann ich das letzte mal so lange eine grafikkarte im rechner hatte und mit der leistung zufrieden war.


mit custom lösungen wird die RX 480 bestimmt gut gehen!

dildo4u
2016-06-29, 15:43:58
Auf anandtech sieht mir der Speicher gleich aus bzw. ist vermutlich ein Druckfehler.

DF sagt auch das sie langsameren Speicher hat.

https://youtu.be/YTku-GqDSWg?t=1m23s

M.(to_the)K.
2016-06-29, 15:45:41
"AMD hat am Grundaufbau der GPU jedoch nichts geändert. So verfügt die Radeon RX 480 mit 36 Compute Units laut AMD über den Maximalausbau von Polaris 10 – auch wenn ComputerBase von externen Quellen erfahren hat, dass eigentlich 40 CUs vorhanden sind. "

Könnt ihr das bestätigen? Warum das? Ich denke die rx 480 ist der VOLLAUSBAU! O.o

ECC
2016-06-29, 15:45:56
Vor 2 Jahren hätte ich gesagt "geiles Ding" :biggrin:

Dural
2016-06-29, 15:46:40
Kann natürlich sein das der 8GHz Speicher deutlich am TDP nagt, selbst bei NV kann man das zb. bei Maxwell beobachten.

Der_Korken
2016-06-29, 15:46:48
Schau dir mal die Chipfläche an und dann wird dir vielleicht klar, warum Polaris nicht so schnell sein kann wie eine 1070. Polaris wird mit GP106 konkurrieren.[/url]

Der Vergleich hinkt aber, da die 1070 25%(!) ihrer Einheiten deaktiviert hat. Wenn, dann muss man mit der 1080 vergleichen, die 35% mehr Fläche über 70% schneller ist. Eine 1070 als nativer Chip wäre deutlich kleiner als 314mm².

Schlammsau
2016-06-29, 15:48:13
Gibt es einen expliziten Test der 4GB Version, mit Stromverbrauch?

So langsam Frage ich mich wer diese Gerüchte von dem extrem niedrigen Stromverbrauch in die Welt gesetzt hat.

M4xw0lf
2016-06-29, 15:48:19
Kein Mojo.

Sven77
2016-06-29, 15:48:21
Die Karte zieht bis 20% über Specs auf dem PEG, Spitzen bis 200 Watt. Das sollte so eigentlich nicht mal verkauft werden.

:eek:

Blediator16
2016-06-29, 15:48:52
der hype train war zu schnell :usad:

bin auch ein bisschen enttäuscht, aber der preis wird sich mit sicherheit bei 250EUR einpendeln, da gibt es dann absolut nichts negatives zu sagen. die RX 480 ist mit sicherheit keine schlechte karte und AMD wird noch einiges am treiber optimieren.


ich bleibe bei meiner 290X, die ich seit oktober 2013 habe und die durch immer bessere treiber bis heute sehr gut läuft.

ich weiss nicht wann ich das letzte mal so lange eine grafikkarte im rechner hatte und mit der leistung zufrieden war.


mit custom lösungen wird die RX 480 bestimmt gut gehen!

Pass auf das Problem bei der Sache ist, dass das AMD ist von denen wir hier sprechen. AMD kann sich ein OK nicht erlauben. 250€ sind nicht OK. 200€ sind ok für die 8gb.

Das Problem weiterhin ist, dass AMD technologisch einfach total zurückgeblieben scheint. Wie sollen sie jemals wiederkommen? Die Karten wurden "scheinbar" neu gemischt und was sehen wir? Kein Fortschritt...wie soll Zen dann bloß aussehen? Auch OK? Der Kühler ist auch nur OK ::rolleyes: Genau das braucht AMD Produkte, die OK sind :)´

Den sogenannten "TAM" werden sie mit den Karten sicherlich nicht erhöhen maximal in deren Träumen. Hätten weniger reden sollen und mehr an ihren Produkten arbeiten.

AMD hat das Problem, dass die Marke AMD sowohl Radeon einfach nur zum Spott geeignet sind. Die werden nach dem Launch nicht mehr ernst genommen als vorher.

d2kx
2016-06-29, 15:48:55
Bitte bei allen Reviews auf die Treiber achten.

Ein neuer Treiber kurz vor dem Start behebt Bandbreitenlimit

AMD hatte ursprünglich den Crimson 16.6.2 zum Testen zur Verfügung gestellt. Wie ComputerBase jedoch an diesem Montag erfahren hat, hat dieser mit einem Bug zu kämpfen, der die PCIe-Bandbreite limitiert. AMD hat ComputerBase daraufhin den Crimson 16.20.1035.1001-RC1 zur Verfügung gestellt, der das Problem behebt. Alle Werte wurden daraufhin noch einmal erhoben, denn je nach Spiel steigt die Performance durch den neuen Treiber um bis zu fünf Prozent an. Im Durchschnitt ist die Radeon RX 480 etwa 1,5 Prozent schneller.

Dorn
2016-06-29, 15:50:12
Vor 2 Jahren hätte ich gesagt "geiles Ding" :biggrin: Wenn die zusammen mit der 970 raus gekommen wäre. :biggrin:

y33H@
2016-06-29, 15:50:31
Könnt ihr das bestätigen?40 =)

Pixelmonk
2016-06-29, 15:50:35
Die Idle-leistungsaufnahme mit zwei Bildschirmen (81 - 90watt) ist ziemlich hoch, ob das am Treiber liegt?

Ex3cut3r
2016-06-29, 15:50:39
Die Karte zieht bis 20% über Specs auf dem PEG, Spitzen bis 200 Watt. Das sollte so eigentlich nicht mal verkauft werden.

Im Ernstfall schaltet doch das Netzteil komplett ab oder? Das könnte noch interessant werden.

Schnoesel
2016-06-29, 15:51:03
200€ sind ok für die 8gb.
Warum? Weil du das sagts oder du sonst keine AMD kaufst? Solange die Karte im Verkauf ein Erfolg wird (das wird man sehen) ist es AMD glaube ich ziemlich egal was ein Blediator davon hält. Ich denke die Karte wird gut weggehen.

Vom Hypetrain zum Hatetrain ich glaube ich bin zu alt für das Forum. Kindergarten incoming.

Linmoum
2016-06-29, 15:51:08
Pass auf das Problem bei der Sache ist, dass das AMD ist von denen wir hier sprechen. AMD kann sich ein OK nicht erlauben. 250€ sind nicht OK. 200€ sind ok für die 8gb.

Das Problem weiterhin ist, dass AMD technologisch einfach total zurückgeblieben scheint. Wie sollen sie jemals wiederkommen? Die Karten wurden "scheinbar" neu gemischt und was sehen wir? Kein Fortschritt...wie soll Zen dann bloß aussehen? Auch OK? Der Kühler ist auch nur OK ::rolleyes: Genau das braucht AMD Produkte, die OK sind :)´

Den sogenannten "TAM" werden sie mit den Karten sicherlich nicht erhöhen maximal in deren Träumen. Hätten weniger reden sollen und mehr an ihren Produkten arbeiten.

AMD hat das Problem, dass die Marke AMD sowohl Radeon einfach nur zum Spott geeignet sind. Die werden nach dem Launch nicht mehr ernst genommen als vorher.
Am besten gleich die 4GB für 85€ und die 8GB für 120€, oder was? :freak:

Rancor
2016-06-29, 15:51:14
Was wollte ihr eigentlich ? DIe Karte sortiert sich zwischen 970 und 980 ein für 255€. Da ist doch tuddi!

Agent117
2016-06-29, 15:51:28
Na toll, Polaris verhält sich was Perf/W betrifft genauso wie Gcn 1 bis 3 vs. Maxwell.
Gleicht ziemlich genau einem Shrink.
Vmtl. hat denen der GF-Prozess bei den verglichen mit 28nm hohen Taktraten einen Strich durch die Rechnung gemacht. Die Spannungen sind auch wieder sehr hoch.

Mal gucken wie Vega wird. Müsste ja, glaubt man der AMD Roadmap, doppelt so effizient werden.
150-90+40=100%
(Die 90% sind laut AMD der Gewinn ggü. der 290, siehe PCGH Test.)

Sunrise
2016-06-29, 15:52:37
40 =)
Wie jetzt, offiziell?

Troyan
2016-06-29, 15:53:35
BTW:
Hat AMD wirklich den Stromverbrauch des Chips mit dem Verbrauch einer kompletten Karte verglichen, um auf die absurden 2,8x Verbesserung zu kommen?

Und da haben sich Leute noch über nVidia und dem TitanX-Vergleich aufgeregt. :lol:

30@Frames
2016-06-29, 15:53:49
Also die Leistungsaufnahme im Idle sollte eigentlich vielen zu denken geben.

Laut HT4U (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index15.php) ist diese schlechter als bei einer 390X, obwohl wir hier von theoretisch sehr stromsparenden 14nm ggü. 28nm ausgehen müssten. Es sind 17,11W bei der RX480 und "nur" 14,41W bei der 390X Tri-X.

Mich würde mal interessieren, wie sich das erklären lässt. Benötigt AMD da soviel Spannung auf de Chips (selbst bei Idle-Taktraten), dass man hier sogar schlechter als eine 390X ist?

Das ist für mich eine maßlose Enttäuschung, muss ich leider so sagen. Also irgendwas stimmt hier nicht.

Entweder AMD hat hier volle Lotte auf Dichte und Leistung optimiert und komplett das Stromsparen vernachlässigt (das verschlechtert die Verbesserungen bei Polaris unnötig) oder aber der GloFo-Prozess hat so seine Eigenheiten, wie schon beim Apple A9 zu sehen.
Mich enttäuscht die Effizienz massiv. Wir sprechen hier von 28 nm --> 14 nm und die Karte bewegt sich auf demselben Niveau, wi Maxwell/Fury Nano? Seriously?




Du verstehst schon, dass es niemandem um die absoluten Werte geht? Dass es darum geht, dass ein solches neues Produkt aus Prinzip zumindest gleich gut, auf keinen Fall aber schlechter sein sollte?
Ich verstehs sogar sehr gut aber ihr nicht. Aber steitet euch jetzt ruhig weiter um 2% Watt oder 3% Perfomanceunterschied. Ich habe somit was zu lachen
(und nein, ich bin kein amd fanboy um es klar zustellen)

Botcruscher
2016-06-29, 15:54:03
Der Vergleich hinkt aber, da die 1070 25%(!) ihrer Einheiten deaktiviert hat. Wenn, dann muss man mit der 1080 vergleichen, die 35% mehr Fläche über 70% schneller ist. Eine 1070 als nativer Chip wäre deutlich kleiner als 314mm².

25% Einheiten sind nicht 25% Fläche.

Das AMD bei der Energieeffizienz klotzen muss steht außer Frage.

Kann natürlich sein das der 8GHz Speicher deutlich am TDP nagt, selbst bei NV kann man das zb. bei Maxwell beobachten.
Oder AMD hat die Karte aus psychologischen Gründen auf das Ziel zwischen 970/980 geprügelt. Da helfen nur ausgiebige Tests. Läuft bei THG und Format C schon was?

Noebbie
2016-06-29, 15:54:23
Rund 1h nach Start will ich mal sagen, dass die Karte zunächst für mich okay ist. Mich enttäuscht jedoch die Referenzversion. Die wird nicht gekauft.

Sofern von Sapphire und Co eine Gescheite Kühlervariante verbaut wird und die Stromversorgung gepimpt wird, ist das Teil mein...

Herr Doktor Klöbner
2016-06-29, 15:54:32
Doch recht ernüchternd. Für ein vernünftiges, leises custom Design mit DVI 8GB und 8-pin Anschluss wären für mich 220-230,- € ein Preispunkt wo ich zuschlagen würde, das Referenz Design wäre selbst für 200,- für mich uninteressant. Schade, da hätte ich mehr erhofft, das man selbst für moderate Taktraten die Spezifikationen beim Stromverbrauch nicht einhält ist die größte Enttäuschung, die Leistung passt knapp.

Sunrise
2016-06-29, 15:55:38
Na toll, Polaris verhält sich was Perf/W betrifft genauso wie Gcn 1 bis 3 vs. Maxwell.
Gleicht ziemlich genau einem Shrink.
Vmtl. hat denen der GF-Prozess bei den verglichen mit 28nm hohen Taktraten einen Strich durch die Rechnung gemacht. Die Spannungen sind auch wieder sehr hoch.

Mal gucken wie Vega wird. Müsste ja, glaubt man der AMD Roadmap, doppelt so effizient werden.
150-90+40=100%
(Die 90% sind laut AMD der Gewinn ggü. der 290, siehe PCGH Test.)
Was bei Samsung/GloFo scheinbar ein Problem zu sein scheint, ist nicht der Idle-Stromverbrauch (da die Prozesse auf SoCs optimiert sind) bei Taktraten und Spannungen bis zu einem gewissen Schwellwert, wohl aber bei Werten, die dicke GPUs benötigen, damit der Chips korrekt arbeiten kann.

TSMC hat da weit weit mehr Erfahrung bei der Produktion von GPUs und ich denke, das ist hier auch ein Faktor. Und sollte Vega auch GloFo sein, dann wird sich das auch bei Vega zeigen, abzüglich des HBM2-Vorteils und evtl. weiteren Änderungen der Architektur.

Blediator16
2016-06-29, 15:55:47
Warum? Weil du das sagts oder du sonst keine AMD kaufst? Solange die Karte im Verkauf ein Erfolg wird (das wird man sehen) ist es AMD glaube ich ziemlich egal was ein Blediator davon hält. Ich denke die Karte wird gut weggehen.

Vom Hypetrain zum Hatetrain ich glaube ich bin zu alt für das Forum. Kindergarten incoming.

Nö, ich werde sie mir kaufen, wenn sie, in sicherlich nicht all zu langer Zeit, auf 200€ fallen wird, dank Nvidia :P Denn in die 200€ Region gehört der Pitcairn Nachfolger eben :)

Elite_Warrior
2016-06-29, 15:56:33
AMD muss eigentlich nichts anderes tun als einen Start ohne Negativzeilen zu überstehen, damit wäre man um einiges weiter als üblich. Doch hier hat mans wieder mit zwei Sachen vergeigt. Das Referenzdesign sprengt jegliche Spezifaktion an Stromverbindungen und nun kommen nachgelieferte Treiber.

Warten auf Vega...

Bl@de
2016-06-29, 15:56:39
Leistung ist in Ordnung. Habe zwar so 5% mehr erwartet aber passt. Leistungsaufnahme, Lautstärke (dank komischer Lüftersteuerung) und Temperaturen (nach den großen Ankündigungen einer super effizienten Karte) sind ernüchternd. Hinter einer 1070 trotz viel weniger Leistung. Das Ding kommt wohl leider nicht in meinen HTPC. Somit geht die Warterei weiter. Mal schauen was die GTX 1060 bringt :D

sapito
2016-06-29, 15:57:00
ist ein gefährliches FAIL

Gefährliches Platinendesign

Die Leistungsaufnahme der Radeon RX 480 fällt trotz des neuen Fertigungsprozesses höher aus als erwartet. Im Leerlauf zieht die Karte 16 Watt; AMD zufolge sollen zukünftige Treiber die Leistungsaufnahme auf 11 Watt drücken und auch die in unserem Tests nicht funktionierende ZeroCore-Power-Funktion ermöglichen.

In Spielen überschreitet die Radeon RX 480 sogar die mit 150 Watt angegebene Thermal Design Power – und auch die PCIe-Spezifikation. Durchschnittlich haben wir 156 Watt beim Spielen gemessen, im Furmark zieht die Karte bei reduziertem Takt sogar 169 Watt. Äußerst problematisch ist die Tatsache, dass die Radeon RX 480 beim Spielen allein aus dem für höchstens 75 Watt spezifizierten PCIe-Steckplatz des Mainboards bis zu 88 Watt zieht. Dies kann bei manchen Mainboards zu Instabilitäten führen. Da AMD die Karte bereits standardmäßig weit über dem Limit betreibt, können wir von Übertaktungsexperimenten mit dem Referenzdesign, das über nur einen zusätzlichen 6-Pin-Anschluss verfügt, nur abraten. Hier kann man nur darauf hoffen, dass AMDs Partner Boards mit standardkonformem Layout und ausreichender Spannungsversorgung anbieten.


http://www.heise.de/newsticker/meldung/Polaris-ist-da-AMD-Grafikkarte-Radeon-RX-480-mit-hoher-Spieleleistung-und-einem-Makel-3251042.html#mobile_detect_force_desktop

tdon
2016-06-29, 15:58:45
Da hat AMD oder irgendwer den Mund viel zu voll genommen. Ich meine damit in erster Linie den Verbrauch/Effizienz. Die liegt gerade mal auf Maxwell Niveau der letzten Generation in 28nm. Das ist ein richtiger Flop. Dazu kommt die Sprengung der PCIe Spezifikation um mehrere Watt. Leistungsmäßig ist die Karte für viele hier sicher auch keine Offenbarung. Ich sehe richtig schwarz für AMD gegen Pascal mit dieser Generation.

MadManniMan
2016-06-29, 15:58:55
Ich verstehs sogar sehr gut aber ihr nicht. Aber steitet euch jetzt ruhig weiter um 2% Watt oder 3% Perfomanceunterschied. Ich habe somit was zu lachen
(und nein, ich bin kein amd fanboy um es klar zustellen)

Was genau verstehst Du, wir aber nicht?

Lowkey
2016-06-29, 16:00:06
Welcher normale Käufer kauft sich nach dem Lesen eine Karte mit Referenzdesign (Platine + Lüfter) für den aktuellen Kurs?

Also heißt es ein paar Wochen warten. Eventuell die 4 Gbyte als Alternative sehen. Eventuell kommt bis dahin der Hotfix für den IDLE. Und eventuell bekommt man die 4 Gbyte Karte auf den Takt der 8 Gbyte Variante oder kann sogar noch irgendwas freischalten (nein, nicht die fehlenden 4 Gbyte =) )

Die Karte an sich ist nicht schlecht. Die Technik paßt. Preis geht nicht ganz in Ordnung (20 Euro zuviel). Kein Spielebundle... für sich ist die Karte gut, aber im Vergleich zu Nvidia nichts besonderes. Der Maßstab war Maxwell.

AMD ist bei den Verkaufspreisen der Nano und Fury recht stur. Vermutlich wird die 480 auch nicht im Preis angepaßt.

Sunrise
2016-06-29, 16:00:26
Ich verstehs sogar sehr gut aber ihr nicht. Aber steitet euch jetzt ruhig weiter um 2% Watt oder 3% Perfomanceunterschied. Ich habe somit was zu lachen
(und nein, ich bin kein amd fanboy um es klar zustellen)
Wenn du es verstehen würdest, würdest du auch bemerken, dass der Idle-Verbrauch den Grundverbrauch mit möglichst niedrigster Frequenz und Spannung wiedergibt und der darf niemals höher sein als bei einer doppelt so großen GPU wie Hawaii auf einem älteren Fertigungsprozess. Vor allem dann nicht, weil wir hier über FinFET vs. Planar reden und die Spannungen bei FinFET da normalerweise deutlich geringer sind.

Inzwischen hat sich die Sache aber sowieso erledigt, es ist laut CB ein Treiberfehler und die RX480 ist sparsamer im Idle als die 390X. Also genau wie erwartet.

Hübie
2016-06-29, 16:01:27
Ne oder? Ich hab jetzt mal schnell ein paar Reviews überflogen und sehe da bestenfalls Maxwell-Effizienz*. Hab ich etwas übersehen oder gibt es vielleicht noch Treiberprobleme/Fertigungsschwankungen?

* 35% weniger Leistung bei 33% weniger Verbrauch gegenüber der Gigabyte 980 Ti auf computerbase.de zum Beispiel.

dildo4u
2016-06-29, 16:01:43
Hier ist die 4GB Karte dabei leicht langsamer in Tomb Raider 1080p.


http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview/4

Iruwen
2016-06-29, 16:01:50
Lohnt sich die 4 Gbyte Version?

Würde ich bei dem Preisunterschied keine Sekunde drüber nachdenken.

Raff
2016-06-29, 16:03:09
Radeon RX 480 meets Accelero Mono Plus: Polaris 10 leise auf 1.350/4.500 MHz übertaktet (http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Videos/Overclocking-Test-Aftermarket-1200117/)

MfG,
Raff

deekey777
2016-06-29, 16:04:52
Radeon RX 480 meets Accelero Mono Plus: Polaris 10 leise auf 1.350/4.500 MHz übertaktet (http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Videos/Overclocking-Test-Aftermarket-1200117/)

MfG,
Raff
Verleitung zur Beschädigung des eigenen Mainboards.

(Kann das Video nicht sehen.)

Leonidas
2016-06-29, 16:05:40
Du weißt doch, dass 3DCenter.org meine Artikel meist nicht verlinkt. war mit dem Effizienztest nicht anders :)


Ist doch gar nicht wahr, ich schaue immer extra nach dem deutschen Test, auch wenn ich den englischen per Link irgendwo herbekomme. Ich versuche Tom's Tests auch immer gut einzuarbeiten.

sapito
2016-06-29, 16:05:44
Radeon RX 480 meets Accelero Mono Plus: Polaris 10 leise auf 1.350/4.500 MHz übertaktet (http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Videos/Overclocking-Test-Aftermarket-1200117/)

MfG,
Raff


wie schaut der Stromverbrauch hierbei aus? vor allem auf dem PEG slot?

memakr
2016-06-29, 16:05:53
Vermutlich wird die 470er der Sweet-Spot, den eigentlich die 480er darstellen sollte. Dann hat man auf Teufel komm raus versucht, die 970er zu übertrumpfen. Mit den besagten Nachteilen!

Nightspider
2016-06-29, 16:06:37
Wieder ein tolles Testvideo mit Frameverläufen:

YTku-GqDSWg

Datarecovery09
2016-06-29, 16:06:48
Aus technischer Sicht finde ich die Energieeffizienz unter Last ehrlich gesagt ziemlich ernüchternd. Gleicher Verbrauch wie eine GTX1070, dabei aber "nur" so schnell wie eine R9 390?

Aber wenigstens sind sie wohl einige der fieseren Flaschenhälse losgeworden. Das lässt hoffen.

kuj0n
2016-06-29, 16:07:08
Schade. Warten auf die Customs. Leistung ist ok, aber der Lüfter und vor allem der hohe Verbrauch geht gar nicht. Das klang in den Ankündigungen viel besser.

=Floi=
2016-06-29, 16:09:36
Ja das P/L ist dort wesentlich besser.

wie kommst du darauf?
die 4gb version kannst du in einem jahr wegwerfen...

Psychopat
2016-06-29, 16:10:32
Die 480 wurde angekündigt als die AMD Version der 970. Und genau das ist sie auch, jedoch ohne den Speicherkrüppel. Die Strom Problematik werden die Customs regeln.

Preislich nimmt AMD genau das was sie verlangen können. Minimal besser als alle anderen Karten im gleichen Performancefeld. Billiger wird die Karte erst wenn der nVidia Konter da ist.

Bisher war die 970 die interessanteste Karte am Markt wegen Preis + Preisleistung. Die neue Empfehlung lautet jetzt 480, je nach Bedarf oder Geldbeutel mit 4 oder 8 GB.

Mit Polaris 10 wird AMD gut Geld verdienen, in der Hinsicht also alles richtig gemacht.

Lowkey
2016-06-29, 16:10:42
Schau dir das Video von TR an, wie es schon auf 7 Gbyte Speicher klettert (Full HD Max Q).

Dann reichen die 4 Gbyte schon heute nicht mehr?

StefanV
2016-06-29, 16:11:36
Die Idle-leistungsaufnahme mit zwei Bildschirmen (81 - 90watt) ist ziemlich hoch, ob das am Treiber liegt?
Wen interessiert das?!
ULPS deaktivieren und Schirm 2+3 an die IGP von der CPU anschließen, wo ist das Problem?!

Verstehe nicht, dass wegen dem noch so ein Aufstand gemacht wird, obwohl das völliger Bullshit ist...

Lowkey
2016-06-29, 16:11:46
Die 480 wurde angekündigt als die AMD Version der 970. Und genau das ist sie auch, jedoch ohne den Speicherkrüppel. Die Strom Problematik werden die Customs regeln.

Preislich nimmt AMD genau das was sie verlangen können. Minimal besser als alle anderen Karten im gleichen Performancefeld. Billiger wird die Karte erst wenn der nVidia Konter da ist.

Bisher war die 970 die interessanteste Karte am Markt wegen Preis + Preisleistung. Die neue Empfehlung lautet jetzt 480, je nach Bedarf oder Geldbeutel mit 4 oder 8 GB.

Mit Polaris 10 wird AMD gut Geld verdienen, in der Hinsicht also alles richtig gemacht.

Stimmt, aber die Referenz sollte man meiden. Und dann steigt der Preis mit einem potenten, leisen Kühlsystem und dann hast du eine 970 von AMD mit mehr Speicher zum selben Preis.

Linmoum
2016-06-29, 16:12:18
http://rog.asus.com/media/1467228455226.jpg
http://rog.asus.com/23792016/gaming-graphics-cards-2/asus-republic-of-gamers-introduces-strix-rx-480-graphics-card/

Nightspider
2016-06-29, 16:12:58
Ne oder? Ich hab jetzt mal schnell ein paar Reviews überflogen und sehe da bestenfalls Maxwell-Effizienz*. Hab ich etwas übersehen oder gibt es vielleicht noch Treiberprobleme/Fertigungsschwankungen?

* 35% weniger Leistung bei 33% weniger Verbrauch gegenüber der Gigabyte 980 Ti auf computerbase.de zum Beispiel.
Jepp die 480 hat die gleiche Effizienz wie die 980ti.

Das gute ist aber das Vega eine nochmals bessere Effizienz haben wird. Zusammen mit HBM2 wird Vega den Abstand weiter verringern.

Frosty
2016-06-29, 16:14:28
@ Raff:

wann kommen die custom designs der rx480 von msi z.b. oder asus (hoffentlich mit 8-pin pci-e stecker)?
in dem referenzdesign ist die rx480 nicht nur uninteressant, sondern wohl auch potenziell gefährlich für das mainboard:(

Flusher
2016-06-29, 16:14:37
Bitte bei allen Reviews auf die Treiber achten.

Scheint kein Problem zu sein für die Performance

Über diesen Fehler sind wir nicht selbst gestolpert, sondern wurde aufmerksam durch einen Hinweis der Kollegen der PCGames Hardware. So zeigten die theoretischen Messungen des Durchsatzes durch den PCI-Express-Sockel lediglich 8 GB/s, statt der möglichen 14 GB/s. Allerdings konnte man dann auch gleich wieder Entwarnung geben, denn ein von AMD nachgelieferter Treiber beseitigte das Problem und zeigte in der Praxis keinerlei Auswirkungen auf die Performance unter Spielen.


http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index10.php

MadManniMan
2016-06-29, 16:15:01
Ne oder? Ich hab jetzt mal schnell ein paar Reviews überflogen und sehe da bestenfalls Maxwell-Effizienz*. Hab ich etwas übersehen oder gibt es vielleicht noch Treiberprobleme/Fertigungsschwankungen?

* 35% weniger Leistung bei 33% weniger Verbrauch gegenüber der Gigabyte 980 Ti auf computerbase.de zum Beispiel.

Techpowerup ist für mich immer erste Anlaufstelle nach Neu-Launches - auch wenn ich nicht weiß, wie sauber sie messen: die Tendenz sollte stimmen.

( http://www.techpowerup.com/reviews/AMD/RX_480/25.html )

https://abload.de/img/rx-480-eff-techpoweru8gjwb.png

deekey777
2016-06-29, 16:16:11
Wen interessiert das?!
ULPS deaktivieren und Schirm 2+3 an die IGP von der CPU anschließen, wo ist das Problem?!

Verstehe nicht, dass wegen dem noch so ein Aufstand gemacht wird, obwohl das völliger Bullshit ist...
Und wenn die CPU gar keine IGP hat? Oder man auf allen drei Bildschirmen spielen will?

darkcrawler
2016-06-29, 16:16:44
http://geizhals.de/powercolor-radeon-rx-480-axrx-480-4gbd5-m3dh-a1467033.html?hloc=de

219€ sofort lieferbar zu release, und auf 390 niveau gut gemacht amd
neuer PL könig ahoi

wo sind nur all die sülzköppe hin ;)

dildo4u
2016-06-29, 16:18:58
http://geizhals.de/powercolor-radeon-rx-480-axrx-480-4gbd5-m3dh-a1467033.html?hloc=de

219€ sofort lieferbar zu release, und auf 390 niveau gut gemacht amd
neuer PL könig ahoi

wo sind nur all die sülzköppe hin ;)
Die 390 hat doch 8GB was für ein Unsinnger Vergleich.

Unicous
2016-06-29, 16:19:34
Wen interessiert das?!
ULPS deaktivieren und Schirm 2+3 an die IGP von der CPU anschließen, wo ist das Problem?!

Verstehe nicht, dass wegen dem noch so ein Aufstand gemacht wird, obwohl das völliger Bullshit ist...

Das ewige Schöngerede/Kleingerede eines anhaltenden Problems hilft niemandem. Die Leistungsaufnahme bei Multi-Monitor und Multimedia ist schlicht zu hoch. Unnötigerweise.

Das als völligen Bullshit abzustempeln ist... völliger Bullshit.:rolleyes:

HOT
2016-06-29, 16:19:58
Ein unfassbar verkackter Start, alter Schwede. Da denkt man, schlimmer gehts nicht und dann kommt sowas :freak: - außer Spezifikation eine desatströse Powereffizienz aufweisen und als i-Tüpfelchen noch kaputte Treiber mitliefern, die das Teil schön einbremsen. Das war auf jeden Fall die Krönung der Fehlstarts bisher :D.
Abhaken und auf Custom-Designs warten. Ich wette, die Hersteller schaffen das mit 200W TDP ordentliche Designs auf die Beine zu stellen, die die Spec wenigstens nicht reißen. Auch wenn die Energieeffizienz nicht erreicht wird, dürfte das dann dennoch, zusammen mit dem Crimson-Nachfolgetreiber, ein ganz gutes Produkt sein.

Menace
2016-06-29, 16:20:11
Wen interessiert das?!
ULPS deaktivieren und Schirm 2+3 an die IGP von der CPU anschließen, wo ist das Problem?!

Verstehe nicht, dass wegen dem noch so ein Aufstand gemacht wird, obwohl das völliger Bullshit ist...

Was für eine Quatschaussage. Soll ich mir jetzt dafür ein neuen CPU kaufen, da ich nur dezidierte Grafikkarte habe. :freak:

Finde jetzt aber die Multimonitor-Verbrauch laut ht4u gar nicht so schlimm.

http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index16.php

Auf den ersten Blick passt es, wenn die die zu hohe Leistungsabnahme über den Steckplatz wäre. Was sagt den AMD dazu?

Ex3cut3r
2016-06-29, 16:20:15
Naja, wer die 4GB Version nur für FHD und 1 Jahr benutzen will, kann 4GB nehmen, alle anderen sollten zur 8GB Version greifen.

dildo4u
2016-06-29, 16:22:43
Der Chip ist auch nix für Notebooks das ist imo noch bitterer dort hat AMD am meisten Aufzuholen.

https://abload.de/img/480_wattrhug3.png

Menace
2016-06-29, 16:23:31
Der Chip ist auch nix für Notebooks das ist imo noch bittere dort hat AMD am meisten Aufzuholen.

Ja, ne klar. :freak:

ChaosTM
2016-06-29, 16:23:56
Der Dual Monitor Verbrauch ist immer noch zu hoch. Das war u.a. ein Grund für mich zu den (ungeliebten) Grünen zu wechseln. Ansonsten wurde schon alles gesagt..

Schade..

=Floi=
2016-06-29, 16:24:20
http://geizhals.de/powercolor-radeon-rx-480-axrx-480-4gbd5-m3dh-a1467033.html?hloc=de

219€ sofort lieferbar zu release, und auf 390 niveau gut gemacht amd
neuer PL könig ahoi

wo sind nur all die sülzköppe hin ;)

4GB!
was postest du so einen scheiß? groß reden und dann nichts dahinter, weil die 4GB version nichts bringt. wer heute neu kauft, der soll gleich mehr vram nehmen.

Tigershark
2016-06-29, 16:26:46
Leider imho ein ziemlicher Fail von AMD.
Da bin ich noch froher, vor fast 2 Wochen die Gamerock 1070 gekauft zu haben - auch in Hinsicht auf Performance/Watt.

Nicht falsch verstehen - P/L ist sicher nicht mal schlecht bei der 480, und wenn man von den überzogenen Erwartungen einiger User mal absieht, dann liegt sie wohl auch ziemlich genau da, wo AMD sie haben wollte.

ABER - und hier DANK an PCGH, THG und Konsorten, dass ihr mittlerweile auch verstärkt auf Leistungsaufnahme, Boosttakt vs. REALEM Takt uvm achtet - meiner Meinung nach hat AMD wohl den Fertigungsprozess nicht so gut im Griff, wie sie es gerne hätten bzw wie es geplant war. Denn man muss viel zu viel Spannung (1.15V!) durch die feinen Strukturen jagen, um auf die Taktraten zu kommen, die man braucht. Dadurch verletzt man Specs und failed sogar bei der TDP heftig (immerhin 10% ÜBER der TDP im SCHNITT! - und das ist ja eigentlich nur ein theoretisches Maximum). Vom evtl. Schaden bei Kunden mal ganz abgesehen. Ich sehe schon die Threads kommen "wenn ich ein Spiel starte, kann mein PC Radiosender wiedergeben" etc etc...

Also - Performance und P/L TOP - aber der Rest ist imho unreif und sollte so nicht verkauft werden.

scully1234
2016-06-29, 16:27:27
AMD Radeon RX 480 im Test: Kann Polaris gegen Pascal kontern? (http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140.html)

Sehe ich das richtig das du implizierst, das mit OC 100Watt über den Pcie Slot geschossen werden,mit Spikes in den 200er Bereich?

Falls dem so ist sollte Raff das mit der OC Empfehlung vielleicht noch mal überdenken

Mortalvision
2016-06-29, 16:27:35
Ähm, najaaaaaa! Gegenüber einer 390X ist die Karte ja doppelt so effizient. Aber das konnte die 970 auch schon. Trotzdem ist darin ein schöner Chip. Sobald eine Sapphire custom Karte mit doppeltem 92mm Axiallüfter, Heatpipe Kühler und 8-pol oder doppelt 6-pol Stecker verfügbar ist, kaufe ich sie mir auch 100%, dann darf sie auch gerne 270€ kosten!

Das heißt aber auch, dass Vega 10/11 wieder so Monsterkarten wie die 390X werden, bei doppelten/dreifachen Shadern wie P10...

Unicous
2016-06-29, 16:28:08
Zu einer etwas nüchteren Betrachtung ist hier wohl niemand in der Lage oder? Zwischen FAIL und WIN gibt es wohl keine Grauzonen mehr.


Schlimmer als BLÖD und Co. hier und in den anderen Threads.

Menace
2016-06-29, 16:28:21
Leider imho ein ziemlicher Fail von AMD.
Da bin ich noch froher, vor fast 2 Wochen die Gamerock 1070 gekauft zu haben - auch in Hinsicht auf Performance/Watt.


Fail, wirklich?

woodsdog
2016-06-29, 16:29:48
ich hatte um 15.00 Uhr direkt eine bei MF eingetütet... Leistung / Lautstärke passen mir super, Leistungsaufnahme ist zwar "meh" aber auch noch OK.... das AMD hier aber leider fragwürdige Dinge auf dem PEG veranstaltet, schreckt mich schlicht ab. Damit ist dann auch jegliches OC schlicht nicht machbar. Ich habe keine Lust in 6 Monaten ggf. ein kaputtes Board zu haben.
Habe jetzt gerade wieder storniert. Ich bin maßlos über diesen Schwachsinn enttäuscht...

radical83
2016-06-29, 16:30:06
Also bezüglich Leistung und Verbrauch kann man natürlich noch mit dem Preis argumentieren.
Allerdings PEG Spezifikationen nicht einhalten und dann mal wieder den Treiber verkacken, das ist mal wieder typisch AMD. Testen die ihre Hardware eigentlich nie vor dem Versenden?

Loeschzwerg
2016-06-29, 16:31:27
DAS ist Autsch:
http://media.bestofmicro.com/A/N/591359/gallery/18-Gaming-Bars_w_600.png

Sehr unschön :( Das will ich meinem kleinen VIA Board nicht antun. Schade.

Letztendlich stimmt bei der Karte das P/L, sonst begeistert mich die Karte leider wenig. Abseits der PEG Thematik ist die Karte ganz OK für die Massen, denke ich.

Der_Korken
2016-06-29, 16:35:04
Zu einer etwas nüchteren Betrachtung ist hier wohl niemand in der Lage oder? Zwischen FAIL und WIN gibt es wohl keine Grauzonen mehr.


Schlimmer als BLÖD und Co. hier und in den anderen Threads.

Ich denke dass AMD zu viel versprochen hat. Vom Preis her ist die Karte OK, allerdings in einem Markt, wo seit 2 Jahren die Preise nicht nehr gesunken sind. Nvidia ist natürlich nicht besser mit ihren Apothekenpreisen.

Technisch ist die Karte aber schon enttäuschend, weil man trotz 14nm gerade mal das Niveau von Maxwell und der eigenen Nano erreicht, was fps/W angeht. Auch bei fps/mm^2 ist man deutlich hinter Pascal. Das ist für den Kunden zwar erstmal egal, zeigt aber dass Nvidias Architektur besser ist.

Mortalvision
2016-06-29, 16:35:41
Ja, gut dass Peter von HT4U so genau gemessen hat! Vielleicht hat ja wer bei AMD gedacht, dass die Karte für nen paar Reviews gute Leistung zeigt, und anschließend kommt zwei Tage später ein Treiber, der die Leistungsaufnahme über PEG wieder auf die Spezifikation setzt (wenn das über den Treiber so gemacht werden kann...)

Digidi
2016-06-29, 16:35:45
Zu einer etwas nüchteren Betrachtung ist hier wohl niemand in der Lage oder? Zwischen FAIL und WIN gibt es wohl keine Grauzonen mehr.


Schlimmer als BLÖD und Co. hier und in den anderen Threads.

Ok ich versuch es mal :D

Die Nachteile der Karte sind wirklich das man etwas über dem Powerlimit der Spezifikation liegt. Was ich aber nicht als schlimm erachtet. Meistens sind solche Anschlüsse eh für das doppelte ausgelegt als das was sie wirklich können. Auch die Lautstärke der Karte obwohl sie gering ist, bewegt sich dann doch schon eher im oberen Feld. Da hätte ich mir mehr erwünscht.
Was mich auch etwas stutzig macht, das man bei so einem guten Chip nicht gleich die Custom Modelle rausgebracht hat.

Neutral: Von der Leistung (in DX11) ist sie eigentlich da wo ich sie erwartet habe. Irgendwo zwischen GTX 970 und GTX 980 bzw. zwischen R9 390 und R9 390x. Also nichts spektakuläres.

Positive: Die DX12 Leistung für den kleinen Chip. Da Topt man die GTX 980 und zeigt eigentlich den wahren grund warum man besser zur rx 480 als zur 980 greifen sollte. Die meisten neue Spiele werden mit DX12 kommen, schon alleine deshalb weil Windows 10 mitlerweile eine sehr hohe Verbreitung hat. Das sollte mal den Leuten bei Nvidia zum nachdenken bringen. Was mir auch noch gefällt ist die gestiegene Tesellation Leistung die jetzt grob mit Nvidia mithalten kann.

Linmoum
2016-06-29, 16:36:17
ich hatte um 15.00 Uhr direkt eine bei MF eingetütet... Leistung / Lautstärke passen mir super, Leistungsaufnahme ist zwar "meh" aber auch noch OK.... das AMD hier aber leider fragwürdige Dinge auf dem PEG veranstaltet, schreckt mich schlicht ab. Damit ist dann auch jegliches OC schlicht nicht machbar. Ich habe keine Lust in 6 Monaten ggf. ein kaputtes Board zu haben.
Habe jetzt gerade wieder storniert. Ich bin maßlos über diesen Schwachsinn enttäuscht...
Wer richtig OC betreiben will holt sich sowieso 'ne Custom und das unabhängig von AMD oder Nvidia.

Argo Zero
2016-06-29, 16:36:20
Für 250 Öcken mit dickem leisen Kühler wäre ich dabei, kommend von einer lauten R9 280X.

Hakim
2016-06-29, 16:36:39
weiß nicht ob das wirklich so gut ist die Karte so anzubieten, viele die für 200-230€ eine Graka kaufen haben bestimmt noname Netzteile und low Mobos, obs da gut ist eine Karte zu verbauen die über den Spezifikationen läuft?

Ex3cut3r
2016-06-29, 16:37:44
KA, Noname Netzteile schalten bestimmt auch im ernstfall dann nicht ab, heißt Mobo geht wohl kaputt. In den USA kann AMD schön dann mit klagen rechnen.

Schnoesel
2016-06-29, 16:39:11
Ich denke dass AMD zu viel versprochen hat.

Was genau haben sie versprochen, dass nicht gehalten wurde? Offizelle Aussagen bitte keine Käseleaks.

Iruwen
2016-06-29, 16:40:01
Neue Spannungsversorgung bei den Partnerdesigns, reparierte Treiber, max. 250€ für die 8GB Version, Takt und Spannung etwas anpassen, dann ist das eine schöne runde Karte. Schade, dass AMD das nicht ab Werk hinbekommen hat - die Reviews stehen jetzt im Netz wie sie halt sind.
Gerade AMD kann sich solche Fehlstarts nun überhaupt gar nicht erlauben.

dildo4u
2016-06-29, 16:40:32
Was genau haben sie versprochen, dass nicht gehalten wurde? Offizelle Aussagen bitte keine Käseleaks.

Powerdraw sollte bei 150 liegen.

http://abload.de/img/powera6j8n.png

http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

Karte zieht zu viel über's Mainboard.

http://media.bestofmicro.com/A/N/591359/gallery/18-Gaming-Bars_w_600.png

Herr Doktor Klöbner
2016-06-29, 16:40:37
Ist das wirklich so, das eine Karte die über den Spezifikationen läuft den Strom über den PCI Express zieht und nicht über den 6-pin Stecker ? Letzteres wäre vermutlich unproblematisch.

OK, lesen bildet, ist so. Was für ein Fail, ich denke mein 50,- € H61 Board fände das wohl nicht sehr witzig.

HOT
2016-06-29, 16:40:45
Ja, gut dass Peter von HT4U so genau gemessen hat! Vielleicht hat ja wer bei AMD gedacht, dass die Karte für nen paar Reviews gute Leistung zeigt, und anschließend kommt zwei Tage später ein Treiber, der die Leistungsaufnahme über PEG wieder auf die Spezifikation setzt (wenn das über den Treiber so gemacht werden kann...)
Exakt so wird das laufen. Aber Referenzdesign übertakten ist definitiv ne blöde Idee.

Digidi
2016-06-29, 16:42:07
KA, Noname Netzteile schalten bestimmt auch im ernstfall dann nicht ab, heißt Mobo geht wohl kaputt. In den USA kann AMD schön dann mit klagen rechnen.

Davon geht kein Mobo kapput. Das schreibt auch Tomshardware so. Wieder reine Panikmache. Es beinflusst lediglich den Sound auf billigen Mainboards.

http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-9.html

Aber von Dir ist man eine Sachliche Diskussion eh nicht gewohnt!

j4l
2016-06-29, 16:42:24
4GB!
was postest du so einen scheiß? groß reden und dann nichts dahinter, weil die 4GB version nichts bringt. wer heute neu kauft, der soll gleich mehr vram nehmen.


Ich verstehs nicht. Vor 2 Wochen lagen die 4GB Versionen der 380x und 960 noch bei dem Preis und damit kann man dann schon bald nicht mehr zocken?

Auf welchem Mond lebst du? Da sind noch genug Leute mit 1GB Karten unterwegs oder ich mit einer 270X die 2GB VRam hat. Da sind 4GB purer Luxus und selbst, wenn es für die Super Chi chi Texturen nicht reicht, wayne.

Also ich sehe da ansich auch bei nur 4GB eine sehr gute Karte, wenn das Problem mit der Überschreitung der 150 Watt nicht wäre...

Iruwen
2016-06-29, 16:42:33
Ist das wirklich so, das eine Karte die über den Spezifikationen läuft den Strom über den PCI Express zieht und nicht über den 6-pin Stecker ? Letzteres wäre vermutlich unproblematisch.
Haben doch mindestens drei Reviewer direkt am PEG gemessen.

Sven77
2016-06-29, 16:43:26
Wieder reine Panikmache.

Also Betrieb ausserhalb der Spezifikationen ist neuerdings reine Panikmache?

Rabiata
2016-06-29, 16:43:47
Die Spec-Verletzung bei der Leistunsaufnahme via Mainboard finde ich auch uncool :mad:. Und unnötig, das via Mainboard zu machen:
Wenn es schon sein muß, dann würde ich als Entwickler bei AMD eher den 6Pin PCI-Anschluß noch ein bissl mehr überlasten. Der dürfte das besser aushalten, und falls nicht, ist zumindest das Mainboard nicht in Gefahr.

Aktuell würde ich vielleicht eine RX 470 kaufen, falls die im Limit bleibt (bisher scheinen alle nur die 480er zu testen).

Aber da mein nächster PC erst 2017 kommt, hat es noch Zeit. Mal abwarten ob die Partner da bessere Designs liefern.

Schnoesel
2016-06-29, 16:44:20
Typisch vs maximal. Erkennste selbst oder?

Iruwen
2016-06-29, 16:44:41
Davon geht kein Mobo kapput. Das schreibt auch Tomshardware so. Wieder reine Panikmache. Es beinflusst lediglich den Sound auf billigen Mainboards.

http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-9.html

Aber von Dir ist man eine Sachliche Diskussion eh nicht gewohnt!

Willst du dich darauf verlassen? Wenn sich bei teureren Mobos mit Schutzschaltung der Rechner abschaltet ist das auch nicht unbedingt Sahne.

y33H@
2016-06-29, 16:44:51
Ist so: http://www.golem.de/news/radeon-rx-480-im-test-eine-bessere-grafikkarte-gibt-es-fuer-den-preis-nicht-1606-121715-6.html

http://scr3.golem.de/screenshots/1606/Radeon-RX-480-Test/Test-Radeon-RX-480-34.png

woodsdog
2016-06-29, 16:45:08
Davon geht kein Mobo kapput. Das schreibt auch Tomshardware so. Wieder reine Panikmache. Es beinflusst lediglich den Sound auf billigen Mainboards.

http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-9.html

Aber von Dir ist man eine Sachliche Diskussion eh nicht gewohnt!


ne, Igor schreibt doch das schon bei mildem OC der Peg dauerhaft mit +20% über spec läuft... der Trend geht aber leider seit jahren in genau die andere Richtung... vielleicht kann man ja noch 10cent sparen als MoBo Hersteller wenn man nicht auf dauerhaft 70W auslegt...

scully1234
2016-06-29, 16:45:24
Ist das wirklich so, das eine Karte die über den Spezifikationen läuft den Strom über den PCI Express zieht und nicht über den 6-pin Stecker ? Letzteres wäre vermutlich unproblematisch.

Gibt auch Karten die tasten den Pcie Slot gar nicht an, aber ja die Priorität über den Pin wäre eleganter gewesen als andere Pheripherie noch zu beeinflussen oder schlimmstenfalls zu töten.

dildo4u
2016-06-29, 16:46:16
Ist so: http://www.golem.de/news/radeon-rx-480-im-test-eine-bessere-grafikkarte-gibt-es-fuer-den-preis-nicht-1606-121715-6.html

http://scr3.golem.de/screenshots/1606/Radeon-RX-480-Test/Test-Radeon-RX-480-34.png
Krank fast 1080 Werte.

Loeschzwerg
2016-06-29, 16:46:27
Ist das wirklich so, das eine Karte die über den Spezifikationen läuft den Strom über den PCI Express zieht und nicht über den 6-pin Stecker ? Letzteres wäre vermutlich unproblematisch.

OK, lesen bildet, ist so. Was für ein Fail, ich denke mein 50,- € H61 Board fände das wohl nicht sehr witzig.

Das liegt an der unglücklichen Lastverteilung, wie Igor schön geschrieben hat. Man hätte es auch anders handhaben können.

Wegen mir hätte man lieber den einzelnen 6Pin PCIe total "überfahren", denn hier wäre genügend Luft vorhanden.

Thunder99
2016-06-29, 16:46:32
Solide Karte die vieles richtig macht. Von einer 970 oder R9 290 (und besser) kommend kein Aufrüstgrund. Darunter umso mehr :)

An alle die wegen der Leistungsaufnahme meckern. Das ist AMD mit einem kleineren Team und weniger R&D!. Es wäre zwar traumhaft gewesen gleich auf Pascal Niveau zu kommen aber realistisch betrachtet ist der Sprung dennoch groß und beachtlich zu ihren vorherigen Karten :up:

Bitte mal die Kirche im Dorf lassen ;).

Hohe IDLE Leistungsaufnahme -> Treiber Bug, hohe Leistungsaufnahme bei VP9 -> Treiber Bug. Wird also noch gefixed

Korvaun
2016-06-29, 16:46:38
Das erinnert mich frappierend an den verkorksten FuryX-Launch (Pumpen-Fiepen/so gut wie kein OC). AMD sind einfach Amateure was das angeht. Traurig.

Das wirklich positive an der ganzen Sache ist der allgemeine Preisdruck auf die alten Karten unterhalb 1080/1070. Nen gutes Angebot für ne 980Ti oder 980er OC-Modell wäre aktuell sicher auch nicht schlecht. Diese älteren Karten halten ja locker noch 1-2 Jahre performancemäßig mit. Man sollte halt nicht tolle 4k Leistung erwarten ;)

Digidi
2016-06-29, 16:46:56
Also Betrieb ausserhalb der Spezifikationen ist neuerdings reine Panikmache?

Du glaubst nicht wo überall im Leben du dich umhertreibst wo Dinge außerhalb einer Spezifikation betrieben werden :D

So was ist normaler altag. Wenn es rein nach Spezifikationen ginge würde ich jedes mal angst haben wenn ich über eine Brücke fahre :D

Dural
2016-06-29, 16:47:56
Ich amüsiere mich gerade köstlich wie bestimmte User versuchen die Karte schön zureden. :biggrin:

AMD muss wohl langsam aufpassen, den MS,Sony und Apple können sie nicht immer nur mit dem preis überzeugen, auch bei denen ist mal schluss.

Unicous
2016-06-29, 16:48:35
Also Betrieb ausserhalb der Spezifikationen ist neuerdings reine Panikmache?

Selektives Zitieren ist wohl deine Spezialität?:confused:

Tigershark
2016-06-29, 16:48:40
Fail, wirklich?

Und den unmittelbar folgenden Satz, in dem ich das bezogen auf Preis/Leistung relativieren, den quotest Du natürlich nicht :freak: Well played.

Aber es ist doch so - die Leistung stimmt zu dem Preis. Dass hier einige sicher mehr erwartet/erhofft hatten, dafür kann AMD ja wenig bis nichts. Aber für die Verletzung der Specs bzgl. Leistungsaufnahme schon und für die generell enttäuschende Performance/Watt Leistung muss man wohl einen unausgereiften Fertigungsprozess beschuldigen. Ändert aber imho nix daran, dass die Summe aller Faktoren eben NICHT die eierlegende Wollmilchsau darstellt, die hier viele erhofft (und einige geradezu beschworen!) haben.

dildo4u
2016-06-29, 16:49:00
Ich amüsiere mich gerade köstlich wie bestimmte User versuchen die Karte schön zureden. :biggrin:

AMD muss wohl langsam aufpassen, den MS,Sony und Apple können sie nicht immer nur mit dem preis überzeugen, auch bei denen ist mal schluss.
Ebend ich bin auch Sony Fan der Chip scheint für die neue PS4 ne Katastrophe zu werden daher vermutlich die Gerüche um 900mhz Takt.

Digidi
2016-06-29, 16:49:00
@Dural

Bist du dir Sicher das es der Preis ist. Schau dir doch die DX12 Performance an. Kann es sein das in AMD Chip mehr Performance schlummert als in Nvidia und man sich deshalb für AMD entschieden hat? :D

Nvidia hat den Vorteil bei den PCs das sie eine große Marktmacht haben und sie dadurch auch schlechtere Chips produzieren können, sie aber trotz dem immer noch gut dastehen weil halt jeder auf Nvidia Optimiert. Bei den Konsolen sieht es anders aus.

Der Konsolenhersteller will so viel Leistung für so lange wie möglich haben. Optimiert wird sowieso nur auf die 1 Hardware. Also hat man sich für AMD entschieden weil man aus der Hardware einfach viel mehr herausholen kann als bei Nvidia. Die 10-20 Euro mehr Pro Chip die Nvidia kostet hätte Sony oder Mircrosoft nicht so weh getan.

Undertaker
2016-06-29, 16:49:09
Schau dir das Video von TR an, wie es schon auf 7 Gbyte Speicher klettert (Full HD Max Q).

Dann reichen die 4 Gbyte schon heute nicht mehr?

Gibt es auch nur einen Bench, wo die Karte z.B. die Fury Nano schlägt? Nur das mehr als 4 GB belegt sind bedeutet nicht, dass auch soviel gebraucht wird.

ilPatrino
2016-06-29, 16:53:46
preis/leistung ist ok, vor allem wenn man berücksichtigt, daß die preise der konkurrenzkarten durch die 480er massiv gefallen sind. was mir sauer aufstößt, ist der verbrauch bzw. die effizienz. für mich fällt die karte flach, weil ich sie eigentlich kaufen und ende des jahres durch eine vega oder was gleichwertiges ersetzen wollte. die 480er wäre dann in den zweitrechner (spielefähiger htpc) gewandert - das fällt aber bei 160w definitiv aus...

mal sehen, was bei der suche nach dem sweet spot rauskommt...wenn sie sich sinnvoll untertakten läßt, wirds vielleicht doch noch was...

captain_drink
2016-06-29, 16:53:56
In Bezug auf das Verhältnis von Preis/Leistung ist die Karte sehr gut und das momentan attraktivste Angebot auf dem Markt. In dieser Hinsicht wird die 390 (bzw. 970 vor Bekanntwerden der VRAM-Segmentierung) abgelöst. Umgekehrt stellt dies jedoch auch ein Problem dar, da die leistungsmäßige vergleichbaren 290, 390, 290X, 390X, 970 und 980 schon teilweise 2,5 Jahre am Markt sind und dementsprechend verbreitet. Die Marktanteile, die man mit der 480 erobern will, sind zum Gutteil schon an die genannten Karten vergeben. Sollten die Yields wirklich so niedrig sein, wie kolportiert wird, dann wird die Marge bei P10 auch geringer ausfallen, als es eigentlich zu erhoffen und auch nötig gewesen wäre.

Technisch finde ich P10 überwiegend enttäuschend, die Effizienz zieht gerade mal mit GM204 gleich, die eigene TDP wird regelmäßig überschritten und die IPC-Verbesserungen sind recht dürftig; teilweise ist man mal vor und mal hinter Hawaii, im wichtiger werdenden WQHD eher dahinter. Im Unterschied zu Hawaii scheint Async Compute auch weniger wichtig zu sein, die Auslastung der Einheiten ist (ähnlich wie bei Tonga) bereits recht gut. Unschön sind auch die Frametime- und Stuttering-Probleme in einigen Titeln (GTA V z.B.).

Was aber wirklich katastrophal und für mich auch Grund dafür ist, von der Referenzversion dezidiert abzuraten, ist die teils deutliche Verletzung der PEG-Spezifikation. Beim 6pin wäre das noch zu verschmerzen gewesen, beim PEG hingegen ist das (erst recht mit OC) eine potenzielle Gefahr für die verbaute HW. Dass sowas zur Veröffentlichung freigegeben wird, lässt nachgerade staunen.

Digidi
2016-06-29, 16:55:28
@captain_drink

Das stimmt eben nicht. Erst jetzt wird die Preisregion von 200$ Erreicht. Deshalb ist der Markt auch dort noch nicht gesättigt. Viele konnten sich über die 2,5 Jahre eben keine GTX 970/980 leisten weil viel zu teuer.

Linmoum
2016-06-29, 16:56:42
Another oddity – and one that may make enthusiast a bit more cheery – is that AMD only built a single reference design card for this release to cover both the 4GB and 8GB varieties. That means that the cards that go on sale today listed at 4GB models will actually have 8GB of memory on them! With half of the DRAM partially disabled, it seems likely that someone soon will find a way to share a VBIOS to enable the additional VRAM.

http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise

Dorn
2016-06-29, 16:58:06
Selektives Zitieren ist wohl deine Spezialität?:confused: Das sollte sich Sven langsam mal abgewöhnen, kommt zu häufig vor.

Die nächsten News zu der Karten werden dann bestimmt gut ausfallen. Treiber Fix etc...

Loeschzwerg
2016-06-29, 16:58:16
Was aber wirklich katastrophal und für mich auch Grund dafür ist, von der Referenzversion dezidiert abzuraten, ist die teils deutliche Verletzung der PEG-Spezifikation. Beim 6pin wäre das noch zu verschmerzen gewesen, beim PEG hingegen ist das (erst recht mit OC) eine potenzielle Gefahr für die verbaute HW. Dass sowas zur Veröffentlichung freigegeben wird, lässt nachgerade staunen.

Jein. Also ohne OC wird dir bestimmt nichts abrauchen, aber es schlägt sich sicherlich auf den Onboard-Sound nieder.

Megamember
2016-06-29, 16:59:10
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise

Lol, bei AMD kann man am anfang immer alles freischalten, jetzt wohl auch schon den Ram :D

Thunder99
2016-06-29, 17:00:23
Das überfahren der PEG Speks ist aber echt keine schöne Sachen.

Die Verbesserungen von GCN 4th sind aber echt gut. Bessere Auslastung verspricht gutes :up:

Freue mich auf Vega mit deutlich mehr Performance :naughty:

Sunrise
2016-06-29, 17:02:24
preis/leistung ist ok, vor allem wenn man berücksichtigt, daß die preise der konkurrenzkarten durch die 480er massiv gefallen sind. was mir sauer aufstößt, ist der verbrauch bzw. die effizienz. für mich fällt die karte flach, weil ich sie eigentlich kaufen und ende des jahres durch eine vega oder was gleichwertiges ersetzen wollte. die 480er wäre dann in den zweitrechner (spielefähiger htpc) gewandert - das fällt aber bei 160w definitiv aus...

mal sehen, was bei der suche nach dem sweet spot rauskommt...wenn sie sich sinnvoll untertakten läßt, wirds vielleicht doch noch was...
Das mit dem Sweet-Spot würde mich auch interessieren. Gibt es da einen Tester der genug Zeit hatte das zu testen?

Korvaun
2016-06-29, 17:02:30
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise

LOL. So einen Mist kann echt nur AMD machen (wenn es denn stimmt) ...

Der_Korken
2016-06-29, 17:03:25
Was genau haben sie versprochen, dass nicht gehalten wurde? Offizelle Aussagen bitte keine Käseleaks.

Bei der Effizienz hat AMD irgendwas um Faktor 2,5 versprochen, genauso wie eine leise Kühlung mit guten Temps. Wie ich schon schrieb: Mit 110W wäre es eine super Karte und der Referenzkühler würde die Karte gut kühlen. Kann es sein, dass AMD die Karte eigentlich auch so geplant hatte und die Effizienz durch zu hohen Takt gekillt hat? CB konnte ihre Karte immerhin um 75mV undervolten. Wäre mal interessant zu wissen, wie sich die Karte schlägt wenn man sie auf 110W limitiert.

Rabiata
2016-06-29, 17:04:00
Du glaubst nicht wo überall im Leben du dich umhertreibst wo Dinge außerhalb einer Spezifikation betrieben werden :D

So was ist gang und gebe. Wenn es rein nach Spezifikationen ginge würde ich jedes mal angst haben wenn ich über eine Brücke fahre :D
Aber wer erwischt wird, kann auch ein Problem bekommen. Beispiel LKW-Fahrer mit Überlast:
Ertappt ihn die Polizei, gibt es Bußgeld und Weiterfahren ist erst mal nicht. Da muß die Spedition erst mal nen zweiten Laster schicken um einen Teil umzuladen.

Bei der RX480 springen im Retail vielleicht nur wenige Fans enttäuscht ab, aber mehr Sorgen würde ich mir um die Reaktion der OEMs machen:
Wenn da das Engineering sagt "können wir nicht für garantieren", kostet es vielleicht erhebliche Umsätze.

Ex3cut3r
2016-06-29, 17:05:07
Die Boardpartner werden die PEG Sache schon regeln, aber man muss halt aufpassen, das man bei Customs keine Referenz Platine bekommt. Ob 120Watt üben den PEG schaden oder nicht, Maße ich mir nicht an darüber zu entscheiden.

Digidi
2016-06-29, 17:06:22
Aber wer erwischt wird, kann auch ein Problem bekommen. Beispiel LKW-Fahrer mit Überlast:
Ertappt ihn die Polizei, gibt es Bußgeld und Weiterfahren ist erst mal nicht. Da muß die Spedition erst mal nen zweiten Laster schicken um einen Teil umzuladen.

Bei der RX480 springen im Retail vielleicht nur wenige Fans enttäuscht ab, aber mehr Sorgen würde ich mir um die Reaktion der OEMs machen:
Wenn da das Engineering sagt "können wir nicht für garantieren", kostet es vielleicht erhebliche Umsätze.


Du kannst auch einen LKW mit überlast fahren. Du must nur zur richtigen stelle gehen und dir das genehmigen lassen :rolleyes:

Du kannst davon ausgehen das dies mit den OEMs besprochen wurde und sich AMD in dieser Hinsicht kulant zeigt oder die OEMs einfach keine Mainboards verwenden die dort ärger machen.

captain_drink
2016-06-29, 17:06:43
@captain_drink

Das stimmt eben nicht. Erst jetzt wird die Preisregion von 200$ Erreicht. Deshalb ist der Markt auch dort noch nicht gesättigt. Viele konnten sich über die 2,5 Jahre eben keine GTX 970/980 leisten weil viel zu teuer.

Sowohl 290, 290X als auch jetzt 390/390X wurden in der Preisregion schon abverkauft, die 290 war sogar zu Release bald für ~350€ zu haben. Da haben sicherlich auch schon die typischen 250€-Käufer vielfach zugeschlagen. Der Markt der 480 ist sicherlich nicht gesättigt, riesiges Marktpotenzial ist 2,5 Jahre nach Hawaii Pro aber auch nicht mehr vorhanden.

Jein. Also ohne OC wird dir bestimmt nichts abrauchen, aber es schlägt sich sicherlich auf den Onboard-Sound nieder.

Das Letztere mit Sicherheit, Ersteres würde ich vor allem bei billigeren Boards allerdings auf längere Zeit nicht ausschließen, bei einem CF würde ich sogar fest damit rechnen. Der Trend ging in den letzten Jahren ja auch gerade in die gegensätzliche Richtung, die meisten Karten nehmen über den PEG 10-50W an Leistung auf. Partnerdesign werden dieses Verhalten dann hoffentlich korrigieren.

Menace
2016-06-29, 17:07:08
Ist so:

Hüllt sich AMD dazu in Schweigen?

Sunrise
2016-06-29, 17:07:42
LOL. So einen Mist kann echt nur AMD machen (wenn es denn stimmt) ...
Damals haben wir hier tagelang gefeiert, als man eine ATI Radeon 9500 zur Radeon 9700er (R300, das waren noch Zeiten) softmodden konnte.

Und jetzt ist es Mist? Muss man das verstehen? Da freut man sich doch umso mehr, wenn es tatsächlich modbar wäre.

d2kx
2016-06-29, 17:08:32
Reddit AMA ist live:

https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/

VooDoo7mx
2016-06-29, 17:08:49
Bin ich der einzige der hier nicht enttäuscht ist?

AMD ist weiter billig, heiß, laut und ineffizient im Vergleich zur Konkurrenz. Garniert wird alles mit komischen Billigplatinen und Treiberbugs die in einzelnen spielen sehr schlechte Frametimes liefern.

Also eigentlich alles wie bisher und wie von mir erwartet.

Danke AMD, dass man sich auf euch noch verlassen kann. :up:

BK-Morpheus
2016-06-29, 17:08:59
So, habe nun einige Reviews durchforstet.
Die Performance ist absolut okay bzw. wie ich sie mind. erwartet hätte.
Der Preis dafür ist auch okay.

Für einen Referenzkühler ist dieser wohl auch ganz passabel, aber das war es dann auch schon.

Effizienz nun auf Maxwell Niveau und somit noch deutlich hinter Pascal, weiterhin die AMD typische Inkompetenz im Bezug auf den Verbrauch bei Multimonitor/Blueraywiedergabe, Boost Takt wird in Spielen selten gehalten (im Gegensatz zur 1080/1070 aber eher wegen Powerlimit, als Templimit) und dann dieser Mist mit dem Stromhunger aus dem PCIe Slot (der ja weit über den Spezis liegt).

Ich bin weiterhin auf die ersten Tests der Custom Karten gespannt, aber nun beobachte ich die 1070 Preise und den Launch der 1060 wesentlich interessierter, als zuvor.

Unterm Strich eher enttäuschend.

Iruwen
2016-06-29, 17:10:07
In Bezug auf das Verhältnis von Preis/Leistung ist die Karte sehr gut und das momentan attraktivste Angebot auf dem Markt.

Problem: NV hat die GTX 1060 angeblich gerade von August auf Mitte Juli vorgezogen. Und ich glaube ehrlich gesagt nicht, dass in Santa Clara gerade jemand Schweißperlen auf der Stirn hat (außer die Büros sind nicht klimatisiert ;D).

Rabiata
2016-06-29, 17:10:44
Die Boardpartner werden die PEG Sache schon regeln, aber man muss halt aufpassen, das man bei Customs keine Referenz Platine bekommt. Ob 120Watt üben den PEG schaden oder nicht, Maße ich mir nicht an darüber zu entscheiden.
Das kann ich im Einzelfall auch nicht, und auch manche Entwicklungsabteilungen bei den Boardherstellern können das vielleicht nicht aus dem Handgelenk sagen. Aber genau deshalb gibt es Standards:
Der Boardhersteller testet gegen die max. 75W, und der Grafikkartenhersteller möge sich bitte dran halten. Dann funktioniert das Ganze auch.

Korvaun
2016-06-29, 17:10:47
Damals haben wir hier tagelang gefeiert, als man eine ATI Radeon 9500 zur Radeon 9700er (R300, das waren noch Zeiten) softmodden konnte.

Und jetzt ist es Mist? Muss man das verstehen? Da freut man sich doch umso mehr, wenn es tatsächlich modbar wäre.

Wenn es stimmt dann ist das für den Kunden natürlich ne feine Sache. Aber dann scheint AMD ja die Karten mit noch heisserer Nadel gestrickt zu haben als Nv ihre Pascal-Teile, und das wundert mich dann schon sehr.

Lightning
2016-06-29, 17:11:29
Ich muss zugeben, ich bin nicht so richtig begeistert. Die RX 480 ist eine gute Karte, und bietet aktuell die meiste Leistung fürs Geld - allerdings nur relativ knapp.
Das Angebot hätte trotzdem mehr als nur gut sein können, wenn die Übertaktbarkeit und Energieeffizienz auf einem höheren Niveau wären, aber gerade hier enttäuscht mich Polaris ein wenig. Ich hatte schon erwartet, dass man mit dem neuen Fertigungsprozess zumindest Maxwell schlagen kann.

Eigentlich bin ich schon fast davon ausgegangen, dass die RX 480 meine nächste Karte wird. Jetzt werde ich aber auf jeden Fall noch die 1060 abwarten. Gut möglich, dass diese auch kein besserer Deal wird - zumindest nicht, wenn man > 4 GB VRAM will - aber sicher bin ich mir da nicht mehr.

Thunder99
2016-06-29, 17:11:48
Bin ich der einzige der hier nicht enttäuscht ist?

AMD ist weietr billig, heiß, laut und ineffizient im Vergleich zur Konkurrenz. Garniert wird alles mit komischen Billigplatinen und Treiberbugs die die einzelnen spielen sehr schlechet Frametimes liefern.

Also eigentlich alles wie bisher und wie alle von mir erwartet.

Danke AMD, dass man sich auf euch noch verlassen kann. :up:
Der Chip wird nicht heißer, ist kaum lauter wenn man das PT in Ruhe lässt und sonst recht solide abgesehen von der PEG Stromaufnahme.

Eine gelungene Karte wo das Potential mit Custom Lösungen gezeigt wird :). Schritt in die richtige Richtung :)

captain_drink
2016-06-29, 17:11:53
Kann es sein, dass AMD die Karte eigentlich auch so geplant hatte und die Effizienz durch zu hohen Takt gekillt hat? CB konnte ihre Karte immerhin um 75mV undervolten. Wäre mal interessant zu wissen, wie sich die Karte schlägt wenn man sie auf 110W limitiert.

Angeblich sind die Yields nicht besonders gut bzw. schlechter als erwartet, weshalb man standardmäßig mehr Spannung draufgeben muss.
Zu hohe Taktraten und Standardspannungen wurden schon der Effizienz von Hawaii/Grenada und der 7970 Ghz/280X zum Verhängnis.
Spannend wird, ob GF bis zum Release von Vega die Fertigung in den Griff bekommt, ein Wechsel zu TSMC wäre zum jetzigen Zeitpunkt zumindest sehr teuer und mit hoher Verzögerung verbunden.

Digidi
2016-06-29, 17:12:19
Sowohl 290, 290X als auch jetzt 390/390X wurden in der Preisregion schon abverkauft, die 290 war sogar zu Release bald für ~350€ zu haben. Da haben sicherlich auch schon die typischen 250€-Käufer vielfach zugeschlagen. Der Markt der 480 ist sicherlich nicht gesättigt, riesiges Marktpotenzial ist 2,5 Jahre nach Hawaii Pro aber auch nicht mehr vorhanden.


Oh doch das Potential ist da. Schau dir einfach die Steam Statistik an. Mehr brauch ich wohl nicht dazu zu sagen!

Sunrise
2016-06-29, 17:13:04
Laut AMDs Robert Hallock hat Polaris definitiv keine GDDR5X-Unterstützung:
https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4slr17

Grabhopser
2016-06-29, 17:13:29
Problem: NV hat die GTX 1060 angeblich gerade von August auf Mitte Juli vorgezogen.

Es ist eigentlich ziemlich egal ob Nvidia den Paper-Launch nun vorzieht oder nicht, wenn man keine ausreichenden Kartenmengen liefern kann.

Ex3cut3r
2016-06-29, 17:13:35
Das kann ich im Einzelfall auch nicht, und auch manche Entwicklungsabteilungen bei den Boardherstellern können das vielleicht nicht aus dem Handgelenk sagen. Aber genau deshalb gibt es Standards:
Der Boardhersteller testet gegen die max. 75W, und der Grafikkartenhersteller möge sich bitte dran halten. Dann funktioniert das Ganze auch.

Na klar, da bin ich bei dir, aber was sollen wir denn jetzt machen? Ich werde jedenfalls das Referenz Design nicht empfehlen und hoffe, dass die Customs es besser machen. Fertig. ;)

Loeschzwerg
2016-06-29, 17:14:56
Das Letztere mit Sicherheit, Ersteres würde ich vor allem bei billigeren Boards allerdings auf längere Zeit nicht ausschließen, bei einem CF würde ich sogar fest damit rechnen. Der Trend ging in den letzten Jahren ja auch gerade in die gegensätzliche Richtung, die meisten Karten nehmen über den PEG 10-50W an Leistung auf. Partnerdesign werden dieses Verhalten dann hoffentlich korrigieren.

Problem sind eher die Netzteile, denn die Slots werden über den ATX versorgt. Hat das billige Netzteil keine Schutzschaltung (oder nur eine unzureichende), dann kann im Ernstfall das Board darunter leiden, ja.

Damals haben wir hier tagelang gefeiert, als man eine ATI Radeon 9500 zur Radeon 9700er (R300, das waren noch Zeiten) softmodden konnte.

Und jetzt ist es Mist? Muss man das verstehen? Da freut man sich doch umso mehr, wenn es tatsächlich modbar wäre.

Ich finds genial :) Wenn man da wirklich nur das Bios flashen muss, dann spart man sich einfach mal ~50€.

Edit:
Es ist eigentlich ziemlich egal ob Nvidia den Paper-Launch nun vorzieht oder nicht, wenn man keine ausreichenden Kartenmengen liefern kann.

Abwarten. Die 1070/1080 sind doch wunderbar lieferbar, mal abgesehen von diesen hypermega OC Editionen.

Troyan
2016-06-29, 17:15:03
Bei der Effizienz hat AMD irgendwas um Faktor 2,5 versprochen, genauso wie eine leise Kühlung mit guten Temps. Wie ich schon schrieb: Mit 110W wäre es eine super Karte und der Referenzkühler würde die Karte gut kühlen. Kann es sein, dass AMD die Karte eigentlich auch so geplant hatte und die Effizienz durch zu hohen Takt gekillt hat? CB konnte ihre Karte immerhin um 75mV undervolten. Wäre mal interessant zu wissen, wie sich die Karte schlägt wenn man sie auf 110W limitiert.

Meine GTX1080 kann ich auch mit 0,963V bei 2000Mhz betreiben. Gewolltest Undervolten ist kein Argument für die schlechte Energieeffizienz.

gas3t
2016-06-29, 17:16:00
@d2kx: Gibt es denn schon News zu Treiberneuerungen bei 16.30 bzw. 16.40.?

Ravenhearth
2016-06-29, 17:16:39
Das überfahren der PEG Speks ist aber echt keine schöne Sachen.

Die Verbesserungen von GCN 4th sind aber echt gut. Bessere Auslastung verspricht gutes :up:

Freue mich auf Vega mit deutlich mehr Performance :naughty:

Wenn man den Stromverbrauch stumpf hochrechnet, landet ein hypothetischer Vega10 mit 64 CUs bei annähernd 300W. Wie schön. Nicht. Selbst mit HBM landet man bestenfalls bei 250W, erreicht aber nur 1080-Performance, wenns hoch kommt.

Iruwen
2016-06-29, 17:17:11
Eigentlich bin ich schon fast davon ausgegangen, dass die RX 480 meine nächste Karte wird. Jetzt werde ich aber auf jeden Fall noch die 1060 abwarten. Gut möglich, dass diese auch kein besserer Deal wird - zumindest nicht, wenn man > 4 GB VRAM will - aber sicher bin ich mir da nicht mehr.

Wenns wirklich $299 für die 8GB werden ist die Positionierung ja absehbar.

Marodeur
2016-06-29, 17:21:37
Gibt es irgendwo Benchmarks MIT Gameworks? Würd gern wissen ob die bessere Tesselationsleistung hier z.B. bei Witcher 3 was bringt. Schon bei PCGH im Forum geschrieben aber weis nicht ob die das mitbekommen. Ist das bei einem der anderen Reviews mit dabei?

Loeschzwerg
2016-06-29, 17:22:03
Wenns wirklich $299 für die 8GB werden ist die Positionierung ja absehbar.

Auch wenn OT, aber die Gerüchte sprechen von 3/6GB.

Gibt es irgendwo Benchmarks MIT Gameworks? Würd gern wissen ob die bessere Tesselationsleistung hier z.B. bei Witcher 3 was bringt. Schon bei PCGH im Forum geschrieben aber weis nicht ob die das mitbekommen. Ist das bei einem der anderen Reviews mit dabei?

Hier => https://www.computerbase.de/2016-06/radeon-rx-480-test/11/ (ca. Mitte)

Disco_STFU
2016-06-29, 17:22:19
Bin auch etwas enttäuscht, nicht von der Leistung an sich sondern von der Effizienz. 30-40 Watt weniger unter Last und die Karte wäre rundum gelungen.

Ach AMD, warum machst du es einem immer so schwer... :(

Arcanoxer
2016-06-29, 17:23:12
AMD Radeon RX 480 On Linux (phoronix) (http://phoronix.com/vr.php?view=23332)

Ein Desaster für 14nm, Performance auf GTX960 niveau.
Ich hatte wirklich keine hohe Erwartung, aber um die nochmal zu unterbieten gehört schon was dazu.

Den Overhype Award 2016 hat sie sich aber verdient.

Hübie
2016-06-29, 17:23:46
Wen interessiert das?!
ULPS deaktivieren und Schirm 2+3 an die IGP von der CPU anschließen, wo ist das Problem?!

Verstehe nicht, dass wegen dem noch so ein Aufstand gemacht wird, obwohl das völliger Bullshit ist...

Und das Highend-Käufer gar keine iGPU haben ist dabei auch nur ein kleiner Nebenpunkt, richtig. :rolleyes: Nur weil Spielzeug-CPUs sowas haben muss man das ja nicht verallgemeinern...

HOT
2016-06-29, 17:25:23
Wenn man den Stromverbrauch stumpf hochrechnet, landet ein hypothetischer Vega10 mit 64 CUs bei annähernd 300W. Wie schön. Nicht. Selbst mit HBM landet man bestenfalls bei 250W, erreicht aber nur 1080-Performance, wenns hoch kommt.
Unsinn. Wie gesagt, wird schon die Salvage-Variante mehr TFLOPs haben als GP104. Das ist ne ganz andere Liga. Aber ich wette, dass V10 >250W TDP mitbringen wird.

Eigentlich müssten die ne Rückrufaktion starten und die bisher produzierten Referenzkarten alle mit neuem BIOS über OEMs verticken. Da musste wohl einfach per BIOS mit 0,1V mehr nachgesteuert werden und das killt das super-billig-Design eben.
Ich wette, dass Sapphiere es schafft, bei 150W mit mehr Takt und gleichem Verbrauch ne ordentliche Karte auf die Beine zu stellen. Fehlt nur noch der versprochene Performancetreiber.

dildo4u
2016-06-29, 17:26:21
Gibt es irgendwo Benchmarks MIT Gameworks? Würd gern wissen ob die bessere Tesselationsleistung hier z.B. bei Witcher 3 was bringt. Schon bei PCGH im Forum geschrieben aber weis nicht ob die das mitbekommen. Ist das bei einem der anderen Reviews mit dabei?
Fallout 4 nutzt Tesselation für die Godrays läuft deutlich besser als die alten AMD's.

http://abload.de/img/fo4u8sbu.png

captain_drink
2016-06-29, 17:28:13
HT4U hat sich der PEG-Problematik ausführlicher gewidmet:

Doch mit den Messungen und unserer Tabelle stellt sich ein weiterer Punkt ein. Die PCI-Express-Spezifikationen, welche eine maximale Leistungsaufnahme von 75 Watt für den PCI-Express-Slot vorsehen, werden klar überschritten. Geht man ins Detail und schaut in die Spec, so wird die 12-Volt-Leitung gar auf 5,5 A und somit 66 Watt festgeschrieben.

Unsere Messungen ohne Lockerung des Power-Tune-Limits ergaben teils Spitzen von bis zu 85 Watt aber selbst im Durchschnitt verletzten fast alle Spiele permanent in der durchschnittlichen Leistungsaufnahme die vorgesehenen 75 Watt für den PEG-Slot.

Am schlimmsten wurde es, als wir das Power-Tune-Limit schlicht lockerten und das System mit Hawx unter Last setzten. Bis zu 230 Watt Gesamt-Leistungsaufnahme forderte sich die RX 480 hier ein und Spitzen von bis zu 113 Watt liefern dabei über den PCI-Express-Slot. Also was tun mit diesen Erkenntnissen? Es war auszuschließen, dass wir es mit einem defekten Testmuster zu tun hatten, denn von wenigstens vier Kollegen wussten wir, dass man auf ähnliches Verhalten gestoßen war, teils eben die Last über den PCI-Express-Slot auf Grund Zangenamperemeter-Messungen nicht mit Sicherheit eingrenzen konnte.

Wir fragten bei AMD nach. Erst nach einigen Tagen erhielten wir eine überraschte Rückmeldung, dass man sich bei der Ermittlung der typischen Leistungsaufnahme unter Spielen an die im Hause übliche Herangehensweise gehalten habe und fragte unsere Messmethodik an, welcher wir bereitwillig mitteilten. Zum PCI-Express-Problem und den Spezifikationen wollte man sich noch einmal separat melden. Die Rückmeldung zu beiden Fällen blieb dann aber aus.

Wir hielten Rücksprache mit einem Mainboardhersteller. Der meinte, im schlimmsten Falle würde eine Schutzschaltung greifen und das System abschalten. Bereits seit Jahren würde man Schutzschaltungen auf Hauptplatinen einsetzen, da man es häufig auch mit schlechten Stromnetzen in Schwellenländern zu tun habe. Das machte uns stutzig, beruhigte uns aber nicht wirklich.

Im nächsten Schritt wälzten wir erneut die PCI-Express-Spezifikation. Die genannten Werte beziehen sich dabei an Netzteilhersteller, aber auch an Komponenten-Hersteller, welche PCI-Express-Sockel fertigen. Letztere müssen hier nicht damit rechnen, dass eine Leistungsaufnahme jenseits von 75 Watt erfolgt. Die Netzteilhersteller für sich müssen den PCI-Express-Sockel über den 24-Pin-Mainboard-Netzteilstecker über die 3,3 Volt- und 12-Volt-Leitung hinreichend mit Strom versorgen. Hinreichend dimensionierte Netzteile dürften hier absolut kein Problem mit sich bringen. Gerade namhafte Hersteller achten sehr wohl auf die Umsetzung von hinreichend dimensionierten und stabilen 12-Volt-Schienen und statten diese teils noch mit Überlastungsschutz aus.

Ein Fahler Beigeschmack bleibt dennoch, ganz zu Schweigen von AMDs fehlendem Feedback zu diesem ungewöhnlichen Umstand. Prinzipiell hätte man das vermeiden können, in dem man die hohe Leistungsaufnahme aus dem PEG-Socket schlicht begrenzt und den Mehrbedarf auf den 6-Pin-Stromstecker verlagert. Zwar findet dann auch hier eine Spezifikationsverletzung statt, das hat AMD jedoch nicht zum ersten Mal getan. Dabei genügt es dann wirklich, wenn die Netzteile schlicht ausreichend dimensioniert sind. Sei es drum, wir sind auf Feedback des Herstellers gespannt, wenn es denn noch kommt.
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

Bei AMD war man über die Spezifikationsverletzung offenkundig ebenfalls einigermaßen überrascht...

Der_Korken
2016-06-29, 17:28:37
Meine GTX1080 kann ich auch mit 0,963V bei 2000Mhz betreiben. Gewolltest Undervolten ist kein Argument für die schlechte Energieeffizienz.

75mV sind nicht die Welt, mir ging es eher darum, ob der Standardtakt einfach viel zu hoch ist. Wäre nicht das erste Mail bei AMD: Fury X (1050Mhz) = 300W, Nano (irgendwo bei 900Mhz) = 180W. 60% Verbrauch bei 85% Leistung. Dass man eine RX480, die 10% langsamer als eine 970 ist, schlecht verkaufen ist mir klar. Mich würde nur mal interessieren, wie ineffizient die Architektur wirklich ist in Bezug auf zukünftige Karten (Vega).

Sunrise
2016-06-29, 17:33:55
75mV sind nicht die Welt, mir ging es eher darum, ob der Standardtakt einfach viel zu hoch ist. Wäre nicht das erste Mail bei AMD: Fury X (1050Mhz) = 300W, Nano (irgendwo bei 900Mhz) = 180W. 60% Verbrauch bei 85% Leistung. Dass man eine RX480, die 10% langsamer als eine 970 ist, schlecht verkaufen ist mir klar. Mich würde nur mal interessieren, wie ineffizient die Architektur wirklich ist in Bezug auf zukünftige Karten (Vega).
Eventuell passen bei AMD die Simulationen einfach nicht mit dem Endergebnis zusammen. Getestet wurde ja scheinbar im Pre-Produktion-Status mit um die 800MHz, logisch, dass P10 da besonders gut abschneiden wird.

Nur skaliert eben der Prozess nicht linear, es scheint als wäre GLoFo bzw. der Samsung 14nm LPP nicht auf diese hohen Takte optimiert, weil es eigentlich ein SoC-Prozess ist und war. Dass AMD da jedesmal erst dann gute Leistung liefert, wenn die Spannung auch dementsprechend hoch ist, zeigt denke ich schon, dass man einfach mit dem arbeiten muss, was man hat und das ist die Spannung bei der Verlustleistung die dem Chip eben genug Saft gibt, sodass er bei AMDs festgelegter Zielfrequenz überhaupt arbeiten kann.

Einen P10 mit deutlich weniger Spannung zu betrieben ist sicher möglich, nur dann bekommst du sicher noch deutlich weniger Leistung raus oder aber AMD hat hier echt ein Fertigungsproblem (der Yield soll auch noch sehr schlecht sein).

Troyan
2016-06-29, 17:34:20
75mV sind nicht die Welt, mir ging es eher darum, ob der Standardtakt einfach viel zu hoch ist. Wäre nicht das erste Mail bei AMD: Fury X (1050Mhz) = 300W, Nano (irgendwo bei 900Mhz) = 180W. 60% Verbrauch bei 85% Leistung. Dass man eine RX480, die 10% langsamer als eine 970 ist, schlecht verkaufen ist mir klar. Mich würde nur mal interessieren, wie ineffizient die Architektur wirklich ist in Bezug auf zukünftige Karten (Vega).

Naja, was bringt es dir den Verbrauch auf 120W zu drosseln, wenn deine Karte dann 25% schneller als eine GTX960 wäre?!

Die Spannungen sind einfach viel zu hoch. nVidia betreibt 7,2 Mrd. Transistoren bei 1600Mhz und 0,85V. AMD benötigt für 5,7 Mrd. Transistoren >1,1V für 1266Mhz.

Das komplette Design in Kombination mit dem Fertigungsprozess ist einfach nur schlecht.

Ravenhearth
2016-06-29, 17:36:17
Unsinn. Wie gesagt, wird schon die Salvage-Variante mehr TFLOPs haben als GP104. Das ist ne ganz andere Liga. Aber ich wette, dass V10 >250W TDP mitbringen wird.

Was sagt die Rohleistung schon aus? Die GTX 1070 ist fast 50% schneller als die RX 480, hat aber nur etwa 30% mehr Rohleistung. Auf Vega10 übertragen bedeutet das, dass er höchstens auf GTX 1080-Niveau liegen wird, da er wohl maximal 10 TFLOPs erreicht.

Thunder99
2016-06-29, 17:37:23
Wenn man den Stromverbrauch stumpf hochrechnet, landet ein hypothetischer Vega10 mit 64 CUs bei annähernd 300W. Wie schön. Nicht. Selbst mit HBM landet man bestenfalls bei 250W, erreicht aber nur 1080-Performance, wenns hoch kommt.
Ausgehend wenn sie nichts weiter optimieren. Aber das wissen wir nicht. Wenn sie es schaffen weiter zu optimieren wären mit HBM 50W mehr nicht schlimm sondern noch im Rahmen

Digidi
2016-06-29, 17:40:18
@Troyan

So einfach ist das nicht. Es zählt auch die Packdichte und da sind AMD weit enger gepackt als der Konkurrent von Nvidia.

Es sind halt zwei unterschiedliche Philosophien die beide Hersteller vertreten:

AMD: Viele Shader - Wenig Takt - mehr Spannung
Nvidia: Wenig Shader - Viel Takt - weniger Spannung

Wenn man die Werte vergleicht konnte AMD mit Ihre Kombination meistens mehr GFlops erzeugen wie Nvdia. Selbst im Übertakteten zustand, wo AMD nur wenig Takt gut macht. AMD braucht auch nur wenig Takt gut zu machen weil sie einen viel höhren Multiplikator haben.

Das die Real Live Performance von Nvdiai so gut ist, liegt nur daran das sich aufgrund der Marktmacht von Nvidia, kaum jemand um die Belange der AMD Architektur kümmert.

HOT
2016-06-29, 17:40:30
Was sagt die Rohleistung schon aus? Die GTX 1070 ist fast 50% schneller als die RX 480, hat aber nur etwa 30% mehr Rohleistung. Auf Vega10 übertragen bedeutet das, dass er höchstens auf GTX 1080-Niveau liegen wird, da er wohl maximal 10 TFLOPs erreicht.
mit 1266MHz bist du schon deutlich über den 10 TFLOPs. V10 ist ein ganz andere Kaliber. Keine Bandbreitenprobleme, keine Füllratenprobleme, vermutlich neuer Rasterizer und das Frontend ist sicher sehr anders ggü. Hawaii/Tonga/Fiji/P10.

Und man weiss nicht, wie AMD das treibertechnisch gefailt hat, siehe GTA5. Zudem darf man letztendlich nicht vergessen, dass GP104 die 3-fache Füllrate hat und das P10 immer noch zu wenig Tesselationsleistung mitbringt.

dildo4u
2016-06-29, 17:41:29
4GB Karten kommen mit 4GB in den Handel.

http://www.neogaf.com/forum/showpost.php?p=208672999&postcount=329

Ravenhearth
2016-06-29, 17:41:31
mit 1266MHz bist du schon deutlich über den 10 TFLOPs

10,371. Deutlich :rolleyes:

Ex3cut3r
2016-06-29, 17:43:04
Das die Real Live Performance von Nvdiai so gut ist, liegt nur daran das sich aufgrund der Marktmacht von Nvidia, kaum jemand um die Belange der AMD Architektur kümmert.

Wie wärs, wenn sich mal selber um die Belange ihrer Archtitektur in Form von Treibern kümmern wurden?

Nvidia schafft ja auch immer ein schön Plus an Leistung mit kommenden Treibern, AMD auch, nur dauert es dort in der Regel zu lange, siehe Hawaii.

Troyan
2016-06-29, 17:44:22
@Troyan

So einfach ist das nicht. Es zählt auch die Packdichte und da sind AMD weit enger gepackt als der Konkurrent von Nvidia.

Es sind halt zwei unterschiedliche Philosophien die beide Hersteller vertreten:

AMD: Viele Shader - Wenig Takt - mehr Spannung
Nvidia: Wenig Shader - Viel Takt - weniger Spannung

Wenn man die Werte vergleicht konnte AMD mit Ihre Kombination meistens mehr GFlops erzeugen wie Nvdia. Selbst im Übertakteten zustand, wo AMD nur wenig Takt gut macht. AMD braucht auch nur wenig Takt gut zu machen weil sie einen viel höhren Multiplikator haben.

Das die Real Live Performance von Nvdiai so gut ist, liegt nur daran das sich aufgrund der Marktmacht von Nvidia, kaum jemand um die Belange der AMD Architektur kümmert.

Das macht keinen Sinn. "Viel Takt" benötigt immer mehr Spannung als "wenig Takt". Das Pascal gegenüber Polaris "viel Takt" mit "weniger Spannung" erreicht, ist ein Resultat aus Prozess und Architektur.

captain_drink
2016-06-29, 17:45:31
Das die Real Live Performance von Nvdiai so gut ist, liegt nur daran das sich aufgrund der Marktmacht von Nvidia, kaum jemand um die Belange der AMD Architektur kümmert.

Ganz recht, vor allem bei den Konsolen, wo AMD bekanntlich faktisch überhaupt nicht vertreten ist. Ist mal wieder Zeit für die Märchenstunde?

Digidi
2016-06-29, 17:45:53
Wie wärs, wenn sich mal selber um die Belange ihrer Archtitektur in Form von Treibern kümmern wurden?

Nvidia schafft ja auch immer ein schön Plus an Leistung mit kommenden Treibern, AMD auch, nur dauert es dort in der Regel zu lange, siehe Hawaii.


So einfach ist das nicht. Wenn ein Entwickler z.B. um eine Grashalm darzustellen Tesselation benutzt und nicht ein Shader basierten Darstellungsansatz benutzt.

Was glaubst du warum Nvidia Gameworks ins leben gerufen hat :rolleyes:

AMD kann noch so viele Treiber programmieren. Wenn der Ansatz vom Spielentwickler nicht auf Ihre GPU abzielt kann AMD sich zu Tode optimieren.

Mitlerweile ist es ja besser Karten von beiden Hersteller drin zu haben. Was mit Hitman und Witcher passiert gefällt mir überhaupt nicht.


@captian_drink

Wieso laufen denn die Spiele so gut auf den Konsolen. Weil sich die Entwickler sehr gut um die Hardware kümmern die Verbaut ist :D

dildo4u
2016-06-29, 17:46:13
Das die Real Live Performance von Nvdiai so gut ist, liegt nur daran das sich aufgrund der Marktmacht von Nvidia, kaum jemand um die Belange der AMD Architektur kümmert.
Was für ein Schwachsinn es werden 80% der AAA Game's auf den GCN Konsolen verkauft,die Engine's werden auf AMD zugeschnitten.Ubisoft und co muss dafür sorgen das ihre Games so gut wie möglich auf den unterpowerten Konsolen laufen,da nehmen sie keine Rücksicht auf Nvidia.Das stände Opfer spielen von AMD's Seite nervt einfach nur noch.

Der_Korken
2016-06-29, 17:48:37
Naja, was bringt es dir den Verbrauch auf 120W zu drosseln, wenn deine Karte dann 25% schneller als eine GTX960 wäre?!

Bringen tut mir das gar nichts, ich würde nur gerne wissen, ob das Design an sich ineffizient ist, oder ob es einfach so weit über dem Sweetspot betrieben wird, dass die Effizienz gekillt wird. Man würde eine 1070 sicherlich genauso ineffizient wie die RX480 bekommen, indem man sie mit der Brechstange (und ohne PT-Limitierung) auf 2,5Ghz übertaktet, selbst wenn sie dafür 1,4V bräuchte. Dann würde sie auch 3x so viel verbrauchen bei gerade mal 40% Mehrleistung.

Digidi
2016-06-29, 17:49:02
Was für ein Schwachsinn es werden 80% der AAA Game's auf den GCN Konsolen verkauft,die Engine's werden auf AMD zugeschnitten.Ubisoft und co muss dafür sorgen das ihre Games so gut wie möglich auf den unterpowerten Konsolen laufen,da nehmen sie keine Rücksicht auf Nvidia.Das stände Opfer spielen von AMD's Seite nervt einfach nur noch.

Ja sie werden auf GCN Konsolen verkauft. Aber die Programmiersprache hierfür wird von Microsoft und Sony vorgegeben. Schon alleine weil man ja will das es auf anderen System schlecht läuft das man ja bei Ihnen das Geld lässt. Das ganze zu potieren, Optimieren etc. braucht Zeit und riesen Aufwand und man fängt eigentlich fast wieder von 0 an.

AMD geht ja nicht umsonst den Weg bei RX 480 Consolenprogrammierung so gestalten zu können, das es einfach auf GCN läuft.
http://cdn.videocardz.com/1/2016/06/Radeon-RX-480-Presentation-VideoCardz_com-16.jpg

Rabiata
2016-06-29, 17:49:20
Naja, was bringt es dir den Verbrauch auf 120W zu drosseln, wenn deine Karte dann 25% schneller als eine GTX960 wäre?!

Die Spannungen sind einfach viel zu hoch. nVidia betreibt 7,2 Mrd. Transistoren bei 1600Mhz und 0,85V. AMD benötigt für 5,7 Mrd. Transistoren >1,1V für 1266Mhz.

Das komplette Design in Kombination mit dem Fertigungsprozess ist einfach nur schlecht.
Oder AMD hat sich dazu hinreißen lassen, für ein paar Prozent mehr an Performance die Effizienz über Bord zu werfen.

So etwas hatten wir schon mal in der HD 7xxx-Serie:
Die ursprünglichen Versionen der HD 7750, HD 7770 und HD 7790 waren alle erfreulich sparsam. Dann kamen die "GHz Editionen" mit etwas mehr Taktfrequenz, aber erheblich größerem Verbrauch :rolleyes:.

Ich könnte mir vorstellen, so etwas wie eine "RX Nano" zu kaufen und in meinen nächsten Rechner einzubauen, die diese Fehlentwicklung zurückdreht.
Gerne auch als Custom, falls AMD das nicht für nötig hält.

Sunrise
2016-06-29, 17:49:34
Was sagt die Rohleistung schon aus? Die GTX 1070 ist fast 50% schneller als die RX 480, hat aber nur etwa 30% mehr Rohleistung. Auf Vega10 übertragen bedeutet das, dass er höchstens auf GTX 1080-Niveau liegen wird, da er wohl maximal 10 TFLOPs erreicht.
Sie sagt das aus, was du für das Geld erwarten kannst, bzw. andersrum. Bei NV zahlst du mehr also bekommst du in der Regel auch immer mehr. Ob du daran lange Freude hast ggü. AMD steht auf einem anderen Blatt. Die 10 TFLOPs sind bereits mit 1266MHz erreicht und HBM kommt ja noch hinzu. Da das wohl ein Compute-Chip und kein reiner Gaming-Chip wird auch nicht so ganz vergleichbar.

Dass ein GP102 AMD bei der reinen Gaming-Leistung das Genick brechen wird dürfte klar sein, denn wenn man auch noch bei vergleichbarer Fläche mit 450mm² 50% mehr Einheiten verbauen kann und dank GDDR5X der Chip gut ausgehend von GP104 skaliert (was zu erwarten ist), dann kann man sich ganz gut ausrechnen, wo AMD hinmüsste. Und das ist nur mit enormen Verbesserungen überhaupt zu erreichen.

Ravenhearth
2016-06-29, 17:51:58
Sag ich ja. Vega10 wird dann trotz HBM so viel verbrauchen wie GP102, aber nur so schnell sein wie GP104.

HOT
2016-06-29, 17:52:51
10,371. Deutlich :rolleyes:
Das mit diesem verkackten Launch in Verbindung zu bringen ist einfach lächerlich, ich diskutier da nicht mehr drüber. Hör auf mit dem Scheiss V10 gebashe, wir haben keine Ahnung wie der Chip aussieht.

Troyan
2016-06-29, 17:53:37
Bringen tut mir das gar nichts, ich würde nur gerne wissen, ob das Design an sich ineffizient ist, oder ob es einfach so weit über dem Sweetspot betrieben wird, dass die Effizienz gekillt wird. Man würde eine 1070 sicherlich genauso ineffizient wie die RX480 bekommen, indem man sie mit der Brechstange (und ohne PT-Limitierung) auf 2,5Ghz übertaktet, selbst wenn sie dafür 1,4V bräuchte. Dann würde sie auch 3x so viel verbrauchen bei gerade mal 40% Mehrleistung.

Computerbase kommt auf ~20% Ersparnis. Aber es ist eben schwer einzuschätzen, wie viele Karten damit überhaupt stabil laufen würden.

20% erreiche ich z.B. mit meiner GTX1080 bei 2000Mhz auch (0,963V gegenüber 1,043V).

Disco_STFU
2016-06-29, 17:55:25
Bringen tut mir das gar nichts, ich würde nur gerne wissen, ob das Design an sich ineffizient ist, oder ob es einfach so weit über dem Sweetspot betrieben wird, dass die Effizienz gekillt wird. Man würde eine 1070 sicherlich genauso ineffizient wie die RX480 bekommen, indem man sie mit der Brechstange (und ohne PT-Limitierung) auf 2,5Ghz übertaktet, selbst wenn sie dafür 1,4V bräuchte. Dann würde sie auch 3x so viel verbrauchen bei gerade mal 40% Mehrleistung.

Igor könnte doch nochmal ne schöne Sweetspot Analyse machen. =)

Vielleicht muss man seinen Namen einfach nur oft genug sagen... wie bei Beetlejuice.

Igor... Igor... IGOR... ;D

Ravenhearth
2016-06-29, 17:56:32
Das mit diesem verkackten Launch in Verbindung zu bringen ist einfach lächerlich, ich diskutier da nicht mehr drüber. Hör auf mit dem Scheiss V10 gebashe, wir haben keine Ahnung wie der Chip aussieht.

Als ob AMD in etwa einem halben Jahr die ganze Architektur umkrempeln wird. Laut der Folie mit Vega und Navi soll Vega gegenüber Polaris eine 40% bessere Effizienz liefern. Wir können uns ja denken, was davon übrig bleibt. ;D Der einzige Lichtblick ist vielleicht, dass TSMCs Prozess besser ist.

captain_drink
2016-06-29, 17:58:54
Der einzige Lichtblick ist vielleicht, dass TSMCs Prozess besser ist.

Ich dachte, Vega kommt ebenfalls von GF?

anddill
2016-06-29, 17:59:46
Macht mal keine Panik wegen dem einen Ampere mehr auf dem PCIe. Wer weiß wie viele alte Graka-Schätzchen da draußen noch weiter über der Spec liegen.

Das einzige was da überlastet wird ist ein Stück Kupfer. Dem Netzteil ist das völlig egal, ob der Strom über Leitung X oder Y fließt.

Der PCIe hat jede Menge einzelne Verbindungen zur Groundplane, eine oder mehrere Lagen Kupfer die das gesamte Board vollflächig durchziehen, genauso wie zur 12V-Schiene, die genauso eine Kupferfläche ist die bis in die letzten Winkel liegt wo noch 12V gebraucht werden. Und mit dem 24-poligen ATX-Stecker ist ja auch noch eine weitere Leitung zur 12V-Versorgung des Boards dazugekommen, plus 1x Masse.
Solange alles richtig und fest zusammengesteckt ist und nichts korrodiert dürfte der Widerstand der Stromführung über den PCIe vergleichbar oder sogar niedriger als über die separate 6-Pol Leitung sein. Besonders bei teilmodularen Netzteilen.

Was es da an der ATX-Versorgung für Schutzschaltungen geben soll ist mir etwas schleierhaft. Ich glaube nicht daß einer der Boardhersteller da Messwiderstände für den Laststrom einbaut. Maximal wird da die Spannung überwacht, so daß bei Netzunterspannung, gnadenlos überlastetem Billig-NT oder rauchendem ATX-Stecker abgeschaltet werden kann. Das würde zumindest zu der oben geposteten Reaktion eines Boardherstellers passen.

Sunrise
2016-06-29, 18:00:35
Bringen tut mir das gar nichts, ich würde nur gerne wissen, ob das Design an sich ineffizient ist, oder ob es einfach so weit über dem Sweetspot betrieben wird, dass die Effizienz gekillt wird. Man würde eine 1070 sicherlich genauso ineffizient wie die RX480 bekommen, indem man sie mit der Brechstange (und ohne PT-Limitierung) auf 2,5Ghz übertaktet, selbst wenn sie dafür 1,4V bräuchte. Dann würde sie auch 3x so viel verbrauchen bei gerade mal 40% Mehrleistung.
Laut AMDs Robert Hallock (https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4smj2d) wird die RX470 deutlich effizienter. Das ist wohl eine Summe aus verschiedenen Faktoren. Hallock meint die RX480 läge zwischen 1,7x-2,0x und die RX470 dann bei 2,8x. Allerdings dann natürlich mit Abstrichen bei der Leistung. Da müssen wohl einfach noch mehr Tests her.

Digidi
2016-06-29, 18:00:54
@anddill

Danke und ich hab schon geadacht in bin verrückt.

marc-05
2016-06-29, 18:02:56
4GB Karten kommen mit 4GB in den Handel.


Fixed die sind im Handel guck mal Alternate/Mindfactory

https://www.alternate.de/Sapphire/Radeon-RX-480-Grafikkarte/html/product/1283376?campaign=Grafikkarte/Sapphire/1283376

https://www.alternate.de/XFX/Radeon-RX-480-Grafikkarte/html/product/1282337?campaign=Grafikkarte/XFX/1282337

http://www.mindfactory.de/product_info.php/4096MB-PowerColor-Radeon-RX-480-Aktiv-PCIe-3-0--Retail-_1111163.html

Aufgemerkt 4GB Version hat nur 1750MhZ VRAM !

Troyan
2016-06-29, 18:03:38
Laut AMDs Robert Hallock (https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4smj2d) wird die RX470 deutlich effizienter. Das ist wohl eine Summe aus verschiedenen Faktoren. Hallock meint die RX480 läge zwischen 1,7x-2,0x und die RX470 dann bei 2,8x. Allerdings dann natürlich mit Abstrichen bei der Leistung. Da müssen wohl einfach noch mehr Tests her.

Klar, die 470 wird 40% effizienter als die 480. ;D

Die 470 hat 8 CUs weniger und wird wohl ca. 10% niedriger getaktet werden. Das soll also in eine 29% reduzierte Stromaufnahme resultieren?

Der Typ macht gerade "damage controlling", weil ihm der Launch komplett um die Ohren fliegt. Rebellion und son Quatsch. :rolleyes:

Fixed die sind im Handel guck mal Alternate/Mindfactory

https://www.alternate.de/Sapphire/Radeon-RX-480-Grafikkarte/html/product/1283376?campaign=Grafikkarte/Sapphire/1283376

https://www.alternate.de/XFX/Radeon-RX-480-Grafikkarte/html/product/1282337?campaign=Grafikkarte/XFX/1282337

http://www.mindfactory.de/product_info.php/4096MB-PowerColor-Radeon-RX-480-Aktiv-PCIe-3-0--Retail-_1111163.html

Aufgemerkt 4GB Version hat nur 1750MhZ VRAM !

Haben nur 7GB/s Speicher an Board!

he above specifications are for the 8GB $239 version of RX 480 that we are reviewing here which uses 8GB of 8Gbps GDDR5 memory. The $199 version of RX 480 it uses 4GB of 7Gbps memory, and we have not tested it.
http://www.babeltechreviews.com/rx-480-reviewed-26-games/view-all

Raff
2016-06-29, 18:05:33
Laut AMDs Robert Hallock hat Polaris definitiv keine GDDR5X-Unterstützung:
https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4slr17

Das würde bei 6 bis 6,5 TFLOPS, die mit OC drin sind, auch nichts bringen.

Macht mal keine Panik wegen dem einen Ampere mehr auf dem PCIe. Wer weiß wie viele alte Graka-Schätzchen da draußen noch weiter über der Spec liegen.

Von denen, die ich in den vergangenen Jahren gemessen habe: Null. Da gab's ein paar Spezialisten mit ~70 Watt über den PEG, aber das sind Ausnahmen. Meinst du AGP? Dann kein Schimmer. :D

MfG,
Raff

Hermelinmaster
2016-06-29, 18:05:53
Habt ihr grad mal nen Test mit Ark Survival Evolved?
Danke ^^

(del)
2016-06-29, 18:08:07
Sehe ich das richtig das du implizierst, das mit OC 100Watt über den Pcie Slot geschossen werden,mit Spikes in den 200er Bereich?
Falls dem so ist sollte Raff das mit der OC Empfehlung vielleicht noch mal überdenken

Ich impliziere nichts, ich messe. Da ich aber nicht die Zerstörung meiner Technik betreiben möchte, lasse ich diesen Unfug. Der Chip läuft doch so schon an der Kotzgrenze. Das ganze Design lässt eher auf einen 1,1-GHz-Karte schließen, die man irgendwann getreten hat, weil man merkte, dass es so nix wird.
Ich kann die Lastwechsel regelrecht hören, wenn ich die Karte auf ein Mainstream-Brett packe. Beim OC wird das geradezu pervers. Und dann meinte ja AMD, wir machen mal eben ein CF und verhauen die 1080...

dildo4u
2016-06-29, 18:08:35
Gibt es irgendwo Benchmarks MIT Gameworks? Würd gern wissen ob die bessere Tesselationsleistung hier z.B. bei Witcher 3 was bringt. Schon bei PCGH im Forum geschrieben aber weis nicht ob die das mitbekommen. Ist das bei einem der anderen Reviews mit dabei?
Hab jetzt noch direkt Witcher 3 mit Hairwork's gefunden.

http://abload.de/img/shdbsjhfmbkh6.png

https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#diagramm-tessmark-tessellation

Lurtz
2016-06-29, 18:09:17
Bin schon eher enttäuscht. Vor allem dass es doch wieder einige Launchprobleme gibt und die Referenzversion trotz positiven Ersteindrucks letztlich nicht wirklich zu empfehlen ist.

Gut dass ich doch zur R9 390 gegriffen habe. So viel spiele ich nicht mehr dass der Stromverbrauch mich umbringt.

Digidi
2016-06-29, 18:10:59
Man nimmt sich auch der Problematik mit dem PCIE slot an:

Great question and I am really glad you asked.
We have extensive testing internally on our PCIE compliance and RX480 passed our testing. However we have received feedback from some of the reviewers on high current observed on PCIE in some cases. We are looking into these scenarios as we speak and reproduce these scenarios internally. Our engineering team is fully engaged.

https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/

@format_C

Muss man eigentlich das Board der RX 480 ändern wenn man nicht mehr möchte das mehr über den PCIE-Slot geht, oder geht das auch über Firmware?

Linmoum
2016-06-29, 18:13:11
8,6% OC
~12% Mem OC
TL 83°, PT max.

Warhammer: +8%
FC Primal: +~9%
Hitman: +10,5%
RotTR: +9%

http://www.guru3d.com/articles_pages/amd_radeon_r9_rx_480_8gb_review,35.html

Raff
2016-06-29, 18:13:41
Habt ihr grad mal nen Test mit Ark Survival Evolved?
Danke ^^

25 bis 35 Fps in Full HD mit Epic-Details. Erst vorgestern getestet. :) Aber da das Spiel hinsichtlich reproduzierbarer Werte fast der gleiche Kotzkrampf ist wie The Division outdoors ohne Vergleichswerte. :ugly:

MfG,
Raff

Loeschzwerg
2016-06-29, 18:17:12
Man nimmt sich auch der Problematik mit dem PCIE slot an:



https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/

Entweder AMD hat es gewusst und wollte es unter den Teppich kehren, oder die Compliance Tests sind nicht wirklich gut.

Such dir was aus ;)

So wie ich es verstanden habe 3 Phasen für den PEG und 3 Phasen für den 6 Pin Oder es ist einfach gleichermaßen angebunden => So oder so, da braucht es ein anderes Design


Ich kann die Lastwechsel regelrecht hören, wenn ich die Karte auf ein Mainstream-Brett packe.

Kann ich bei der Nano auch auf meinem ITX Brett ^^ Die Lösung lautet USB Audio, aber der Umstand bleibt natürlich unschön.