PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

stinki
2016-06-30, 00:11:51
Ich bleibe dabei, solange eine vernünftige Kühlung existiert, ist Verbrauch eine rein akademische Diskussion, da es finanziell nicht ins Gewicht fällt.

Btw: Ist es nicht so das HBM weniger braucht als GDDR? Somit dürfte Vega ja effizienter werden als Polaris.

Und wie viel Watt spare ich bei einem 2048bit HBM Interface zu einem 256 GDDR5 Interface plus jeweils 8GB Speicher?

Es geht darum konkurrenzfähige Produkte auf den Markt zu bringen, die vom Markt angenommen und gekauft werden.
Die RX480 ist Stand heute ein sehr konkurrenzfähiges Produkt. Das Produkt mit dem besten Preis/Performance-Verhältnis und Verbrauchs/Performance-Verhältnis in ihrer Preisklasse.

Ich sehe momentan nur nicht wie Vega ausgehend von Polaris 10 ein ähnliches Preis/Performance-Verhältnis und Verbrauchs/Performance-Verhältnis verglichen mit GP104 erreichen will.
Noch dazu bei Kosten für Interposer, HBM und größerer Chip-Fläche.
Wie gut für AMD gleiche Performance und leicht niedriger Preis mit deutlich höherem Verbrauch funktioniert, haben wir ja die letzten Jahre gesehen.
Also müsste Vega wahrscheinlich deutlich billiger als GP104 am Markt angeboten werden um Käufer zu finden. Zudem hat Vega auch den späteren Markteinstieg. Und billiger verkaufen bei teurerer Produktion ist nicht gerade das wovon ich als Firma träume.
Und einen Konkurrenten für GP102 kann AMD so auf keinen Fall bieten.

Disco_STFU
2016-06-30, 00:16:19
Raff ist 1 nicer Dude! ;D

Rabiata
2016-06-30, 00:16:25
Von einem kaputten Polaris auszugehen halte ich für eine Fehleinschätzung. Wie gesagt ist der Treiber ein Frickeltreiber, das CU-Powergating funktioniert nicht (wir sind also wieder auf Hawaii/Tonga-Niveau, was das Stromsparen angeht) und das Referenzdesign ist glasklar ein ultra-billig-PCB, das zu viel Spannung/Takt bedienen muss. Das ist einfach ein epischer Fehlstart. Mit ordentlichem PCB, funktionierendem Powergating und ordentlichen Treiber wär das sicher nicht so gelaufen. Es ist aber nunmal wie es ist und es ist so nicht repräsentativ für Vega.
Meine Vermutung (auch aus der Diskussion heraus) ist, daß die RX 480 ursprünglich durchaus solide für 1100-1150 MHz designt wurde. Mit dem Takt und entsprechend etwas weniger Spannung würde alles zusammenpassen:

moderater Stromverbrauch deutlich unter 150 W
dementsprechend hätte der Kühler leichteres Spiel
und auch die jetzt vereinzelt beklagte Limitierung beim Speicherdurchsatz wäre weniger ins Gewicht gefallen

Aber dann mußte aus Marketinggründen unbedingt die GTX 970 eingeholt werden, und die Karte wurde auf Frequenzen geprügelt für die das Design nicht wirklich paßt :rolleyes:.
Ich hoffe, daß die RX 470 da etwas konservativer daherkommt.

dildo4u
2016-06-30, 00:19:31
Ich hoffe, daß die RX 470 da etwas konservativer daherkommt.
Kommt sie daher hat AMD sie auch für Effizienzvergleiche genommen und nicht die 480.

http://www.guru3d.com/news-story/radeon-rx-470-benchmarks.html

Eine Irreführung da hier noch was von 480 Stand.

http://abload.de/img/amd-radeon-rx-480-2wist9.jpg

Dino-Fossil
2016-06-30, 00:23:26
Gut möglich, dass P10 eigentlich etwas sparsamer und besser zu takten sein sollte, aber die Fertigung (mal wieder) Probleme macht und das Design vielleicht auch nicht ganz so rauskam wie geplant.
Zumindest spricht AMD ja von jeder Menge Features, die eigentlich helfen sollten Strom zu sparen - warum sieht man am Ende praktisch nur die Effizienzsteigerung, die man schon vom Prozess her erwarten sollte?
Sind das Problem primär zu hoher Takt und Spannung, ist es ein Treiberproblem (Features noch nicht unterstützt?), oder ist das Design an sich fehlerbehaftet?
Vielleicht bringt die 470 ja ein paar Antworten - wir sollten dann zum einen niedrigere Taktraten sehen und zudem sind die Treiber etwas ausgereifter.

@HOT: Was du mit fehlerhaftem CU-Power-Gating meinst würde ich auch gerne genauer wissen.

Hakim
2016-06-30, 00:45:21
Die Sapphire Custom

http://cdn.videocardz.com/1/2016/06/SAPPHIRE-Radeon-RX-480-NITRO.jpg

Direkt mal um DVI Anschluss ergänzt :), soll 8 Pin Anschluss haben.

MadManniMan
2016-06-30, 00:50:56
Klar, was Effizienz angeht ist sie schon enttäuschend, aber wen interessiert das?
Ich kenne wirklich niemanden, der sich über den Stromverbrauch Gedanken macht... wirklich NIEMANDEN (mich eingeschlossen :biggrin:

Puh, wo fang ich an? Stromverbrauch an sich steht ja nur am Anfang einer langen Reihe an Konsequenzen:

1) Ja, auch das: Kosten.
2) Der Kram will gekühlt werden.
3) Je ineffizienter, desto geringer die kaufbare Leistung in der jeweiligen Generation, weil die halt nach oben begrenzt ist.
4) Weil Technik aus prinzip fortschreiten muss. Dafür sind wir hier in einem Nerdforum, oder nicht?
5) Steigt die Effizienz, werden mobile Geräte brauchbarer.
6) ... und mit höherer Effizienz werden AMD-APUs sinnvoller.

Reicht das für den Anfang?

dildo4u
2016-06-30, 00:56:04
Die neuen Konsolen APU's kommen noch dazu es sieht düster aus die sind massiv vom Power Budget limitiert.Dort wird auch kein HBM verbaut was die Effizienz steigern könnte.

Dino-Fossil
2016-06-30, 01:01:46
Die neuen Konsolen APU's kommen noch dazu es sieht düster aus die sind massiv vom Power Budget limitiert.Dort wird auch kein HBM verbaut was die Effizienz steigern könnte.

Naja, trotz der Enttäuschung über die zu geringe Steigerung der Effizienz - Perf/Watt ist trotzdem fast 2x besser als bei vergleichbaren AMD-GPUs aus der vorherigen Generation.
Das wird auch bei den Konsolen-Chips entsprechend ankommen - mindestens.
Und was Polaris theoretisch in Punkto Effizienz mitbringt, sehen wir vielleicht eher mit der 470 oder P11.
Ich erwarte da keine Wunder mehr, aber die 480 scheint mir doch zu weit vom sweet spot entfernt.

Troyan
2016-06-30, 01:07:05
Naja, trotz der Enttäuschung über die zu geringe Steigerung der Effizienz - Perf/Watt ist trotzdem fast 2x besser als bei vergleichbaren AMD-GPUs aus der vorherigen Generation.
Das wird auch bei den Konsolen-Chips entsprechend ankommen - mindestens.
Und was Polaris theoretisch in Punkto Effizienz mitbringt, sehen wir vielleicht eher mit der 470 oder P11.
Ich erwarte da keine Wunder mehr, aber die 480 scheint mir doch zu weit vom sweet spot entfernt.

Nö, Effizienz ist nicht 2x besser. Tonga und Fiji stehen viel besser dar als GCN1.1 bzw. GCN 1.2.
Die RX 480 mit "Max" verbraucht genausoviel wie eine 380X und leistet rund 40% mehr. In der Standardeinstellung ist die Effizienz nur 69% besser. AMD hat also genauso viel erreicht wie nVidia mit Pascal über Maxwell...

dildo4u
2016-06-30, 01:11:29
Jup AMD vergleicht RX 470 bewusst mit GCN 1.0(270X) damit es besser aussieht.

Zero-11
2016-06-30, 01:12:24
Heiliger Reinfall! Die 1060 wird der Karte nicht mal das Genick brechen müssen, der AMD Chip aus GloF*** Produktion steckt schon im Schlamm.

BlacKi
2016-06-30, 01:12:24
Die Sapphire Custom

http://cdn.videocardz.com/1/2016/06/SAPPHIRE-Radeon-RX-480-NITRO.jpg

Direkt mal um DVI Anschluss ergänzt :), soll 8 Pin Anschluss haben.
braun rasierer edition^^

btt: also zunächst einmal die 970 ist schon etwas alt um sie als echten konkurenten hinzustellen. aber selbst wenn man das macht, braucht die karte sich nicht zu verstecken. das perf/watte verhältniss ist bei der970 immernoch besser. mit 160-170w sind locker 1400mhz drinn, das sind unter dem strich erheblich mehr fps als die stock 480, obwohl der verbrauch gleich ist. das marketing gesabbel von amd zur p10 vostellung war wieder einmal zu nichts zu gebrauchen...

lediglich die 8gb sprechen für die karte, welche man logischerweise auch auf eine 970 klatschen könnte. aber dieses gedankenspiel ist eigentlich unnötig, bald komt die 1060 und für mich gp102^^ es sei denn ich finde eine günstige wakü Tx^^

Dino-Fossil
2016-06-30, 01:23:23
Nö, Effizienz ist nicht 2x besser. Tonga und Fiji stehen viel besser dar als GCN1.1 bzw. GCN 1.2.

Nicht wirklich. Der effizienteste GCN-Chip dürfte abgesehen von der Nano eine Pitcairn-Inkarnation sein, also GCN1. Fury's sind teilweise nahe dran, aber das zu einem guten Teil aufgrund des HBM-Speichers. Tonga war eher enttäuschend, wobei dazu meiner Meinung auch wieder beigetragen hat, das er zu weit jenseits des sweet spot betrieben wurde. Im Vergleich zur 480 legt eine typische 380X auch noch mal gern 20-30W drauf.
Übrigens ist deine Angabe von 69% besser = 1.69 also nicht weit von "fast 2x".

Jup AMD vergleicht RX 470 bewusst mit GCN 1.0(270X) damit es besser aussieht.

Der Vergleich ist in der Tat unehrlich und wenig aussagekräftig gewesen.
Dennoch dürfte die 470 etwas besser herauskommen, als die 480.

Entscheidend ist aber, dass alleine schon die 14nm Fertigung den neuen Konsolen einen deutlichen Effizienzsprung beschert.

Ravenhearth
2016-06-30, 01:23:29
@HOT: Was du mit fehlerhaftem CU-Power-Gating meinst würde ich auch gerne genauer wissen.

Polaris10 unterstützt das dynamische CU-Power-Gating einfach nicht, Polaris11 dagegen schon.

Troyan
2016-06-30, 01:27:43
Nicht wirklich. Der effizienteste GCN-Chip dürfte abgesehen von der Nano eine Pitcairn-Inkarnation sein, also GCN1. Fury's sind teilweise nahe dran, aber das zu einem guten Teil aufgrund des HBM-Speichers. Tonga war eher enttäuschend, wobei dazu meiner Meinung auch wieder beigetragen hat, das er zu weit jenseits des sweet spot betrieben wurde.

Ja, in der Realität. AMD hat jedoch die 180W TDP Angabe der 270X genommen.
Da jedoch kaum einer eine 270X mitgetestet hat, habe ich die 380X als aktuellste Version ohne HBM genommen.

Und hier ist es im besten Fall eine 1,7x Verbesserung bei jedoch nur rund 35% Mehrleistung.

scully1234
2016-06-30, 01:32:27
das sind unter dem strich erheblich mehr fps als die stock 480, obwohl der verbrauch gleich ist.

Die 480 in der Nomenklatur scheint in Folge jedem Hersteller bisher Pech gebracht zu haben ,ob nun Fermi oder Polaris ,vielleicht sollte man das bei kommenden Releases mal beachten:P

Dino-Fossil
2016-06-30, 01:39:37
Ja, in der Realität. AMD hat jedoch die 180W TDP Angabe der 270X genommen.

Na also, stimmst du mir in dem Punkt ja eigentlich zu. Von der 2,8X Steigerung, die AMD behauptet hat, hatte ich gar nicht direkt gesprochen, aber wie du in meiner Antwort auf dildo lesen kannst, halte ich die Angabe auch für reines Marketing und Verschleierung.

Das ändert aber nichts daran, dass der Vorteil der 14nm Fertigung bei den neuen Konsolen helfen wird.

Polaris10 unterstützt das dynamische CU-Power-Gating einfach nicht, Polaris11 dagegen schon.

Ich hatte das so verstanden, dass P10 die einzelnen CUs nur komplett abschalten kann, P11 aber noch feinere Abstufungen machen kann.
Werds mir morgen nochmal genauer anschauen, jetzt gehts ins Bett. :D

ashantus
2016-06-30, 02:00:42
Mein Eindruck ist, daß das Boardlayout der Karte völlig misslungen ist. Angeblich soll der Chip selbst ja nur 85 Watt brauchen.

Meine Hoffnung ist, daß die Custom Designs den Verbrauch und Effizienz mit guten Boards in den Griff bekommen.

Meine Erfahrung sagt, mit der GTX 1060 werden alle Vor-und Nachteile der Karten über die Preise zurecht gerückt.

StefanV
2016-06-30, 02:05:45
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise
Was schreiben die da fürn Müll?!

Das eine hat doch mit dem anderen nix zu tun!
Dass es nur ein Referenzmodell gibt, schließt ja nicht aus, dass man dort einfach so mal kleinere CHips drauf haut...

Der Herr Schreiberling von diesem völligen QUatsch sollte sich mal die Spec usw anschauen....
Das macht einfach keinen Sinn...

DoomGuy
2016-06-30, 02:07:51
Daran habe ich auch gerade denken müssen... sind auf der 4GB Karte wirklich 8GB drauf?

E: kann doch nur Gelaber sein...

Hübie
2016-06-30, 02:15:09
Robert Hallock war es glaub ich der sagte, dass die Presse 8-GB-Versionen erhielt und zusätzlich noch das BIOS für die 4-GB Version.
Wieso die jetzt draus machen, dass AMD überall 8 GB verbaut erschließt sich mir nicht. Ist wohl im Eifer des Gefechts durch überschwappende Hormonspiegel entstanden.

Kanns mir jedenfalls nur sehr schwer vorstellen, dass man so dekadent ist.

Ravenhearth
2016-06-30, 02:19:21
Mein Eindruck ist, daß das Boardlayout der Karte völlig misslungen ist. Angeblich soll der Chip selbst ja nur 85 Watt brauchen.

85W bei der 470, 110W bei der 480.

DoomGuy
2016-06-30, 02:21:31
Es würde aber schon wieder irgendwie zu AMD passen. Was freischalten angeht, waren die immer seeehr großzügig. Vorstellbar ist wirklich, dass die ersten Margen voll bestückt sind um wieder einen kleinen Ansturm zu erzeugen...

StefanV
2016-06-30, 02:24:29
Dann lieber 100W über den PCIe-Slot. Was für ein.. eine... mir fehlen die Worte.
Machen doch viele Hersteller auch ab Werk...
be quiet bei Straight Power CM 7-9, ab 580W
Pure Power CM ab AFAIR 630W
Corsair

Und noch viele viele andere...

StefanV
2016-06-30, 02:28:37
Und wieviel verbrauchen Deine mehr als drei Bildschirme so?
Viele Leute nutzen noch welche mit CCFL-Backlight, die gerne mal 70W nehmen. Da denken die wenigsten drüber nach. Abgesehen davon macht es auch wenig Sinn einen noch gut funktionierenden 500€-Monitor neu zu kaufen wegen 40W Ersparnis durch LED-Backlight.
Hab hier 2 gute 24" Schirme mit CCFL.
Bei 100% Helligkeit gehen die auf etwa 120W oder gar 140W, bei minimaler Helligkeit etwa 40W.
Muttis 26" CRT Fernseher, 4:3 Format verbrät etwa 83W.

Mein 24" Samsung LED Bildschirm verbrät etwa 20W, der 27" AOC 30W unter normalen Bedingungen...

Aber du hast Recht, es ist etwas, worüber viele nicht nachdenken, hauptsache man het was, um den Kauf seiner nVidia Karte zu rechtfertigen.

Und dass IGPs auch schon 3 Schirme unterstützen, Kaveri AFAIR sogar 4, wird auch unterschlagen/ausgeblendet...

-/\-CruNcher-/\-
2016-06-30, 02:30:22
Ich impliziere nichts, ich messe. Da ich aber nicht die Zerstörung meiner Technik betreiben möchte, lasse ich diesen Unfug. Der Chip läuft doch so schon an der Kotzgrenze. Das ganze Design lässt eher auf einen 1,1-GHz-Karte schließen, die man irgendwann getreten hat, weil man merkte, dass es so nix wird.
Ich kann die Lastwechsel regelrecht hören, wenn ich die Karte auf ein Mainstream-Brett packe. Beim OC wird das geradezu pervers. Und dann meinte ja AMD, wir machen mal eben ein CF und verhauen die 1080...

AMD hätte das bleiben lassen sollen aber Nvidia und die User haben sie nunmal in diese Ecke gezwungen.

Wieso hier nur mit einer GTX 980 aber nicht mit einer GTX 970 und dann auch nur auf FPS ebene verglichen wurde bleibt mir schleierhaft

Man sollte bei der RX480 die GTX 980 überhaupt nicht als Ziel sehen sondern sich vorrangig auf die GTX 970 konzentrieren

http://abload.de/img/shdbsjhfmbkh6.png

StefanV
2016-06-30, 02:38:08
Die meisten meiner Bildschirme haben auch noch ein CCFL-backlight.
Dann verstehe ich noch weniger, warum du dich so sehr über die Leistungsaufnahme aufregst...
Deine Schirme verbraten, worst Case, mal eben so um die 500W, warum regst dich hier wegen ein paar Watt auf?!
AUßerdem kannst du 3 bis 4 Schirme schon an die IGP anklemmen!
Bei Intel sind es AFAIR 3 seit einigen Generationen, bei AMDs Kaveri müsstens 4 sein.


Im Computerbase-test der RX 480 ist der Verbrauch (Gesamtsystem) mit zwei Bildschirmen ungewöhnlich hoch, deshalb hab ich gefragt ob es ein Treiber-problem sein könnte. Im HT4U-test ist der Verbrauch (Nur GPU) deutlich niedriger.
Die Last von solchen Schirmen wird auch gerne von vielen Leuten unterschätzt...
Ein Celeron G1820 (Haswell!) ist zB: schon leicht überfordert wenn 2 Full HD Schirme dran hängen...
Und das forciert die GraKa halt in einen höheren Powerstate, eben weil die Last nicht soo niedrig ist...

Wenn dich das so stört, dann gibts eine gute Karte für dich: Fury Nano.

StefanV
2016-06-30, 02:50:40
Hab jetzt mal was nachgsehen.
Eine Tripleslot GTX 970 bekomme ich gebraucht fuer 230€.

1241 MHz sind Standard Boostclock fuer eine normale 970, die Tripleslot bekomm ich auf ~1450MHz
Und den Takt haelt sie, dank tollem Kuehler, auch.

Eine (8GB, weil die 4GB Karten sind lahmer) RX-480 bekomm ich nur neu, und das fuer 270€. Allerdings mit verkrueppeltem Stock Cooler und mieserabler Stromanbindung. Die haelt nichtmal den Standard Boostclock dank miserablen Kuehler.

Fuer weniger Geld bekomme ich also eine leisere Karte, die die 480er ueberholt (wenn man beide uebertaktet) und dabei haelt sie noch alle Spezifikationen ein.

Hier is z.b. ein Video einer uebertakteten 480 und einer 970. Die 970 laesst sich viel besser uebertakten und zieht der 480er davon.

http://youtu.be/C24vLB6oYyU
Warte doch einfach auf die Custom Karten und kauf eine von denen...

Wenn du 970 Referenz mit RX480 Referenz vergleichst, ist der Unterschied nicht mehr so groß...

d2kx
2016-06-30, 03:26:35
So, der erste Tag ist vorbei und was ich so höre ist, dass sich die RX 480 zumindest in den USA & den UK bisher fantastisch verkauft hat. Kleinigkeiten, über die Enthusiasten stundenlang diskutieren können, sind für die Masse eben nicht unbedingt von Interesse :)

Hübie
2016-06-30, 03:29:56
Na ja mit dem Preispunkt trifft man eben den Nerv der Leute.

-/\-CruNcher-/\-
2016-06-30, 03:44:41
So, der erste Tag ist vorbei und was ich so höre ist, dass sich die RX 480 zumindest in den USA & den UK bisher fantastisch verkauft hat. Kleinigkeiten, über die Enthusiasten stundenlang diskutieren können, sind für die Masse eben nicht unbedingt von Interesse :)

Naja enthusiasten warten lieber auf die Daten der Customs mit Pre selected Chips und nicht so auf Kante gebaut und vor allem getaktet weil man gut darstehen will mit der Referenz.

Aber was man da dem Target mit diesen Entscheidungen antut mit der Referenz ist schon heftig mal sehen ob sich das nicht in der Langzeitstabilität und dem Experience vor allem bei VR äussern wird.

Da wird es spannend den Treiber Thread zu beobachten vor allem zwecks TDR Meldungen mit der Referenz ;)

dlux
2016-06-30, 03:46:24
Auch Mindfactory hat bereits über 430 RX480 verkauft. AMD kann sehr zufrieden sein.

burninghey
2016-06-30, 06:59:58
außer du behauptest, die bei CB sind zu blöd zum messen: https://www.computerbase.de/2016-06/radeon-rx-480-test/9/

Sind sie allerdings, denn sie sind die einzigen, die das Gesamtsystem messen und nicht die Grafikkarte allein xD

Grendizer
2016-06-30, 07:11:18
Eine solide Karte, die leider schlechter performt als durch die "Vorberichterstattung" vermutet wurde. Bis zum erscheinen der 1060 die momentan beste Wahl unter 300 Euro, wobei der Preis für die 8 Gb Variante auch 30 Euro höher ist wie ursprünglich berichtet.

Mal schauen wo die Herstellerdesigns liegen und ob ihnen das Problem mit der Leistungsaufnahme bewußt war. Allerdings vermute ich, das wir dann schon stark bei der 299 oder drüber landen werden.

Wenn man etwas Zeit zum Warten hat und nicht dringend eine Karte braucht würde ich bis September/Oktober warten und schauen was nVidia mit der 1060 auf den Markt bringt. Preislich wird vermutlich über 300 (wegen dem Eurokurs dank Brexit), aber ich verspreche mir hier etwas bessere Leistungsdaten als die 480 liefert.

burninghey
2016-06-30, 07:13:41
Dann lieber 100W über den PCIe-Slot. Was für ein.. eine... mir fehlen die Worte.

Soll ich mal ein Foto von den zwei 8-Pin-Steckern meines 80€ teuren Fractal Design 80+Gold zeigen? Okay :D
http://i.imgur.com/Cx9g5v1.png
287 Watt R9 290X Grafikkarte die da dran hängt.

Nur weil die RX480 unter Maximallast 10W mehr als erlaubt ziehen kann mach ich mir nicht in die Hose.

uweskw
2016-06-30, 07:37:19
Und da war Tahiti tatsächlich und meiner Meinung nach ohne Zweifel das bessere Produkt (auch wenn das 70 Prozent der Leute anders sahen und grün kauften) ...

MfG,
Raff

Daran sieht man mal wieder wie effektiv die Forenarbeit der NV-Marketeers war und ist. HIER wird Meinung gebildet.
Man sieht ja schon wieder wie die Stimmung kippt. Dabei sind die meisten Reviews durchaus positiv. Und: es gibt in der Preislage definitiv keine bessere Karte.:eek:
Und zur Effizienz die so hoch gespielt wird: Das macht in diesen Leistungsregionen nicht mal 1Cent pro Stunde Zocken aus.

greetz
US

dildo4u
2016-06-30, 07:49:06
Daran sieht man mal wieder wie effektiv die Forenarbeit der NV-Marketeers war und ist. HIER wird Meinung gebildet.
Man sieht ja schon wieder wie die Stimmung kippt. Dabei sind die meisten Reviews durchaus positiv. Und: es gibt in der Preislage definitiv keine bessere Karte.:eek:
Und zur Effizienz die so hoch gespielt wird: Das macht in diesen Leistungsregionen nicht mal 1Cent pro Stunde Zocken aus.

greetz
US
Es geht nicht um den Verbrauch an sich sondern darum das PCI-E spec's überschritten werden,was in billig Board's zu Problemen frühen kann und jetzt rate mal ist was für Systeme einen billig AMD für 199€ verbaut wird?Käme die Karte wie die 1080 mit einem 8X Pin gäbs keine Probleme,so hätte man aber zugegeben,das man wieder Lichtjahre hinter NV liegt was Effizienz angeht.

http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php

Isen
2016-06-30, 07:53:48
Du kannst auch gleich 1x 6pin und 8pin dran klatschen, es ändert nichts daran, dass das Bios zuviel aus dem PEG zieht. Dass es sich hierbei um einen Bug handelt, ist dir entgangen.
Effizient mit einer uArch die für ganz andere Zwecke ausgelegt ist als die der Konkurrenz. Spätestens mit Volta knutschen sich beide in den gleichen Gegenden.

dildo4u
2016-06-30, 07:58:06
Selbst wenn man das fixt müsste die Power über den 6 Pin gezogen werden auch das wäre immer noch über Spec,da die Karte bis zu 170 Watt zieht.

http://abload.de/img/test-radeon-rx-480-342dssi.png

Da hätte man Probleme mit billig OEM Netzteilen die in Ramsh AMD Rechnern auch gang und gäbe sind.

Isen
2016-06-30, 07:59:11
Ne. Wäre dann nicht ;-)
Zwar mit Heißer Nadel gestrickt aber innerhalb der Specs.

Die bei AMD Gang und gäbe sind? Tendenziell sind alle OEM-Kisten nicht mit sonderlich hochwertigen NTs bestückt.
Du könntest bei Zeiten auch mal deine Ausdrucksweise überarbeiten, die ist Ghetto.

dildo4u
2016-06-30, 08:03:28
170 Watt ist nicht innerhalb der PCI-E Spec.


Die erste Version der Zusatzstecker hat sechs Pins und kann bis zu 75 Watt liefern, wodurch die dem Gerät maximal bereitgestellte Leistung auf 150 Watt steigt

https://de.wikipedia.org/wiki/PCI_Express

Isen
2016-06-30, 08:06:08
Jetzt google nochmal die Stecker Specs und dann hast du es ja geschafft.

Argo Zero
2016-06-30, 08:06:09
Wann soll es eigentlich die ersten Customs geben? Dicke leise Lüfter braucht die Karte :)

Isen
2016-06-30, 08:08:07
1-2 Woche schätze ich mal. Zumindest nähere Vorstellungen. Im Handel - ~Mitte Juli?

Kimi2003
2016-06-30, 08:18:59
Also ich finde die Ergebnisse der Benchmarks mal gar nicht so schlecht. So wie AMD die Karte angekndigt hat, ist sie auch geworden.
Was die Karte allerdings an Strom aus der Leitung zieht im Vergleich zur Leistung hat AMD da irgendwie völlig daneben gehauen.
Trotzdem warte ich auf die Asus Strix 480 und werde damit für meine FullHD Auflösung lange glücklich sein :)

DinosaurusRex
2016-06-30, 08:21:03
Daran sieht man mal wieder wie effektiv die Forenarbeit der NV-Marketeers war und ist. HIER wird Meinung gebildet.
Man sieht ja schon wieder wie die Stimmung kippt. Dabei sind die meisten Reviews durchaus positiv. Und: es gibt in der Preislage definitiv keine bessere Karte.:eek:
Und zur Effizienz die so hoch gespielt wird: Das macht in diesen Leistungsregionen nicht mal 1Cent pro Stunde Zocken aus.

greetz
US

Es ist eigentlich immer das Gleiche: AMD kann es einfach nicht richtig machen. Vor einiger Zeit waren es immer die Nvidia-Karten, die laut, stromhungrig und heiß waren. Man denke nur mal an die total verkorkste Fermi-Architektur. Als ob das den durchschnittlichen Nvidia-Kunden gejuckt hätte! Jetzt dreht sich das Blatt und schwupps wird die Nvidia-Kundschaft zu sandalentragenden Ökojüngern. Es ist ziemlich affig, um ehrlich zu sein.

Die RX 480 ist eine kluge Karte, mMn. Nvidia hat dem erstmal noch nichts entgegen zu setzen und in ihrem Preissegment ist sie der konkurrenzlos beste Kauf. Es sei denn man achtet wirklich sehr penibel auf den Stromverbrauch. Aber ich wette der Stromverbrauch ist der Punkt, der den Gamern am meisten am Arsch vorbei geht. Wer 24/7 Twitch Streams glotzen kann und nebenher Dailies in irgendwelchen Endlosspielen zockt, der soll sich wegen der paar Watt mal nicht so anstellen.

Sven77
2016-06-30, 08:41:26
Bei der Effizienz geht es nicht nur um Stromkosten (die extrapoliert auf Nutzungsdauer dann doch ein Batzen Geld ausmachen kann) sondern auch um Abwärme..

DinosaurusRex
2016-06-30, 08:44:08
Schon klar, allerdings gibt es diesbezüglich bei den Custom Designs schon seit Jahren nichts mehr zu meckern. Wer sich ein Referenzdesign kauft und es ohne weitere Modifikation betreibt, ist selber Schuld. Sollte es eine Geldfrage sein, dann würde ich im Zweifelsfall immer ein vernünftiges Custom Design einer günstigeren Karte dem Referenzdesign einer teureren Karte vorziehen. Hier würde sicher niemand einen Gaming PC mit boxed Kühler betreiben. Die Performance eines Referenzgrafikartenkühlers ist genau so uninteressant wie die Performance eines CPU boxed Kühlers.

Showtime
2016-06-30, 08:46:14
Wer 24/7 Twitch Streams glotzen kann und nebenher Dailies in irgendwelchen Endlosspielen zockt, der soll sich wegen der paar Watt mal nicht so anstellen.


Ich glaube, es geht nicht um den realen Stromverbrauch, sondern um das Gefühl, ineffiziente, veraltete, irgendwie unzeitgemäße Hardware zu kaufen. Ich sage nicht, dass diese Adjektive auf die 480er-Karten zutreffen. Aber dieses unschöne Gefühl wird halt beim Kunden (zu diesem Zeitpunkt praktisch ausschließlich der typische Early-Adopter-Techniknerd) hervorgerufen.

Ist halt auch ein schlechter Zeitpunkt, irgendwie. Gerade legt NV vor, wie niedriger Stromverbrauch und hohe Leistung einhergehen. Dann kommt AMD und bietet im direkten Vergleich eine schlechtere Performance. Schon entsteht der Eindruck einer unausgegorenen Grafikkarte. "Warum braucht AMD so viel Strom wie NV (in Bezug auf 1070/1080) bei so viel weniger Leistung?" Dass da jetzt Fertigungstechniken, Treiber, Mittelklasse gegen High-End und was weiß ich noch mit reinspielen, ist im Kopf des Käufers nebensächlich. Der Kunde bekommt das Gefühl, ein technisch weniger ausgereiftes Produkt zu erwerben, fertig. Subjektiv kann das dann schon zu Enttäuschung führen, unabhängig von Benchmarkbalken oder wie viel Euro pro Jahr der Stromverbrauch tatsächlich verursacht.

Nochmal: Es geht nicht um harte Fakten, welche die potenziellen Käufer enttäuschen, sondern um das Gefühl, eine nicht ganz ausgereifte Grafikkarte zu erwerben.

DinosaurusRex
2016-06-30, 08:51:31
Ich glaube, es geht nicht um den realen Stromverbrauch, sondern um das Gefühl, ineffiziente, veraltete, irgendwie unzeitgemäße Hardware zu kaufen. Ich sage nicht, dass diese Adjektive auf die 480er-Karten zutreffen. Aber dieses unschöne Gefühl wird halt beim Kunden (zu diesem Zeitpunkt praktisch ausschließlich der typische Early-Adopter-Techniknerd) hervorgerufen.


Wer sich eine 4GB Karte kauft und sich anschließend die Tatsache schönreden kann, dass er eigentlich nur 3,5GB @ 196GB/s effektiv nutzen kann, der wird sicher auch seine Freude an einer RX 480 mit 8GB @ 256GB/s und 8:1 DCC haben. ;)

Nur mal zum nachdenken: Die GTX970 war Nvidias Verkaufsschlager N°1.

Schnoesel
2016-06-30, 08:52:20
Dafür dass alle entäuscht sind geht die Karte aber gut weg und das über UVP. Den meisten ist das völlig egal die paar Watt hin oder her. Hier wird einfach schon wieder ein Fass aufgemacht und die Karte so dermaßen schlecht gemacht obwohl sie das nicht ist. AMD hat nicht zu viel versprochen und eine solide Karte abgeliefert deren Customversionen noch besser werden.

Es gibt absolut keinen Grund hier den Hatetrain zu fahren außer man ist grün hinter den Ohren ist.

dildo4u
2016-06-30, 08:55:43
Ein neutraler Käufer mit Hirn wartet bis näste Woche und guckt was die 1060 kann,schon alleine weil das den Preis der 8GB 480 senken könnte.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11084981&postcount=128

Lowkey
2016-06-30, 08:58:14
+

ein denkender Mensch wartet auf eine Custom oder die 1060 oder ein Angebot. Die Karte mag gut sein, aber der Preis ist noch ein paar Euro über dem Budget. Die Karte hat einfach kein Alleinstellungsmerkmal (außer dass sie neu ist).

Showtime
2016-06-30, 08:58:21
Wer sich eine 4GB Karte kauft und sich anschließend die Tatsache schönreden kann, dass er eigentlich nur 3,5GB @ 196GB/s effektiv nutzen kann, der wird sicher auch seine Freude an einer RX 480 mit 8GB @ 256GB/s und 8:1 DCC haben. ;)


Klar. Wie gesagt, ich rede die 480 sicher nicht schlecht. Es war nur ein Erklärungsversuch, warum die Karte in den meisten Technikforen eher lauwarm aufgenommen wird.

uweskw
2016-06-30, 08:58:36
..........jetzt rate mal ist was für Systeme einen billig AMD für 199€ verbaut wird?Käme die Karte wie die 1080 mit einem 8X Pin gäbs keine Probleme,so hätte man aber zugegeben,das man wieder Lichtjahre hinter NV liegt was Effizienz angeht.

...... (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index12.php)



offizieller Schichtbeginn der NV-Marketeers?
Haben die doch wieder ein Haar in der Suppe gefunden, auf dem sie solange rumreiten bis viele glauben, dass es ein grüner Baumstamm ist:freak:

Und leider wirds wohl wieder funktionieren.:mad:

Wie die Reviews fast einhellig zeigen: Die RX 480 ist die mit Abstand beste Karte in dem Preisbereich.
Und auch FALLS NV in ein paar Wochen einen Papierlaunch mit der 1060 hinlegt, wird die 480 noch lange die beste lieferbare Karte in diesem Preissegment sein.

greetz
US

Sven77
2016-06-30, 09:00:58
Klar. Wie gesagt, ich rede die 480 sicher nicht schlecht. Es war nur ein Erklärungsversuch, warum die Karte in den meisten Technikforen eher lauwarm aufgenommen wird.

Es ist halt ne graue Maus, will aber auch gar nicht mehr sein.. P/L stimmt, Leistung stimmt, aber so richtig PC Master Race Orgasm ist es eben nicht.. nur dem Geldbeutel geht es ein wenig besser

hesTeR-
2016-06-30, 09:01:16
was ich wirkloch toll finde ist die verfügbarkeit der karten.... sowas habe ich lange nicht mehr gesehn.

Ich werde mir eine schöne custom holen, habe was gehört vom 07.07 für die customs :)

Grendizer
2016-06-30, 09:02:45
o


Und auch FALLS NV in ein paar Wochen einen Papierlaunch mit der 1060 hinlegt, wird die 480 noch lange die beste lieferbare Karte in diesem Preissegment sein.

greetz
US

Für die nächsten 3 Monate wird das so sein, passend zum Weihnachtsgeschäft ist die 480 dann aber nur noch über den Preis an den Mann zu bringen sein.

dildo4u
2016-06-30, 09:03:02
offizieller Schichtbeginn der NV-Marketeers?
Haben die doch wieder ein Haar in der Suppe gefunden, auf dem sie solange rumreiten bis viele glauben, dass es ein grüner Baumstamm ist:freak:

Und leider wirds wohl wieder funktionieren.:mad:

Wie die Reviews fast einhellig zeigen: Die RX 480 ist die mit Abstand beste Karte in dem Preisbereich.
Und auch FALLS NV in ein paar Wochen einen Papierlaunch mit der 1060 hinlegt, wird die 480 noch lange die beste lieferbare Karte in diesem Preissegment sein.

greetz
US


Du hast doch vor dem Launch was von OC im Bereich der 1070 gelabert,scheint mir als wenn ich das ganze deutlich realistischer eingeschätzt habe.
Genau das was ich geschrieben habe ist eingetreten AMD musste erstmal den Sprung zu Maxwell machen,ist also wieder eine Generation hinten dran.

Sir_Freezer
2016-06-30, 09:05:19
Ich finde die Karte gelungen, also nicht perfekt! Grundsätzlich trübt "nur" das Überschreiten der Standarts für I in Ampare...
Warum hat man das gemacht? Ich vermute, dass man mit sehr kurzfristig Gewissheit über die Leistung einer GTX 970 kommen wollte - Komme was wolle!
Letztlich hat das AMD geschafft. Bitte vergleicht "stock" GPUs immer nur mit "stock" GPUs und zieht keine MSI Massiv-OC-Gaming-Karte heran.
Ansonsten wird hier, wie ich bereits schon vermutete, in der ~200€ Euroklasse, dank Brexit jetzt ~250€ ^^,
seit langem mal wieder richtig was geboten. Speicherlimitierungen wirds durch 8GB vRam in 1080p so schnell garantiert keine geben. Der Rest, wie zB. Treiberoptimierung wird sich zeigen.

Vielleicht macht sich ja Igor nochmal die Arbeit einen kurzen "light" Artikel über Polaris/Vega zu verfassen, indem die Effizienz, IPC in Abhängikeit des PT und der benötigten Spannung aufzeigt.
Bin mir sicher, dass sich das Teil auch mit 140W bis 150W TDP ganz gut betreiben lässt und damit innerhalb des Standarts für PCI-E + 6Pin Anschluss bleibt.

Du kannst auch gleich 1x 6pin und 8pin dran klatschen, es ändert nichts daran, dass das Bios zuviel aus dem PEG zieht. Dass es sich hierbei um einen Bug handelt, ist dir entgangen.
Effizient mit einer uArch die für ganz andere Zwecke ausgelegt ist als die der Konkurrenz. Spätestens mit Volta knutschen sich beide in den gleichen Gegenden.

Zumindestens könnte man es dann per Bios aufteilen und neu zuweisen.
Problem wäre dann imho schon gelöst. Genug Phasen hat Polaris ja...
Wie meinst du das in Bezug auf Volta?
Es ist ja noch nichtmal sicher, dass Volta noch im 14/16nm Finfet Prozess gefertigt wird.

Isen
2016-06-30, 09:07:40
@dildo4u

Von was für einen Sprung sprichst du ständig?
Völlig verschiedene Architekturen mit völlig unterschiedlichen Ansatz hinsichtlich low-Level-API.

Käufer der 480 werden in DX12 Titeln eine noch rundere Karte haben als mit einer 1060.

Schau dir doch p100 an. Da geht die Effizienz gleich mal nach unten, warum wohl? Warte mal auf Volta und Navi - da treffen sich NV und AMD hinsichtlich Effizienz zum High Five und das Spiel geht von vorne los. NV war mit Fermi der Buh-Mann. Ein hin und her. Interessiert mich auch nicht die Bohne... mich interessiert nur das warum und das ist so glasklar, wie Kloßbrühe. Und nicht wie du es gerne hättest, wegen Unfähigkeit.

dildo4u
2016-06-30, 09:10:19
Was hat P100 mit dem Gamer Pascals zu tun?

Isen
2016-06-30, 09:11:57
Oh Gott... alles klar. Ich wünsch dir was

P.S
Dein "Gamer" ist DX11 ^^

Armaq
2016-06-30, 09:16:50
Kann jemand mal bitte nvidias marketing maschine aka dildo4u aus dem Thread werfen? Sorry, aber das ist einfach nicht mehr normal in welcher Frequenz hier ein "Fakt" nach dem anderen durch den Schlamm gezogen wird und bei Gegenargumenten wird einfach auf irgendwas anderes gewechselt, um dann wieder kräftig drauf zu hauen.

Ich bin für Vsync Tests mit den gängigen Karten! :)

Eine Idee noch an unsere lieben Redakteure: Ihr könntet in euren Grafiken mit einfach Trennlinien die verschiedenen Preisregionen innerhalb der Benchmarks abgrenzen. Dann sieht man auch schnell, in welchem Verhältnis die Karten stehen. Es gab so einzelne Benchs, bei denen man sein 650€ Kauf gar nicht mehr rechtfertigen kann, wenn man es ökonomisch betrachtet.

dildo4u
2016-06-30, 09:19:50
Oh Gott... alles klar. Ich wünsch dir was

P.S
Dein "Gamer" ist DX11 ^^
Hä Pascal legt mit Asynchron Compute zu und wird nicht weniger Effizient als unter DX11.

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/11/#abschnitt_pascal_profitiert_tatsaechlich_von_async_compute

Isen
2016-06-30, 09:20:08
@Sir_Freezer,

Unabhängig der Fertigung. Architektur meine ich.
NV nähert sich GCN. Mit Pascal bereits schon, allerdings nur geringfügig. Mit Volta eben den Rest.
NV bleibt nichts anderes übrig es zutun.

@dildo4u,

Ja warum wohl? Mein Gott, langsam genug von dir.
Geh Papa Google fragen, Stecker Spec hast du ja auch noch vor dir. Hast genug zutun. In der Zwischenzeit gehst du den Leuten hier nicht auf den Sack.

Lurtz
2016-06-30, 09:21:30
"Nicht so mies" ist allerdings zu wenig, wenn es darum geht, dem Marktführer relevante Marktanteile abzunehmen.
Genau, würde die Karte zum Launch VP9-Dekodierung können, würde nVidia davon überrollt :ugly:

Genauso wenig wie die PCIe-Specs die Masse interessieren. Sonst wäre die 970 mit ihrem Ram total gefloppt.

Ja, es ist enttäuschend dass 14nm-GCN gegen 28nm-Maxwell effizientechnisch so schlecht aussieht. Das spielt für die Verkaufsaussichten aber erstmal keine Rolle und die RX 480 wird da durchaus ihre Käufer finden.
Dass AMD total an nVidia vorbeizieht, wird nicht mehr passieren, da braucht man sich gar keine Illusionen zu machen. Ein Blick aufs Budget dürfte reichen.

Herr Doktor Klöbner
2016-06-30, 09:24:39
Ich finde einiges am RX 480 suboptimal, bin eher enttäuscht und bin gegebenenfalls bereit mir eine ordentliche Custom Variante für 220-230,- zu kaufen, als nicht ganz überzeugenden Kompromiss.

Was mir aber sauer aufstößt, ist das hier und auch in vielen anderen Foren Leute unterwegs sind, die es regelrecht abfeiern wenn AMD ein kritikwürdiges Produkt bringt. Leute wie diese haben entweder ein fettes NVidea und/oder Intel Aktionpaket, oder hochoffiziell einen an der Klatsche, aber so richtig.

So nach dem Moto: Danke NVidia, das ich für eine Grafikkarte der Mittelklasse 500,- € zahlen darf, danke Intel, das ich unwürdiger einen Tausender für einen 8Kerner abdrücken darf. Gibt es im Nvidia Fanshop eigentlich auch passende Bettwäsche ? Die wäre für so manchen Diskutanten hier aber auch z.B bei Computerbase das passende Weihnachtsgeschenk. Das wir im Moment bei Grakas und X86 Prozessoren keinen funktionierenden Markt haben ist scheiße, wer sich als Nichtaktionär darüber freut ist komplett aus der Spur gelaufen.

igg
2016-06-30, 09:26:28
Wie kam es denn zu dem Problem mit der Leistungsaufnahme? Evtl. weil aufgrund des extrem starken GP104 Launchs die Taktraten angehoben wurden?

Isen
2016-06-30, 09:27:38
Bug im Bios.
Wie es dazu kam usw kann man sich nur ausmalen. Und malen tun eher gerne Kinder.

memakr
2016-06-30, 09:30:40
Gibt es irgendwo einen Test, bei dem die 480er untertaktet wurde? Da ich nicht unbedingt die Performance brauche, wäre es interessant wie sich Perf/Watt in diese Richtung entwickelt.

Ich meine nicht die reine Absenkung der Spannung wie im CB-Test (brachte ja nichts, da die Karte ständig in das PT lief).

Wäre dann ne Abwägung für mich ob 470 oder 480 mit reduziertem Takt/Spannung.

dildo4u
2016-06-30, 09:30:56
Wie kam es denn zu dem Problem mit der Leistungsaufnahme? Evtl. weil aufgrund des extrem starken GP104 Launchs die Taktraten angehoben wurden?
Diese Karten sind nicht der 480 Gegner,vermutlich hat Globalfoundries einfach Mist mit ihren 14nm Node gebaut.Zen wurde deswegen schon auf TSMC umgestellt.


http://wccftech.com/amd-contracts-tsmc-produce-zen-16nm-woes-14nm-process-troubles-globalfoundries/

Isen
2016-06-30, 09:31:42
@memakr

Warte auf die Customs wenn dir die Zeit nicht so in den Nacken kriecht.

X.Perry_Mental
2016-06-30, 09:31:49
Hoffentlich wird es in den kommenden Tagen/Wochen noch ein paar Tests geben, in denen man Chip-Spannung, erreichbaren Takt und Verbrauch ein wenig näher untersucht. Ich würde gerne wissen, wo der Sweet Spot der Karte eigentlich liegt.

Ätznatron
2016-06-30, 09:31:56
Die DX12-Performance ist ja mal recht ordentlich:

In AotS gleichauf mit der GTX 980

https://abload.de/img/wqhd_aotsnpse4.jpg (http://abload.de/image.php?img=wqhd_aotsnpse4.jpg)

In Hitman der direkten Konkurrent haushoch überlegen

https://abload.de/img/wqhd_hitman7rso7.jpg (http://abload.de/image.php?img=wqhd_hitman7rso7.jpg)

DX12 WHQD-Benches von HT4U (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index40.php - http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index41.php)

Und Vulkan-mäßig sieht es auch gut aus:

https://abload.de/img/vulkan_dota42k19.jpg (http://abload.de/image.php?img=vulkan_dota42k19.jpg)

(http://www.phoronix.com/scan.php?page=article&item=amdgpu-rx480-linux&num=11)

Von der reinen Performance gibt's ja bei der Verwendung modernster APIs nicht zu meckern.

igg
2016-06-30, 09:32:35
Diese Karten sind nicht der 480 Gegner,vermutlich hat Globalfoundries einfach Mist mit ihren 14nm Node gebaut.Zen wurde deswegen schon auf TSMC umgestellt.


http://wccftech.com/amd-contracts-tsmc-produce-zen-16nm-woes-14nm-process-troubles-globalfoundries/
Natürlich sind sie nicht der Gegner, aber zu groß darf der Abstand nicht sein... danke für den Link!

StefanV
2016-06-30, 09:33:14
Bei der Effizienz geht es nicht nur um Stromkosten (die extrapoliert auf Nutzungsdauer dann doch ein Batzen Geld ausmachen kann) sondern auch um Abwärme..
Komm, hör auf mit der Scheinheiligkeit!

Wenn es dir wirklich um den Stromverbrauch ginge, würdest du erst einmal 30fps Framelimiter bewerben, denn das drückt den Stromverbrauch ENORM...

Aber dann kann man halt nicht mehr über die Radeons motzen, oder?

Und wenn du dann noch einen Bildschirm mit CCFL Backlight nutzt, ist das noch derber, insbesondere wennst den voll aufdrehst...

Weil Stromverbrauch vom Bildschirm ist ja egal, auch wenn der über 100W verbrät...

medi
2016-06-30, 09:33:57
@memakr

Warte auf die Customs wenn dir die Zeit nicht so in den Nacken kriecht.

Seh ich auch so. Wenn die das Stromdesaster in den Griff bekommen und nen vernünftigen Kühler draufpacken und das Ganze unter 250€ anbieten und das bis Mitte August dann ist doch alles i.O. :D

gr33nyx
2016-06-30, 09:35:08
Sorry, wenns schon irgendwo stand!

Ist schon bekannt, wann die Hardware-Seiten Tests der RX 480 4GB veröffentlichen? Bzw. 480 4GB vs. 8GB - Benches?

Mich würde echt interessieren wieviel % Leistung durch den kleineren (und langsameren) RAM in 1080p verloren geht.

Denn preislich ist 269 € vs. 219 € schon ein Unterschied.

Danke !

hesTeR-
2016-06-30, 09:36:46
gibt es da irgendwie infos zu das der ram wirklich langsamer ist ?

ist euch mal aufgefallen das mindfactory seine 4gb karten ausm programm genommen hat?

Isen
2016-06-30, 09:37:03
Ist bekannt. Es wurden Bios von der 470 vergeben, zwecks testen mit einer 480.

Magensaft
2016-06-30, 09:37:58
Ich schließe mich dem Wunsch nach einem Undervolting Review der RX480 an.

Ich denke aber auch, das die Karte im letzten Moment nochmal höhere Taktraten und Spannung verpasst bekommen hat um damit in Reviews besser bestehen zu können, letzten Endes war das für den Massenmarkt bestimmt die richtige Entscheidung.

Was mich einfach interessiert ist, wo liegt der Sweetspot der Karte und welches Gesammtbild ergibt sich dann daraus. Wenn sich herausstellt, das die Karte eigentlich knapp unter der GTX970 rangiert dabei aber Ihren Verbrauch besser Regelt wäre das, für mich zumindest, ein deutlich positiverer Ersteindruck gewesen.
Das sich sowas aber schlecht an jemanden vermarkten lässt, der Grundsätzlich nur Preis/Leistung als Attribute akzeptiert steht auf einem anderen Blatt.

Wenn sich also jemand die Mühe machen würde die Karte (Referenzmodel) mal ins rechte Licht zu rücken wäre das bereits eine gute Basis für den weiteren Verlauf dieser Diskussion.

dildo4u
2016-06-30, 09:38:34
gibt es da irgendwie infos zu das der ram wirklich langsamer ist ?

ist euch mal aufgefallen das mindfactory seine 4gb karten ausm programm genommen hat?

Unten auf der Seite ab 7 GBit/s.

http://www.amd.com/de-de/products/graphics/radeon-rx-series/radeon-rx-480

Flusher
2016-06-30, 09:39:56
AMD hätte das bleiben lassen sollen aber Nvidia und die User haben sie nunmal in diese Ecke gezwungen.

Wieso hier nur mit einer GTX 980 aber nicht mit einer GTX 970 und dann auch nur auf FPS ebene verglichen wurde bleibt mir schleierhaft

Man sollte bei der RX480 die GTX 980 überhaupt nicht als Ziel sehen sondern sich vorrangig auf die GTX 970 konzentrieren

http://abload.de/img/shdbsjhfmbkh6.png

In die Ecke gezwungen hat sich AMD zunächst einmal wieder selbst. Die Designs der letzten Jahre haben immer wieder gezeigt, dass man das geplante Performancefenster knapp verfehlt und dann mit dem Takt den Chip bis zur Kotzgrenzen prügeln muss um halbwegs konkurrenzfähig zu sein. Darunter litt jedes mal der Stromverbrauch und damit verbunden auch die Kühlung der Referenzdesigns.

Siehe Tahiti, Hawaii, Fiji und nun Polaris. Wie blöd muss man eigentlich sein, jedes mal den selben Fehler zu machen?

hesTeR-
2016-06-30, 09:40:19
Unten auf der Seite ab 7 GBit/s.

http://www.amd.com/de-de/products/graphics/radeon-rx-series/radeon-rx-480

und wie sehe ich da wie schnell der 4gb ist und wie schnell der 8 ?

Civtam
2016-06-30, 09:40:19
Die DX12-Performance ist ja mal recht ordentlich:

In AotS gleichauf mit der GTX 980

https://abload.de/img/wqhd_aotsnpse4.jpg (http://abload.de/image.php?img=wqhd_aotsnpse4.jpg)

In Hitman der direkten Konkurrent haushoch überlegen

https://abload.de/img/wqhd_hitman7rso7.jpg (http://abload.de/image.php?img=wqhd_hitman7rso7.jpg)

DX12 WHQD-Benches von HT4U (http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index40.php - http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index41.php)

Und Vulkan-mäßig sieht es auch gut aus:

https://abload.de/img/vulkan_dota42k19.jpg (http://abload.de/image.php?img=vulkan_dota42k19.jpg)

(http://www.phoronix.com/scan.php?page=article&item=amdgpu-rx480-linux&num=11)

Von der reinen Performance gibt's ja bei der Verwendung modernster APIs nicht zu meckern.

Da war ich gestern auch sehr positiv überrascht. An der DX12 Performance ist nichts aus zu setzen. Es wird vermutlich ähnlich Hawaii: Ein suboptimaler Launch, dafür eine lange Haltbarkeit und die Performance verbessert sich auch stetig. Im Vergleich zu Hawaii benötigt der 08/15 User auch kein Spitzennetzteil. Ein gutes 400 er reicht vollkommen aus.

Ich bin mit meiner 290 auch immer noch sehr zufrieden und warte auf Vega :)

TheGood
2016-06-30, 09:41:52
Ach allen Trollen hier zum Trotz: Die Karte ist am Ende richtig gut geworden, hat aber auch seine Schattenseiten. Aber das ist auf beiden Seiten das gleiche.

Vor allem in DX12 zeigt Sie aber dass Sie dort richtig gut performt und auch in Zukunft wird das nicht anders werden, dank den Konsolen. Daher muss man bei der Performance Einordnung aus meiner Sicht auch mitberücksichtigen. Die Zukunftsicherheit sieht wieder richtig gut aus.

Dass Nvidia so schnell kontert ist doch ein richtig gutes Zeichen. Es kann mir sagen wer will, aber das war so von Nvidia alles sicherlich nicht geplant. ES gibt viele Leute die sich bei den Shops aufregen, dass die 1070 und 1080 nicht geliefert wird, da sie schlichtweg nicht verfügbar ist. Dasselbe wird wohl auch für eine 1060 gelten, da diese in einem viel grösseren Massenmarkt treffen wird. Jetzt kommen gleich wieder die Kommentare, dass die Graka ja so viel nachgefragt wurden und deshalb ausverkauft sind. Das ist am Ende aber wurscht, da den Kunde nicht interessiert warum er darauf warten muss. Viele Leute sind dort auch schon etwas angefressen...

Egal auf jedenfall hat AMD hier eine gute Karte abgeliefert mit Abzügen in der B-Note und leider der überstrapazierung der Stromversorgung. Abseits davon ist das ein wirklich gutes Produkt und das sieht die breite Masse der Tester interessanterweise genau gleich. Daher sollte man sich daran halten und nicht an die grünen Trolle in den Foren...

Daher warte ich auf Customs die dieses Problem nicht haben werden und schlage zu.

Disco_STFU
2016-06-30, 09:42:14
Gibt es irgendwo einen Test, bei dem die 480er untertaktet wurde? Da ich nicht unbedingt die Performance brauche, wäre es interessant wie sich Perf/Watt in diese Richtung entwickelt.

Ich meine nicht die reine Absenkung der Spannung wie im CB-Test (brachte ja nichts, da die Karte ständig in das PT lief).

Wäre dann ne Abwägung für mich ob 470 oder 480 mit reduziertem Takt/Spannung.

Das würde mich auch sehr interessieren. Powertarget/Taktraten runter, Spannung runter!

Hasenpfote
2016-06-30, 09:43:55
Ja, die Karte ist aktuell P/L-Sieger in der Region von 250Euro
Ja, die Karte liefert ausreichend Leistung für 1080p, womit die meisten Leute heutzutage spielen.
Ja, die Masse wird die Karte kaufen, analog zur 970.

Trotzdem wird man doch wohl mal sagen dürfen, dass man total enttäuscht von AMD ist, weil die eine neue Fertigungstechnologie benötigen um auf den Stromverbrauch von Nvidias Vorgängergeneration zu kommen! Vor allem nach dem Gehype wie toll und super Polaris wird. Showtime bringt es auf den Punkt:
Ich glaube, es geht nicht um den realen Stromverbrauch, sondern um das Gefühl, ineffiziente, veraltete, irgendwie unzeitgemäße Hardware zu kaufen. Ich sage nicht, dass diese Adjektive auf die 480er-Karten zutreffen. Aber dieses unschöne Gefühl wird halt beim Kunden (zu diesem Zeitpunkt praktisch ausschließlich der typische Early-Adopter-Techniknerd) hervorgerufen.Ich fühl mich über den Tisch gezogen. Ich sehe was technisch möglich ist (doppelte Performance bei gleichem Stromverbrauch) und muss aus finanziellen Gründen mit der Vorgängergeneration Vorlieb nehmen. (Ja, Porsche kostet auch mehr als VW, und ist schneller, säuft dafür aber auch mehr)

Bzgl. Stromverbauch: Es geht weniger um die 10Euro mehr pro Jahr. Es geht um Lautstärke, u.a. vom Netzteil. Das bei 100W mehr von nicht hörbar in einen deutlich hörbaren und nervigen Bereich wechselt (übrigens ein Grund, warum ich eine 7950 wieder zurück geschickt habe). Wenn die Karte im Dualmonitorbetrieb mit bissel Mausgeschubse auf über 80W geht, ist das auch ein großer Minuspunkt. Und wenn ich zur GK ein neues Netzteil kaufen soll, kann ich stattdessen auch die höherwertigere Grafikkarte kaufen.

Und Schlussendlich:
Wie soll ich als Kunde den Konzernen denn klar machen, dass ich mit ihrem Müll nicht einverstanden bin? Ich bin mit Hardware aus dem Jahr 2009 unterwegs! Die 5870 war gebraucht nachgekauft. 7 Jahre Konsumverzicht, und langsam will ich auch mal wieder neues Spielzeug! :(

Zur 970:
Die Karte ist super für Auflösungen bis 1080p! Solange man unter den 3,5GB bleibt, ist sie schnell und leise. Nvidias Lügerei und Trickersei ändert daran mal gar nichts (was man auch an den Verkaufszahlen sieht).

dildo4u
2016-06-30, 09:44:57
und wie sehe ich da wie schnell der 4gb ist und wie schnell der 8 ?
Die 4GB Karte hat wie dort auch steht 224GB/s Bandbreite ,die 8GB Karte 256.


http://abload.de/img/1467041759_amd-rx-4801fs7o.jpg

Sir_Freezer
2016-06-30, 09:45:04
@Isen,

Ja und genau das verstehe ich nicht.
Wie kommst du darauf?
Imho trennen sie sich ja sogar wieder.
Imho ist Pascal ein Maxwell 3.0 mit einem Frequenzturbo von ~50%, mit ansonstem indentischem Featureset!
Kurzgesagt: Alles bissl verbessert (Speicherausbau in GB, Speicherkompression "Z-Buffering", Speicherart, Stromverbrauch, ..., mehr aber eben nicht.
Rest wie gehabt.

Bei AMD ist der Takt verhältnismäßig ähnlich geblieben, vorallem in Vgl zu NV.
Die Mehrleistung kommt aus der ~15% IPC Steigerung.
Schade ist quasi JETZT schon die Bandbreitenlimitierung von Polaris.
Die RX480 könnte mehr. 12,5% mehr Ramtakt ergeben 6,5% mehr Leistung.
Das ist dem Verhalten der GTX 1080 ähnlich und damit kein gesundes Verhältnis.

@ Lurtz,

der GTX 970 Vergleich hinkt, da dort KEINE Spezifikationen gebrochen worden sind.

@ Doc Klöbner,

Stimme ich zu, außer das Intel Aktionäre aktuell wahrscheinlich selber nicht zufrieden sind!

deekey777
2016-06-30, 09:48:10
1. Wer hat denn in diesen Tagen keine IGP?! Das ist doch ein verschwendend geringer Teil, zumal diese Plattformen vom Stromverbrauch eh nicht so dolle sind. Warum sich also über den Verbrauch aufregen?!
Wer dann noch einen CCFL Schirm verwendet, dem schlägt dann dem Fass der Boden aus!
Die Teile saufen nämlich mal locker 50-150W, je nach Größe und Helligkeit. Natürlich nur mit besserem Panel versteht sich (IPS, VA)...
Und wenn die CPU bzw. das Mainboard keine IGP hat? Beantworte doch diese Frage?

2. hast du das überhaupt irgendwann mal gemacht oder wie kommst du darauf, dass das nicht gehen soll?!
Denn bei D3D ists bei modernen Windows Versionen so, dass alles von der Primären Grafikkarte berechnet wird, ist also auch überhaupt kein Problem...
Hast du es?
Hattest du schon in den Händen einen Fertig-PC, der nur eins versteht: Entweder oder. Entweder ist die PEG-Grafikkarte für die Grafikausgabe zuständig und die iGPU deaktiviert wird, oder die iGPU und die Grafikkarte im PEG wird deaktiviert.

Aber dafür braucht eh ein Crossfire Gespann, da das unheimlich Leistung frisst!
bei 3x Full HD wärens dann 5760x1080 Pixeln...

Ja klar....

Da frage ich dich direkt:
Warum verbaut AMD so viele Monitorausgänge dann auf den Radeons, wenn diese gar nicht nötig sind?

HT4U hat erneut unverständlich hohen Verbrauch gemessen. Ende.

DinosaurusRex
2016-06-30, 09:50:36
Was mir aber sauer aufstößt, ist das hier und auch in vielen anderen Foren Leute unterwegs sind, die es regelrecht abfeiern wenn AMD ein kritikwürdiges Produkt bringt.

Menschen übertragen die Verantwortung für den Schutz gegen äußere Einflüsse ihrem Verstand. Der Verstand erschafft daraufhin ein Konstrukt, das diesen Schutz gewährleisten soll. Fälschlicherweise wird dieses Konstrukt mit dem verwechselt, was gemeinhin als "Realität" bekannt ist. Informationen, die das Konstrukt bestätigen, werden vom Verstand als Belohnung für die eigene Leistung aufgefasst. Das ist der Grund, warum Menschen mit positiven Gefühlen auf vermeintlich schlechte Dinge reagieren können ("Hab ichs doch gewusst!"). Informationen, die das Konstrukt widerlegen, werden als Störung wahrgenommen und vom Verstand bekämpft. Im Klartext bedeutet das, dass der Mensch sein ganzes Leben lang beschäftigt ist, einen Kampf gegen die Realität auszutragen. Das ist selbstverständlich ein vergeblicher Kampf, denn auf alles, was außerhalb unserer Gedanken liegt, haben wir keinen Einfluss. Der einzige Kampf, der es wert ist, gekämpft zu werden, ist der gegen den eigenen Verstand, um zu verhindern, dass so ein Konstrukt überhaupt erst entsteht.

iuno
2016-06-30, 09:53:24
Ich hatte das so verstanden, dass P10 die einzelnen CUs nur komplett abschalten kann, P11 aber noch feinere Abstufungen machen kann.
P11 schaltet CUs ab, P10 nicht.
Ich denke, dass das einfach nicht viel bringt oder das An/Abschalten zu lange dauert, als dass man es wirklich in einem Spiel machen koennte ohne dass die Frametimes kaputt gehen. Sie muessen schon recht frueh entschieden haben, es nicht in P10 zu integrieren und das muss auch einen Grund gehabt haben. Denn Carrizo hat das Feature in Hardware, P11 hat es auch, an der Machbarkeit hat es also sicher nicht gelegen. Es bringt wahrscheinlich nur ein paar Watt im 2D Betrieb (wo eh schon Clockgating betrieben wird/die Takte eh schon niedrig sind) und das wars.

Dorn
2016-06-30, 09:53:52
Also wenn ich so ein Unsinn aus dem Fefe Blog lese, wenn man nicht wirklich Ahnung von der Materie hat sollte man lieber garnichts schreiben:

https://blog.fefe.de/?ts=a98ad53e
Zitat:
[l] Na super. Das Warten auf AMD Polaris hat sich eher nicht gelohnt. In Benchmarks schafft es die Radeon RX 480 mit Ach und Krach auf die Performance einer GTX 970 — eine zwei Jahre alte Karte, die ähnlich viel kostet.

Und nach all dem PR-Gepupe über die viel bessere Effizienz schluckt die GTX 970 für die gleiche Leistung auch noch weniger Strom — und das obwohl die RX 480 14nm Strukturbreite fährt und die GTX 970 noch 28nm hat.

Dazu kommt, dass uns mal wieder sowohl AMD als auch Nvidia mit defekten Produkten zu beschubsen versuchen. AMD zieht mehr Strom vom Mainboard als die PCIe-Spec erlaubt, und bei Nvidia ist die DVI-Ausgabe im Eimer, wenn der Pixeltakt zu hoch wird.

Es ist doch alles zum Heulen.

Wer sich also gefragt hat, wieso Nvidia für ihre GTX 1070 und 1080 derartige Mondpreise aufrufen konnte, der hat jetzt die Antwort. Für den Preis von einer 1070 kriege ich zwei RX 480, die haben dann vielleicht eine vergleichbare Leistung (wenn Crossfire geht, was wohl eher eine Glückssache ist — Hörensagen, ich habe das noch nie ausprobiert). Dafür zieht das dann auch fast doppelt so viel Strom wie die eine GTX 1080.

Was für ein Reinfall, dieses Jahr.

Ich verstehe auch AMD nicht. Nachdem Nvidia mit diesem High-End-Scheiß eröffnet hat, kann AMD doch nicht mit so Kleinscheiß dagegenhalten, und die größeren Karten für das Jahresende ankündigen?! Und dann noch den Notnagel Overclocking zunageln mit nur einem 6-Pin-Stromstecker.
Zitat Ende
Meine Meinung dazu: :facepalm:

memakr
2016-06-30, 09:58:12
In Benchmarks schafft es die Radeon RX 480 mit Ach und Krach auf die Performance einer GTX 970 — eine zwei Jahre alte Karte, die ähnlich viel kostet.

Edit2: das Quote bezieht sich natürlich auf das Zitat aus dieser Quelle: https://blog.fefe.de/?ts=a98ad53e , nicht das Du Dorn das missverstehst!

Zum Heulen ist vielmehr, dass hier ständig die Kausilitäten verdreht werden. Kapiert es doch endlich:

Erst in Anbahnung der RX-Serie kam es zu den Preissenkungen. Und zwar genau auf dieses Niveau, dass NV P/L-mässig (wie immer) etwas über AMD steht. Und genau dieser Umstand wird jetzt negativ ggü. der AMD-Karte ausgelegt.:freak:
Ohne die RX480 wären sämtliche Karten dieser Klasse noch auf ihrem alten 300€+ Stand. Tip: BWL-Einführungskurs besuchen - Kopfschüttel....

Edit: Nichtmal nach dem VRAM-Debakel hat NV die Preise gesenkt (wäre ja sonst auch ein Eingeständnis markttechnischer Natur gewesen)! Die Preise wären heute noch stabil!

Ätznatron
2016-06-30, 09:58:47
Ich fühl mich über den Tisch gezogen. Ich sehe was technisch möglich ist (doppelte Performance bei gleichem Stromverbrauch) und muss aus finanziellen Gründen mit der Vorgängergeneration Vorlieb nehmen. (Ja, Porsche kostet auch mehr als VW, und ist schneller, säuft dafür aber auch mehr)


Da kein Kaufzwang besteht, wirst du auch nicht über den Tisch gezogen.

Und für deine finanzielle Situation möchtest du doch wohl nicht ernsthaft AMD verantwortlich machen, oder?!

Ätznatron
2016-06-30, 10:00:32
Meine Meinung dazu: :facepalm:

Ja, dieser fefe ist ein richtiger Checker...sein Blog sagt schon alles.

Rancor
2016-06-30, 10:06:21
Finde die Karte als Gesamtpaket auch gut ( Ich habe ne 1070 ). Besonders unter DX 12 siehts sehr ordentlich aus, da hat Nvida noch viel zu tun, da ist der AMD Treiber einfach weiter, was wohl daran liegt das AMD mit Mantle ordentliche Erfahrung im low level API Bereich sammeln konnte und Nvidia damals ja nicht mitmachen wollte.

An der Karte geht für Mittelklasse Gaming Rechner kein Weg dran vorbei. Man darf auf Vega gespannt sein.

ashantus
2016-06-30, 10:06:26
Sorry, wenns schon irgendwo stand!

Ist schon bekannt, wann die Hardware-Seiten Tests der RX 480 4GB veröffentlichen? Bzw. 480 4GB vs. 8GB - Benches?

Mich würde echt interessieren wieviel % Leistung durch den kleineren (und langsameren) RAM in 1080p verloren geht.

Denn preislich ist 269 € vs. 219 € schon ein Unterschied.

Danke !

Anandtech hat 4GB und 8GB getestet.

http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview

deekey777
2016-06-30, 10:10:44
Irgendwie erinnert mich die Diskussion an die Veröffentlichung der Fury X. Die gleichen Gegenargumente: Die Karte lohnt sich nicht, es gibt günstigere Konkurrenz, auch die R9 390X ist nicht viel langsamer, aber günstiger.

Warum ist es schwer zu kapieren, dass ein neues Produkt meist deswegen besser ist, weil es neu ist? Neu ist immer besser. Man kann einfach nicht einwenden, dass die Vorgänger, die paar Jährchen auf dem Buckel haben, besser sind, weil sie heute deutlich günstiger sind und im Preis mit der RX 480 mithalten können. Das ist doch scheißegal.

Die RX 480 bringt unzweifelhaft Neuerungen mit, insbesondere soll sie ihre Leistung auf dem Papier besser in die Realität umsetzen können. Sie bringt bessere Tessellationsleistung. Ja, der Verbrauch im Multimonitorbetrieb ist unnötig hoch, auch die Belastung des PEG.

Und an die Ewiggestrigen: Es ist die erste Grafikkarte von AMD, die wohl das ganze UHD-HDR-HDCP-2.2-HDMI-2.0b-Zeug beherrscht. Sie ist die einzige Grafikkarte von AMD und neben der 1080/1070 erst das dritte Produkt, mit dem Netflix&Co in UHD auf dem PC abgespielt werden können. Sie ist die erste Grafikkarte von AMD, die VP9-Dekodierung in Hardware beherrscht, die erste Grafikkarte, die auch HEVC de- und encodieren kann. Dazu kommt das 2-Pass-Encoding (interessant zu wissen, wie das wirklich funktioniert, wenn es für Twitch gedacht ist).

Also föhnt euch die Achselhaare und hoilt sonst wo.

Lowkey
2016-06-30, 10:17:50
@deekey777: dein Post ist zu einseitig. Sich die Karte schönreden um sie dann später zu kaufen funktioniert nicht. Wenn sie gut wäre, dann würde man keine gegenteiligen Meinungen in den Foren suchen, die Zusammenfassung auf 3Dcenter abwarten und letztlich kaufen. Kein normaler User kauft sich die Karte als Referenzversion. Die hat gebraucht später keinen Wert. Man achte nur auf die 970 Referenz, die sich schleppend verkauft hat.

Ihm
2016-06-30, 10:18:29
Noch einmal zur Erinnerung:
Die RX 480 ist nicht die Antwort auf die Nvidia GTX 1070/1080.
Weder im Single noch im Crossfire Modus.

Sie ist eine Grafikkarte auf dem Leistungsniveau der Nvidia Vorgängergeneration mit aktuellerem Featureset.
Zwei RX 480 kosten zwar weniger als eine GTX 1080, dafür muss man aber Kompromisse in Kauf nehmen:

1. Leistungsaufnahme
Im Vergleich zur 1070 und 1080 schlicht desaströs.
Eine 1080 verbraucht ungefähr so viel wie eine RX 480, aber bei etwa doppelter Performance.
Zwei RX 480 im Crossfire-Verbund verbrauchen also in etwa...genau...autsch.

2. Crossfire
Goldene Regel bleibt weiterhin: Keine (Mikro)Ruckler, volle Kompatibilität, mehr Spielraum beim Konfigurieren des Systems -> Single-Grafikkarte.
Wer das Niveau der GTX 1080 mit zwei RX 480 im Crossfireverbund erreichen möchte, der sollte sich über die möglichen Folgen im Klaren sein.

Fazit:
Wer heute schon mehr Leistung braucht, zum Beispiel für VR, der wird um eine 1070/1080 kaum herumkommen (SLI/Crossfire wird noch nicht unterstützt).
Wer warten kann, der sollte zumindest auf AMD Vega warten.

Herr Doktor Klöbner
2016-06-30, 10:19:13
Mich würde mal interessieren wie die exakt gleiche Karte sich präsentieren würde, wenn sie bei TSMC im 16nm Prozess gefertigt würde. Ich denke da liegt ein großer Teil des Problems, aktuell hat GloFo wohl wenig Chancen zum Auftragsfertiger des Jahres gewählt zu werden.

Es spricht ja Bände das trotz Abnahmeverpflichtungen Vega und Zen bei TSMC gefertigt werden.

StefanV
2016-06-30, 10:19:20
Bzgl. Stromverbauch: Es geht weniger um die 10Euro mehr pro Jahr. Es geht um Lautstärke, u.a. vom Netzteil. Das bei 100W mehr von nicht hörbar in einen deutlich hörbaren und nervigen Bereich wechselt (übrigens ein Grund, warum ich eine 7950 wieder zurück geschickt habe).
Sorry, aber warum kaufst du dir solch ein mieses Netzteil?!
Und nach deinen Beschreibungen klingt das nach Enermax Triathlor oder aber Seasonic G-Serie, die bei 250W Primärlast ordentlich aufdrehen...

Antec TPC-550W ist etwas höher, aber immer noch mies.

Und das sind die einzigen Netzteile, die ich gerade habe, die wirklich bei dieser Last aufdrehen:
400W Cougar ist länger leiser, ja sogar das 350W Cougar STX...

Sorry, aber das klingt für mich eher so, als ob du ein mieses Netzteil gekauft hast und jetzt versuchst, deinen missglückten Kauf irgendwie schön zu biegen, statt das Problem an der Wurzel anzupacken und das Netzteil gegen ein gescheites/leises Modell auszutauschen, von denen es in diesen Tagen ja mehr als genug gibt...


Wenn die Karte im Dualmonitorbetrieb mit bissel Mausgeschubse auf über 80W geht, ist das auch ein großer Minuspunkt. Und wenn ich zur GK ein neues Netzteil kaufen soll, kann ich stattdessen auch die höherwertigere Grafikkarte kaufen.
Richtig, denn die GraKa muss ja auch an einem 10 Jahre altem Netzteil laufen, egal was dann passiert ;-)



Zur 970:
Die Karte ist super für Auflösungen bis 1080p! Solange man unter den 3,5GB bleibt, ist sie schnell und leise. Nvidias Lügerei und Trickersei ändert daran mal gar nichts (was man auch an den Verkaufszahlen sieht).
Hört doch bitte mit dem Auflösungsquatsch auf...
Die Auflösung hat bei den aktuellen Speichermengen kaum mehr Auswirkungen auf den Verbrauch, einzig und allein das Spiel selbst hat darauf Auswirkungen. Und da reden wir dann über die Art und Weise, wie der Speicher belegt wird (Caching, Texturen)...

darkcrawler
2016-06-30, 10:20:02
Die 4gb Sapphie soll 2ghz statt 1.75 haben
https://geizhals.de/sapphire-radeon-rx-480-21260-01-20g-a1467114.html

Geeman74
2016-06-30, 10:20:29
Edit2: das Quote bezieht sich natürlich auf das Zitat aus dieser Quelle: https://blog.fefe.de/?ts=a98ad53e , nicht das Du Dorn das missverstehst!

Zum Heulen ist vielmehr, dass hier ständig die Kausilitäten verdreht werden. Kapiert es doch endlich:

Erst in Anbahnung der RX-Serie kam es zu den Preissenkungen. Und zwar genau auf dieses Niveau, dass NV P/L-mässig (wie immer) etwas über AMD steht. Und genau dieser Umstand wird jetzt negativ ggü. der AMD-Karte ausgelegt.:freak:
Ohne die RX480 wären sämtliche Karten dieser Klasse noch auf ihrem alten 300€+ Stand. Tip: BWL-Einführungskurs besuchen - Kopfschüttel....

Edit: Nichtmal nach dem VRAM-Debakel hat NV die Preise gesenkt (wäre ja sonst auch ein Eingeständnis markttechnischer Natur gewesen)! Die Preise wären heute noch stabil!

Danke für die Zusammenfassung.

Nvidia war/ist durch die RX 480 gezwungen die Preise zu senken.

Ich wünsche AMD alles Gute. Meine HD 7950 Boost wird voraussichtlich durch eine RX 480 ersetzt. Aber wie so viele warte ich auf Custom Designs, um z.B. meine Old-School-Montore über DVI ansteuern zu können.

Ich freue mich vor allem auf die 8 GB und endlich wieder kompromisslos die höchste Texturqualität. Dann hat die GraKa genau soviel Speicher wie der PC. :biggrin:

scully1234
2016-06-30, 10:26:18
Man sollte bei der RX480 die GTX 980 überhaupt nicht als Ziel sehen sondern sich vorrangig auf die GTX 970 konzentrieren




Das ''Ziel'' ist die 1060.... und nicht eine 3 Jahre alte Grafikkarte

medi
2016-06-30, 10:27:19
Anandtech hat 4GB und 8GB getestet.

http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview

Oh danke. Sieht für mich so als an könne man sich die 8GB Version sparen solange da 50€ Preisunterschied sind.

Flusher
2016-06-30, 10:28:47
Edit2: das Quote bezieht sich natürlich auf das Zitat aus dieser Quelle: https://blog.fefe.de/?ts=a98ad53e , nicht das Du Dorn das missverstehst!

Zum Heulen ist vielmehr, dass hier ständig die Kausilitäten verdreht werden. Kapiert es doch endlich:

Erst in Anbahnung der RX-Serie kam es zu den Preissenkungen. Und zwar genau auf dieses Niveau, dass NV P/L-mässig (wie immer) etwas über AMD steht. Und genau dieser Umstand wird jetzt negativ ggü. der AMD-Karte ausgelegt.:freak:
Ohne die RX480 wären sämtliche Karten dieser Klasse noch auf ihrem alten 300€+ Stand. Tip: BWL-Einführungskurs besuchen - Kopfschüttel....

Edit: Nichtmal nach dem VRAM-Debakel hat NV die Preise gesenkt (wäre ja sonst auch ein Eingeständnis markttechnischer Natur gewesen)! Die Preise wären heute noch stabil!

Spielt doch keine Rolle?! Wenn du schon mit BWL für Anfänger kommst musst du AMD gleichzeitig unterstellen, dass sie davon scheinbar auch keine Ahnung haben. AMD muss ja schliesslich gewusst haben, dass es zu Preissenkungen der anderen Karten kommen wird. Dementsprechend muss sich das Produkt auch an Karten die bis anhin deutlich teurer waren messen.

Ich bin ja auch eher AMD freundlich zugeneigt, aber sich seit Jahren immer alles schönreden macht die Situation halt einfach nicht besser.

Grendizer
2016-06-30, 10:29:24
Danke für die Zusammenfassung.

Nvidia war/ist durch die RX 480 gezwungen die Preise zu senken.

Ich wünsche AMD alles Gute. Meine HD 7950 Boost wird voraussichtlich durch eine RX 480 ersetzt. Aber wie so viele warte ich auf Custom Designs, um z.B. meine Old-School-Montore über DVI ansteuern zu können.

Ich freue mich vor allem auf die 8 GB und endlich wieder kompromisslos die höchste Texturqualität. Dann hat die GraKa genau soviel Speicher wie der PC. :biggrin:


Quark ... nVidia wird keine Preise senken, sondern die 1060 auf den Markt bringen. Das ist nunmal die nVidia Karte die bis zur nächsten Generation gegen die 480 stehen wird.

AMD ist einfach nur ein paar Monate (3-4) früher dran als nVidia mit dem Generations Refresh. Deshalb ist es doch gerade auch schwachsinnig gegen die 970/980 zu vergleichen und dabei berauscht festzustellen, das sie so unendlich geil performt für nur 269 Euro. Und wie schlecht die 970 (wegen nur 3.5 Gb) ist.

Ich denke mir nur Bullshit... wieviel Leute haben denn wirklich bis heute gewartet weil sie unbedingt eine neue Karte brauchen. Die wenigsten brauchen sie so dringend, das sie nicht auf die 1060 warten könnten und erst dann bin ich bereit der AMD 480 ein positives Zeugnis auszustellen.

Ätznatron
2016-06-30, 10:30:50
Die neue Karte ist schon recht gelungen, als Aufrüstoption\Ersatz für meine alte Kepler GTX 780 6GB-Karte sehe ich die Karte dennoch nicht.

Sie ist zwar in allen Bereichen überlegen, aber nicht so deutlich, dass sich ein Wechsel lohnen würde.*

*edit:

Es sei denn, Custommodelle legen nochmal deutlich zu.

radical83
2016-06-30, 10:35:18
Die Karte geht im großen und ganzen in Ordnung. Sie hat Unzulänglichkeiten die man jedoch durch ein gutes Custommodell und Fehlerbereinigungen im Treiber wieder ausbessern kann.

Was mich jedoch, mal wieder, enttäuscht, ist die Art und Weise wie AMD seine Grafikkarten launcht. Mittlerweile muss man sich fragen ob dort nur noch gebündelte Inkompetenz an den zuständigen Positionen vorhanden ist.
Lesen die Personen die Tests ihrer eigenen Karten eigentlich nie? Es sind wieder viele (wenn auch z. T. kleine) Fehler gemacht worden die vermeidbar wären.
Das sich die Hardcore-Grünen darauf einschießen ist doch kein Wunder, schließlich hat AMD die Munition hierfür geliefert.
Auch wenn die Fehler im Nachgang behoben werden, Sie bleiben trotzdem im Gedächtnis von vielen hängen und die Karte wird für immer mit diesem gebrandmarkt sein.

Zergra
2016-06-30, 10:35:59
Also ich werde mir eine RX 470 oder eine RX 480 (4GB) im Custom Design kaufen. Mehr als 220€ wollte ich nicht ausgeben.

jorge42
2016-06-30, 10:42:59
Ich denke mir nur Bullshit... wieviel Leute haben denn wirklich bis heute gewartet weil sie unbedingt eine neue Karte brauchen. Die wenigsten brauchen sie so dringend, das sie nicht auf die 1060 warten könnten und erst dann bin ich bereit der AMD 480 ein positives Zeugnis auszustellen.abgesehen von der ganzen Diskussion ob die Karte gelungen ist oder nicht. Ich habe in der Tat die ganze Zeit gewartet, die derzeit billigste 970 hat letzes Jahr noch 350 EUR gekostet, das ist mir und wahrscheinlich anderen nicht hauptberuflichen Computerspielern ;) einfach zu viel gewesen. Dann kam die Nachricht, mit dem 3.5 GB Bug und dann wurde sie langsam billiger, aber ich hätte sie dann nicht mehr gekauft. Nun ist die RX480 das erste Produkt bei dem FÜR MICH das Preis/Leistungsverhältnis stimmt.
JETZT ist die 970 bei 240 EUR, also zum Preis der 470, aber JETZT würde ich die 970 erst recht nicht mehr kaufen wollen, trotz aller Unzulänglichkeiten der 480.

MadManniMan
2016-06-30, 10:43:35
Meine Meinung dazu: :facepalm:

Ich liebe differenzierte Kritik :up:

deekey777
2016-06-30, 10:44:00
@deekey777: dein Post ist zu einseitig. Sich die Karte schönreden um sie dann später zu kaufen funktioniert nicht. Wenn sie gut wäre, dann würde man keine gegenteiligen Meinungen in den Foren suchen, die Zusammenfassung auf 3Dcenter abwarten und letztlich kaufen. Kein normaler User kauft sich die Karte als Referenzversion. Die hat gebraucht später keinen Wert. Man achte nur auf die 970 Referenz, die sich schleppend verkauft hat.

Verstehe ich. Ich rede alles schön, weil ich das hervorgehoben habe, was hier die ganze Zeit niemanden interessiert.

DrFreaK666
2016-06-30, 10:45:49
Schon bekannt??
https://youtu.be/ozATbV11rBA

https://youtu.be/YTku-GqDSWg

Herr Doktor Klöbner
2016-06-30, 10:45:57
AMD hätte als Referenzdesign eine Kühllösung ähnlich Saphire 380/380X bringen müssen, mit 8 Pin Stromanschluss zum selben Preispunkt und 80% der Kritik wäre hinfällig, das war eine völlig unnötige Steilvorlage.

HarryHirsch
2016-06-30, 10:47:57
Irgendwie erinnert mich die Diskussion an die Veröffentlichung der Fury X. Die gleichen Gegenargumente: Die Karte lohnt sich nicht, es gibt günstigere Konkurrenz, auch die R9 390X ist nicht viel langsamer, aber günstiger.

Warum ist es schwer zu kapieren, dass ein neues Produkt meist deswegen besser ist, weil es neu ist? Neu ist immer besser. Man kann einfach nicht einwenden, dass die Vorgänger, die paar Jährchen auf dem Buckel haben, besser sind, weil sie heute deutlich günstiger sind und im Preis mit der RX 480 mithalten können. Das ist doch scheißegal.

Die RX 480 bringt unzweifelhaft Neuerungen mit, insbesondere soll sie ihre Leistung auf dem Papier besser in die Realität umsetzen können. Sie bringt bessere Tessellationsleistung. Ja, der Verbrauch im Multimonitorbetrieb ist unnötig hoch, auch die Belastung des PEG.

Und an die Ewiggestrigen: Es ist die erste Grafikkarte von AMD, die wohl das ganze UHD-HDR-HDCP-2.2-HDMI-2.0b-Zeug beherrscht. Sie ist die einzige Grafikkarte von AMD und neben der 1080/1070 erst das dritte Produkt, mit dem Netflix&Co in UHD auf dem PC abgespielt werden können. Sie ist die erste Grafikkarte von AMD, die VP9-Dekodierung in Hardware beherrscht, die erste Grafikkarte, die auch HEVC de- und encodieren kann. Dazu kommt das 2-Pass-Encoding (interessant zu wissen, wie das wirklich funktioniert, wenn es für Twitch gedacht ist).

Also föhnt euch die Achselhaare und hoilt sonst wo.

recht haste.
aber wie soll das mit 2 pass encode und twitch funktionieren?

Bierbam
2016-06-30, 10:48:01
...Ja, der Verbrauch im Multimonitorbetrieb ist unnötig hoch, auch die Belastung des PEG.

Der restlichen Inhalt gefällt mir wobei nachdem ich nur mit Nvidia zu solchen Details Erfahrungen der letzten Jahre habe:
Ist das bei AMD nicht ebenso "simpel" einstellbar in der Firmware wie bei den meisten Nvidia Karten wieviel Leistung über PEG, Stromstecker1, Stromstecker2 etc. gezogen werden darf? Also einfach ein Firmware Bug?


Zum Rest der Gummibärenbande ( Das ist nett gemeint :tongue: )
Anscheinend sind viele vom Marketing Gewäsch vereinnamt, dachte nach den ersten 10 seiten wir sind auf reddit.;D

Dino-Fossil
2016-06-30, 10:54:43
Zum aktuellen Zeitpunkt würde ich jedenfalls mindestens mal die customs abwarten, besser noch die 470 und dann sehen, wie sich die Situation darstellt.
In der Zwischenzeit hoffe ich auch auf Artikel zur 480 mit aktivem FTC und/oder abgesenktem PT.
Vielleicht findet sich ja auch bald mal jemand hier im Forum, der sich eine 480 im Referenzdesign holt und die mit abgesenktem PT bencht.

Ich bekomme jedenfalls immer mehr das Gefühl, das sowohl AMD als auch nVidia die Qualität der 16/14nm Fertigung in 2016 (und deren Kapazitäten) überschätzt haben.
Erst die schlechte Verfügbarkeit von Pascal, jetzt die relativ hohe Leistungsaufnahme bei Polaris.

Schade, dass man so schnell nicht erfahren wird, ob es GloFo wirklich mal wieder verbockt hat. Gibt es eigentlich, abgesehen vom wtftech Artikel, noch etwas belastbares zu Verschiebungen der AMD-Fertigung von GloFo nach TSMC?

Linmoum
2016-06-30, 10:59:53
OC auf 1425MHz mit besserem Kühler

http://oc.jagatreview.com/2016/06/teaser-overclocking-amd-radeon-rx480-ke-1-4ghz-dengan-cooler-3rd-party/2/

Käsetoast
2016-06-30, 10:59:54
Ich finde die 480 eigentlich ganz ok, hätte mir aber auch mehr erhofft. Für mich persönlich geht das damit wieder in die alte Kerbe, dass Global Foundries einfach nicht auf Augenhöhe mit den Mitbewerbern ist was AMD mal wieder die Tour versaut. Das war bei den CPUs so (man denke an den 65nm Prozess, der gegenüber dem 90nm Prozess null Vorteile brachte und auch ein Grund dafür war, warum der Phenom I so schlecht ausfiel) und ist auch jetzt wieder der Fall. Bei der 480 sehe ich das jetzt so: Der Prozess ist zum einen von den Yields noch sehr schlecht, weswegen wir auf der 480 halt ungenutzte CUs haben. Gleichzeitig ist der Prozess selber aber mal wieder nicht so gut, weswegen man mit hohen Spannungen fahren muss. Mit 0,1V weniger (was wenn man den Computerbase Test anguckt gar nicht so unrealistisch wäre), wäre der Verbrauch ne ganze Ecke besser und die "fehlenden CUs" hätten einem die nötige Leistung gebracht um sich nahe an die 980 heranzupirschen...

So haben wir jetzt mal wieder eine teildeaktivierte Karte die mit erhöhten Spannungen fährt um die Takte sicher halten zu können. Vom angekündigten größten Sprung seit langem wie vom Marketing behauptet ist halt nicht viel übrig geblieben. Mit den zusätzlichen CUs und weniger Spannung wäre das vielleicht erreichbar gewesen...

y33H@
2016-06-30, 11:00:22
Komm, hör auf mit der Scheinheiligkeit!

Wenn es dir wirklich um den Stromverbrauch ginge, würdest du erst einmal 30fps Framelimiter bewerben, denn das drückt den Stromverbrauch ENORM ...Kannst du deinen Bullshit einfach mal für die behalten?! :mad: wieso zur Hölle sollte man sich 30 fps antun? Kann man, muss man aber nicht. Weniger Leistungsaufnahme ist schlicht einfacher zu kühlen, Punkt. Spart dem Hersteller übrigens auch Kosten (PCB, Kühler).

BlacKi
2016-06-30, 11:04:04
die verkaufszahlen finde ich etwas hoch, selbst wenn man alle kritik punkte mal beiseite lässt, die meisten käufer interessieren sich doch für die custom modelle nicht für die fön edition... ob die meisten karten in den nächsten 14 tagen wieder zurückgehen?

hesTeR-
2016-06-30, 11:05:06
was stimmt denn jetzt ?`

ist die 4gb wirklich langsamer vom Ram als die 8gb version ?

vond en benchmarks ist die 4gb ja eigentlich immer sehr dicht dran an der 8 gb

dazu noch das

https://geizhals.de/sapphire-radeon-rx-480-21260-01-20g-a1467114.html 2ghz

und was ist da dran das auf den 4gb karten 8gb verbaut sind die man unlocken kann ?

gibts dazu infos ?

FatBot
2016-06-30, 11:07:21
Unterm Strich ist leistungsmäßig wie von AMD angekündigt das alte (untere) Highend- im Performancesegment angekommen, was man erwarten darf. Die Effizienz wurde im Vergleich zu den alten hauseigenen Produkten erheblich verbessert, was zunächst ja nicht schlecht ist. Allerdings hatte da die Konkurrenz schon bei der letzten Generation gut vorgelegt, so dass ich nicht zuviel erwartet habe. Dass die Leistungsaufnahme über den PCIe im Spielbetrieb außerhalb der Spezifikation liegt, ist imo ein sehr grober Schnitzer, auf dem zu Recht herumgeritten wird (wozu sonst eigentlich überhaupt Vorgaben machen).
In Summe trotzdem für mich der neue FullHD-Platzhirsch, wobei dann die 4GB Variante wahrscheinlich das bessere Paket ist. Mehr kann man objektiv von diesem Preissegment nicht verlangen. Dass durch Abverkäufe der alten Karten auch z.T. gute Angebote vorliegen, ist ja nichts neues. Ich bin mal gespannt auf das Erscheinen der 1060 und den Einfluss auf das Preisgefüge.

Zum Energieverbrauch: 40 Watt mehr oder weniger sind vom Verbrauch/Kosten imo egal, die Abwärme und das zugehörige leise Kühlkonstrukt sind mir wichtiger. Generell wäre es schön, wenn es mal wieder einen richtig brauchbaren Custom-DHE-Kühler (was ein Wort) in Verbindung mit einem kurzen Kartenlayout für die ITX-Gemeinde geben würde.

deekey777
2016-06-30, 11:07:35
recht haste.
aber wie soll das mit 2 pass encode und twitch funktionieren?
Verstehe ich auch nicht, wie das live genau funktionieren soll. Vielleicht wird ein Frame einmal analysiert, dann anhand der Analyse kodiert, während die nachfolgenden warten müssen. Der Zeitversatz ist vernachlässigbar.

Oder es stellt sich heraus, dass es gar kein richtiges 2-Pass-Encoding ist.

dildo4u
2016-06-30, 11:08:17
und was ist da dran das auf den 4gb karten 8gb verbaut sind die man unlocken kann ?

Nein.

http://www.neogaf.com/forum/showpost.php?p=208672999&postcount=329

Dino-Fossil
2016-06-30, 11:10:27
und was ist da dran das auf den 4gb karten 8gb verbaut sind die man unlocken kann ?

gibts dazu infos ?

Angeblich nur ein Bios für Reviewer, damit sich AMD sparen konnte, 2 Versionen zu verschicken. Im Handel gibts, wenn es stimmt, nur physikalisch 4 ODER 8 GB, aber keine per Bios unlockbaren Karten.

Edit: too late...

hesTeR-
2016-06-30, 11:13:48
danke für die info ! :)

also bei mir wird es glaube ich eine 4gb karte für 1080p wenn der preis unterschied bei 40-50 euro bleibt.

bis auf battlefield spiele ich meist eh keine AAA titel und ein Monitor wechsel steht momentan nicht an, da warte ich lieber auf vega mit mehr roh leistung für 8gb

Schnoesel
2016-06-30, 11:17:12
die verkaufszahlen finde ich etwas hoch, selbst wenn man alle kritik punkte mal beiseite lässt, die meisten käufer interessieren sich doch für die custom modelle nicht für die fön edition... ob die meisten karten in den nächsten 14 tagen wieder zurückgehen?

Entäuscht? Klar verkauft die sich gut. Sie hat ein gute P/L und das Forum ist nicht der Nabel der Welt. Ob die Karte bei euch gut ankommt interessiert AMD nun einmal nicht.

hesTeR-
2016-06-30, 11:22:44
Wir sind halt nerds und da auch die spitze des Eisbergs, 95% der anderen Menschen interesiert die pcie spec wahrscheinlich kein stück.

und das sind dann nichtmal Leute die garkeine ahnung vom PC haben, sondern teilweise auch andere Gamer die aber kp von hardware haben, hauptsache läuft...

wir sitzen heir halt ziemlich in unserer echoshell ;)

Menace
2016-06-30, 11:24:46
Ich finde die Karte nett (wobei es wohl 2 Customs werden für meine Familien-PCs). Was mich aber interessiert ist, kann man via "Wattman" das Powertarget vorgeben (z.B. dass man einen Wert von max. 140 W Ziel ausgeben kann)?

Schlammsau
2016-06-30, 11:27:54
danke für die info ! :)

also bei mir wird es glaube ich eine 4gb karte für 1080p wenn der preis unterschied bei 40-50 euro bleibt.

bis auf battlefield spiele ich meist eh keine AAA titel und ein Monitor wechsel steht momentan nicht an, da warte ich lieber auf vega mit mehr roh leistung für 8gb
Für mich genauso, ich wird wohl nicht erleben, dass ich mehr als 4GB VRAM brauchen werde ....

Mich juckts schon in den Fingern, die 480 ist mindestens 40% schneller als meine R9 285 (Tonga) und verbraucht 30-40W weniger!

Dazu der Kühler der die warme Luft aus dem Gehäuse blässt....

hesTeR-
2016-06-30, 11:28:28
du müsstest das powertarget eigentlich dahingehen senken können um deine 140watt vorgabe erreichen zu können.

Lowkey
2016-06-30, 11:33:49
Das heißt, dass der Test der 4 Gbyte Version mit der 8 Gbyte Version gemacht wurde und zwar per Flash. Der langsamere Takt der 4 Gbyte Version wurde doch hier im Thread belegt.


Wieso hat hier eigentlich noch niemand die Karte?

Showtime
2016-06-30, 11:39:44
Wieso hat hier eigentlich noch niemand die Karte?


Weil hier ein (hin und wieder durchscheinendes) Maß an Fachwissen herrscht. Und das verbietet nun mal den Kauf der Referenzversion ;).

Pirx
2016-06-30, 11:41:11
Für mich genauso, ich wird wohl nicht erleben, dass ich mehr als 4GB VRAM brauchen werde ....
...
4 GB should be enough for everyone?

BK-Morpheus
2016-06-30, 11:46:02
Wenn AMD den Verbrauch im Multimonitor (idle) bei versch. Auflösungen bzw. auch Auflösungen über 1920x1200 mal endlich in den Griff bekommt und die Custom Karten mehr Takt ermöglichen, würde ich mir evtl. doch noch eine RX480 kaufen, aber nach dem ich guter Dinge war, dass die RX480 meine neue Karte werden könnte, bin ich jetzt schon etwas enttäuscht.

Weniger von der Leistung..die ist in etwa da, wo ich sie erwartet hätte und für mich ausreichend. Aber bei der Effizienz nun mit 14nm gerade mal mit Maxwell (28nm) gleich zu ziehen fand ich schon etwas traurig und dann weiterhin bei Blueraywiedergabe (55W RX480 / 15W GTX970 Strix) oder Multimonitor Setups noch so mies da zu stehen setzt dem Ding die Krone auf.

Wenn die Custom RX480 Versionen raus sind, schaue ich mal, was beim Takt noch geht und ob neue Treiber noch was am Verbrauch bei Multimonitor/Bluray ändern können.

Ansonsten bleibt mir nur auf die 1060 zu warten und nach dessen Reviews zwischen 1060 und 1070 zu entscheiden.
Wäre die 1070 preislich bereits jetzt dort, wo man sie nach der Vorstellung nun erwarten würde (MSRP ab 379$...da hätte ich mittlerweile mit verfügbaren Customs ab ~440€ gerechnet), dann hätte ich schon bestellt.

TheGood
2016-06-30, 11:46:52
die verkaufszahlen finde ich etwas hoch, selbst wenn man alle kritik punkte mal beiseite lässt, die meisten käufer interessieren sich doch für die custom modelle nicht für die fön edition... ob die meisten karten in den nächsten 14 tagen wieder zurückgehen?
Die Lautstärke ist praktsich vergleichbar mit den FE Editions der KOnkkurrenz(welche das als super duper High Value Design verkauft haben). Das ist für normale User in Ordnung aber nichts für Silent Fans. Also von Fön brauchen wir hier absolut nicht reden. Das ist einfach nur blödes geschwätz....

PHuV
2016-06-30, 11:47:13
Für mich genauso, ich wird wohl nicht erleben, dass ich mehr als 4GB VRAM brauchen werde ....
Du vielleicht mit 1024x768 nicht, aber die vielen anderen, die auf UHD spielen...

4GB VRam sind da schneller voll, als man denkt. Selbst bei Star Wars Battlefront kommt man bei FHD auf ca. 5,5 GB VRam

Grafikspachtel
2016-06-30, 11:49:11
Ich finde Fefes abfällige Bemerkung zur RX480 einfach nur noch peinlich.

Newsflash 1: Referenzkühler sind scheiße - ORLY?
Gab es in den letzten 10 Jahren eine einzige Referenzkarte, die mit den Herstellerkühllösungen mithalten konnte? Spätestens wenn die Hersteller anfangen sich richtig Gedanken zu machen sind 8-10°C und 10-15dB drin - das sind Welten.

Hier mal ein Beispiel: 270X mit Referenzkühler vs. 270X von MSI
https://www.techpowerup.com/reviews/MSI/R9_270X_HAWK/25.html
Das gilt durch die Bank weg für so ziemlich jede Karte (sowohl AMD als auch Nvidia) - Referenzkühler sind immer scheiße.

Newsflash 2: Gebrauchte Karten sind günstiger als neue Karten - ORLY?

Newsflash 3: Auslaufende Karten im Abverkauf sind günstiger als neue Karten - ORLY?

Am meisten auf den Sack geht mir ja Fefes süffisante Bemerkung, dass diejenigen, die seit Jahren _maximal_ 200€ für eine Grafikkarte ausgeben, sich dann doch einfach in der Preisregion 500€+ umsehen sollen...
Spitzentip.

Für jemanden, der maximal 200€ ausgeben will (oder kann), gibt es von Nvidia keine Karte. Weder 1080 noch 1070 sind für so jemanden eine Alternative. Polaris hingegen schon.

Ich glaube, das hängt damit zusammen, dass Fefe als IT-Typ sehr gut verdient und täglich 12h+ vor 10.000€++ Hardware sitzt, sodass er schon gar nicht mehr mitkriegt, dass 3 Monitore, 2 VR-Headsets und 4 GPUs à 700€ nicht die Norm sind.

Wir sind halt nerds und da auch die spitze des Eisbergs

und

wir sitzen heir halt ziemlich in unserer echoshell ;)
Du sagst es: Echo Chamber

DinosaurusRex
2016-06-30, 11:49:54
Weniger Leistungsaufnahme ist schlicht einfacher zu kühlen, Punkt.

In dem Bereich, in dem sich der Stromverbrauch der RX 480 bewegt, besitzt dieses Argument reichlich wenig Praxisrelevanz. Bei doppelter TDP darfst du es gerne nochmal bringen.

TheGood
2016-06-30, 11:50:42
Kannst du deinen Bullshit einfach mal für die behalten?! :mad: wieso zur Hölle sollte man sich 30 fps antun? Kann man, muss man aber nicht. Weniger Leistungsaufnahme ist schlicht einfacher zu kühlen, Punkt. Spart dem Hersteller übrigens auch Kosten (PCB, Kühler).
Ja richtig, aber wir reden hier auch nur von 150 Watt und nicht mehr von 250 watt. Das ist also heutzutage gar kein Problem das zu kühlen. Man muss hier auch mal die Kirche im Dorf lassen. WAs, wie immer, viele vom grünen Lager schlichtweg nicht tun...

DAs sind sicherlich auch die Leute die sich die A+++ geräte kaufen (Waschmascheinen, Spülmaschine) und dann den Eco Modus nicht nutzen, aber dummerweise bringt nur der die Energieffizienz und sonst keiner!!! Diese ECO Programme werden von weniger als 20% der Personen genutzt!!!!
Alleine dadurch erübrigt sich diese Diskussion schon komplett.

TheGood
2016-06-30, 11:53:40
Entäuscht? Klar verkauft die sich gut. Sie hat ein gute P/L und das Forum ist nicht der Nabel der Welt. Ob die Karte bei euch gut ankommt interessiert AMD nun einmal nicht.
ES lohnt sich ebenfalls die "Beobachter" Zahlen auf Mindfactory anzusehen. Die zeigen auch ein enormes INteresse. Das ist auf jednefall schonmal gut für AMD.

TerrorZivi
2016-06-30, 11:56:24
die verkaufszahlen finde ich etwas hoch, selbst wenn man alle kritik punkte mal beiseite lässt, die meisten käufer interessieren sich doch für die custom modelle nicht für die fön edition... ob die meisten karten in den nächsten 14 tagen wieder zurückgehen?

Gibt auch noch Coinminer da draußen. Die haben schon länger auf die Karte gewartet und decken sich jetzt ein. PT auf 85% und ab geht die wilde Fahrt.

Grafikspachtel
2016-06-30, 12:02:52
Dazu kommen die ständigen Vergleiche mit der 970...

Was ist mit all denen, die noch auf einer Karte mit 2GB VRAM (und weniger) hocken?
GeForce GTX 660/670/680 -> RX480 = Hammerupgrade
7850/7870/7950 -> RX480 = Hammerupgrade
R9 270/270X/280/285X -> RX480 = Hammerupgrade
GeForce GTX 760/770 -> RX480 = Hammerupgrade

PHuV
2016-06-30, 12:04:33
Wenn ich so nach den Beiträgen hier im Forum gehe, fängt doch keiner hier unter Titan X, 980 TI, 1070/1080 und FuryX an? :eek:

Schrotti
2016-06-30, 12:05:58
Also so der Burner ist die neue Generation ja nun nicht. Das einzige was jetzt halbwegs hinkommt, ist der Stromverbrauch.
In etwa auf dem Niveau einer alten R9 390 oder auch GTX 970 lässt die Leute sicher nicht in die Läden stürmen und 250€, oder mehr, auf den Tisch legen (für was auch).

DinosaurusRex
2016-06-30, 12:06:38
Dazu kommen die ständigen Vergleiche mit der 970...

Was ist mit all denen, die noch auf einer Karte mit 2GB VRAM (und weniger) hocken?
GeForce GTX 660/670/680 -> RX480 = Hammerupgrade
7850/7870/7950 -> RX480 = Hammerupgrade
R9 270/270X/280/285X -> RX480 = Hammerupgrade
GeForce GTX 760/770 -> RX480 = Hammerupgrade

Oder denen, die so wie ich noch eine HD5870 mit 1GB nutzen?

http://www.reactiongifs.com/wp-content/uploads/2013/11/proud.gif

Loeschzwerg
2016-06-30, 12:09:03
In dem Bereich, in dem sich der Stromverbrauch der RX 480 bewegt, besitzt dieses Argument reichlich wenig Praxisrelevanz. Bei doppelter TDP darfst du es gerne nochmal bringen.

Sorry, aber für das Ref.-Design der RX480 leider schon :freak:

Sunrise
2016-06-30, 12:09:29
Wenn ich so nach den Beiträgen hier im Forum gehe, fängt doch keiner hier unter Titan X, 980 TI, 1070/1080 und FuryX an? :eek:
Klar, hier kauft jeder nur Porsche und Ferrari, hast du das nicht gewusst? :eek:

Sobald die Customs kommen wird denke ich die Sache deutlich interessanter. Eventuell lassen sich auch noch ein paar andere Baustellen beheben, denn man sieht wieder mal, dass da einige teilweise unnötige Treiberbugs noch bei den Reviewern auftraten, die eigentlich garnichts mit der HW und der GPU zu tun haben. Mit einem teureren Platinendesign und besserer Kühlung sollte da jedenfalls einiges gehen und AMD ist softwareseitig sowieso immer "committed", da würde ich mir garkeine Sorgen machen.

Jedenfalls muss NV erstmal zeigen, dass sie für einen ähnlichen Preis (Stromverbrauch interessiert in gewissem Rahmen sowieso niemand) ähnliche Leistung und Ausstattung liefern können. Und mit gerademal 3GB bzw. 6GB ist die RX480 dann eben doch wieder verdammt attraktiv.

Dieser Effizienzwahn wenn die Karte aber über 5 Jahre dennoch billiger ist, ist jedenfalls für den Allerwertesten.

jorge42
2016-06-30, 12:09:44
Dazu kommen die ständigen Vergleiche mit der 970...

Was ist mit all denen, die noch auf einer Karte mit 2GB VRAM (und weniger) hocken?
GeForce GTX 660/670/680 -> RX480 = Hammerupgrade
7850/7870/7950 -> RX480 = Hammerupgrade
R9 270/270X/280/285X -> RX480 = Hammerupgrade
GeForce GTX 760/770 -> RX480 = Hammerupgrade


GeForce GTX 660/670/680 -> RX480 = Hammerupgrade
7850/7870/7950 -> RX480 = Hammerupgrade
R9 270/270X/280/285X -> RX480 = Hammerupgrade
GeForce GTX 760/770 -> RX480 = Hammerupgrade
Radeon HD5850 -> RX480 = Hammerupgrade ;D:biggrin:

Ich würde jetzt gerne wissen wollen, wieviel langsamer eine echte 480 4Gb im Vergleich zur 8 GB Version ist. Also langsamerer Speicher und nicht nur deaktiviert.

Lowkey
2016-06-30, 12:10:51
Naja von 7950 3Gbyte, die vor 3 genau 3 Jahren 220 Euro kostete, auf eine 480 4 oder 8 Gbyte zu gehen, ist nicht zwingend eine lohnende Sache.

DinosaurusRex
2016-06-30, 12:11:36
Sorry, aber für das Ref.-Design der RX480 leider schon :freak:

Referenzdesigns müssen kacke sein, damit die Custom Designs überhaupt eine Daseinsberechtigung haben. Sowas nennt man Stakeholder Value.

Dino-Fossil
2016-06-30, 12:13:23
Gibt auch noch Coinminer da draußen. Die haben schon länger auf die Karte gewartet und decken sich jetzt ein. PT auf 85% und ab geht die wilde Fahrt.

Glaubst du echt, es gibt noch so viele Coinminer, da draußen, für die sich die 480 lohnt? Hab da so meine Zweifel, aber wer weiß...

Wenn ich so nach den Beiträgen hier im Forum gehe, fängt doch keiner hier unter Titan X, 980 TI, 1070/1080 und FuryX an?

Gibt hier sicherlich ne Menge Enthusiasten, aber die haben oft auch Zweit- oder Drittrechne zum basteln, oder den Rechner der Kiddies oder des Partners.

Und dann gibts noch Leute wie mich, die nur alle paar Jahre auf Mittelfeld-GPUs schielen. Ich hab noch ne 7850.
Mich stört eigentlich vor allem der für meinen Geschmack etwas zu hohe Verbrauch, aber da ich vor August eh nix neues kaufen kann bzw. will, warte ich erstmal ab wie sich die 480 drosseln lässt, bzw. die 470 dasteht.

Loeschzwerg
2016-06-30, 12:15:00
Referenzdesigns müssen kacke sein, damit die Custom Designs überhaupt eine Daseinsberechtigung haben. Sowas nennt man Stakeholder Value.

Ref.-Design sind in erster Linie für OEM gedacht, allzu bescheiden sollten diese also trotzdem nicht sein.

Gut, wenn man das PT nicht erhöht, dann geht der RX480 Kühler auch, aber dann hätte sich AMD den letzten Powerstate gleich sparen können, denn hier krepiert der Kühler gänzlich.

d2kx
2016-06-30, 12:15:02
und was ist da dran das auf den 4gb karten 8gb verbaut sind die man unlocken kann ?

gibts dazu infos ?

Das Gerücht geht auf einen Verständigungsfehler von PCPer zurück.

Allerdings möchte ich anmerken, dass die Verfügbarkeit der 4GB Karten deutlich schwächer ist und noch nicht entschieden ist, wieviele in Zukunft produziert werden. Man möchte sich auf das 8GB Modell fokussieren.

Klar, hier kauft jeder nur Porsche und Ferrari, hast du das nicht gewusst? :eek:

Nein, nicht jeder. Ich werde heute Nachmittag lediglich mit meinem Maybach beim Media Markt vorfahren.

Disco_STFU
2016-06-30, 12:16:04
Wenn die Custom RX480 Versionen raus sind, schaue ich mal, was beim Takt noch geht und ob neue Treiber noch was am Verbrauch bei Multimonitor/Bluray ändern können.


Würde mich auch sehr interessieren ob man durch das Absenken der ersten beiden P-States den Idle- und Multi-Monitorverbrauch beeinflussen kann. CB hat leider gerade die Idle States nicht angerührt... ;(

Loeschzwerg
2016-06-30, 12:18:14
Man möchte sich auf das 8GB Modell fokussieren.


Das P/L der 4GB Karte ist aktuell aber stimmiger, gerade im Hinblick auf den FullHD Einsatz.

TightNX
2016-06-30, 12:19:17
Puh, dann mal mein persönlicher Reality-Check.

Habe mich mit meiner 100W-Prognose weit aus dem Fenster gelehnt - und ja, der Aufprall war hart. :biggrin: Das war zugegebenermaßen mit spitzer Feder gerechnet, basierte aber auf AMD-eigenen Angaben. Und ich sag noch so: Customs mit 6-Pin+8-Pin wären völliger Quatsch. :freak: Wenn schon der Referenz ein 8-Pin gut zu Gesicht gestanden hätte, sieht die Sache natürlich ganz anders aus. Auweia.

Und jetzt kommt AMD plötzlich damit um die Ecke, dass die 470 gemeint war. Na toll. So kann ich nicht arbeiten. :tongue:

Davon ab aber die erwartet gute Karte. Passt perfekt in mein Beuteschema und wird als Custom sicher meine nächste.

Gibt es eigentlich, abgesehen vom wtftech Artikel, noch etwas belastbares zu Verschiebungen der AMD-Fertigung von GloFo nach TSMC?
Er hier?

AMD Contracts TSMC To Produce Zen At 16nm Amidst Concerns Over 14nm Woes At Globalfoundries (http://wccftech.com/amd-contracts-tsmc-produce-zen-16nm-woes-14nm-process-troubles-globalfoundries/)

Davon höre ich zum ersten Mal und der Artikel ist schon ein dreiviertel Jahr alt. Bisher war immer von 14nm die Rede, ergo GF/Samsung.

d2kx
2016-06-30, 12:21:21
Das P/L der 4GB Karte ist aktuell aber stimmiger, gerade im Hinblick auf den FullHD Einsatz.

Du kannst dir sicher vorstellen, dass die Gewinnspanne des 8GB Modells höher ausfällt...

Ansonsten empfehle ich zu dem Thema den RX480-Thread im overclockers.co.uk Forum. Der Chef setzt sich gerade dafür ein, dass doch noch mehr 4GB Modelle produziert werden. Ich kann dazu auch nicht mehr sagen.

Persönlich würde ich selbst für 1080p das 8GB Modell vorziehen (im Hinblick auf Battlefield 1), allerdings stimme ich zu, dass das 4GB Modell für viele (vor allem, wenn man nur CSGO/Dota2/Overwatch/usw. spielt) sehr attraktiv ist.

DinosaurusRex
2016-06-30, 12:21:47
Ref.-Design sind in erster Linie für OEM gedacht, allzu bescheiden sollten diese also trotzdem nicht sein.


Der OEM-PC-Markt wird innerhalb der nächsten 10 Jahre sowieso komplett zusammenbrechen. Langfristig kann das nicht das Ziel von AMD sein. Und wenn die eigenen Produkte nur in Billigkomplettrechnern verbaut werden, dann ist das ohnehin nicht gut fürs Image. Die Zukunft für AMD sehe ich im Servermarkt (Cloud Computing). Da müssen sie punkten.

Ätznatron
2016-06-30, 12:21:53
Naja von 7950 3Gbyte, die vor 3 genau 3 Jahren 220 Euro kostete, auf eine 480 4 oder 8 Gbyte zu gehen, ist nicht zwingend eine lohnende Sache.

Das lohnt sich schon.

Allein das immerhin vorhandene Label "Steam VR Bereit" reicht da schon als Kaufargument (meine gut übertaktete GTX 780 erreicht da nur 5,9 - ausreichend).

Plus Speicher, plus Featureset,...

Sunrise
2016-06-30, 12:22:16
...Allerdings möchte ich anmerken, dass die Verfügbarkeit der 4GB Karten deutlich schwächer ist und noch nicht entschieden ist, wieviele in Zukunft produziert werden. Man möchte sich auf das 8GB Modell fokussieren.
Das ist eine sehr gute Entscheidung. Denn 4GB werden zunehmend unattraktiv und AMD sollte lieber die Preise der RX480 tief halten und 8GB liefern, denn das ist ein Argument sind zwei Argumente, das die vielen wichtig ist sind.

Loeschzwerg
2016-06-30, 12:23:59
Der OEM-PC-Markt wird innerhalb der nächsten 10 Jahre sowieso komplett zusammenbrechen. Langfristig kann das nicht das Ziel von AMD sein. Und wenn die eigenen Produkte nur in Billigkomplettrechnern verbaut werden, dann ist das ohnehin nicht gut fürs Image.

Das mag schon sein, aber dann hätte man auch gleich mit den Customs starten können, ähnlich wie bei der 300er Serie.

Das ist eine sehr gute Entscheidung. Denn 4GB werden zunehmend unattraktiv und AMD sollte lieber die Preise der RX480 tief halten und 8GB liefern, denn das ist ein Argument sind zwei Argumente, das die vielen wichtig ist sind.

Wenn die 8GB Variante bald auf 4GB Niveau liegt, gerne :D

Edit: Ist die Seite bei euch auch im Eimer von der Darstellung? http://radeon.wpengine.com

darkcrawler
2016-06-30, 12:24:22
Fefe, wer soll das sein, was hebt euch so ein Puppenspieler an :confused:


4 GB should be enough for everyone?

[ ] du kannst für mich / alle unterscheiden




Ich würde jetzt gerne wissen wollen, wieviel langsamer eine echte 480 4Gb im Vergleich zur 8 GB Version ist. Also langsamerer Speicher und nicht nur deaktiviert.

Was soll da nun anders sein :rolleyes:

Grafikspachtel
2016-06-30, 12:26:35
Naja von 7950 3Gbyte, die vor 3 Jahren 220 Euro kostete, auf eine 480 4 oder 8 Gbyte zu gehen, ist nicht zwingend eine lohnende Sache.
Wieso?
http://www.3dcenter.org/news/schneller-performance-ueberblick-der-28nm-grafikkarten
Deine Alte liegt bei 310%
RX480 liegt bei ~560%

560/310 = 1.81 -> Polaris ist ca. 80% schneller als die 7950.

Dino-Fossil
2016-06-30, 12:28:49
Er hier?

AMD Contracts TSMC To Produce Zen At 16nm Amidst Concerns Over 14nm Woes At Globalfoundries (http://wccftech.com/amd-contracts-tsmc-produce-zen-16nm-woes-14nm-process-troubles-globalfoundries/)

Davon höre ich zum ersten Mal und der Artikel ist schon ein dreiviertel Jahr alt. Bisher war immer von 14nm die Rede, ergo GF/Samsung.

Ist ja auch wieder wtftech. :biggrin:
Ich kann die nicht so recht ernst nehmen, zu unzuverlässig.

Karümel
2016-06-30, 12:33:38
Wieso?
http://www.3dcenter.org/news/schneller-performance-ueberblick-der-28nm-grafikkarten
Deine Alte liegt bei 310%
RX480 liegt bei ~560%

560/310 = 1.81 -> Polaris ist ca. 80% schneller als die 7950.

Dazu wohl noch die wesentlich bessere Performance in DX12.
(Habe auch noch ein 7950 Boost mit 3GB und werde wohl bald auf eine 480 aufrüsten.)

DinosaurusRex
2016-06-30, 12:34:31
Das mag schon sein, aber dann hätte man auch gleich mit den Customs starten können, ähnlich wie bei der 300er Serie.


Ich denke ein Referenzdesign ist sinnvoll, da es für den Endkunden eine feste Kennzahl darstellt. Das Referenzdesign ermöglicht einen schnellen Vergleich verschiedener Produktlinien aus dem eigenen Haus aber auch den Vergleich zur Konkurrenz. Ein bis zum Anschlag geprügeltes Custom Design kann sich bspw in unmittelbarer Schlagdistanz zum unübertakteten Custom Design einer höheren Leistungsklasse befinden. Ohne Referenzdesigns wäre der Markt sehr unübersichtlich und das schreckt potenzielle Käufer ab.

Arcanoxer
2016-06-30, 12:35:48
Was soll da nun anders sein :rolleyes:
Der Speichertakt ist geringer, 1750 MHz gegen die 2000 MHz der 8GB Version, wenn ich das richtig mitbekommen habe.
Und weil das die RX480 limitiert, kann schon so einiges ausmachen.
Auf das mutmaßliche Täuschungsmanöver werden sicherlich einige reinfallen.

Böse Zungen würden behaupten das die 4GB Version nur am Markt ist um für Polaris mit 199$ zu werben, die Verbreitung spricht dafür.
Ganze drei Händler verkaufen das Teil in Deutschland.

Effe
2016-06-30, 12:48:59
Böse Zungen würden behaupten...
Also Du und Deine Nvidianer.


Ich finde die Karte recht gut. Sicher ist sie kein Oberknaller, aber doch recht solide. Die Leistungsaufnahme ist etwas zu hoch, anscheinend wollte man unbedingt die 970 kassieren und hat den Takt auf 1266Mhz geprügelt. Das erklärt dann auch die hohe Spannung.

Die Referenzkarte ist auch ok und fängt das Brüllen nur bei Maximum Powertune an. So weit so zweckmäßig.

Der Einzige Downer ist mE(!) die Sache mit dem PCIe 75W+. Das macht mich etwas sorgenvoll und hoffen, dass mach das noch verbessern kann via BIOS oder Treiber.

Wenn AMD die Karte auf 1000Mhz 470X genannt hätte mit ordentlich Taktpotential (+25%) und Verbrauch von 100W sähe die Welt positiver aus. Aber sie mussten unbedingt mit VR werben, damit musste die 970 erreicht werden.

jorge42
2016-06-30, 12:52:03
Fefe, wer soll das sein, was hebt euch so ein Puppenspieler an :confused:




[ ] du kannst für mich / alle unterscheiden




Was soll da nun anders sein :rolleyes:
brauchst gar nicht mit den Augen zu rollen :biggrin:
Dachte gelesen zu haben, dass die 4 GB niedriger getactet ist, laut den Angaben in Geizhals ist das wohl aber nicht so.korrektur, doch, 1750 statt 2000

Gorkon
2016-06-30, 12:52:43
Kann jemand mal bitte nvidias marketing maschine aka dildo4u aus dem Thread werfen? Sorry, aber das ist einfach nicht mehr normal in welcher Frequenz hier ein "Fakt" nach dem anderen durch den Schlamm gezogen wird und bei Gegenargumenten wird einfach auf irgendwas anderes gewechselt, um dann wieder kräftig drauf zu hauen.
Ganz normal...ich warte immer noch auf meine Antwort. Einfach durch die die Mitte atmen ;)
Hä Pascal legt mit Asynchron Compute zu und wird nicht weniger Effizient als unter DX11.

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/11/#abschnitt_pascal_profitiert_tatsaechlich_von_async_compute
*hust* "zulegen" :ulol: *hust*

https://abload.de/img/async1qquc6.png https://abload.de/img/async2b6urr.png

BlacKi
2016-06-30, 12:52:51
der preis war ja schon die ganze zeit der vorteil der karte, aber ab wann kann amd überhaupt noch etwas an der karte verdienen? der chip kostet wohl mehr als der der 390(x)und der speicher ist auch nicht gerade günstig, auch wenn es nur ein 256bit SI hat. schmerzgrenze 170€ 4gb 190€ für 8gb?

Pirx
2016-06-30, 12:53:06
...
Ich finde die Karte recht gut. Sicher ist sie kein Oberknaller, aber doch recht solide. Die Leistungsaufnahme ist etwas zu hoch, anscheinend wollte man unbedingt die 970 kassieren und hat den Takt auf 1266Mhz geprügelt. Das erklärt dann auch die hohe Spannung. ...
die 970 wird doch eingestampft sobald die 8 GB gebraucht werden und/oder mit async compute

Dino-Fossil
2016-06-30, 12:55:41
Da viele eh auf die Customs warten, können alle die sich um den Speichertakt sorgen auch da die Customs abwarten. Die kommen sicherlich auch mit höher getaktetem Speicher.

Noebbie
2016-06-30, 12:58:58
Da viele eh auf die Customs warten, können alle die sich um den Speichertakt sorgen auch da die Customs abwarten. Die kommen sicherlich auch mit höher getaktetem Speicher.

Ohja! :D

Exxtreme
2016-06-30, 12:59:19
Gut für Aufrüster etwas älterer Systeme, schlecht wenn man echt Power will. Bin schon enttäuscht von dem Teil. Dafür ist es recht billig zu haben, von daher überlege ich es mir noch.

gnomi
2016-06-30, 12:59:58
Die Karte ist eben eher preisoptimiert als qualitativ jetzt was besonderes.
Man bekommt in etwa die Leistung der vorletzten Generation für das halbe Geld.
Die Entwickler werden hohe Einstellungen mit ordentlichen Bildraten und bis zu 1440P Auflösung an solchen Karten ausrichten.
Dann kann man auch gleich noch ein paar entsprechende Monitore mit FreeSync verkaufen.
Ich denke schon, dass die Strategie aufgeht und sich AMD da etwas saniert.
Allerdings muss auch sehr viel umgesetzt werden, und nvidia wird mit der 1060 vielleicht noch besser abgrasen. (mehr Marktdominanz und besseres Image auch Dank der konkurrenzlosen großen Chips- die Leute zahlen für die selbe Leistung denke ich mehr)

Birdman
2016-06-30, 13:05:43
Ganz normal...ich warte immer noch auf meine Antwort. Einfach durch die die Mitte atmen ;)
*hust* "zulegen" :ulol: *hust*
https://abload.de/img/async1qquc6.png
Wo ist das/dein Problem - die Aussage von dildo ist doch zu 100% korrekt?
Pascal ist mit AC schneller als ohne, das hast Du mit deinen verlinkten Benchmarks grad eben selber bewiesen.

nVidia schafft es halt die Einheiten auch ohne AC nahezu 100% auszulasten, dementsprechend fällt der Zugewinn dann kleiner aus.

Grafikspachtel
2016-06-30, 13:06:17
kann amd überhaupt noch etwas an der karte verdienen? der chip kostet wohl mehr als der der 390(x)
Bitte?
390X = 438mm²
https://i.imgur.com/qyg7pg3.png

RX480 = 232mm²
https://i.imgur.com/oXF0xf5.png

Da springen bei jedem 300mm Wafer mal eben doppelt soviele Chips bei raus.

Dino-Fossil
2016-06-30, 13:06:22
Gut für Aufrüster etwas älterer Systeme, schlecht wenn man echt Power will. Bin schon enttäuscht von dem Teil. Dafür ist es recht billig zu haben, von daher überlege ich es mir noch.

Die gebotene Leistung war doch seit Monaten klar, wenn man ein wenig sein Hirn angeschaltet hat und sich nicht vom Hype hat anstecken lassen.
Die einzige echte negative Überraschung ist die immer noch zu schlechte Effizienz.

TerrorZivi
2016-06-30, 13:06:31
Glaubst du echt, es gibt noch so viele Coinminer, da draußen, für die sich die 480 lohnt? Hab da so meine Zweifel, aber wer weiß...

Wenn man da mal etwas durch die Foren schaut, es wurde schon auf diese Karte gewartet. Die Ernüchterung trat in der Klientel natürlich auch auf, gerade was den Stromverbrauch in bezug auf Rechenpower betrifft. Da wurde auch auf 20-30 Watt weniger gehofft. Manche Miner haben sich trotzdem schon am ersten Tag mit 5-6 Stück versorgt.

Ich wollte eigentlich auch meine 290er durch zwei 480er ersetzen und nächstes Jahr auf Vega gehen. Zum einen hat meine den Black Screen Bug und dann zocke ich wesentlich weniger als früher und lasse nebenher halt nen Miner laufen. Da hilft die deutlich verbesserte Energieeffizienz, zur 290, doch sehr.

Das ganze soll in ner Wakü laufen und daher wollte ich eigentlich kein Herstellerdesign, zwecks größerer Auswahl an Kühlern. Aber so spricht mich das Referenzdesign eher nicht an. Also doch auf Customs oder die 470 warten.

BlacKi
2016-06-30, 13:08:24
Bitte?
390X = 438mm²
https://i.imgur.com/qyg7pg3.png

RX480 = 232mm²
https://i.imgur.com/oXF0xf5.png

Da springen bei jedem 300mm Wafer mal eben doppelt soviele Chips bei raus.
der wafer kostet aber knapp doppelt so viel.

Grafikspachtel
2016-06-30, 13:14:59
der wafer kostet aber knapp doppelt so viel.
Nö. "Nur" 40% höher.
With an 80% fab utilization rate at 28nm, the loaded manufacturing cost is about $3,500 per 300mm wafer, according to Gartner.

at 16nm/14nm, the loaded cost is about $4,800 per 300mm wafer, according to Gartner.
http://semiengineering.com/finfet-rollout-slower-than-expected/

Kleinere Chips lohnen sich immer.

BlacKi
2016-06-30, 13:17:22
Nö. "Nur" 40% höher.

http://semiengineering.com/finfet-rollout-slower-than-expected/

Kleinere Chips lohnen sich immer.
danke für die info.

könnten also etwas günstiger werden als die tonga chips.

Schnoesel
2016-06-30, 13:19:15
Nennt man MArketing solltest du eigentlich wissen. Böse Zungen behaupten Nvidia hat die restlichen 512 MB der 970 überhaupt angebunden um 4GB auf die Packung schreiben zu können.

Kamikatze
2016-06-30, 13:21:07
Ein wenig kleinkariert finde ich beim durchlesen von Reviews und in Foren das Rumgehacke
auf die ~165W Stromaufnahme der RX480 angesichts ihres Preispunktes schon etwas.
Im Gegensatz dazu das sie die wohl die PCIe Spezifikationen bricht, sowas darf dann einfach wirklich nicht sein...

Trotzdem man vergleicht eine 500 Dollar GTX1070, mit einer einer 200 Dollar RX480, bei der sicher alles preisoptimiert ist, und kritisiert die schlechtere Perf/Watt der Radeon. Klar sollte ein kleinerer Chip weniger verbrauchen aber keiner weiß zu welchen Preis...

Angesichts des Preispunktes halte ich +10-20W gegenüber eine GTX 1070 für nicht gut aber okay. Das sehe ich nicht als "schönreden". Die Karte ist auch vorerst konkurrenzlos und
Vergleiche sind erst möglich wenn NV etwas in dieser Preisklasse anbietet...
Die 270W+ einer R9 390X waren dagegen angesichts der fast 100W weniger von GTX 980/970 wirklich suboptimal. Gut das sich das geändert hat.

Allerdings hätte AMD einfach dann das Selbstbewusstsein haben sollen dazu zu stehen das die
RX480 mehr Perf/Dollar als Perf/Watt ist und der Karte einen echten TDP mit etwas Sicherheitsabstand geben sollen plus spezifikationsgerechte Stromstecker. So werden Mainboards entlastet und Luft für Overclocking wäre auch noch...

Weil gemeckert wird an AMD doch sowieso immer. Zwar ist man immerhin heutzutage auch bei
NVIDA kritischer trotzdem haben die einfach in der Öffentlichkeit mehr Kredit.

M4xw0lf
2016-06-30, 13:30:06
Ich hoffe wieder auf eine sweet spot-Analyse von tomshardware. Schätzung: liegt deutlich unterhalb von 1266 MHz und 1,15V. :freak:

d2kx
2016-06-30, 13:38:25
Zum Thema PCI-Express-Compliance gibt es übrigens von AnandTech einen guten Abschnitt, auch wenn der schon etwas älter ist:

PCI-Express Compliance: Does It Even Matter? (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king/5)
AnandTech

Pirx
2016-06-30, 13:41:31
danke für die info.

könnten also etwas günstiger werden als die tonga chips.
Wieso behauptest du dann vorher etwas, was du gar nicht weißt?

Sunrise
2016-06-30, 13:42:03
Die Leistungsaufnahme ist etwas zu hoch, anscheinend wollte man unbedingt die 970 kassieren und hat den Takt auf 1266Mhz geprügelt. Das erklärt dann auch die hohe Spannung.
Ich halte das für eine sehr gewagte These, denn AMD kannte alle Daten und Verhaltenswerte der 970 und da man geplant hat, diese mit einem deutlich tieferen Prispunkt anzugreifen müssen sie logischerweise auch genau das bauen, was eine 970 angreifen kann, sprich, der Takt und die Chipkonfiguration muss schon fest gewesen sein.

Dass AMD so bescheuert ist, das nicht zu wissen und am Ende ganz plötzlich den Takt hochziehen muss halte ich für Quatsch, das kann eigentlich nur fertigungsbedingte Ursachen haben, weil ihre Simulationen andere Werte ergaben man aber kurz vor knapp merkte, dass man deutlich mehr Spannung benötigt um das Ziel zu erreichen oder anderweitige Fehler die beim Tapeout mit Zielfrequenz gemacht wurden.

Irgendwas läuft da zwischen GloFo und AMD nicht so rund wie es sollte oder es gibt generell noch stärkere Probleme mit 14nm LPP bei GloFo. Jedoch eine Zielleistung abzuschätzen mit den Verbesserungen der Architektur lässt sich problemlos in einem Simulator errechnen, nur arbeitet der eben mit den Werten die er von der Fab bekommen hat und wenn die abweichend sind, dann haben wir eben genau das Resultat das wir aktuell sehen. Einen Chip der mit weniger Spannung geplant war um die Zielfrequenz zu erreichen. Das ist aber nur eine mögliche Begründung, denn auch das hätte AMD nach deren BringUp-Phase wissen müssen.

Mancko
2016-06-30, 13:42:24
Ein wenig kleinkariert finde ich beim durchlesen von Reviews und in Foren das Rumgehacke
auf die ~165W Stromaufnahme der RX480 angesichts ihres Preispunktes schon etwas.
Im Gegensatz dazu das sie die wohl die PCIe Spezifikationen bricht, sowas darf dann einfach wirklich nicht sein...

Das Thema mit der PCIe Spezifikation wird noch interessant. Das muss AMD lösen, denn ansonsten dürfen sie die Karte nicht als PCIe complient bewerben. Das könnte auch für OEMs ein Problem werden. Da gibt es auch eine nette Diskussion auf Reddit dazu.

Jede Wette das irgendein Held im Sales / Marketing bei AMD nach den ersten Pascal Zahlen darauf bestanden hat das Teil höher zu takten als ursprünglich geplant. Dabei ist der PCIe Teil in der Hektik vermutlich übersehen wurden. Ein Bios ist eben schnell drauf geflasht. Bin mal gespannt wie die das lösen und ob es sich lösen lässt ohne dass die Performance niedriger als in Reviews ausfällt. Das ist auf jeden Fall ein echter Gau für AMD.

Arcanoxer
2016-06-30, 13:43:03
PCGH schreibt etwas zum PCIe-Gate.

Radeon RX 480: AMD untersucht hohe Leistungsaufnahme über PCI-E-Slot (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-Leistungsaufnahme-PCI-E-Slot-PEG-1200183/)

AMD ist das Problem rund um die zu hohe Leistungsaufnahme der Radeon RX 480 über den PCI-Express-Steckplatz bekannt. In einigen Tests wurden höhere Werte gemessen, als die PCI-SIG mit maximal 75 Watt spezifiziert hat. In den internen und externen Tests habe man das vorher nicht feststellen können.
Alles klar soweit, nicht feststellen können...

Schnoesel
2016-06-30, 13:44:55
Böse Zungen behaupten auch dass Nvidia die langsamen 512MB bewusst hat unter den Tisch fallen lassen und es sich hier nicht um einen "Kommunikationsfehler" gehandelt hat. Lass es einfach du bist so objektiv wie eine Kartoffel rund ist.

d2kx
2016-06-30, 13:45:41
Das Thema mit der PCIe Spezifikation wird noch interessant. Das muss AMD lösen, denn ansonsten dürfen sie die Karte nicht als PCIe complient bewerben. Das könnte auch für OEMs ein Problem werden. Da gibt es auch eine nette Diskussion auf Reddit dazu.

Dazu AnandTech (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king/5):

At the end of the day as the PCI-SIG is a pro-compliance organization as opposed to being a standard-enforcement organization, there’s little to lose for AMD or their partners by not being compliant with the PCIe power specifications. By not having passed compliance testing the only “penalty” for AMD is that they cannot claim the 6990 is PCIe compliant; funny enough they can even use the PCIe logo (we’ve already seen a Sapphire 6990 box with it). So does PCIe compliance matter? For mainstream products PCIe compliance matters for the purposes of getting OEM sales; for everything else including niche products like the 6990, PCIe compliance does not matter.

OEMs sind das eine Thema, für den Retailmarkt ist es egal.

Disco_STFU
2016-06-30, 13:45:52
Ernstgemeinte Frage @ Arcanoxer

Was machst du überhaupt in diesem Thread. Offensichtlich interessiert dich die Karte und AMD einen Scheissdreck. Du bist die ganze Zeit nur am Motzen und Haten... Unglaublich ist das...

Geeman74
2016-06-30, 13:46:25
Naja von 7950 3Gbyte, die vor 3 genau 3 Jahren 220 Euro kostete, auf eine 480 4 oder 8 Gbyte zu gehen, ist nicht zwingend eine lohnende Sache.

Kannst Du diese Feststellung erklären?

Ich würde mir hier eine knappe Verdopplung der Performance erwarten, so wie es auch der 3DC-Perf.Index nahelegt.
Außerdem sollten die 8 GB RAM recht lange standhalten.

Wie gesagt, ich habe eine HD 7950 und überlege sie zu tauschen und Nvidia ist heute zu teuer (14 nm).

Mancko
2016-06-30, 13:46:43
PCGH schreibt etwas zum PCIe-Gate.

Radeon RX 480: AMD untersucht hohe Leistungsaufnahme über PCI-E-Slot (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-Leistungsaufnahme-PCI-E-Slot-PEG-1200183/)


Alles klar soweit, nicht feststellen können...

Das ist am Ende eh egal ob man es feststellen konnte oder nicht. Bewusst oder unbewusst juckt keinen. Spezifikation gerissen ist halt Spezifikation gerissen egal warum. Jetzt müssen sie es lösen sonst gibt es ein OEM Desaster.

Mancko
2016-06-30, 13:48:11
Dazu AnandTech (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king/5):



OEMs sind das eine Thema, für den Retailmarkt ist es egal.

Kommt auf das Land und die rechtlichen Rahmenbedingungen an. Wäre ich ANwalt in den USA würde ich mich in Stellung bringen und verlangen, dass die das PCIe/PCI SIG Logo entfernen.

Pirx
2016-06-30, 13:48:54
Kannst Du diese Feststellung erklären?

Ich würde mir hier eine knappe Verdopplung der Performance erwarten, so wie es auch der 3DC-Perf.Index nahelegt.
Außerdem sollten die 8 GB RAM recht lange standhalten.

Wie gesagt, ich habe eine HD 7950 und überlege sie zu tauschen und Nvidia ist heute zu teuer (14 nm).
Absolut, ich würde aber auch die Custom-Modelle noch abwarten.

Sunrise
2016-06-30, 13:52:31
Kommt auf das Land und die rechtlichen Rahmenbedingungen an. Wäre ich ANwalt in den USA würde ich mich in Stellung bringen und verlangen, dass die das PCIe/PCI SIG Logo entfernen.
Was war nochmal die meistverkaufte GPU letztes Jahr? Erstmal wird groß rumgeschriehen, gemeckert und geschimpft, aber es interessiert im Endeffekt niemand, jede Presse ist gute Presse und die Karten werden dennoch verkauft, weil der/die Preis/Leistung passt.

Referenzkarten werden ohnehin kaum verkauft und jeder OEM bekommt einfach eine angepasste Version bzw. eine RX470 oder wie auch immer.

Arcanoxer
2016-06-30, 13:53:11
Ernstgemeinte Frage @ Arcanoxer

Was machst du überhaupt in diesem Thread. Offensichtlich interessiert dich die Karte und AMD einen Scheissdreck. Du bist die ganze Zeit nur am Motzen und Haten... Unglaublich ist das...
Dafür gibt es pm.
Aber nun gut, beruflich ist das ganze für mich nicht ganz unwichtig, besonders die Überschrittenen PCIe Spezifikationen.

Über motzen und haten haben wir wohl eine unterschiedliche Auffassungnug, nur weil ich das Produkt nicht abfeiern kann.

radical83
2016-06-30, 13:56:00
AMD sollte die Geschichte mit dem PCIe nicht runterspielen als wäre es ein Einzelfall.
Die können doch nicht damit argumentieren das nur vereinzelte Tester dies festgestellt haben.
Tatsache ist, dass im deutschsprachigen Raum vier Seiten getestet haben (testen konnten) und alle haben es bestätigt.

Screemer
2016-06-30, 13:58:29
was ich mich schon die ganze zeit frage, wenn wieder mal einer nen hatepost zur hohen leistungsaufnahme im multimonitor- und videobetrieb abgesetzt hat, ist ob es so schwer ist in crimson/wattman/ccc den speicher regler nach links zu schieben und auf min. zu begrenzen?

das problem mit höherer leistungsaufname aufgrund fluktuierenden taktes bzw. erhöten speichertaktes gibts schon seit ewigkeiten. schön wäre es natürlich, wenn es amd lösen würde. lösungen dafür gibts aber und die sind simpelst. meine 290 taktet ab 72Hz am DVI auch den speicher dauerhaft auf max. problem? nein!

Dino-Fossil
2016-06-30, 14:00:23
Kann das PCIe-compliance Problem eigentlich nur hardwareseitig gelöst werden, oder ist das auch per BIOS-Update machbar?

Pirx
2016-06-30, 14:02:57
Wenn ich mir das so anschaue, http://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-8.html
scheint das Problem nicht wirklich soo ernst zu sein.

Disco_STFU
2016-06-30, 14:04:04
Kann man eigentlich mit Wattman unterschiedliche Taktprofile anlegen wie mit dem Afterburner?

Loeschzwerg
2016-06-30, 14:12:24
@Disco_STFU: Wenn du die Leistung drosselst, dann geht das sowohl mit Bios als auch Treiber. Ohne Leistungsdrosselung braucht es neue HW.

@Pirx: Ist genauso unschön.

Wenn man auf die PCIe Spec pfeifen darf, dann auch auf RoHS? Hätte ich mir ja einige Stunden Arbeit sparen können :D

anddill
2016-06-30, 14:16:01
Zum Thema PCI-Express-Compliance gibt es übrigens von AnandTech einen guten Abschnitt, auch wenn der schon etwas älter ist:

PCI-Express Compliance: Does It Even Matter? (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king/5)
AnandTech

Da geht es aber um die Gesamtleistungsaufnahme, das betrifft nur das Zusammenspiel mit dem Netzteil. Bei der RX-480 ist das Problem ja nicht daß die Gesamtleistung leicht überschritten wird, sondern die Leistungsaufnahme über den Slot auf dem Mainboard.

Und wie schon mehrmals geschrieben, in der Praxis ist das bisschen mehr Strom kein Thema.

Botcruscher
2016-06-30, 14:17:58
Dass AMD so bescheuert ist, das nicht zu wissen und am Ende ganz plötzlich den Takt hochziehen muss halte ich für Quatsch, das kann eigentlich nur fertigungsbedingte Ursachen haben, weil ihre Simulationen andere Werte ergaben man aber kurz vor knapp merkte, dass man deutlich mehr Spannung benötigt um das Ziel zu erreichen oder anderweitige Fehler die beim Tapeout mit Zielfrequenz gemacht wurden.

Die offensichtliche Antwort lautet 40CUs. GF hat die Yields nicht erreicht und AMD hat das mit dem Takt ausgleichen müssen. Deswegen auch die Gerüchte von ~1,1GHz Takt.

PS: Und lasst die 970 endlich sterben. Die Abscheulichkeit wird eh durch die Ruckler vom Markt gewischt. ME zeigt mit der Speicherbremse schön die Folgen. Das die Besitzer Speicherruckler und Ruckler nicht auseinanderhalten können glaube ich sogar.

Thowe
2016-06-30, 14:23:01
AMD sollte die Geschichte mit dem PCIe nicht runterspielen als wäre es ein Einzelfall.
Die können doch nicht damit argumentieren das nur vereinzelte Tester dies festgestellt haben.
Tatsache ist, dass im deutschsprachigen Raum vier Seiten getestet haben (testen konnten) und alle haben es bestätigt.

Alleine andere Testbedingungen in Form von Soft- und Hardware können hier immer Unterschiede ausmachen. Die Aussage von AMD kann sehr wohl absolut korrekt sein. Anpressdruck vom Kühler, schlechter Wärmeübergang zwischen DIE und Kühler und schon ist die Karte für den Massenmarkt eine andere als die vorherigen Einzelstücke. Weitere Aspekte wie Qualitätsmängel in der Zuliefererkette bis hin zum Auftragsfertiger spielen selbstredend ebenso ein.

So oder so, nimmt man Aspekte wie das bekannte iPhone-Phänomen bei denen das mit TSMC gefertigten Prozessor längere Laufzeiten erreicht wie das mit denen von Samsung, sind die Verträge die AMD aktuell mit GloFo hat sicherlich auch ein Punkt in einer Liste.

AMD hat zur Vorstellung der Karte diese im Handel verfügbar gemacht und in der heutigen Zeit und Preiskampf/Situation geht dabei die Perfektion immer ein wenig verloren und man kann sich natürlich schlecht auf Testmuster berufen, wenn man mutig genug war direkt auf den Markt zu gehen. Nur ist die Karte in der Form sicherlich keine, die sich die meisten Kunden kaufen würde. Wie immer stirbt einzig der Early-Bird seine 7 Tode, entweder man ist ein Phoenix und lebt mit seinen Entscheidungen oder man wartet, wie ich, auf die erste Karte von ASUS mit einem Strix im Namen, was ich bei den NV Karten ebenso halte.

Loeschzwerg
2016-06-30, 14:28:10
Alleine andere Testbedingungen in Form von Soft- und Hardware können hier immer Unterschiede ausmachen. Die Aussage von AMD kann sehr wohl absolut korrekt sein. Anpressdruck vom Kühler, schlechter Wärmeübergang zwischen DIE und Kühler und schon ist die Karte für den Massenmarkt eine andere als die vorherigen Einzelstücke. Weitere Aspekte wie Qualitätsmängel in der Zuliefererkette bis hin zum Auftragsfertiger spielen selbstredend ebenso ein.


Genau dafür hat man eine QA, die entsprechend breit aufgestellt ist ;)

Aber vermutlich wurde in letzte Minute einfach mehr Dampf (Takt) gegeben und dann blieb nicht mehr genügend Zeit für ausführliche Tests.

AtTheDriveIn
2016-06-30, 14:37:36
Böse Zungen behaupten auch AMD hat die PCIe Spezifikationen nur gebrochen um mit der GTX970 überhaupt mithalten zu können.
Und damit meine ich offensichtlich nicht die Leistungsaufnahme.

Kapier nicht was du meinst.

Kann durchaus sein, dass sie höher takten mussten um die 970 zu schlagen, aber das mehr an Saft hätten sie auch einfach aus dem 6pin ziehen können, oder nicht?

Lowkey
2016-06-30, 14:38:24
Kannst Du diese Feststellung erklären?

Ich würde mir hier eine knappe Verdopplung der Performance erwarten, so wie es auch der 3DC-Perf.Index nahelegt.
Außerdem sollten die 8 GB RAM recht lange standhalten.

Wie gesagt, ich habe eine HD 7950 und überlege sie zu tauschen und Nvidia ist heute zu teuer (14 nm).


Die Überlegung ist die, dass es keinen direkten Vergleich gibt. Die Karte mit 3 Gbyte reicht zum Spielen aus. In dem Preisbereich reden wir von spielbar, aber nicht zwingend von Ultra Qualitätseinstellungen. 50% der Nutzer hat nie etwas von FSAA oder Treibermenu´s gehört. Genau so einen User hat gerade seine 3 Jahre alte 7950 3gb und würde gerne aufrüsten. Die Liste an Verbesserungen ist lang, doch der entgültige Preis wäre bei 300 Euro, da er diesesmal keinen Föhn wie die aktuelle Gigabyte haben will (also auch kein Referenzmodell). Was vor 3 Jahren für <220 Euro zu haben war, kostet nun 300+ Euro. Und das Wichtigste ist natürlich die Leistung. Bei einem Plus von 80% sind das in unspielbaren Bereichen von 20fps ca. 35+fps.

Da bleibt unter dem Strich das Warten auf eine 480 Custom mit ähnlichen hohem Verbrauch + OC für knapp 100% Mehrleistung. Der Preis für das Upgrade (seine Grenze waren 250 Euro) ist noch zu hoch. Das mag nun bei jedem User anders aussehen. 320 Euro für eine Asus Strix sind ganz andere Preisdimensionen.

captain_drink
2016-06-30, 14:39:59
Kann durchaus sein, dass sie höher takten mussten um die 970 zu schlagen, aber das mehr an Saft hätten sie auch einfach aus dem 6pin ziehen können, oder nicht?

Hätten sie, was elektrisch weitaus unbedenklicher gewesen wäre. Mir schleierhaft, warum man auf den PEG ausgewichen ist.

Marodeur
2016-06-30, 14:42:27
Hier => https://www.computerbase.de/2016-06/radeon-rx-480-test/11/ (ca. Mitte)

Fallout 4 nutzt Tesselation für die Godrays läuft deutlich besser als die alten AMD's.

http://abload.de/img/fo4u8sbu.png

Hab jetzt noch direkt Witcher 3 mit Hairwork's gefunden.

http://abload.de/img/shdbsjhfmbkh6.png

https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#diagramm-tessmark-tessellation


Daaanke! :up:

AtTheDriveIn
2016-06-30, 14:44:13
Hätten sie, was elektrisch weitaus unbedenklicher gewesen wäre. Mir schleierhaft, warum man auf den PEG ausgewichen ist.

Last minute Taktänderung und dann nicht komplett bedacht/getestet. Ich kenne ähnliche Situationen in Kundenprojekten ;)

**Vielleicht zieht die Platine aufgrund ihres elektr. Aufbaus aus dem PEG. Keine bewußte Entscheidung von AMD den 6Pin nicht anzuzapfen.

**Laie spricht

][immy
2016-06-30, 14:48:29
Kapier nicht was du meinst.

Kann durchaus sein, dass sie höher takten mussten um die 970 zu schlagen, aber das mehr an Saft hätten sie auch einfach aus dem 6pin ziehen können, oder nicht?
ist letztlich wurscht, woher er mehr zieht. Ist nicht tragisch, aber schön eben auch nicht.
Ist aber auch nicht die erste Karte die das tut. Schon so einige 6-pol Karten haben über 150W in der Vergangenheit gezogen, obwohl das eigentlich außerhalb der Spezifikation war. Sowohl von nvidia als auch von AMD. Hat es irgendein mainboard geschrottet, nö.
Was den teilen höchstens zusetzt ist Hitze und Staub. Die paar watt stören da absolut nicht. Schöner wäre es allerdings gewesen wenn sich die Hersteller mal endlich an die Spezifikationen halten würden. Dafür sind die schließlich da.
Bin mal gespannt was die anderen Hersteller aus der 480 rausholen. eine 480x wäre ja auch noch möglich, bei Stromversorgung mit 2x6 oder 1x8 sollte auch noch einiges an übertaktung drin sein. Dazu noch eine verbesserte Kühlung und schon ist die 980 regelmäßig in schlagweite wenn nicht gar überrundet.
Hoffe nur die Hersteller halten sich in etwa an die Preisvorstellung von AMD und schießen hier nicht über das ziel hinaus.

Effe
2016-06-30, 14:48:48
was ich mich schon die ganze zeit frage, wenn wieder mal einer nen hatepost zur hohen leistungsaufnahme im multimonitor- und videobetrieb abgesetzt hat, ist ob es so schwer ist in crimson/wattman/ccc den speicher regler nach links zu schieben und auf min. zu begrenzen?

. !Zum Regler nach links schieben sind hier leider nicht viele fähig, ohne Krämpfe zu erleiden.

radical83
2016-06-30, 14:50:23
Alleine andere Testbedingungen in Form von Soft- und Hardware können hier immer Unterschiede ausmachen. Die Aussage von AMD kann sehr wohl absolut korrekt sein. Anpressdruck vom Kühler, schlechter Wärmeübergang zwischen DIE und Kühler und schon ist die Karte für den Massenmarkt eine andere als die vorherigen Einzelstücke. Weitere Aspekte wie Qualitätsmängel in der Zuliefererkette bis hin zum Auftragsfertiger spielen selbstredend ebenso ein.

Das sind alles mögliche Ursachen für die Nichteinhaltung der Spezifikation.
Ich hoffe und denke AMD wird auch sein möglichstes tun um dies zu untersuchen und zu beheben. Beim vermeintlichen Grund stimme ich mit Loeschzwerg übrigens überein.

Dies hat aber mit meiner Aussage doch nichts zu tun. Wenn 4 Seiten testen und alle 4 feststellen, dass die Spezifikation überschritten wird, dann kann ich doch nicht von einem Einzelfall ausgehen sondern muss es doch erst einmal von einem Regelfall ausgehen.
Hat überhaupt jemand die Leistungsaufnahme über den PCIePort gemessen und konnte feststellen, dass die Werte nicht überschritten wurden?

Dino-Fossil
2016-06-30, 14:54:00
Zum Regler nach links schieben sind hier leider nicht viele fähig, ohne Krämpfe zu erleiden.

Sicher.
Wenn aber so eine einfache Lösung existiert, könnte man sich auch fragen warum AMD nicht einfach ein Treiberupdate bringt?

Botcruscher
2016-06-30, 14:56:09
Zum Regler nach links schieben sind hier leider nicht viele fähig, ohne Krämpfe zu erleiden.
_ Warum_ muss ich jedes mal bei einem Update den Käse machen?!? Warum bekommt es AMD nicht selber hin? Die Gurke läuft 300 Tage 10h und da fallen auch die 40W auf. Es ist einfach total unnötiger Verbrauch. Das sind fast 2 Monitore und wenn die Monitore im Standby sind saugt die Karte trotzdem fröhlich weiter.
Mein Fileserver verbraucht samt Monitor weniger! Hört endlich mit dem Beschönigen auf.

Screemer
2016-06-30, 15:01:19
drama baby drama. die 5 sekunden kannst du nicht investieren? ich tue das seit jahren und mir ist der finger noch nicht abgefault deswegen. das hat nichts mit beschönigen zu tun. ich wünsche mir seit ewigkeiten, dass das endlich mal in angriff genommen wird. mir bricht allerdings auch kein zacken aus der krone, wenn es so ist wie es gerade ist. warum das nicht in den reviews berücksichtigt wird und einfach mal ein 5 Zeiler dazu verfasst wird frag ich mich auch schon seit der 6xxx-serie. ich denke das man die 480 auch im mm-betrieb auf minimale verbräuche trimmen kann. laut aussagen von amd liegt das hochtakten an möglichem flackern beim wechseln zwischen den taktstufen. mit mehreren monitoren und noch dazu unterschiedlichen auflösungen und refreshraten kann ich mir vorstellen, dass das einfach eine sicherheitsmaßnahme ist. ich war von etwaigem Flacken noch nie betroffen.

OT: btw. hat einer auch das problem, dass afterburner min. 700mhz ramtakt zulässt? mit unoffical overclocking gehen zwar 150MHz aber das max sind dann irgendwas um die 900MHz. Bug in Afterburner oder ein Problem in zusammenspiel mit Chrimson?

TheGood
2016-06-30, 15:03:08
Wenn Sie sogar von der PCI-SIG haben Sie den Test bestanden. Daher muss ja wohl was anderes schiefgelaufen sein, ausser die Testen was völlig anderes...

AMD REddit STatement dazu:
https://www.reddit.com/r/Amd/comments/4qfwd4/rx480_fails_pcie_specification/d4sy0c3?

Zitat:
1) The RX 480 meets the bar for PCIe compliance testing with PCI-SIG. //edit: and interop with PCI Express.

Rabiata
2016-06-30, 15:10:38
Machen doch viele Hersteller auch ab Werk...
be quiet bei Straight Power CM 7-9, ab 580W
Pure Power CM ab AFAIR 630W
Corsair

Und noch viele viele andere...
Wenn der Hersteller weiß, daß sein Netzteil das aushält, könnte das sogar OK sein.
Die Steckverbinder halten laut Herstellerwebseite 9A pro Pin aus, und die Kabel lassen sich entsprechend dimensionieren. Das reicht rein rechnerisch für (3 x 9A) x 12V = 314 W, und alle Teile die vom Abrauchen bedroht sind liegen im Einflußbereich des Netzteilherstellers.

Nur diese Adapter dann an einem Chinaböller-Netzteil zu verwenden wäre riskant :freak:.

Sunrise
2016-06-30, 15:11:37
Wenn Sie sogar von der PCI-SIG haben Sie den Test bestanden. Daher muss ja wohl was anderes schiefgelaufen sein, ausser die Testen was völlig anderes...

AMD REddit STatement dazu:
https://www.reddit.com/r/Amd/comments/4qfwd4/rx480_fails_pcie_specification/d4sy0c3?

Zitat:
1) The RX 480 meets the bar for PCIe compliance testing with PCI-SIG. //edit: and interop with PCI Express.
Dann ist die Frage, ob das finale und ausgelieferte Referenz-Board noch mit dem Board das der PCI-SIG gesendet wurde übereinstimmt oder warum es solche Unterschiede überhaupt gibt (Testmethodik?!).

captain_drink
2016-06-30, 15:13:49
Daher muss ja wohl was anderes schiefgelaufen sein, ausser die Testen was völlig anderes...

Eventuell unterschied sich das bereitgestellte Engineering Sample auch von den jetzt getesteten Samples?
An der Glaubwürdigkeit der Tests der Fachseiten/magazine habe ich keine Zweifel, bisher gab es keinen Test, in dem nicht sowohl die 150W insgesamt als auch die Spec des PEG überschritten worden wäre.
Was man bei AMD und der PCI-Sig gemessen hat: keine Ahnung.

N0Thing
2016-06-30, 15:16:27
Die Sapphire Custom

http://a.disquscdn.com/get?url=http%3A%2F%2Fcdn.videocardz.com%2F1%2F2016%2F06%2FSAPPHIRE-Radeon-RX-480-NITRO.jpg&key=DTSmfjpVcS-kfmXVFnSt0A&w=800&h=336

Direkt mal um DVI Anschluss ergänzt :), soll 8 Pin Anschluss haben.

Das Design gefällt mir und mit einem 8-Pin-Anschluß sollte auch das Problem mit der Stromversorgung beseitigt sein. :)
Hoffe die Custom-Modelle kommen in den nächsten Wochen und kosten nur einen moderaten Aufpreis.

radical83
2016-06-30, 15:23:12
We will have more on this topic soon as we investigate, but it's worth reminding people that only a very small number of hundreds of RX 480 reviews worldwide encountered this issue.

Hunderte von Reviews??? Robert Hallock vergleicht die ganzen Youtuber ernsthaft mit Tomshardware, Ht4U & Co.? Also wenn das kein BS ist dann weiß ich auch nicht.

medi
2016-06-30, 15:24:35
Wenn ich eins aus meiner Geforce 2MX Erfahrung gelernt habe dann das ich besser mit dem Neukauf einer Grafikkarte etwas warte bis die Kinderkrankheiten beseitigt sind :D ... Ende August entscheid ich mich dann spätestens!

d2kx
2016-06-30, 15:24:44
Overclockers.co.uk haben inzwischen die 1000er Marke verkaufter RX480 geknackt :smile:

Unicous
2016-06-30, 15:25:32
@radical83

Dir ist schon klar, dass es nicht nur deutsche und englische Websites gibt?:confused:

Tellerrand und so.

Hakim
2016-06-30, 15:27:59
Mindfactory gibt mittlerweile 170W bei einigen (oder allen?) 480er an

radical83
2016-06-30, 15:31:23
@Unicous
Den Tellerrand kannst du dir gerne sparen.

Verweise doch mal auf einen (fremdsprachigen) Reviewer der die Einhaltung der Spezifikationen bestätigt.

Grendizer
2016-06-30, 15:31:45
Overclockers.co.uk haben inzwischen die 1000er Marke verkaufter RX480 geknackt :smile:


Das zeigt doch gerade nur das es zuviele dumme Leute gibt die einfach ohne Hirn kaufen. Das Referenzdesign ist schrott. Als Customdesign kaufbar. Ich habe eine 390 drin die leiser ist als das Referenzdesign :freak: . Ich hatte die 480 als Silentsidegrade fest in der Planung, allerdings da auch noch für 239 für die 8 Gb Version. Jetzt warte ich lieber mal auf die 1060 bevor ich was tausche. Die 2-3 Monate halte ich auch noch mit dem "lauten" lüfter durch.

Hasenpfote
2016-06-30, 15:33:39
Sorry, aber warum kaufst du dir solch ein mieses Netzteil?!Weil meine altes abgeraucht ist, ich dringend eines brauchte, zum Mediamarkt bin, dort ein CoolerMaster 500W IRGENDWAS für 80Euro eingepackt habe, das eingebaut habe, dann online gesehen habe, dass das 35Euro kostet und totaler Scheiß ist. Das Ding ist mittlerweile 5 Jahre alt und läuft leise und problemlos vor sich hin.
Sorry, aber das klingt für mich eher so, als ob du ein mieses Netzteil gekauft hast und jetzt versuchst, deinen missglückten Kauf irgendwie schön zu biegen, statt das Problem an der Wurzel anzupacken und das Netzteil gegen ein gescheites/leises Modell auszutauschen, von denen es in diesen Tagen ja mehr als genug gibt...Das klingt eher so, dass ich keine Lust habe, >ausreichend< gute und funktionierende Hardware auszutauschen, nur weil ich eine Grafikkarte wechsel.

Richtig, denn die GraKa muss ja auch an einem 10 Jahre altem Netzteil laufen, egal was dann passiert ;-)Wenn die Stecker passen und die Leistung reicht? Ja, definitiv! Genauso wie der RAM! Oder die TV-Karte! Oder jede andere Hardware. Ich kauf ja auch keine neue Sat-Schüssel, wenn ich den TV wechsel (Röhren-TV wurde übrigens schweren Herzens auch erst letztes Jahr ersetzt ;) )
edit: Sehe gerade, dass ich mit der Karte eventuell meine beiden Monnis auf den Müll hauen könnte (kA ob die HDMI o.ä. haben).

Hört doch bitte mit dem Auflösungsquatsch auf...
Die Auflösung hat bei den aktuellen Speichermengen kaum mehr Auswirkungen auf den Verbrauch, einzig und allein das Spiel selbst hat darauf Auswirkungen. Und da reden wir dann über die Art und Weise, wie der Speicher belegt wird (Caching, Texturen)...Ok, um so besser! Denn da die 970 sehr gut verkaufte wurde, dürften die Spielehersteller und Nvidia ja drauf achten, dass sie unter 3,5GB bleiben (ein Freund berichtet, dass seine Karte immer knapp unter 3,5GB RAM Auslastung anzeigt).

Faktisch brauchte AMD eine neue Fertigungstechnologie um leistung-/verbauchstechnisch mit Nvidia gleichzuziehen. Dass AMD das deutlich günstiger in den Markt bringt und viele Kunden ansprechen wird, ist aber ein anderes Thema.

PS: Ich finde es interessant, wie angepisst die Leute reagieren, wenn man nicht in die "Boa, geil"-Jubelarien einstimmt. Habt ihr artig eure Adblocker für ht4u angemacht?

uweskw
2016-06-30, 15:35:31
Das ist ja mal chic.
Nicht das kindisch-bunte Pling-Pling. Sieht nach Eleganz + Ingenieursarbeit aus.

http://cdn.videocardz.com/1/2016/06/SAPPHIRE-Radeon-RX-480-NITRO.jpg

greetz
US

Unicous
2016-06-30, 15:37:06
@Unicous
Den Tellerrand kannst du dir gerne sparen.

Verweise doch mal auf einen (fremdsprachigen) Reviewer der die Einhaltung der Spezifikationen bestätigt.

Du legst Robert Hallock Worte in den Mund und mir damit auch.
[...]a very small number of hundreds of RX 480 reviews worldwide encountered this issue.

oder hast nur rudimentäre Englisch-Kenntnisse. Die Frage ist natürlich ob diese Reviewer das überhaupt getestet haben. Aber seine Aussage an sich ist nicht falsch nur weil du Probleme mit der englischen Sprache zu haben scheinst.:rolleyes:

Die Beweislast liegt also bei dir. :uup:

hesTeR-
2016-06-30, 15:38:39
Die offensichtliche Antwort lautet 40CUs. GF hat die Yields nicht erreicht und AMD hat das mit dem Takt ausgleichen müssen. Deswegen auch die Gerüchte von ~1,1GHz Takt.

.

das finde ich sehr interessant und auch plausibel....

Raff
2016-06-30, 15:41:49
AMD Radeon RX 480 flüsterleise, schnell und sparsam: So geht's (http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Specials/Overclocking-Undervolting-Wattman-1200042/)

Undervolting, Overclocking und Gelaber. :)

MfG,
Raff

Gorkon
2016-06-30, 15:42:27
Wo ist das/dein Problem - die Aussage von dildo ist doch zu 100% korrekt?
Pascal ist mit AC schneller als ohne, das hast Du mit deinen verlinkten Benchmarks grad eben selber bewiesen.

nVidia schafft es halt die Einheiten auch ohne AC nahezu 100% auszulasten, dementsprechend fällt der Zugewinn dann kleiner aus.
Mein / Das Problem ist einfach, dass auf der einen Seite jeder ach so mickrige theoretische Zugewinn als Gottesgleich, auf der anderen Seite spürbare(!) Zugewinne als nichtig angesehen werden...und das unabhängig ob X > Y / Y > X. Ansonsten generell diese ganzen Schwanzvergleiche die schon mehr als ins persönliche gehen :mad:

d2kx
2016-06-30, 15:42:44
Das ist ja mal chic.
Nicht das kindisch-bunte Pling-Pling. Sieht nach Eleganz + Ingenieursarbeit aus.

http://cdn.videocardz.com/1/2016/06/SAPPHIRE-Radeon-RX-480-NITRO.jpg

greetz
US

Die Sapphire RX 480 Nitro kommt übrigens mit Sapphire QuickRelease, ihr Name dafür, dass man den Lüfter besonders einfach entfernen kann (etwa zum Säubern) und Sapphire FanSafe, was es erlaubt, den Lüfter einzuschicken, falls er außerhalb der Spezifikation läuft oder Probleme macht ohne die ganze Karte einschicken zu müssen.

Thowe
2016-06-30, 15:45:44
Hätten sie, was elektrisch weitaus unbedenklicher gewesen wäre. Mir schleierhaft, warum man auf den PEG ausgewichen ist.

Primäre Zuführung über Power-Connector auf max. des 6 PINs und sekundär den Rest über den PEG. So wird es angedacht gewesen sein mit der Erwartung unterm Strich in der Spezifikation zu bleiben, was innerhalb dieser Überlegung bedeutet, die Karte nimmt anscheinend wirklich mehr an Strom auf, als geplant/erwartet war.

Noebbie
2016-06-30, 15:47:21
Die Sapphire RX 480 Nitro kommt übrigens mit Sapphire QuickRelease, ihr Name dafür, dass man den Lüfter besonders einfach entfernen kann (etwa zum Säubern) und Sapphire FanSafe, was es erlaubt, den Lüfter einzuschicken, falls er außerhalb der Spezifikation läuft oder Probleme macht ohne die ganze Karte einschicken zu müssen.

Genau auf das Teil bin ich scharf! :D