PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

fondness
2016-06-29, 18:20:43
Sieht mir sehr danach aus, als wurde im letzten Moment der Takt hochgezogen, anders kann ich mir die hohe Leistungsaufnahme über PCIe kaum erklären. Das PCB-Design kann man dann natürlich nicht mehr anpassen.

Mal sehen, ob die RX470 wirklich erheblich effizienter wird, das würde den Eindruck natürlich bestätigen.

Herr Doktor Klöbner
2016-06-29, 18:27:28
Jetzt muss man mal auf die GTX 1060 gespannt sein. Realistischerweise sollten die trotz 192 Bit SI die RX 480 bei gut 100 Watt unter Spielelast erreichen.
Bei ähnlich guter Taktbarkeit wie der GP 104 werden Custom Varianten sich wohl ein gutes Stück vor die RX 480 schieben ohne über 150 Watt zu kommen.

Das ist dann eine Frage des Preispunkts: Sollten die kolportierten 299.- ohne Steuer für die 6 GB Version stimmen kann AMD aufatmen, plaziert NVidia die Karten preisgleich zur RX 480 wird es häßlich für AMD.

ilPatrino
2016-06-29, 18:28:51
Sieht mir sehr danach aus, als wurde im letzten Moment der Takt hochgezogen, anders kann ich mir die hohe Leistungsaufnahme über PCIe kaum erklären.
ich denke mal, die ausbeute bzw. taktbarkeit der chips hat sich nicht entsprechend der zielvorgaben entwickelt und man mußte letztendlich deutlich mehr spannung geben als man eigentlich wollte / vorhatte, um im angepeilten leistungsbereich (vor der 970) zu bleiben.

wäre interessant, ob glofo den prozess im laufe der "laufzeit" des chips verbessern kann. die ausbeute scheint ja auch ziemlich mies zu sein, wenn man den gerüchten glauben darf

Troyan
2016-06-29, 18:29:38
Die wissen, wo die GP106 landen wird. Also hat man schnell den Takt soweit wie möglich nach oben geschoben, um 100% vor der Karte sein zu sein.

8Gb/s waren wohl nie angedacht, wie man an den 4GB Karten sieht. Vielleicht hat man wirklich in der eigenen Parallelwelt gelebt und dachte, dass man "Monate der Konkurrenz voraus" wäre. Und als der Knall der geplatzten Blase AMD erschreckte, hat man das übliche gemacht: In Panik reagiert...

dildo4u
2016-06-29, 18:33:44
480 CPU Overhead Test mit i3,i5 i7


http://www.purepc.pl/karty_graficzne/premiera_amd_radeon_rx_480_polaris_test_karty_graficznej?page=0,18

http://www.purepc.pl/karty_graficzne/premiera_amd_radeon_rx_480_polaris_test_karty_graficznej?page=0,17

http://www.purepc.pl/karty_graficzne/premiera_amd_radeon_rx_480_polaris_test_karty_graficznej?page=0,16

Lowkey
2016-06-29, 18:36:28
Der 480 fehlt ein markantes Feature: die Fury X hat Wasserkühlung ab Werk, die Nano ist klein, die 1070/1080 sind effizient... und die 480 ist: nicht besonders auffällig.

Digidi
2016-06-29, 18:37:02
Der 480 fehlt ein markantes Feature: die Fury X hat Wasserkühlung ab Werk, die Nano ist klein, die 1070/1080 sind effizient... und die 480 ist: nicht besonders auffällig.


Sie hat ACEs und Async Compute :D

Pumpi74
2016-06-29, 18:37:39
HOT hatte nicht ganz unrecht. Nvidia bräuchte den GM 104 lediglich mit 7/8GB Speicher anbieten. Neuer Chip völlig unnötig. Rentabel dürfte das zu Preisen a 250/350€ auch sein. Failaris sei aber dennoch dank, die Preise wird er in Bewegung bringen.

AnarchX
2016-06-29, 18:38:53
Im ersten Eindruck eine durchschnittliche Weiterentwicklung von GCN und die Vorteile der 14nm Fertigung. Mehr ein RV670 als ein RV770 oder R300.
Aber durch die aggressive Preisgestaltung setzt man Nvidia durchaus unter Druck, womit der Markt schnelle eine Pascal-Option bei <$300 erhält und vielleicht auch die GTX 1070 sich eher in Richtung <400€ bewegen wird.

Die bis zu 100W über den PEG ist leider schon ein ziemlicher Lapsus, da wird wohl mancher Händler nicht gleich nachordern müssen. Nachlöten wie bei der 8800 GTX wird wohl nicht helfen.
Für eine solche Karte mit OC-Ambitionen wäre wohl 2x6/1x8 sinnvoller gewesen.

40 CUs für P10 sollten sich laut Die-Shot ausschließen oder hat man da eher die Phantasie spielen lassen: http://cdn.videocardz.com/1/2016/06/Radeon-RX-480-Presentation-VideoCardz_com-12-1.jpg ?

HOT hatte nicht ganz unrecht. Nvidia bräuchte den GM 104 lediglich mit 7/8GB Speicher anbieten. Neuer Chip völlig unnötig. Rentabel dürfte das zu Preisen a 250/350€ auch sein. Failaris sei aber dennoch dank, die Preise wird er in Bewegung bringen.
Wozu 400mm²+256-Bit, wenn man mit 200mm²+192-Bit/6GiB auch den Leistungsbereich + Neu-Faktor erreichen kann. Und die 8GiB bleiben dabei weiter >400€ exklusiv bei NV...

Digidi
2016-06-29, 18:40:03
HOT hatte nicht ganz unrecht. Nvidia bräuchte den GM 104 lediglich mit 7/8GB Speicher anbieten. Neuer Chip völlig unnötig. Rentabel dürfte das zu Preisen a 250/350€ auch sein. Failaris sei aber dennoch dank, die Preise wird er in Bewegung bringen.


Und was ist mit dem Fehlenden Async Compute? GM204 ist nicht Zukunftsfähig was DX12 angeht und könnte Nvidia viele Probleme Bereiten

dildo4u
2016-06-29, 18:41:54
480 Overclocking Test


https://youtu.be/C24vLB6oYyU

Ex3cut3r
2016-06-29, 18:42:04
Und was ist mit dem Fehlenden Async Compute? GM204 ist nicht Zukunftsfähig was DX12 angeht und könnte Nvidia viele Probleme Bereiten

Klar, jetzt kommt am ende wieder die DX12 Sync Geschichte, der letze Strohhalm. Dx12 To the rescue.
Fraglich ist überhaupt ob Dx12 sich überhaupt mal durchsetzt. Ein ganzes Jahr am Markt und nichts, nada bis auf ein Strategie Spiel namens Ashes. Achja und ein Monatliches Hitman was in Häppchen serviert wird.

Schlammsau
2016-06-29, 18:42:21
Der 480 fehlt ein markantes Feature: die Fury X hat Wasserkühlung ab Werk, die Nano ist klein, die 1070/1080 sind effizient... und die 480 ist: nicht besonders auffällig.
.... doch, wo bekommt man im Moment so viel Leistung für so wenig Geld? 219€ (4GB) ab Launch, Hallo ???

Digidi
2016-06-29, 18:44:04
Klar, jetzt kommt am ende wieder die DX12 Sync Geschichte, der letze Strohhalm. :freak:

So wie dein lezter Strohalm das Stromverbrauch ist :confused:

Im Übrigen ist die Karte genau dort wo ich sie Prognostiziert habe. Zwischen 230 und 270 Euro und nicht über 300 Euro und das am Releaste Tag!

fondness
2016-06-29, 18:44:21
Gibt es eine offizielle Angabe zur Die-Size?

Insgesamt aufgrund der guten 3dmark-Ergebnisse natürlich ein wenig enttäuschend, aber aus P/L-Sicht dennoch das attraktivste Angebot am Markt und die geschätzten 30-40W mehr wie bei einer GTX1060 werden wohl niemanden weh tun.

Dural
2016-06-29, 18:44:27
.... doch, wo bekommt man im Moment so viel Leistung für so wenig Geld?

Gtx970 @ 1400mhz dürfte sogar schneller sein.

Und wenn ich daran denke das mein gm204 sogar mit 1600mhz läuft...

Thunder99
2016-06-29, 18:46:24
Evt dann Custom RX480 done right?

@Dural:

Dann bitte OC gegen OC und nebenbei sind 1600MHz eher die Ausnahme als die Regel ;)

Ex3cut3r
2016-06-29, 18:46:34
So wie dein lezter Strohalm das Stromverbrauch ist :confused:

Wieso? Ich habe den Stromverbrauch so gar noch verteidigt, ich zitier mich mal selbst: Die Boardpartner werden die PEG Sache schon regeln, aber man muss halt aufpassen, das man bei Customs keine Referenz Platine bekommt. Ob 120Watt üben den PEG schaden oder nicht, Maße ich mir nicht an darüber zu entscheiden.

Digidi
2016-06-29, 18:46:54
Gibt es eine offizielle Angabe zur Die-Size?

Insgesamt aufgrund der guten 3dmark-Ergebnisse natürlich ein wenig enttäuschend, aber aus P/L-Sicht dennoch das attraktivste Angebot am Markt und die geschätzten 30-40W mehr wie bei einer GTX1060 werden wohl niemanden weh tun.


Ja die meisten berichten von 232mm² in 14nm was ca. 245mm² in 16nm entspricht. Der Chip ist relative groß hat aber auch viele Shader. AMD geht wohl dieses mal den Mittelweg! Etwas mehr Takt etwas weniger Shader. Mal sehen was dabei rauskommt.

Troyan
2016-06-29, 18:47:41
Und was ist mit dem Fehlenden Async Compute? GM204 ist nicht Zukunftsfähig was DX12 angeht und könnte Nvidia viele Probleme Bereiten

Pascal unterstützt Async Compute. Oh und Pascal unterstützt FL12_1 mit CR Tier 2, Tiled Ressources Tier 3 (und wohl auch ROV).

Polaris sieht aus wie der Versuch von AMD Monate vor nVidia mit FinFet auf den Markt zu kommen, nur um dann einsehen zu müssen, dass man gescheitert ist.

Disco_STFU
2016-06-29, 18:47:57
Gibt es eine offizielle Angabe zur Die-Size?

Insgesamt aufgrund der guten 3dmark-Ergebnisse natürlich ein wenig enttäuschend, aber aus P/L-Sicht dennoch das attraktivste Angebot am Markt und die geschätzten 30-40W mehr wie bei einer GTX1060 werden wohl niemanden weh tun.

Wenns nicht am Ende 60 oder mehr Watt werden... :/

Ravenhearth
2016-06-29, 18:49:18
Ja die meisten berichten von 232mm² in 14nm was ca. 245mm² in 16nm entspricht

So funktioniert das nicht.

Hermelinmaster
2016-06-29, 18:49:26
@Raff Danke schön.
Da hat sich wohl seit Anfang des Jahres noch einiges getan. Titan X lag da noch bei 29.8fps ^^
Halbwegs aktuellen Vergleichswert hast Du nicht zufällig?

Schlammsau
2016-06-29, 18:51:03
Gtx970 @ 1400mhz dürfte sogar schneller sein.

Und wenn ich daran denke das mein gm204 sogar mit 1600mhz läuft...
Jetzt das schon wieder, ne stark übertaktete Karte mit einer Referenzversion vergleichen .... :rolleyes:

https://abload.de/img/unbenannt8bsqt.png

Ausserdem kostet die günstigste 970 im Moment noch 239€ aufwärts und hat einen noch "höheren" Stromhunger ... ;)
https://geizhals.de/?cat=gra16_512&xf=132_4096%7E1439_GTX+970%7E653_nVIDIA#xf_top

Digidi
2016-06-29, 18:51:25
So funktioniert das nicht.

Ach ja wie dann? Es ist nur eine Aschätung hergeleitet aus dem A9 Soc von Apple der einaml bei TSMC in 16nm und einmal bei TSMC in 14nm gerfertigt wird. Da waren auch circa 5% unterschied. Aber du darfst mich gerne aufklären.

dildo4u
2016-06-29, 18:51:54
Gibt es eine offizielle Angabe zur Die-Size?

Insgesamt aufgrund der guten 3dmark-Ergebnisse natürlich ein wenig enttäuschend, aber aus P/L-Sicht dennoch das attraktivste Angebot am Markt und die geschätzten 30-40W mehr wie bei einer GTX1060 werden wohl niemanden weh tun.
Die 3DMark Ergebnisse sind genau im Bereich der 970.

https://youtu.be/2jvgC7L4t50

Ex3cut3r
2016-06-29, 18:54:21
Eine GTX 970 ist doch keine Option mit der Speicher Anbindung, echte 8GB oder 4GB sind immer vorzuziehen. In dem Fall ist die RX 480 der klare Sieger.

dildo4u
2016-06-29, 18:55:40
Eine GTX 970 ist doch kein Option mit der Speicher Anbindung, echte 8GB oder 4GB sind immer vorzuziehen. In dem Fall ist die RX 480 der klare Sieger.
Das meine ich nicht es gab keine höhere Erwartung wegen der 3DMark Ergebnisse wie es fondness uns weiß machen will.

Ex3cut3r
2016-06-29, 18:56:32
Das meine ich nicht es gab keine höhere Erwartung wegen der 3DMark Ergebnisse wie es fondness uns weiß machen will.

Achso, ne ich meinte es auch eher allgemein.

Schlammsau
2016-06-29, 18:57:02
Die 4GB 480 würde mich reizen aber erst wenn der Preis bei 200€ ist!

Evtl geht da bei den Customs was.

Troyan
2016-06-29, 18:57:35
Hardware.fr misst 192W in The Witcher 3, wenn man das Powerlimit alles erhöht:
http://www.hardware.fr/articles/951-9/consommation-efficacite-energetique.html

In Battlefield 4 bietet Pascal mehr als die doppelte Effizienz. ;D

captain_drink
2016-06-29, 18:57:39
Bei Raffs 480 setzt sich mit 1,4 Ghz und Custom-Kühler schon der Treiber zurück, dennoch will WCCFtech von Partnerkarten mit bis zu 1,6 Ghz wissen. Quelle: Kyle Bennett. Realsatire?
http://wccftech.com/amd-rx-480-asus-strix-msi-gaming/

Ex3cut3r
2016-06-29, 18:58:37
Bei Raff 480 setzt sich mit 1,4 Ghz und Custom-Kühler schon der Treiber zurück, dennoch will WCCFtech von Partnerkarten mit bis zu 1,6 Ghz wissen. Quelle: Kyle Bennett. Realsatire?
http://wccftech.com/amd-rx-480-asus-strix-msi-gaming/

Ja klar, den Amis kannst du alles verkaufen, was denkst du wieso Trump der neue Präsident wird? ;)

anddill
2016-06-29, 19:00:24
Ja klar, den Amis kannst du alles verkaufen, was denkst du wieso Trump der neue Präsident wird? ;)

Oder andersrum: Nur wir Deutschen scheissen uns wegen 50W ins Hemd. Dem Rest der Welt ist das ziemlich egal, genauso ob die Kühlung nun mit 2 oder 3 Sone läuft.

(del676)
2016-06-29, 19:00:43
Mein Fazit:
+ Performance/Euro sehr gut
+ 8GB Vram
- zu hohe Leistungsaufnahme!!
- wieder mal schlechte Launchtreiber (17W Idle und 50W bei Youtube!)

Schlammsau
2016-06-29, 19:01:09
Oder andersrum: Nur wir Deutschen scheissen uns wegen 50W ins Hemd. Dem Rest der Welt ist das ziemlich egal, genauso ob die Kühlung nun mit 2 oder 3 Sone läuft.
"German Angst (https://de.wikipedia.org/wiki/German_Angst)" ;D

Ex3cut3r
2016-06-29, 19:01:31
Oder andersrum: Nur wir Deutschen scheissen uns wegen 50W ins Hemd. Dem Rest der Welt ist das ziemlich egal, genauso ob die Kühlung nun mit 2 oder 3 Sone läuft.

Jo, oder so gesehen, EVGA's mit ihren 4 Sone sind dort am meisten verbreitet. Bigger is better oder so. ;D

dildo4u
2016-06-29, 19:02:07
Hardware.fr misst 192W in The Witcher 3, wenn man das Powerlimit alles erhöht:
http://www.hardware.fr/articles/951-9/consommation-efficacite-energetique.html

In Battlefield 4 bietet Pascal mehr als die doppelte Effizienz. ;D
Jup Nano hat bessere Effizienz als 480.

hesTeR-
2016-06-29, 19:02:09
ich finde das mit der strom versorgung außerhalb der spezifikation ehrlich gesagt garnicht gut...

was hätte es amd gekostet nen 8pin zu verbauen oder 2x6 pin ? 50 cent mehr pro karte ?

genau durch sowas wirkt amd einfach unprofessionel auf mich und ich bin eher im amd lager als im grünen

Dural
2016-06-29, 19:02:31
Jetzt das schon wieder, ne stark übertaktete Karte mit einer Referenzversion vergleichen .... :rolleyes:



:rolleyes: ich habe dir nur eine antwort gegeben auf deine aussage wo man für das geld die selbe leistung bekommt.

https://www.computerbase.de/preisvergleich/evga-geforce-gtx-970-superclocked-acx-2-0-04g-p4-2974-kr-a1168373.html

Wenn dir die realität nicht passt dann frag nicht danach. :rolleyes:

Und ja gm204 ist nicht so ein oc krücke wie polaris, wenn man den chip am limit takten muss ist man selber schuld.

https://youtu.be/C24vLB6oYyU

Jupiter
2016-06-29, 19:02:42
Ich betrachte die Effizienz bei gleichen Output (Performance). Stromverbrauch ist bei Karten = Performance.

Wie soll AMD bei der geringen Effizienz mit einer GTX 1080Ti mithalten können? Wer will eine 500 Watt-Karte?

anddill
2016-06-29, 19:03:28
ich finde das mit der strom versorgung außerhalb der spezifikation ehrlich gesagt garnicht gut...

was hätte es amd gekostet nen 8pin zu verbauen oder 2x6 pin ? 50 cent mehr pro karte ?

genau durch sowas wirkt amd einfach unprofessionel auf mich und ich bin eher im amd lager als im grünen

Ist vielleicht ein Eingeständnis an die üblichen 350 - 450W Netzteile. Genug Bums um die Karte zu betreiben, aber sehr häufig nur ein 6-Pol PCIe-Kabel.

Digidi
2016-06-29, 19:05:18
Oder andersrum: Nur wir Deutschen scheissen uns wegen 50W ins Hemd. Dem Rest der Welt ist das ziemlich egal, genauso ob die Kühlung nun mit 2 oder 3 Sone läuft.


Ich finde es aber gut das wir auf den Stromverbrauch achten. Das hat uns doch schon vorteile gebracht. Wenn ich immer die Berichte über Asien mit dem ganzen Smog da sehe, bin ich froh das wir um die Stromerzeugung so einen großen Aufwand betreiben.

Nur bei Grafikkarten mit Ihren mittlerweile 150 Watt ist das echt Pidde paddel. Da gibt es im Haushalt größere Verbraucher die 1000x mal mehr in der Stromrechnung durchschlagen.

Im Übrigen. Falls mal alles auf erneuerbare Energien umgestellt ist, ist der Stromverbrauch sowas von Egal!

dildo4u
2016-06-29, 19:05:56
Ich betrachte die Effizienz bei gleichen output. Stromverbrauch ist bei Karten = Performance.

Wie soll AMD bei der geringen Effizienz mit einer GTX 1080Ti mithalten können? Wer will eine 500 Watt-Karte?
Da kommt der selbe Käse wie bei den FuryX,ein High-End Modell mit Wakü,und damit hat man wenig Luft nach unten was den Preis angeht,siehe die jetzigen Fury X Preise um 600€.

fondness
2016-06-29, 19:05:59
GM204 ist nicht wirklich eine Alternative, es fehlen:
- DP1.4, HDMI2.0b, HDR
- Async Compute
- >4 GB VRAM
- Video Decoder Features
...

gedi
2016-06-29, 19:06:25
In dem Segment spielt der Verbrauch nur eine Rolle, wenn es das OC hemmt.

hesTeR-
2016-06-29, 19:07:09
Ist vielleicht ein Eingeständnis an die üblichen 450W Netzteile. Genug Bums um die Karte zu betreiben, aber sehr häufig nur ein 6-Pol PCIe-Kabel.

hätte man da nicht einfach ein adapter beilegen können ?

AnarchX
2016-06-29, 19:07:47
In wohl zwei Wochen ist GM204 wohl auch Geschichte und die GTX 970 eine Annektdote. Eventuell kann man da noch ein paar Käufer im Räumungsverkauf bei <=200€ finden.

Herr Doktor Klöbner
2016-06-29, 19:08:00
Aber es tut doch einem soliden Budget Netzteil der 50,- Klasse nicht weh, wenn der 6 Pin Anschluss außerhalb der Spezifikation betrieben wird, einem Low-Budget Mainboard schon eher.

Loeschzwerg
2016-06-29, 19:08:23
Ist vielleicht ein Eingeständnis an die üblichen 450W Netzteile. Genug Bums um die Karte zu betreiben, aber sehr häufig nur ein 6-Pol PCIe-Kabel.

http://www.megacomputer.ca/prodimg//009675/30194.jpg :usweet:

Aber es tut doch einem soliden Budget Netzteil der 50,- Klasse nicht weh, wenn der 6 Pin Anschluss außerhalb der Spezifikation betrieben wird, einem Low-Budget Mainboard schon eher.

Auch das MB wird über den ATX des Netzteils gefüttert.

CD-LABS
2016-06-29, 19:10:53
Hmm, wirkt mal wieder wie eine Karte, bei der der Treiber nicht rechtzeitig fertig geworden ist...

Die Spannungen und PowerStates im allgemeinen sind absolut nicht fertig getuned.
Immerhin ist es ein überraschend gelungenes Referenzdesign, das nochmal deutlich macht, was für eine unglaubliche Verarsche die FoundersEdition der 1070 darstellt.

Aber zurück zur 480: Die Karte ist leider nicht so toll geworden (das liegt aber ausschließlich an der Effizienz), ist ja aber eh nur ein Platzhalter und Umsatzsteigerer für AMD. Man darf nie vergessen, dass AMD gleich mehrfach pro verkaufter Karte profitiert: Größere Basis für FreeSync, halt der Umsatz und vielleicht sogar etwas Gewinn bei AMD selber und vor allen Dingen höherer Umsatz bei GloFo und deshalb hoffentlich keine Strafzahlungen mehr!
Die beste Karte in ihrem Preisbereich ist sie ja eh und deshalb wird sie auch sicher ihre Abnehmer finden!

anddill
2016-06-29, 19:11:39
hätte man da nicht einfach ein adapter beilegen können ?

Für einen OEM-PC? Adapter von was auf was? Molex gibts bei aktuellen OEM-Netzteilen gar nicht mehr.
Ich denke auch die Karte war mit 150W und 50/50 Aufteilung der Leistungsaufnahme geplant. Kurz vor Launch wurde sie noch etwas per Bios gepusht und keiner hat an den armen PCIe-Slot gedacht.
Aber wie gesagt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11084184#post11084184), soo schlimm ist das auch nicht.

Schlammsau
2016-06-29, 19:12:30
:rolleyes: ich habe dir nur eine antwort gegeben auf deine aussage wo man für das geld die selbe leistung bekommt.

https://www.computerbase.de/preisvergleich/evga-geforce-gtx-970-superclocked-acx-2-0-04g-p4-2974-kr-a1168373.html

Wenn dir die realität nicht passt dann frag nicht danach. :rolleyes:

Und ja gm204 ist nicht so ein oc krücke wie polaris, wenn man den chip am limit takten muss ist man selber schuld.

https://youtu.be/C24vLB6oYyU
239 zu 219€ bei weniger Leistung und mehr Stromverbrauch ist nicht das selbe ... ;)

Troyan
2016-06-29, 19:14:29
Immerhin ist es ein überraschend gelungenes Referenzdesign, das nochmal deutlich macht, was für eine unglaubliche Verarsche die FoundersEdition der 1070 darstellt.

Satire, ich mag Satire:
http://www.hardware.fr/articles/951-10/nuisances-sonores-temperatures.html

Quatsch. Das Referenzdesign der 480 ist ein Witz. 50db für 85°C gegenüber 83"C und 39db. Und wir reden hier vom abgespeckten Design...

anddill
2016-06-29, 19:14:37
http://www.megacomputer.ca/prodimg//009675/30194.jpg :usweet:


Dann lieber 100W über den PCIe-Slot. Was für ein.. eine... mir fehlen die Worte.

Blediator16
2016-06-29, 19:14:42
GM204 einer rx480 vorziehen? Im Leben nicht.

Birdman
2016-06-29, 19:14:44
Und was ist mit dem Fehlenden Async Compute? GM204 ist nicht Zukunftsfähig was DX12 angeht und könnte Nvidia viele Probleme Bereiten
Lustig das mit dem Async Compute, wo doch die RX480 Benchmarks aufzeigen, dass Polaris auch kein (gescheites) AC kann...
So wichtig kann Async Compute also nicht sein, wenn selbst AMD bei der neuen Kartengeneration davon Abstand nimmt, bzw der Performancegewinn dadurch nicht mal mehr die Hälfte von dem ausmacht was es bei Hawaii und Fiji waren.

Digidi
2016-06-29, 19:19:04
Lustig das mit dem Async Compute, wo doch die RX480 Benchmarks aufzeigen, dass Polaris auch kein (gescheites) AC kann...
So wichtig kann Async Compute also nicht sein, wenn selbst AMD bei der neuen Kartengeneration davon Abstand nimmt, bzw der Performancegewinn dadurch nicht mal mehr die Hälfte von dem ausmacht was es bei Hawaii und Fiji waren.


Wa wa wa wassss?

Natürlich kann RX 480 Async Compute. Sie haben nur unter DX11 sich gut verbessert das der Vorsprung zu DX12 nicht mehr so groß ausfällt.

Loeschzwerg
2016-06-29, 19:19:19
Dann lieber 100W über den PCIe-Slot. Was für ein.. eine... mir fehlen die Worte.

I know. Man findet sogar erschreckend viele von diesen "Adaptern".

Die 100Watt will ich meinem kleinen VIA Board trotzdem nicht zumuten, denn das war/ist teurer als eine RX480 :freak::cool:

Birdman
2016-06-29, 19:19:33
Ist vielleicht ein Eingeständnis an die üblichen 350 - 450W Netzteile. Genug Bums um die Karte zu betreiben, aber sehr häufig nur ein 6-Pol PCIe-Kabel.
THIS!
In meinem Bekanntenkreis/Umfeld gibt noch genug von diesen und genau daher war mein Interesse an der RX480 recht hoch.
Endlich eine Performancekarte die sich verbauen lässt, ohne vorher noch ein Netzteil-Upgrade machen zu müssen.

Thowe
2016-06-29, 19:21:03
Dann lieber 100W über den PCIe-Slot. Was für ein.. eine... mir fehlen die Worte.

Dito ... Der Hersteller heißt bestimmt "Hot Wire" ^^

Birdman
2016-06-29, 19:22:02
Wa wa wa wassss?

Natürlich kann RX 480 Async Compute. Sie haben nur unter DX11 sich gut verbessert das der Vorsprung zu DX12 nicht mehr so groß ausfällt.
Aha... man merke:

- AMD/RX480: Auslastung unter DX11 hat sich verbessert, daher ist der Gewinn unter DX12/AC weniger hoch
- Nvidia/GM&GPxxx: DX12/AC funktioniert nicht, daher ist der Gewinn unter DX12/AC weniger hoch

:freak:

Digidi
2016-06-29, 19:22:52
Falsch Nvidia macht unter DX12 keinen Gewinn zu DX11 sondern verluste :D

Dx11 läuft nämlich besser auf Nvidia als DX12

Hier 980 säuft voll ab mit DX12

https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#abschnitt_async_compute_verhaelt_sich_auf_der_rx_480_anders

Ravenhearth
2016-06-29, 19:23:29
AMD bekommt die Karte auch unter DX12 einfach besser ausgelastet, auch ohne AC.

Korfox
2016-06-29, 19:25:10
Ich bin mäßig enttäuscht von der Karte.
Die Performance liegt ziemlich genau da, wo sie erwartet wurde (zumindest von mir - die paar Enthusiasten, die sich von Gerüchten und Nvidia-Jüngern auf 980Ti-Niveau haben treiben lassen sind selbst schuld). Eigentlich war ich ernsthaft am überlegen, ein Sidegrade von der 970 zu machen - meine würde ich wohl noch recht einfach um die 200-250€ wegkriegen. Aber da ging ich davon aus, dass die Karte die spekulierten 120W rum umsetzt (ja, ich weiß, bis die 100€ Umrüstkosten durch die Stromrechnung... ich mag AMD aber durchaus nicht ungerne).
So habe ich persönlich nichts davon. 5% Mehrperformance bei gleichem Energieumsatz. Bis mir die 3,5GB zum Flaschenhals werden scheint es noch etwas zu dauern (offensichtlich spiele ich da nicht die passenden Spiele).
So werde ich erstmal beobachten, was RX490 und Vega bringen und mir doch noch etwas Zeit lassen.

Dino-Fossil
2016-06-29, 19:25:40
Erster Eindruck: Durchwachsen.

Die Leistung ist in Ordnung und da wo ich sie erwartet hatte (sowie AMD sie angekündigt hat).
Die diversen Features sind in Ordnung, so dass die Karte da ein schönes Update bietet.

Aber:
Die Effizienz ist eindeutig immer noch zu schlecht, da hätte klar mehr passieren müssen.
Zumindest die 480 ist nur geringfügig über dem von AMD angegebenen Gewinn rein durch die neue Fertigung, wenn überhaupt.
Zweites Problem, auch mal wieder, die Treiber. Der idle-Bug ist zumindest ärgerlich, zumal ich mich Frage, welche weiteren treiberseitigen Probleme sich da noch verstecken.
Zumindest treibermäßig mal wieder eine Bananen-GPU - sie reift beim Kunden. :freak:

Ne 480 kauf ich mir bei 160W Spieleverbrauch jedenfalls nicht. Ich werde mal die 470 abwarten - wenn die nicht zu viel an Performance verliert ist sie u.U. interessanter für mich.

Ansonsten werde ich vielleicht notgedrungen noch die 1060 abwarten. Ich bezweifle zwar, dass mich die NVidia Karte überzeugen wird, aber im schlimmsten Fall drückt sie die Preise bei P10 (das ist dann mal umgekehrt zur üblichen Variante, wo AMD NVidia billiger machen soll - so ne Art ausgleichende Gerechtigkeit :biggrin: )

Naja, vor Anfang August hab ich keine Zeit mich mit einer neuen GPU zu beschäftigen - bis dahin sind die Treiber hoffentlich einigermaßen gefixt, die Preise haben sich eingependelt, Customs und 470 sind raus und ich kann mir einen umfänglichen Überblick verschaffen.

Dural
2016-06-29, 19:27:38
239 zu 219€ bei weniger Leistung und mehr Stromverbrauch ist nicht das selbe ... ;)

Langsamer sicher nicht, die 4gb version hat nur 7ghz speicher das dürfte einiges an leistung kosten zudem die meisten test die 970oc so wie so schon vor der 8gb version sehen.

Vom strom verbrauch hast du nichts gesagt, sondern nur leistung fürs geld :wink:

Und überhaupt, die 970 wird nächste woche geschichte sein, da wünsche ich jetzt schon viel spass gegen pascal.

Pirx
2016-06-29, 19:27:49
Tja eine solide, zukunftsfähige, günstige Karte mit ziemlich konstant guter Leistung und tollen Features die auch nicht zuu viel verbraucht um nicht als Aufrüstoption für alle möglichen früheren Karten dienen zu können.
Trotzdem ist der Pferdefuß die Leistungsaufnahme, die technisch gesehen für da Gebotene einfach zu hoch ist. Die Sache mit dem PEG kann noch ganz übel werden, muß aber nicht. Ich hätte in Summe etwas mehr bzw weniger erwartet, vllt so 120-130W TDP.
Machte hier GF AMD schon wieder einen Strich durch die Rechnung?

Pixelmonk
2016-06-29, 19:31:43
Wen interessiert das?!
ULPS deaktivieren und Schirm 2+3 an die IGP von der CPU anschließen, wo ist das Problem?!

Verstehe nicht, dass wegen dem noch so ein Aufstand gemacht wird, obwohl das völliger Bullshit ist...

Mich interessiert das, es gibt auch Leute die mehr als drei Bildschirme haben. Die IGPU-anschlüsse sind bei mir schon belegt.

dildo4u
2016-06-29, 19:34:09
PCper Stream mit Raja Koduri


https://youtu.be/K3DNnEa4cyE

Jupiter
2016-06-29, 19:35:22
Da kommt der selbe Käse wie bei den FuryX,ein High-End Modell mit Wakü,und damit hat man wenig Luft nach unten was den Preis angeht,siehe die jetzigen Fury X Preise um 600€.

Das ist eine gute Antwort.

In der Performance-Klasse der R480 können sie vielleicht noch mit einer solch niedrigen Effizienz durchkommen. Doch mit steigender Chipgröße wird die Situation immer problematischer.

anddill
2016-06-29, 19:37:51
Mich interessiert das, es gibt auch Leute die mehr als drei Bildschirme haben. Die IGPU-anschlüsse sind bei mir schon belegt.

Und wieviel verbrauchen Deine mehr als drei Bildschirme so?
Viele Leute nutzen noch welche mit CCFL-Backlight, die gerne mal 70W nehmen. Da denken die wenigsten drüber nach. Abgesehen davon macht es auch wenig Sinn einen noch gut funktionierenden 500€-Monitor neu zu kaufen wegen 40W Ersparnis durch LED-Backlight.

Datarecovery09
2016-06-29, 19:37:52
Machte hier GF AMD schon wieder einen Strich durch die Rechnung?

Wäre echt super, wenn einer der vielen Experten hier eine Vermutung dazu äußern würde. Mir kommt das arg verwunderlich vor, speziell wenn man sich die Nano anschaut - HBM hin oder her.

Ex3cut3r
2016-06-29, 19:43:42
Was genau soll Nvidia gemacht haben?

Dino-Fossil
2016-06-29, 19:44:15
Machte hier GF AMD schon wieder einen Strich durch die Rechnung?

Tja, einerseits wurde der IBM-Prozess ja viel gelobt, andererseits ist es GloFo von denen wir reden...
Wer weiß.
Aber letztlich kann auch AMD ein bisschen was am Design verbockt haben - Tonga war damals sicherlich auch nicht da geplant, wo er rauskam.
Oder wir haben uns doch zu viel Effizienzgewinn von GCN erwartet. Die Architektur ist mMn gut, aber eben nicht so Effizient für reine Gaming-Karten wie Maxwell oder Pascal.

Wenn irgendwann im Winter Vega kommt wissen wir vielleicht mehr - zumindest haben wir dann einen Vergleich mit einer TSMC 16nm GCN GPU (wenn es stimmt das TSMC Vega fertigt).

woodsdog
2016-06-29, 19:44:33
@anddill

kannst du dich evtl mit Igor mal kurzschließen?
ich halte euch beide für sehr kompetent was "Strom" angeht und verstehe nicht ganz wie ihr da so komplett verschiedener Meinung sein könnt.

*liebkuck*

hesTeR-
2016-06-29, 19:44:45
zum glück haben wir sommer und csgo und overwatch laufen auch gut mit der alten ersatzkarte, so kann man ganz in ruhe abwarten wie die customs werden :)

d2kx
2016-06-29, 19:45:16
PCper Stream mit Raja Koduri


https://youtu.be/K3DNnEa4cyE

Ach, Raja... :love2:

Digidi
2016-06-29, 19:47:11
Ah ja Raja sagte es geht nur um den Kontent und das erreicht man nur durch Marktanteil.

Wer hat das bloß mal gesagt ;D

Birdman
2016-06-29, 19:48:59
Zweites Problem, auch mal wieder, die Treiber. Der idle-Bug ist zumindest ärgerlich, zumal ich mich Frage, welche weiteren treiberseitigen Probleme sich da noch verstecken.
idle ist doch nur das kleinere Problem, wenn man sich die Situation im 2D Betrieb anschaut.

Wie schon Fiji schaltet auch Polaris bereits bei der kleinsten Mausbewegung und Bildschirmaktivität, direkt 1-2! Speedstufen höher und verbrät dann halt das 3-4 fache von diesen 16W.
Wer also meint dass er beim Internetsurfen, Email lesen und Dokumente schreiben mit diesen 16W auskommt, der hat sich geschnitten.
Das "Problem" gibts übrigens auch wenn nur ein Monitor angeschlossen ist...

Disco_STFU
2016-06-29, 19:53:39
idle ist doch nur das kleinere Problem, wenn man sich die Situation im 2D Betrieb anschaut.

Wie schon Fiji schaltet auch Polaris bereits bei der kleinsten Mausbewegung und Bildschirmaktivität, direkt 1-2! Speedstufen höher und verbrät dann halt das 3-4 fache von diesen 16W.
Wer also meint dass er beim Internetsurfen, Email lesen und Dokumente schreiben mit diesen 16W auskommt, der hat sich geschnitten.
Das "Problem" gibts übrigens auch wenn nur ein Monitor angeschlossen ist...

Wär das nicht ne simple Treibersache einfach den niedrigsten State in Windows zu locken?

Das kann doch nicht so schwer sein, dass das AMD über JAHRE nicht hinbekommt...

Datarecovery09
2016-06-29, 19:55:08
Füllen die jetzt ernsthaft den armen Raja im Stream ab? xD

Loeschzwerg
2016-06-29, 19:58:16
Jetzt hängt der Stream :(

Edit: Geht wieder. Und die Flasche ist leer :D

(del676)
2016-06-29, 19:59:49
Gibts irgendwo CF benches?

dildo4u
2016-06-29, 20:00:58
Gibts irgendwo CF benches?
https://youtu.be/GMHJhP7Y7oM

Hübie
2016-06-29, 20:01:12
Jepp die 480 hat die gleiche Effizienz wie die 980ti.

Das gute ist aber das Vega eine nochmals bessere Effizienz haben wird. Zusammen mit HBM2 wird Vega den Abstand weiter verringern.

Das allein würde für mich jedoch nicht ausreichen um zu wechseln. Die 1080 konnte bei mir auch keine Punktlandung machen. Na ich werde dennoch Vega im Auge behalten. Jetzt wo ich einen 4k-Screen habe brauch ich GPU-Power en mass :freak:

Techpowerup ist für mich immer erste Anlaufstelle nach Neu-Launches - auch wenn ich nicht weiß, wie sauber sie messen: die Tendenz sollte stimmen.

( http://www.techpowerup.com/reviews/AMD/RX_480/25.html )

https://abload.de/img/rx-480-eff-techpoweru8gjwb.png

Danke. Ich dachte anfangs dass ich etwas übersehen habe, aber kommt wohl hin. Wie sieht es mit undervolting aus, frage ich mich da.

Laut AMDs Robert Hallock hat Polaris definitiv keine GDDR5X-Unterstützung:
https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4slr17

Wie ich schon bereits mehrere Male sagte, bin ich mir ziemlich sicher dass der Chip selber, also der IMC, es schlicht nicht beherrscht. Somit kommt diese Option also vorerst gar nicht in Frage. Man müsste also einen (baselayer-) Spin hinlegen.

Sieht mir sehr danach aus, als wurde im letzten Moment der Takt hochgezogen, anders kann ich mir die hohe Leistungsaufnahme über PCIe kaum erklären. Das PCB-Design kann man dann natürlich nicht mehr anpassen.

Mal sehen, ob die RX470 wirklich erheblich effizienter wird, das würde den Eindruck natürlich bestätigen.

Hm. Ne, glaub ich nicht. Die Taktraten tauchten doch schon vor Monaten auf. Wer oder was lief da eigentlich im März auf dem Demo-PC mit Battlefront? :confused: Hat das irgendjemand mal nachgestellt?

Falsch Nvidia macht unter DX12 keinen Gewinn zu DX11 sondern verluste :D

Dx11 läuft nämlich besser auf Nvidia als DX12

Hier 980 säuft voll ab mit DX12

https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#abschnitt_async_compute_verhaelt_sich_auf_der_rx_480_anders

Ist nicht dein Ernst? In einem DX12-GPU-Open-Benchmark "versagt" die 980? :rolleyes: Und eine bald zwei Jahre alte Karte, welche zu teuer am Markt war, heranziehen passt doch nun wirklich nicht. Das ist jedenfalls kein Argument.

Die RX 480 wird definitiv ihre Käuferschaft finden und das hoffentlich zu Hauf, aber ein fader Beigeschmack bleibt - wie immer bei AMD-Releases (:rolleyes:).

anddill
2016-06-29, 20:03:10
@anddill

kannst du dich evtl mit Igor mal kurzschließen?
ich halte euch beide für sehr kompetent was "Strom" angeht und verstehe nicht ganz wie ihr da so komplett verschiedener Meinung sein könnt.

*liebkuck*

komplett verschiedene Meinung würde ich nicht sagen. Spezifikationen sind ja dazu da um eingehalten zu werden, und als Tester muss er darauf hinweisen wenn das ein Gerät nicht tut. Und dann kann man für konkrete Fälle die Folgen abwägen. Und das sieht so aus, daß wir einen Stecker am Board haben der locker 250W auf die Platine wuppen kann. Davon werden vom Rest des Boards (Ich weise mal darauf hin daß die bis zu 140W Spec-Power der CPU auch nur über 4 Steckerpins und die Platine fließen!) vielleicht 50W verbraucht, von der 12V-Schiene so gut wie gar nichts. Bleiben also 200W für die Graka.

Nun kann man sicher ein Board so konstruieren das bei 80W am PCIe-Slot zuverlässig in Rauch aufgeht. In der Praxis existiert so ein Board aber nicht. Wie gesagt, wir reden hier von Kupferflächen.

Am Slot selbst sind 5 Kontakte für die 12V-Versorgung vorgesehen (und eine ganze Armada an Masse-Kontakten). Das sind 1,25A pro Kontakt bei 75W. Bei 90W sind es 1,5A pro Kontakt. Klingt doch schon gar nicht mehr so schlimm, oder?
Eher würde ich mir Sorgen um die Leitungen auf der Graka machen. Da sind am Slot nur ca. 4mm Platz.

Ubrigens, die 12V-Kontakte sitzen ganz vorne am Slot, Richtung Slotblech. Und die RX-480 hat da ihre Spannungswandler. So daß die Leitung vom PCIe zu den Wandlern deutlich kürzer ausfällt als bei allen anderen Karten. Vielleicht eine Ursache für die etwas unübliche Lastverteilung?

dlux
2016-06-29, 20:03:57
Gibts irgendwo CF benches?
Hier:
Ursprünglich sollte das CrossFire-Gespann an sämtlichen Testreihen teilnehmen. AMD informierte uns allerdings darüber, dass bereits mit dem kommenden Treiberupdate CrossFire an Geschwindigkeit zulegen soll. Aus diesem Grund gibt ComputerBase an dieser Stelle nur einen ersten Ausblick auf die CrossFire-Performance und verzichtet auf Messungen zu den Frametimes. Diese werden in einem separaten Test mit neuem Treiber nachgeholt.

https://www.computerbase.de/2016-06/radeon-rx-480-test/13/#abschnitt_crossfire_ein_ausblick_zur_performance_fuer_512_euro

robbitop
2016-06-29, 20:07:49
Ich bin in zwei Punkten leicht enttäuscht:

1.) man sieht praktisch keine Takt- und Einheitennomierte Steigerung der Leistungsfähigkeit der Recheneinheiten. Verglichen mit Hawaii leistet sie normiert pro TFlop das gleiche. Ich sehe hier leider die kolportieren +15 % nicht.

2.) Taktraten sind trotz FinFET Prozess (insbesondere, wenn man es in Relation zu Pascal setzt) enttäuschend.
Sicher ist Samsungs 14LPP nicht so ideal für hohe Taktraten wie TSMCs 16FF+ - dennoch wird eine nicht unwesentliche Teilursache auch am Chipdesign liegen.

Pixelmonk
2016-06-29, 20:14:27
Und wieviel verbrauchen Deine mehr als drei Bildschirme so?
Viele Leute nutzen noch welche mit CCFL-Backlight, die gerne mal 70W nehmen. Da denken die wenigsten drüber nach. Abgesehen davon macht es auch wenig Sinn einen noch gut funktionierenden 500€-Monitor neu zu kaufen wegen 40W Ersparnis durch LED-Backlight.

Die meisten meiner Bildschirme haben auch noch ein CCFL-backlight.

Im Computerbase-test der RX 480 ist der Verbrauch (Gesamtsystem) mit zwei Bildschirmen ungewöhnlich hoch, deshalb hab ich gefragt ob es ein Treiber-problem sein könnte. Im HT4U-test ist der Verbrauch (Nur GPU) deutlich niedriger.

iuno
2016-06-29, 20:14:53
Sorry wenn ich nicht alle Seiten durchgelesen habe.
- Ist inzwischen klar, warum WattMan fuer den Speicher 1,0 Volt anzeigt (als ob 8 Gbps speicher mit 1000 mV laeuft)? :confused:
- Die MCs scheinen gute Reserven zu haben. Gibt es irgendwo eine Karte, die im Test die max. einstellbaren 8500 Gbps nicht geschafft hat?

y33H@
2016-06-29, 20:18:02
Habt ihr grad mal nen Test mit Ark Survival Evolved? Danke ^^Was für Settings bzw welche Ziel-Framerate bei welcher Auflösung?

CD-LABS
2016-06-29, 20:18:59
Satire, ich mag Satire:
http://www.hardware.fr/articles/951-10/nuisances-sonores-temperatures.html

Quatsch. Das Referenzdesign der 480 ist ein Witz. 50db für 85°C gegenüber 83"C und 39db. Und wir reden hier vom abgespeckten Design...
Toms Hardware klingt da halt deutlich anders:
http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-10.html
Gamestar hat aber auch ganz andere Werte als Toms Hardware---aber abweichende Werte hat GS ja öfter... :biggrin:
Bei den anderen bzgl. Kühlern ernstzunehmenden Redaktionen schneidet die 480 aber abermals besser ab als erwartet:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/RX-480-Test-1199839/

Dort knapp lauter als die 1070 FE---aber halt nur knapp und das bei mehr Verlustleistung. Daher stammt mein Fazit, dass die Karte aufzeigt, dass das 480er RefDesign die FE entblößt.

Edit: Bei Computerbase das gleiche Bild: https://www.computerbase.de/2016-06/radeon-rx-480-test/8/#diagramm-temperatur-kartenrueckseite

(del676)
2016-06-29, 20:20:14
https://youtu.be/GMHJhP7Y7oM

Danke.
Sieht uebel aus, wie erwartet (nach ersten Single Karten Reviews).
Im Vorfeld haette ich mir +25-50% Speed auf eine 980ti, bei selbem Stromverbrauch erwartet.

y33H@
2016-06-29, 20:20:36
Die wissen, wo die GP106 landen wird. Also hat man schnell den Takt soweit wie möglich nach oben geschoben, um 100% vor der Karte sein zu sein. Umgekehrt.

Menace
2016-06-29, 20:22:56
Im Computerbase-test der RX 480 ist der Verbrauch (Gesamtsystem) mit zwei Bildschirmen ungewöhnlich hoch, deshalb hab ich gefragt ob es ein Treiber-problem sein könnte. Im HT4U-test ist der Verbrauch (Nur GPU) deutlich niedriger.

Unterschiedliche Monitore vers gleiche Monitore? :confused:

Hübie
2016-06-29, 20:23:39
Ja NVIDIA lacht sich schon wieder kaputt und in wenigen Wochen kommen die mit angepassten Taktraten bei GP106 daher und rufen AMD + 50 $ auf. So in etwa jedenfalls.
Ich erinnere mich gerade daran wie bei NVIDIA die Korken knallten als Tahiti heraus kam. :(

dlux
2016-06-29, 20:25:37
1.) man sieht praktisch keine Takt- und Einheitennomierte Steigerung der Leistungsfähigkeit der Recheneinheiten. Verglichen mit Hawaii leistet sie normiert pro TFlop das gleiche. Ich sehe hier leider die kolportieren +15 % nicht.
Die RX480 braucht mehr Bandbreite, Delta-Kompression usw. reicht nicht aus. Mehr Speicherbandbreite bringt mehr Leistung (https://www.computerbase.de/2016-06/radeon-rx-480-test/12/).

256.000 MB/s (RX480) vs. 384.000 MB/s (390X)

MadPenguin
2016-06-29, 20:25:54
Hmmm.

Bin wirklich nicht ganz sicher was ich von der Referenz halten soll. :confused:
Gut, und dann nicht wirklich. Gelungen und dann nicht wirklich. Für den Preis (Dollar) super und dann nicht wirklich (Euro).

Gut, dass ich auf Urlaub bin und meine Bestellung erst nachher abgeben wollte. Warte auf die Customs, oder noch besser auf die RX470 ;D

Raff
2016-06-29, 20:26:13
Ja NVIDIA lacht sich schon wieder kaputt und in wenigen Wochen kommen die mit angepassten Taktraten bei GP106 daher und rufen AMD + 50 $ auf. So in etwa jedenfalls.
Ich erinnere mich gerade daran wie bei NVIDIA die Korken knallten als Tahiti heraus kam. :(

Und da war Tahiti tatsächlich und meiner Meinung nach ohne Zweifel das bessere Produkt (auch wenn das 70 Prozent der Leute anders sahen und grün kauften) ...

MfG,
Raff

dildo4u
2016-06-29, 20:26:14
Ja NVIDIA lacht sich schon wieder kaputt und in wenigen Wochen kommen die mit angepassten Taktraten bei GP106 daher und rufen AMD + 50 $ auf. So in etwa jedenfalls.
Ich erinnere mich gerade daran wie bei NVIDIA die Korken knallten als Tahiti heraus kam. :(
Das erinnert massiv an Tonga da gabs auch Hype und dann die Realität.

Hübie
2016-06-29, 20:29:32
Und da war Tahiti tatsächlich und meiner Meinung nach ohne Zweifel das bessere Produkt (auch wenn das 70 Prozent der Leute anders sahen und grün kauften) ...

MfG,
Raff

Bei NV hatte man wirklich schiß bekommen, als man die Specs über die üblichen Kanäle erfahren hatte. Denn auf dem Papier war Tahiti ein Tiger. Am Ende kam ein rundes Produkt was erst nach einem halben Jahr das Potenzial entfalten konnte. So etwas manifestiert sich jedoch nicht in den Köpfen, sondern so wie ein Produkt auf den Markt kam.
Populäres Beispiel war ja Mercedes A-Klasse, der ja schon sehr schnell ein Update erhalten hatte um nicht mehr umzukippen. Aber bis heute hält sich das in den Köpfen - du verstehst also was ich meine? ;(

gogetta5
2016-06-29, 20:30:42
Die Karte entspricht genau meinen Erwartungen. Sobald gute Custom Lösungen verfügbar sind, werd ich mir eine holen.

Nvidia hat für mich mit der 970 Geschichte den Bock abgeschossen und mit den hohen Preisen machen sie es auch nicht grad besser (auch wenn es aus marktwirtschaftlicher Sicht nachvollziehbar ist).

robbitop
2016-06-29, 20:31:59
Die RX480 braucht mehr Bandbreite, Delta-Kompression usw. reicht nicht aus. Mehr Speicherbandbreite bringt mehr Leistung (https://www.computerbase.de/2016-06/radeon-rx-480-test/12/).

182.400 MB/s (RX480) vs. 384.000 MB/s (390X)
Hm - ein Vergleich, der das Bandbreitenlimit herausnimmt, wäre dann interessant.

Bspw mit halber Chiptaktrate und voller Speichertaktrate. Jeweils Hawaii vs Polaris 10.

edit:
Andererseits bietet die 1070 deutlich mehr Leistung bei gleicher Speicherbandbreite. Entweder die Bandbreite limitiert doch nicht so sehr, oder Pascal geht weiterhin massiv besser mit der Bandbreite um.

anddill
2016-06-29, 20:32:04
Im Computerbase-test der RX 480 ist der Verbrauch (Gesamtsystem) mit zwei Bildschirmen ungewöhnlich hoch, deshalb hab ich gefragt ob es ein Treiber-problem sein könnte. Im HT4U-test ist der Verbrauch (Nur GPU) deutlich niedriger.
Möglicherweise ist das wieder das Problem mit den unterschiedlichen Monitoren. Unterschiedliche Auflösung zwingt die Graka in einen höheren Powerstate. Ein Monitor im Pivot-Modus reicht auch schon.

DarknessFalls
2016-06-29, 20:33:31
Ja NVIDIA lacht sich schon wieder kaputt und in wenigen Wochen kommen die mit angepassten Taktraten bei GP106 daher und rufen AMD + 50 $ auf. So in etwa jedenfalls.
Ich erinnere mich gerade daran wie bei NVIDIA die Korken knallten als Tahiti heraus kam. :(

...wobei Tahiti rückblickend gegenüber Kepler weitaus besser dasteht.

CD-LABS
2016-06-29, 20:34:12
Ich impliziere nichts, ich messe. Da ich aber nicht die Zerstörung meiner Technik betreiben möchte, lasse ich diesen Unfug. Der Chip läuft doch so schon an der Kotzgrenze. Das ganze Design lässt eher auf einen 1,1-GHz-Karte schließen, die man irgendwann getreten hat, weil man merkte, dass es so nix wird.
Ich kann die Lastwechsel regelrecht hören, wenn ich die Karte auf ein Mainstream-Brett packe. Beim OC wird das geradezu pervers. Und dann meinte ja AMD, wir machen mal eben ein CF und verhauen die 1080...
Könntest du mal ausprobieren, ob man durch Underclocking und Undervolting es schafft irgendwann in die von AMD eigentlich versprochenen Effizienzregionen vorzustoßen?

Falls das ohne größere Performanceeinbußen möglich wäre, frage ich mich, wieso AMD die Karte mit den jetzigen Werten herausgebracht hat. Sollte ihnen ja nur darum gehen während der Durststrecke bis Vega möglichst viel Umsatz zu machen... (wegen GloFo halt)
...und das hätte man ja auch mit 970er-Performance mit deutlich besserer Effizienz halt zumindest in meinen Augen besser erreichen können als mit 970OC-Performance aber kaum besserer Effizienz!

Hübie
2016-06-29, 20:34:53
...wobei Tahiti rückblickend gegenüber Kepler weitaus besser dasteht.

Nichts anderes steht hinter meinem obigen Beitrag. ;)

Hermelinmaster
2016-06-29, 20:36:17
@Raff
Spiele Ark entweder auf einem 21:9 1080p oder auf 4k. Von der Leistungseinordnung wär ein Vergleich mit GTX980 und R9 390 ausreichend. Unter 1080p könnte High gehen, 4k wohl kaum mehr als Medium ^^

DarknessFalls
2016-06-29, 20:39:19
Nichts anderes steht hinter meinem obigen Beitrag. ;)

Ich hatte Deinen zweiten Beitrag nicht mehr gesehen. ;) Alles gut. :)

Linmoum
2016-06-29, 20:42:37
https://forums.overclockers.co.uk/showpost.php?p=29714968&postcount=69

OCUK bereits mit über 700 verkauften Karten.

M4xw0lf
2016-06-29, 20:43:51
Und da war Tahiti tatsächlich und meiner Meinung nach ohne Zweifel das bessere Produkt (auch wenn das 70 Prozent der Leute anders sahen und grün kauften) ...

MfG,
Raff
Die letzte überzeugende Radeon. Honorable mentions für die Nano... aber sonst. :-/

Hübie
2016-06-29, 20:45:01
Vor allem die 7950 / 280 war ja zeitweise extrem attraktiv zu bekommen.

Mancko
2016-06-29, 20:45:17
Puh das ist echt schlechter als ich erwartet hatte. Ich habe zwar nichts auf die ganzen überzogenen Erwartungshaltungen der AMD Fanboy Abteilung in diversen Foren gegeben, denn diese Erwartungen konnte AMD sowieso nicht erfüllen. Aber das es dann so aussieht erschreckt mich ehrlich gesagt ein wenig.

Den Preis lasse ich mal bewusst außen vor, denn der Preis wird vom Unternehmen so festgelegt wie es glaubt dass er vom Markt angenommen wird. Rein von den technischen Eigenschaften ist das schon extrem enttäuschend. Irgendwas muss da ordentlich schief gelaufen sein. Dass AMD aktuell aus dem Prozessvorteil zu 28nm so wenig rausholt ist schon extrem erschütternd. Wir werden wohl erst nach einiger Zeit wissen woran das liegt.

- Gibt es ein Problem im Design. Ok das kann auch eine Folge von immer weniger R&D sein
- Gib es ein Problem mit dem Prozess bei GF. Naja wäre auch nicht verwunderlich und auch nicht das erste Mal. Der Prozess oder das Design mag mehr auf Packdichte ausgelegt sein. Trotzdem dürfen da nicht solche Ergebnisse abgeliefert werden. Die liefern sich der Konkurrenz da gerade ordentlich aus und irgendwie glaube ich, dass wenn es hier keine enorme Steigerung gibt, AMD mit VEGA eine ungeheuer schlechte Ausgangssituation hat.

Was dann total unverständlich ist, wie man in einfachen B-Disziplinen dann auch noch patzt. Damit machen die sich alles kaputt. Der Launch ist bisher extrem suboptimal und wenn Raja das ernst meint mit Preis und Marktanteil als einzige Marschrichtung, dann wird das ein Desaster für AMD. Der weiß doch ganz genau, dass wenn der Fokus von AMD so sehr auf dem Preis liegt und sich das Produkt also primär nicht wegen seiner Eigenschaften sondern wegen dem Preis verkaufen soll, er sich komplett der Konkurrenz ausliefert. Wenn die ab einem bestimmten Punkt der Meinung ist, dass sie die Marktanteile doch lieber behalten möchte, dann werden das extrem rote Zahlen für die GPU Abteilung. Ich möchte aktuell jedenfalls mit keinem bei AMD tauschen weder im Sales noch im Marketing noch als Chef der GPU Abteilung.

Jetzt kann man nur warten bis die ersten Customs aufschlagen und GP106. Man braucht sich da m.E. keiner Illusion hingeben. Das Scheunentor hat AMD mit dem Launch für die Konkurrenz extrem weit aufgemacht. Das ist schon fast eine Reihe von 11 Meter Schüssen die man der Konkurrenz da gewährt und einige davon wären auch mit beschissenem Prozess oder hitzigem Design absolut vermeidbar gewesen.

Ich finde, dass sich die ganzen R&D Sparmaßnahmen mittlerweile total auswirken. Das ist offensichtlich und das habe ich schon seit einigen Quartalen gesagt. Wenn man so konsequent R&D kürzen muss um die Quartalszahlen die eh schon beschissen sind nicht noch beschissener werden zu lassen, dann wird sich das auswirken. Träumereien von einigen Fanboys das da clever outgesourced wird und blah kann man getrost abhaken. Es ist offenkundig, dass die Resourcen deutlich zu niedrig sind. Das GF nicht unbedingt der verlässlichste Partner ist, ist auch keine Neuigkeit.

Abschließend noch zum Preis. Mit dem ist die Karte natürlich gut platziert. Aber eben auch nur deswegen. Das ist m.E. für einen Launch mit ausstehender Konkurrenz aber eher suboptimal. Es ist besser wenn die Karte primär durch Features, Performance und Effizienz glänzt. Dann kann man ja immer noch aggressiv beim Preis anbieten. Das wirkt dann einfach runder. So ist es wieder so ein "Meeh" Effekt und wenn die Konkurrenz besser sein sollte und in den Punkten nicht patzt, dann kann die sich locker zwischen 20 und 50 Euro je nach Kartenversion mehr erlauben und wird die Marktanteile behalten und die Brand weiter stärken.

DarknessFalls
2016-06-29, 20:46:41
Die letzte überzeugende Radeon. Honorable mentions für die Nano... aber sonst. :-/

R9 290 war auch gar nicht übel, vor allem jetzt rückblickend, oder?

Zur RX480: In meinen Augen ein rundes Ding bis auf den Stromverbrauch; da hat AMD wohl in letzter Minute noch Takt gegen Stromersparnis getauscht, was IMHO nicht clever war.

Was mich an der Diskussion aber aufregt sind die ganzen Schlaufüchse, die der RX480 vorwerfen, sie hätte nur die Leistung von 970 OC bzw 980 und das zwei Jahre später... es ist nunmal der Nachfolger für Pitcairn / Tonga und nicht für GK104. Zwangsläufig hat eine Performancekarte der neuen Gen die Leistung einer High-End-Karte der Vorgängergen (wenn man von 980Ti als Enthusiast ausgeht). Das regt mich echt auf.......

Digidi
2016-06-29, 20:46:53
https://forums.overclockers.co.uk/showpost.php?p=29714968&postcount=69

OCUK bereits mit über 700 verkauften Karten.


War auch zu erwarten. Gerade bei den Specks und bei der GTX 1060 weiß man ja schon was kommt die wird sich in der selben Leistungsklasse einordnen wie die RX 480. Wahrscheinlich haben wirklich viele mal den Wink mit dem Zaunpfahl gehört und lassen den 3.5GB Bug Nvidia nicht durchgehen.

CD-LABS
2016-06-29, 20:50:01
Die letzte überzeugende Radeon. Honorable mentions für die Nano... aber sonst. :-/
Pitcairn kam nach Tahiti. Vergiss das nicht... :cool:
Und bloß Honarable mentions für die Nano? Für die effizienteste Karte der 28nm-Gen? Für eine Karte, die zwar anfangs falsch bepreist war, aber mit dem korrigierten Preispunkt ihre direkte Konkurrentin deklassiert hat? :eek:
Das wäre in etwa so, wie wenn man nicht anerkennen würde, dass die 460 eine tolle Karte war...

iuno
2016-06-29, 20:51:03
Weltuntergangsstimmung ist nicht angebracht, die Karte geht voellig in Ordnung. Das mit dem PCIe slot ist natuerlich ein Fail. Partnerkarten sollten das ausmerzen.
Etwas seltsam finde ich auch, dass offenbar trotz 14 LPP und neuem Boost immer noch klar Spielraum fuer Undervolting vorhanden ist. Das muessen sie mal besser hinbekommen. Die Karte von CB zeigt das, die quasi kein OC mitmacht ggue. der von PCGH, die immerhin gute 1350 MHz packt. UV bei PCGH's Sample waere noch interessant gewesen ;)

BTW: Danke an unsere guten Reviewer :up:

Birdman
2016-06-29, 20:51:38
Wär das nicht ne simple Treibersache einfach den niedrigsten State in Windows zu locken?
Geht ja bei AMD sowie nVidia seit Jahren im Bereich von MultiMonitoring und der Verwendung von unterschiedlichen Auflösungen und/oder refresh Raten auch nicht.
nVidia Karten gehen bei heftigen Scroll- oder Fensterschieb-Orgien durchaus auch mal in den zweiten Powerstate, bei AMD ist das aber halt quasi Dauerzustand wenn man nicht gleich vor dem Monitor eingeschlafen ist.

M4xw0lf
2016-06-29, 20:52:30
R9 290 war auch gar nicht übel, vor allem jetzt rückblickend, oder?
Wurde durch das grausame Referenzdesign schon zum Launch sabotiert und sah damals im Vergleich zur Konkurrenz auch noch nicht so gut aus wie jetzt, wo es hauptsächlich noch von akademischem Interesse ist, aber kaum mehr relevant für Verkäufe.

y33H@
2016-06-29, 20:53:17
Bei der Gamestar ist die RX 480 sparsamer als eine GTX 970 und eine GTX 980 sparsamer als eine GTX 970 :ulol:

http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/test/radeon_rx_480,988,3274807,4.html#stromverbrauch-lautstaerke-und-temperatur

captain_drink
2016-06-29, 20:53:27
Die Messungen bei der Gamestar kann man vergessen, völlig unzuverlässig.

Die letzte überzeugende Radeon. Honorable mentions für die Nano... aber sonst. :-/

Hawaii war zu heiß, ansonsten aber sehr gut ausgestattet und ausgewogen, zudem fantastische Perf/mm². GCNv3 und v4 waren dann mehr oder weniger ein Reinfall.

M4xw0lf
2016-06-29, 20:54:30
Pitcairn kam nach Tahiti. Vergiss das nicht... :cool:
Und bloß Honarable mentions für die Nano? Für die effizienteste Karte der 28nm-Gen? Für eine Karte, die zwar anfangs falsch bepreist war, aber mit dem korrigierten Preispunkt ihre direkte Konkurrentin deklassiert hat? :eek:
Das wäre in etwa so, wie wenn man nicht anerkennen würde, dass die 460 eine tolle Karte war...
Tahiti war immerhin mal der Performance-König. Ok, die Nano ist ebenfalls ein überzeugendes Produkt, war und ist aber reichlich teuer.

Hübie
2016-06-29, 20:54:35
Was machen die richtig, was alle anderen falsch machen?

CD-LABS
2016-06-29, 20:54:48
Bei der Gamestar ist die RX 480 sparsamer als eine GTX 970 und eine GTX 980 sparsamer als eine GTX 970 :ulol:

http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/test/radeon_rx_480,988,3274807,4.html#stromverbrauch-lautstaerke-und-temperatur
Deren 970 war auch nie eine Referenz-970, sondern eine MSI Gaming...
...aber sowas gibt Gamestar halt nicht an. :rolleyes:

burninghey
2016-06-29, 20:54:54
Heute meine 290X/4G für 250 vertickt, ob das ein guter Tausch ist, jetzt warte ich nurnoch auf die Custom Designs :)

Die RX 480 entspricht meinen Erwartungen, ich hatte zwar eher gehofft UVP würde unter 250 liegen, aber das wird der Markt schon richten. Mir war schon vorher klar es wird eher ein Sidegrade, aber mehr wollte ich auch garnicht. Ich freue mich schon auf eine leise und sparsame RX 480 in 1-2 Wochen!

Ravenhearth
2016-06-29, 20:54:55
Pitcairn kam nach Tahiti. Vergiss das nicht... :cool:
Und bloß Honarable mentions für die Nano? Für die effizienteste Karte der 28nm-Gen? Für eine Karte, die zwar anfangs falsch bepreist war, aber mit dem korrigierten Preispunkt ihre direkte Konkurrentin deklassiert hat? :eek:
Das wäre in etwa so, wie wenn man nicht anerkennen würde, dass die 460 eine tolle Karte war...

Ehrlich gesagt fand ich die Nano so toll nicht. Die war etwas schneller als die GTX 980 und brauchte im Schnitt etwas mehr Strom, hatte also eine ähnliche Effizienz. Um das zu erreichen, musste AMD einen riesigen 596mm²-Chip selektieren, extrem niedrig takten und sparsamen HBM nutzen. Eigentlich war das peinlich. Nur die geringe Größe war ein Alleinstellungsmerkmal.

DrFreaK666
2016-06-29, 20:56:40
Also für den Preis ist es doch eine sehr gute Karte.
Klar, was Effizienz angeht ist sie schon enttäuschend, aber wen interessiert das?
Ich kenne wirklich niemanden, der sich über den Stromverbrauch Gedanken macht... wirklich NIEMANDEN (mich eingeschlossen :biggrin: )

Die RX480 mit 8GB steht ohne Konkurrenz da (GTX970 hat weniger RAM).
Custom-Karten werden bestimmt noch etwas aus dem Design holen können (mehr Performance und/oder niedrigerer Stromverbrauch und/oder niedrigere Lautstärke) und vielleicht sind diese dann nicht viel teurer als die "normale" Version.

Hoffe für AMD dass sie viele Karten verkaufen werden

robbitop
2016-06-29, 20:57:02
Hawaii war zu heiß, ansonsten aber sehr gut ausgestattet und ausgewogen, zudem fantastische Perf/mm². GCNv3 und v4 waren dann mehr oder weniger ein Reinfall.

GM204 bot eine höhere perf / sqmm bzw perf / transistor als Hawaii.

Ehrlich gesagt fand ich die Nano so toll nicht. Die war etwas schneller als die GTX 980 und brauchte im Schnitt etwas mehr Strom, hatte also eine ähnliche Effizienz. Um das zu erreichen, musste AMD einen riesigen 596mm²-Chip selektieren, extrem niedrig takten und sparsamen HBM nutzen. Eigentlich war das peinlich. Nur die geringe Größe war ein Alleinstellungsmerkmal.
Dank HBM war die Nano zu teuer um attraktiv zu sein. IMO.

CD-LABS
2016-06-29, 20:59:07
Tahiti war immerhin mal der Performance-König. Ok, die Nano ist ebenfalls ein überzeugendes Produkt, war und ist aber reichlich teuer.
Tahiti war mal Performance-König, ja. Dafür aber erst auf lange Sicht gegenüber dem GK104 durchsetzungsfähig. Pitcairn vs. GK106 war jedoch von vorneherein klar und wurde mit der Zeit nur noch eindeutiger! Darüber hinaus war Pitcairn lange Zeit der effizienteste Chip.

Ah, und BackToCards: Die Nano war lange Zeit vom Preis-Leistungsverhältnis (in hohen Settings) her besser als die 980, und unter hohen Settings auch effizienter. Und kleiner. Und besser kühlbar. Und cooler eh. :cool:
Ehrlich gesagt fand ich die Nano so toll nicht. Die war etwas schneller als die GTX 980 und brauchte im Schnitt etwas mehr Strom, hatte also eine ähnliche Effizienz. Um das zu erreichen, musste AMD einen riesigen 596mm²-Chip selektieren, extrem niedrig takten und sparsamen HBM nutzen. Eigentlich war das peinlich. Nur die geringe Größe war ein Alleinstellungsmerkmal.
Wirf einfach einen Blick in den letzten Marktübersicht: Höheren 4K-Effizienz UND Preis-Leistungsindex.
Zusammen mit Samsungs 24er-2160P-FreeSync-Monitor konnte man ein hochempfehlenswertes Paket schnüren!

Lurtz
2016-06-29, 20:59:23
Bei der Gamestar ist die RX 480 sparsamer als eine GTX 970 und eine GTX 980 sparsamer als eine GTX 970 :ulol:

http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/test/radeon_rx_480,988,3274807,4.html#stromverbrauch-lautstaerke-und-temperatur
Gamestar halt :ugly: Ich weiß nicht was die so treiben in der Hardwareabteilung, aber mit Ahnung testen kann es nicht sein ;D

gedi
2016-06-29, 20:59:26
Bei der Gamestar ist die RX 480 sparsamer als eine GTX 970 und eine GTX 980 sparsamer als eine GTX 970 :ulol:

http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/test/radeon_rx_480,988,3274807,4.html#stromverbrauch-lautstaerke-und-temperatur

Ich weiß jetzt nicht, was es da zu lachen gibt - außer du behauptest, die bei CB sind zu blöd zum messen: https://www.computerbase.de/2016-06/radeon-rx-480-test/9/

BTW: Die beste Karte der letzten Jahre war/ist imo Hawaii. Leider oft verkannt und durch Biased-Reviews durch den Kakao gezogen. Eigentlich genial wie er sich nach wie vor performancetechnisch verkauft.

Hakim
2016-06-29, 20:59:28
etwas eigenartig ist auch das trotz der Tatsache das schon die Standard Version über den PCIe specs läuft noch einige Hersteller wie XFX Black Edition mit dem gleichen Design eine Werks OC anbieten. Hätte man sich besser erspart und mehr Aufwand in die Custom Version gesetzt.

scully1234
2016-06-29, 21:00:02
Oder andersrum: Nur wir Deutschen scheissen uns wegen 50W ins Hemd. Dem Rest der Welt ist das ziemlich egal, genauso ob die Kühlung nun mit 2 oder 3 Sone läuft.

Bis ein windiger Anwalt in AMI Land ne Sammelklage anstrengt, wegen nicht eingehaltener Abgaswerte aeeeeh PCIe Spezifikationen ....

Ist ja nicht so, als ob wir da nen deutschen Teilnehmer haetten ,der da gerade Milliarden abdrückt, was auch nicht im Verhältnis ist zu dem Schaden ;D

Also ja die AMIS scheissen sich noch mehr ins Hemd ,wenn es Aussicht auf ''n paar'' Dollar Gewinn gibt=)

Digidi
2016-06-29, 21:00:30
@robbitop

Hawaii war zu dem Zeitpunkt aber auch schon 2 Jahre älter und hatte Feature wie Async Compute an board die GM204 noch heute fehlen!

stinki
2016-06-29, 21:01:31
@Mancko

Du sprichst mir voll aus dem Herzen, besser hätte ich es auch nicht schreiben können!

1) Ich kann nur für AMD hoffen, dass Vega bei TSMC im 16FF+ Prozess hergestellt werden wird, denn so wie das scheinbar momentan mit dem 14LPP Prozess (oder in welchem 14FF Prozess auch immer Polaris hergestellt wird) bei GF aussieht wird Vega sonst ein viel zu hungriger Chip verglichen mit GP104. Wobei man auch sagen muss, dass AMD bei den letzten Chips von TSMC auch immer deutlich mehr Spannung als Nvidia benötigt hat. Das ist also jetzt mit Polaris nicht wirklich ein neues Phänomen.

2) Ich kann nur für AMD hoffen, dass in den nächsten 6 Monaten, bis zum Zen Launch, GF ihren 14FF Prozess in den Griff bekommt, sonst wird Zen ebenfalls ein sehr hungriger Chip.

Und ich kann für uns alle nur hoffen, dass AMD auch im High End Bereich konkurrenzfähig bleibt, denn ich habe auf die aktuellen GP104 Preise und die daraus zu erwartenden GP102 Preise absolut keine Lust!

robbitop
2016-06-29, 21:03:01
@robbitop

Hawaii war zu dem Zeitpunkt aber auch schon 2 Jahre älter und hatte Feature wie Async Compute an board die GM204 noch heute fehlen!
GM204 kam 1 Jahr nach Hawaii. Nicht 2.
Und ja Hawaii ist seitens der µ-Arch sicher ein wenig moderner und hat auch eine höhere FP Rechenleistung, die sicher auch zusätzlich kostet und ein breiteres Speicherinterface, welches sicher auch etwas Fläche kostet.

Wenn man das mit einbezieht, passt es.

Pirx
2016-06-29, 21:05:43
Alles in allem hätte AMD dennoch mit RX 480/470/460 ein ziemlich gutes Lineup, wenn die anderen bald mal kommen.

DarknessFalls
2016-06-29, 21:09:43
Alles in allem hätte AMD dennoch mit RX 480/470/460 ein ziemlich gutes Lineup, wenn die anderen bald mal kommen.

Sehe ich auch so. Und ich schätze, dass wir bei den "kleineren" Karten auch durchaus bessere Effizienz sehen. Ich vermute, dass man RX480 taktmässig noch in letzter Minute hochgezogen hat, um näher an GTX980 zu landen. Das natürlich leider auf Kosten des Stromverbrauchs.

Sunrise
2016-06-29, 21:09:49
GM204 bot eine höhere perf / sqmm bzw perf / transistor als Hawaii.
IMHO nicht vergleichbar, da Hawaii ein Zwitter aus sehr guter SP- und DP-Leistung ist, dem NV bis GP100 nicht das Wasser reichen konnte. Hawaii war nie ein reiner Gaming- oder HPC-Chip, das Ding bot in den 438mm^2 sogar noch ein 512bit SI mit billigem GDDR5.

Wenn man bedenkt, dass Hawaii noch auf 28nm ist, wurde da ordentlich Rohpower/mm^2 verbaut. Für mich ist Hawaii bis auf den schon immer abartigen Stromverbrauch ein sehr guter Chip. GM204 war nur minimal kleiner.

Bis wir auf 14/16nm Chips in dieser Größe sehen, vergeht wohl noch etwas Zeit und dann wird es nicht teuer, nein, es wird richtig teuer. Da sind die Preise von GP104 Kindergeburtstag.

Die RX480 hätte einfach mit 110-120W kommen müssen, dann wäre der Rest vollkommen OK. Leider aber scheint das hinsichtlich des Zielpreises nicht möglich zu sein, weshalb man diverse Abstriche in Kauf nehmen muss. Das wird bei GP106 natürlich ähnlich sein.

Ich hoffe AMD bekommt es mit Vega gebacken und liefert bei maximal 250-275W TDP (oder wie auch immer sie messen) und der entsprechenden Anzahl ALUs bei nicht zu hohem Takt einen ordentlichen Hawaii-Nachfolger, der den Namen auch verdient.

Und hoffen wir, dass GloFo die Ausbeute in den Griff bekommt. Denn wenn es tatsächlich nur um die 30% verwertbare Chips sind, dann frage ich mich, was da bei gerade mal 232mm^2 wieder so dermaßen schief läuft. Wenn sie sich ein eigentlich gutes Design durch die Fab kaputt machen, dann bringen auch die Architekturverbesserungen deutlich weniger als es sein könnte. Hoffentlich kommt Vega von TSMC.

Ravenhearth
2016-06-29, 21:13:20
Wirf einfach einen Blick in den letzten Marktübersicht: Höheren 4K-Effizienz UND Preis-Leistungsindex.
Zusammen mit Samsungs 24er-2160P-FreeSync-Monitor konnte man ein hochempfehlenswertes Paket schnüren!

Die Nano hat für 4K gar nicht genug Leistung. Um 30fps zu erreichen, muss man Details deutlich reduzieren. Das gilt aber natürlich auch für die GTX 980.

Undertaker
2016-06-29, 21:16:09
239 zu 219€ bei weniger Leistung und mehr Stromverbrauch ist nicht das selbe ... ;)

Die 4GB RX 480 dürfte ausgehend vom CB-Rating wohl nicht mehr schneller als die GTX 970 sein. Bei bestehendem Preisvorteil ist die RX 480 natürlich das bessere Angebot, bei einem GTX 970 Abverkauf um 200€ und OC-Ambitionen wäre das allerdings nicht mehr der Fall.

Schlammsau
2016-06-29, 21:17:22
Alles in allem ist die 480 keine schlechte Karte wenn der Preis noch ein klein wenig nach unten geht.
Preise um die Konkurrenz zu schocken wären:

Referenz und schnellstmöglichst auslaufend:
4GB ab 199€
8GB ab 239€

Custom (OC, leiser, etc.)
4GB 219€
8GB 259€

Das würde nVidia das fürchten lehren.

Die 4GB RX 480 dürfte ausgehend vom CB-Rating wohl nicht mehr schneller als die GTX 970 sein. Bei bestehendem Preisvorteil ist die RX 480 natürlich das bessere Angebot, bei einem GTX 970 Abverkauf um 200€ und OC-Ambitionen wäre das allerdings nicht mehr der Fall.
Ich bin mir sicher, in der Auflösung ist bei 99,9% der Games, der Speicher nicht die limitierende Größe.
Und dann wäre auch der jetzt oft kritisierte Stromverbrauch, und der ist bei der 970 mehr als deutlich höher ...

Also entweder konsequent nach dem Verbrauch gehen, dann ist die 970 niemals nie eine Alternative oder sagen "der Verbrauch wird überbewertet", dann kann man drüber reden und wenn die 970 noch ein wenig mit dem Preis runter geht ist sie als Alternative zur 480 zu sehen.

Im Moment ist es einfach so, dass die Standard RX480 etwas schneller ist als die Standard GTX970 im Schnitt. So ist die Situation ....

Digidi
2016-06-29, 21:19:07
Die 4GB RX 480 dürfte ausgehend vom CB-Rating wohl nicht mehr schneller als die GTX 970 sein. Bei bestehendem Preisvorteil ist die RX 480 natürlich das bessere Angebot, bei einem GTX 970 Abverkauf um 200€ und OC-Ambitionen wäre das allerdings nicht mehr der Fall.


Ich würde mir nie im leben eine GTX 970 kaufen aus alleien 3 gewichtigen Gründen.

- Kein Async Compute
- 3,5 GB Speicherbug der im Treiber gepflegt werden muss das er nicht auffält
- Schon 1 Jahr alt und deshalb schon verkürzter Treiber support.

Für 100,00 € können wir reden.

stinki
2016-06-29, 21:20:27
Bis wir auf 14nm Chips in dieser Größe sehen, vergeht wohl noch etwas Zeit und dann wird es nicht teuer, nein, es wird richtig teuer. Da sind die Preise von GP104 Kindergeburtstag.
Das sehe ich genau so, ich habe jetzt schon Angst vor den GP102 Preisschildern.

Die RX480 hätte einfach mit 110-120W kommen müssen, dann wäre der Rest vollkommen OK. Leider aber scheint das hinsichtlich des Zielpreises nicht möglich zu sein, weshalb man diverse Abstriche in Kauf nehmen muss. Das wird bei GP106 natürlich ähnlich sein.
Ich wäre schon mit 120-130W völlig zufrieden gewesen, aber 160W+ für die gebotene Leistung in einem Fin-FET Prozess machen mir für zukünftige AMD CPUs/GPUs nicht wirklich Mut.
Für RX480 alleine betrachtet, wäre mir persönlich der Unterschied zwischen 120W und 160W ziemlich egal.
Und der Preis der RX480 ist für die gebotene Performance absolut in Ordnung. Ist momentan die Karte mit dem besten Preis/Performance Verhältnis.
Erst einmal abwarten welches Preis/Performance Verhältnis Nvidia mit GP106 abliefern wird.

Und hoffen wir, dass GloFo die Ausbeute in den Griff bekommt. Denn wenn es tatsächlich nur um die 30% verwertbare Chips sind, dann frage ich mich, was da bei gerade mal 232mm^2 wieder so dermaßen schief läuft. Wenn sie sich ein eigentlich gutes Design durch die Fab kaputt machen, dann bringen auch die Architekturverbesserungen deutlich weniger als es sein könnte. Hoffentlich kommt Vega von TSMC.
Könnte es vielleicht sein, dass es AMD mit der Packdichte einfach übertrieben hat?
Also eigentlich gehen 30% bei der Größe überhaupt nicht. Mit der Ausbeute bei einem 232mm² Chip könnte man niemals einen deutlich größeren Vega Chip produzieren. Da kann man für Vega wirklich nur auf TSMC oder ein Wunder hoffen.

Sunrise
2016-06-29, 21:23:46
Die 4GB RX 480 dürfte ausgehend vom CB-Rating wohl nicht mehr schneller als die GTX 970 sein. Bei bestehendem Preisvorteil ist die RX 480 natürlich das bessere Angebot, bei einem GTX 970 Abverkauf um 200€ und OC-Ambitionen wäre das allerdings nicht mehr der Fall.
Altes Featureset, nur 4GB VRAM, das sind keine 200 EUR mehr Wert IMHO. Jedenfalls würde ich da einen großen Bogen drum machen und lieber auf GP106 warten, für einen minimal höheren Aufpreis.

scully1234
2016-06-29, 21:26:37
Die 4GB RX 480 dürfte ausgehend vom CB-Rating wohl nicht mehr schneller als die GTX 970 sein. Bei bestehendem Preisvorteil ist die RX 480 natürlich das bessere Angebot, bei einem GTX 970 Abverkauf um 200€ und OC-Ambitionen wäre das allerdings nicht mehr der Fall.

Zumal ne hypothetische neue Revision der 470 ,gewiß auch nicht mehr die Verbrauchswerte erreichen würde ,bei dem gereiften Prozeß

Im Prinzip koennte man also mit 28nm gegen 14nm bestehen ,wenn man es denn wöllte

Aber der direkte Gegenspieler kommt ja nächste Woche in den Ring

Undertaker
2016-06-29, 21:28:36
Ich würde mir nie im leben eine GTX 970 kaufen aus alleien 3 gewichtigen Gründen.

- Kein Async Compute
- 3,5 GB Speicherbug der im Treiber gepflegt werden muss das er nicht auffält
- Schon 1 Jahr alt und deshalb schon verkürzter Treiber support.

Für 100,00 € können wir reden.

- Async Compute bringt bei der RX 480 ebenfalls wenig und ist bis dato unbedeutend
- 3,5 GB sind in 95% der Fälle ebenfalls kein Problem
- Treiber: man schaue mal, welche älteren GPUs aktuelle AMD Win 10 Treiber noch unterstützen und welche die von Nvidia ;) Beim Thema Treiber hat aber wohl jeder seine eigenen Ansichten
- mit OC liegt die GTX 970 dann klar vor der RX 480 4 GB
- GTX 970 sehr viel sparsamer im Multimonitor und Videobetrieb, sollte man auch nicht vergessen

Du kannst gerne bei deiner Meinung bleiben, ich würde aus Gründen (;)) keine der beiden Karten haben wollen. Aber wenn GP106 nicht eh vor der Tür stehen würde, wäre ein GM204-basierter Konter wohl kein Problem gewesen – dafür macht Polaris aus dem nominellen 14nm Vorteil einfach zu wenig.

Hoffen wir auf die RX 470.

Digidi
2016-06-29, 21:33:18
Doch die 3,5 GB sind ein Problem denn sie müssen im Treiber gepfelgt werden. Weil ansonsten das Spiel die 500MB Restspeicher als normalen Speicher sieht und es zu Problemen kommt. Das ist jetzt vielleicht noch kein Problem wird es aber in Zukunft werden, wenn der Treiber nicht weiter gepflegt wird.

Auch die RX 480 lässt sich als Custom Karte übertakten. Das Argument zieht also nicht!

Async Compute wird mit dem steigenden Marktanteil von AMD eine große Gewichtung bekommen. Ashes nutzt laut aussagen der Devs nur einen kleine Teil Async Compute. Wenn das da schon so viel ausmacht, will ich nicht wissen wie es später aussieht wenn es richtig genutzt wird.

Sorry Korregiere mich sogar HD2000 Serie hat einen Windows 10 Treiber:
http://support.amd.com/de-de/download

Undertaker
2016-06-29, 21:38:13
Ich bin mir sicher, in der Auflösung ist bei 99,9% der Games, der Speicher nicht die limitierende Größe.

Weniger die Speichergröße als vielmehr der geringere Speichertakt der 4GB Version. Das kostet schon ein paar Prozent, wohl genug, die Karte auf ~= GTX 970 zu drücken. Die 8 GB Version ist ja nur sehr minimal schneller.

Und dann wäre auch der jetzt oft kritisierte Stromverbrauch, und der ist bei der 970 mehr als deutlich höher ...

Ähm, nein.

Aber wie gesagt: Wir brauchen das nicht ausbreiten. Die GTX 970 wird mit GP106 nicht mehr benötigt und sicherlich eh sehr schnell auslaufen.

Troyan
2016-06-29, 21:39:31
Toms Hardware klingt da halt deutlich anders:
http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-10.html
Gamestar hat aber auch ganz andere Werte als Toms Hardware---aber abweichende Werte hat GS ja öfter... :biggrin:
Bei den anderen bzgl. Kühlern ernstzunehmenden Redaktionen schneidet die 480 aber abermals besser ab als erwartet:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/RX-480-Test-1199839/

Dort knapp lauter als die 1070 FE---aber halt nur knapp und das bei mehr Verlustleistung. Daher stammt mein Fazit, dass die Karte aufzeigt, dass das 480er RefDesign die FE entblößt.

Edit: Bei Computerbase das gleiche Bild: https://www.computerbase.de/2016-06/radeon-rx-480-test/8/#diagramm-temperatur-kartenrueckseite

Solange wie du nichts anfässt - ja.
Sobald du beide Karte auf "max" stellst, dann stehen bei Computerbase 45db nämlich 58db gegenüber.

Sorry, wer hier kein Unterschied sieht...

CD-LABS
2016-06-29, 21:40:44
Die Nano hat für 4K gar nicht genug Leistung. Um 30fps zu erreichen, muss man Details deutlich reduzieren. Das gilt aber natürlich auch für die GTX 980.
Es gibt keine (na gut, es gibt keine "echten") Karten, die nicht genug Leistung für 2160P haben.
Es gibt Karten, die für aktuelle Titel in 2160P@Ultra nicht genügend Performance haben, das schon.
Aber das wäre auch nicht die Zielgruppe eines solchen Systems, nein: Die Zielgruppe eines solchen Systems sind Gamer die auf Grund ihrer veralteten Hardware in den letzten Jahren einiges verpasst haben und das nun hocheffizient in phantastischer Bildqualität nachholen wollen. Und davon gibt es so einige...
...und für die war die Nano für ein Drittel Jahr die perfekte Karte. Natürlich schlecht, dass AMD nicht gleich nur eine Nano X und eine Nano gelaunched hat und sich stattdessen dafür entschieden hat Fury und Fury X zu bringen---ansonsten hätten sie fast ein Jahr lang Top-Karten gehabt!

hq-hq
2016-06-29, 21:41:32
wow, das ist bitter, Gamestar hin Gamestar her, stimmt das:

AMD hat mit Polaris 10 also einen sehr energieeffizienten Chip abgeliefert, kann aber erstaunlicherweise in Sachen Effizienz nicht mit den aktuellen Geforce-Modellen mithalten. So bietet die (doppelt so teure) GTX 1070 bei acht Prozent weniger Verbrauch fast 60 Prozent mehr 3D-Leistung!

Auf TomsHardware liest sich das ähnlich :redface:

Was bleibt sind 8GByte gegen 6GByte der 1060....

OC scheint auch durchwachsen, 1330-1420 je nach Güte.....
Bin auf die Custom Modelle gespannt, bei OC sollten die Tester einfach mal den Lüfter auf 100% stellen, das geht dann auch bei den Customs....

CD-LABS
2016-06-29, 21:44:24
Solange wie du nichts anfässt - ja.
Sobald du beide Karte auf "max" stellst, dann stehen bei Computerbase 45db nämlich 58db gegenüber.

Sorry, wer hier kein Unterschied sieht...
Ja, das stimmt---aber was hat das mit dem Thema der Kühlerbewertung zu tun? Genau, nichts!
Denn Vergleichswerte, wie der Kühler der 1070 mit 200 Watt Verlustleistung umgehen würde liegen nicht vor, oder? Meine Güte...
wow, das ist bitter, Gamestar hin Gamestar her, stimmt das:

AMD hat mit Polaris 10 also einen sehr energieeffizienten Chip abgeliefert, kann aber erstaunlicherweise in Sachen Effizienz nicht mit den aktuellen Geforce-Modellen mithalten. So bietet die (doppelt so teure) GTX 1070 bei acht Prozent weniger Verbrauch fast 60 Prozent mehr 3D-Leistung!

Auf TomsHardware liest sich das ähnlich :redface:

Was bleibt sind 8GByte gegen 6GByte der 1060....

OC scheint auch durchwachsen, 1330-1420 je nach Güte.....
Bin auf die Custom Modelle gespannt, bei OC sollten die Tester einfach mal den Lüfter auf 100% stellen, das geht dann auch bei den Customs....
Wäre halt echt cool wenn wir wüssten, wie die 480 effizienztechnisch mit niedrigeren Takt abgeschnitten hätte...

scully1234
2016-06-29, 21:46:33
Jetzt weiss ich auch ,warum die im Crossfire bei der Ashes Praesentation ,nicht mit voller Auslastung gefahren sind,man wollte den PCIe nicht bruzeln mit 2x100Watt....

y33H@
2016-06-29, 21:47:44
Ich weiß jetzt nicht, was es da zu lachen gibt - außer du behauptest, die bei CB sind zu blöd zum messen: https://www.computerbase.de/2016-06/radeon-rx-480-test/9/GTX 980 sparsamer als GTX 970 kann halt nicht sein, wenn beide Ref-Design sind, wovon ich ausgehe, wenn Nvidia statt Asus/whatever vornedran steht :P

Disco_STFU
2016-06-29, 21:50:26
Jetzt weiss ich auch ,warum die im Crossfire bei der Ashes Praesentation ,nicht mit voller Auslastung gefahren sind,man wollte den PCIe nicht bruzeln mit 2x100Watt....

http://gifrific.com/wp-content/uploads/2012/07/ron-swanson-computer-throw-out-parks-and-rec.gif

Digidi
2016-06-29, 21:50:50
GTX 980 sparsamer als GTX 970 kann halt nicht sein, wenn beide Ref-Design sind, wovon ich ausgehe, wenn Nvidia statt Asus/whatever vornedran steht :P
Extremes Beispiel von Silicon Lottery?

Nuon
2016-06-29, 21:51:05
Ich halte die Überschreitung der PCIe Spezifikationen für unproblematisch, da auf den meisten Boards zwei PCIe Slots mit einer Gesamtleistung von max. 150W verbaut sind und so die Leiterbahnen auch für diese Leistung ausreichen.
Wovon ich aber abraten würde ist ein für Crossfire vollbestücktes Mobo oder ein Board mit nur einem PCIe Slot, hier würden wahrscheinlich Probleme auftauchen.

stinki
2016-06-29, 21:51:19
GTX 980 sparsamer als GTX 970 kann halt nicht sein, wenn beide Ref-Design sind, wovon ich ausgehe, wenn Nvidia statt Asus/whatever vornedran steht :P
Ausser vielleicht die 980 hat eine ASIC-Quality von 80 und die 970 nur eine von 50...

Troyan
2016-06-29, 21:51:24
Ja, das stimmt---aber was hat das mit dem Thema der Kühlerbewertung zu tun? Genau, nichts!
Denn Vergleichswerte, wie der Kühler der 1070 mit 200 Watt Verlustleistung umgehen würde liegen nicht vor, oder? Meine Güte...


Warum sollte der Kühler mit 200W umgehen, wenn er 165W ausreichend wegkühlen kann?! Mehr geht nicht bei der Founders Edition.
Du warst derjenige, der meinte, das der Aufpreis für die Referenzkühlung nicht gerechtfertigt wäre.

Anscheinend hat sich jedoch AMD für eine Kühlung entschieden, die für die Karte nicht ausreichend ist. Aber dafür kannst du dann einen Aufpreis für bessere Kühler bezahlen...

Lowkey
2016-06-29, 21:53:00
Ein Lichtblick: die Karte ist verfügbar ab Lager. Schon jetzt sind wohl mehr 480er verkauft worden als Nanos in einem Jahr *duck*

Schlammsau
2016-06-29, 21:53:45
Weniger die Speichergröße als vielmehr der geringere Speichertakt der 4GB Version. Das kostet schon ein paar Prozent, wohl genug, die Karte auf ~= GTX 970 zu drücken. Die 8 GB Version ist ja nur sehr minimal schneller.



Ähm, nein.

Aber wie gesagt: Wir brauchen das nicht ausbreiten. Die GTX 970 wird mit GP106 nicht mehr benötigt und sicherlich eh sehr schnell auslaufen.
Ohh, dass hab ich übersehen, wo stehen den die Specs der 4GB Version?
Bei Geizhals haben beide Versionen 2000Mhz Speichertakt ....

AnarchX
2016-06-29, 21:55:27
Laut Anandtech dürfen die Hersteller sowohl bei 4 und auch 8GiB Version auf minimale 7Gbps Speichertakt heruntergehen: http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview
Da muss man wohl bei den ganz günstigen Custom-Versionen aufpassen.

CD-LABS
2016-06-29, 21:56:01
Was mir gerade auffällt: Die jetztige Generation scheint die Gen der faulen Hersteller zu werden. Was ich damit meine?

Die 1080/ 1070 haben nur genau so viel Preis-Leistung, dass sie den gesamten HighEndSektor, also 980, 980 TI, Fury, Fury X überbieten. Da sie aber höhere Effizienz haben, ist klar, dass sie gerade die einzig sinnige Wahl darstellen, wenn man denn tatsächlich im HighEnd-Sektor kaufen will.

Die 480 hat genau so viel Effizienz, dass der gesamte Performance-Sektor überboten wird. Da sie aber das bessere Preis-Leistungsverhältnis hat, ist klar, dass sie gerade die einzig sinnige Wahl darstellt, wenn man denn tatsächlich im Performance-Sektor kaufen will.

Ist das auch schon wem sonst aufgefallen?

dildo4u
2016-06-29, 21:56:46
Ohh, dass hab ich übersehen, wo stehen den die Specs der 4GB Version?
Bei Geizhals haben beide Versionen 2000Mhz Speichertakt ....
Unten auf der Seite ab 7 GBit/s.

http://www.amd.com/de-de/products/graphics/radeon-rx-series/radeon-rx-480

hq-hq
2016-06-29, 21:56:46
Wäre halt echt cool wenn wir wüssten, wie die 480 effizienztechnisch mit niedrigeren Takt abgeschnitten hätte...

stimmt, Spannung auf 1070 niveau runter (sind ~1.00v glaub ich) und vielleicht läuft sie noch mit 1150MHz

Rabiata
2016-06-29, 21:57:35
Habe mir gerade den Linux-Test (http://www.phoronix.com/scan.php?page=article&item=amdgpu-rx480-linux&num=1) auf Phoronix.com durchgelesen.

Die schlechte Nachricht:
Die RX 480 bleibt in den meisten Tests deutlich hinter der GTX 970 zurück :frown:

Die gute Nachricht:
Der Open-Source-Treiber (in der bei Phoronix getesteten Vorabversion) ist mittlerweile ungefähr performancegleich mit dem Closed Source Treiber. Damit sollte die Frage "nehme ich den problemlosen oder den schnellen Treiber?" bei AMD bald erledigt sein. Es wird wohl noch ein paar Monate dauern, bis diese Treiberversion ihren Weg in anfängerfreundliche Distributionen findet, aber daß sie kommt, ist wohl zweifelsfrei :).

Armaq
2016-06-29, 21:57:50
Ich möchte mal die Tester loben. Mir kommt es so vor, als ob man sehr oft einen echten Test geschrieben hat und eine neutrale Position einnahm.

PCGH hat interessante Übertaktungsergebnisse bereitgestellt. Bleibt die Frage ob man die Karte mit 8 GB kaufen sollte? 4 scheinen mir ausreichend.

Hitman ist übrigens ein krasser Ausreißer.

Frosty
2016-06-29, 21:57:51
wann werden denn die ersten "richtigen" custom designs der rx480 aufschlagen (ganz besonders die msi)?
wird das noch wochen dauern?:confused:
weiss nicht ob das ein hardlaunch war der dem kunden viel gebracht hat, was wäre daran so schwierig gewesen direkt zum launch mit custom designs aufzuwarten?
alles bei nvidia abgeguckt?
mehr als 2-max. 3 wochen werd ich jedenfalls nicht mehr warten, sonst wird es eine gtx 1070 werden.

Iruwen
2016-06-29, 21:58:14
Klar, was Effizienz angeht ist sie schon enttäuschend, aber wen interessiert das?
Ich kenne wirklich niemanden, der sich über den Stromverbrauch Gedanken macht... wirklich NIEMANDEN (mich eingeschlossen :biggrin: )

Die Leistungsaufnahme nicht direkt, aber die will auch weggekühlt werden, insofern ist sie dann doch wieder relevant.


Preise um die Konkurrenz zu schocken wären:
...
Das würde nVidia das fürchten lehren.

AMD könnte die Karten auch verschenken, dann sind sie zwar endgültig pleite aber hey :rolleyes:

Falls mal alles auf erneuerbare Energien umgestellt ist, ist der Stromverbrauch sowas von Egal!

Im Gegenteil, wir müssen parallel zum Ausbau der erneuerbaren Energien den Verbrauch senken, sonst können wir den Bedarf nicht decken. Vor dem Problem steht z.B. Kalifornien (http://www.vox.com/2016/6/21/11989030/diablo-canyon-nuclear-close) gerade.

man sieht praktisch keine Takt- und Einheitennomierte Steigerung der Leistungsfähigkeit der Recheneinheiten. Verglichen mit Hawaii leistet sie normiert pro TFlop das gleiche. Ich sehe hier leider die kolportieren +15 % nicht.

Hat das mal irgendwo jemand für die verschiedenen GPUs durchgerechnet?

CD-LABS
2016-06-29, 21:58:34
Warum sollte der Kühler mit 200W umgehen, wenn er 165W ausreichend wegkühlen kann?! Mehr geht nicht bei der Founders Edition.
Du warst derjenige, der meinte, das der Aufpreis für die Referenzkühlung nicht gerechtfertigt wäre.
(...)
Wenn du doch sowas selber sagst, wieso sollte das denn dann nicht für den Kühler der 480 auch gelten?!

Was ich doch nur meine: Nvidia hat versucht den Kühler der 1070 Founders als hochwertig darzustellen und mit einem entsprechenden Aufpreis versehen. Man würde also erwarten, dass er außergewöhnliches leistet, etwas, was wir noch nie zuvor von einer DHE-Kühllösung gesehen haben. Statt dessen bekommt man etwas durchaus praktikables zu Gesicht---dieses durchaus praktikable ist aber, wie die 480 halt aufzeigt, einfach völlig gewöhnlich und halt selbst auf einer "Karte für die Masse" (so versucht sie AMD ja selber---okay, indirekt---anzupreisen) anzutreffen.

Iruwen
2016-06-29, 22:02:06
Ein Lichtblick: die Karte ist verfügbar ab Lager. Schon jetzt sind wohl mehr 480er verkauft worden als Nanos in einem Jahr *duck*

Keine Kunst :biggrin:

Ich möchte mal die Tester loben.

dito, ich finde das Niveau der Tests ist gestiegen (Ausnahmen bestätigen die Regel :rolleyes: ). Die ganzen Strom-, Frametime usw. Messungen sind ja doch etwas aufwändiger als reine Benches. Das hat der Markt gut geregelt ;)

CD-LABS
2016-06-29, 22:04:41
Ich möchte mal die Tester loben.(...)
Definitiv! :up:

stinki
2016-06-29, 22:06:46
mehr als 2-max. 3 wochen werd ich jedenfalls nicht mehr warten, sonst wird es eine gtx 1070 werden.
Eine 1070 für 479€ mit einer RX480 für 269€ zu vergleichen ist irgendwie komisch (das sind 210€ Unterschied!!!)

Fliwatut
2016-06-29, 22:07:48
ich finde das mit der strom versorgung außerhalb der spezifikation ehrlich gesagt garnicht gut...
Die 960 hatte auch solche Probleme.

Hakim
2016-06-29, 22:09:45
Es heißt ja das man Treiber nachschieben will womit der Chip im Idle weniger verbrauchen soll, glaubt ihr das man sich dabei auch endlich den Video verbrauch annimmt? Das kann doch nicht sein das sich da seit Jahren nichts tut bei AMD, das sollte doch nicht so schwer sein.

Dural
2016-06-29, 22:10:01
Die 960 hatte auch solche Probleme.

Bestimmt nicht, dank boost werden die ohne wenn und aber getrosselt.

CD-LABS
2016-06-29, 22:12:39
Es heißt ja das man Treiber nachschieben will womit der Chip im Idle weniger verbrauchen soll, glaubt ihr das man sich dabei auch endlich den Video verbrauch annimmt? Das kann doch nicht sein das sich da seit Jahren nichts tut bei AMD, das sollte doch nicht so schwer sein.
Sowas sollte man meinen, aber ganz allgemein brauchen sowohl AMD als auch Nvidia für (vermeintlich?) einfach Dinge immer eine ganze Weile---nur Intel ist da außer Konkurrenz... :upara:

d2kx
2016-06-29, 22:16:38
Es heißt ja das man Treiber nachschieben will womit der Chip im Idle weniger verbrauchen soll, glaubt ihr das man sich dabei auch endlich den Video verbrauch annimmt? Das kann doch nicht sein das sich da seit Jahren nichts tut bei AMD, das sollte doch nicht so schwer sein.

VP9-Decoding für YouTube funktioniert erst mit einem kommenden Treiber.

Disco_STFU
2016-06-29, 22:17:40
Eine 1070 für 479€ mit einer RX480 für 269€ zu vergleichen ist irgendwie komisch (das sind 210€ Unterschied!!!)

Das wundert mich auch... entweder hatte man zu überzogene Erwartungen ( RX 480 näher an 1070) oder man hatte von Anfang nie die RX 480 wirklich im Blick bei diesem Budget...

BiZiNiZz
2016-06-29, 22:20:08
VP9-Decoding für YouTube funktioniert erst mit einem kommenden Treiber.

Wie ich solche Aussagen liebe. Das Produkt wurde also mal wieder völlig überhastet auf den Markt geworfen.
Stell mir das grad bei einem Fernseher vor. Kaufen sie Heute, aber bild haben sie erst in 3 Monaten :freak:

Thowe
2016-06-29, 22:20:47
Eine Karte wie diese (http://rog.asus.com/23792016/gaming-graphics-cards-2/asus-republic-of-gamers-introduces-strix-rx-480-graphics-card/) und ich sehe aktuell keinen Grund an der RX480 etwas auszusetzen.

Der Stromverbrauch? Ich glaube, der lässt sich mit etwas Verlust an Performance durchaus senken, ansonsten ist er in einen Rahmen, wo ich auch aktuell kein Grund für einen Nichtkauf sehe. Der Leerlauf-Verbrauch wäre hier eher in meinen Augen ein Hindernis, aber dass wird kommen.

Die Überlastung des PCI-Express-Slots halte ich ähnlich wie anddill für wesentlich unkritischer als es dargestellt wird, Lobenswert ist es aber dennoch nicht und durchaus im Design der Karten zu ändern.

AMD und fail? Nun, NVIDIA hat mich mit abrauchenden Karten bestraft, mir über Marketing eine Karte und Technik verkauft, die den Stromverbrauch auf den Desktop deutlich senkt ... aber irgendwie habe ich nie einen Treiber gefunden, wo es funktionierte. Zuletzt haben sie mir eine Grafikkarte verkauft, die meine Freude an 4K deutlich minderte. Aktuell würde ich mit der GTX 10x0 zwar NVIDIA jede Krone gönnen, bei der Effizienz, der Performance und eben die beim Preis. NV kann sich das leisten, immerhin haben sie einen deutlich positiveren Ruf der in meinen Augen nicht in dieser Weise haltbar ist.

Ich habe nun seit einiger Zeit eine Radeon 390 und muss sagen, die Karte macht bis auf einem Punkt wirklich Spaß, was zum Teil aber daran liegt, dass sie von Saphire kommt und dies, weil ich damals keine von ASUS bekommen konnte. Einen zwingenden Grund zur RX480 zu wechseln gibt es nicht, aus Sicht von 4K noch weniger. Aber ich freue mich auf das, was seitens AMD noch kommen mag.

Die RX 480 ist einfach nicht sexy genug, aber sehr gute Hausmannskost ist sie dennoch. Für mich im gewählten Preissegment eine unbedingte Empfehlung und wenn ich sexy will, muss ich wie an jeden Straßenstrich halt tiefer in die Tasche. Das ist mir die Sache aber nicht wert. Wobei ich mich wirklich gefreut hätte, wenn die Karte die GTX 980 geschlagen hätte, aber wer weiß, vielleicht gibt es noch Potential was noch freigesetzt wird.

dildo4u
2016-06-29, 22:24:44
Wie ich solche Aussagen liebe. Das Produkt wurde also mal wieder völlig überhastet auf den Markt geworfen.
Stell mir das grad bei einem Fernseher vor. Kaufen sie Heute, aber bild haben sie erst in 3 Monaten :freak:
Jup das ist unfassbar die ganze Aktion wird machen den Treiber besser startete Ende 2015 und es gibt jetzt noch solche Aussetzer.

gedi
2016-06-29, 22:30:47
Jup das ist unfassbar die ganze Aktion wird machen den Treiber besser startete Ende 2015 und es gibt jetzt noch solche Aussetzer.

Und dieses Problem gibt es nur bei AMD :rolleyes: Benütze mal ein Notebook mit Optimus-Technik - dann weißt du wirklich was schlechte Treiber sind :D

d2kx
2016-06-29, 22:30:53
Wie ich solche Aussagen liebe. Das Produkt wurde also mal wieder völlig überhastet auf den Markt geworfen.
Stell mir das grad bei einem Fernseher vor. Kaufen sie Heute, aber bild haben sie erst in 3 Monaten :freak:

Jup das ist unfassbar die ganze Aktion wird machen den Treiber besser startet Ende 2015 und es gibt jetzt noch solche Aussetzer.

Wenn NVIDIA zum Launch ihrer 799€ Karten die angekündigten Features nicht unterstützt (NVIDIA Ansel, NVIDIA Fast Sync, usw.) ist das keine Erwähnung wert, im roten Lager natürlich gleich ein Weltuntergang.

Disco_STFU
2016-06-29, 22:32:36
Wenn NVIDIA zum Launch ihrer 799€ Karten die angekündigten Features nicht unterstützt (NVIDIA Ansel, NVIDIA Fast Sync, usw.) ist das keine Erwähnung wert, im roten Lager natürlich gleich ein Weltuntergang.

Nur gut dass die ganzen Maxwell Besitzer seit Herbst 2015 immernoch auf ihren AC Freischalttreiber warten... :freak:

robbitop
2016-06-29, 22:35:14
Hat das mal irgendwo jemand für die verschiedenen GPUs durchgerechnet?
Ich habe einfach die Ergebnisse auf gleiche Rechenleistung linear interpoliert zwischen R390X und RX480 in 2-3 Spielebenchmarks. Heraus kommt dann in etwa das gleiche. Also kein Vorteil für die RX480. Vorausgesetzt, dass die CUs der Flaschenhals war.

d2kx
2016-06-29, 22:37:50
Sorry, falls es schon gepostet wurde (die Suche nach 'Strix' ergab keine Treffer).

ASUS hat die erste Custom RX 480 angekündigt:

https://i.imgur.com/VH60esV.jpg

ASUS ROG STRIX RX 480 (http://rog.asus.com/23792016/gaming-graphics-cards-2/asus-republic-of-gamers-introduces-strix-rx-480-graphics-card/)

CD-LABS
2016-06-29, 22:38:37
Und dieses Problem gibt es nur bei AMD :rolleyes: Benütze mal ein Notebook mit Optimus-Technik - dann weißt du wirklich was schlechte Treiber sind :D
Ach was, hat doch nur circa ein dreiviertel Jahr gedauert bis Ivy-Kepler-Optimus unter Windows 10 lief... :biggrin:
...und auf Optimus-DSR warten wir ja auch erst seit der 980m. (Oktober 2014)

AtTheDriveIn
2016-06-29, 22:39:20
Also bei manchen Kommentaren/Einschätzungen hier, könnte ich direkt Boshaftigkeit unterstellen. Die Karte ist ein tolles Produkt, da gibt es nichts zu rütteln. Das man etwas verbessern könnte, macht es nicht gleich zum Fail... das man sowas überhaupt erwähnen muss.

Wichtige CTQ
Leistung: absolut solide für eine Performancekarte
Preis: Spitze, wenn man bedenkt das wir am Einführungstag bei ~270€ für 8gb und 210€ für 4gb liegen.
Lautstärke: völlig in Ordnung für Referenzdesign

Akademische CTQ
Effizenz: Auf Maxwell Niveau, und massive Steigerung w.r.t. vorherigen Generation
Verbrauch: Auf Maxwell Niveau, und massive Verbesserung w.r.t. vorherigen Generation. Verbrauch interessiert doch null, solange es leise weggekühlt werden kann. Mal im Ernst, was soll diese lächerliche Diskussion? Bei 20w mehr und 20h pro Woche sind wir vielleicht bei 8€ im Jahr. Wtf, das ist eine fu*king Pizza/Jahr.

Außerhalb der PCIe Specs ist ein Problem des Referenzdesign, nicht von Polaris.

dildo4u
2016-06-29, 22:39:52
Wenn NVIDIA zum Launch ihrer 799€ Karten die angekündigten Features nicht unterstützt (NVIDIA Ansel, NVIDIA Fast Sync, usw.) ist das keine Erwähnung wert, im roten Lager natürlich gleich ein Weltuntergang.
Das sind keine 08/15 Features die selbstverständlich sind wie vernünftiges runtertakten im idle.

Hasenpfote
2016-06-29, 22:40:15
Als Laie sag ich mal: Was für ein Reinfall! Bei dem ganzen Gehype im Vorfeld sowas abzuliefern.
Fefe bringt das ebenfalls als Laie sehr schön auf den Punkt:
https://blog.fefe.de/?ts=a98ad53e

Wenn ich mir vorstelle, was das für Zen oder Vega bedeutet, sollte ich meine AMD-Aktien wohl schnellstmöglich verkaufen.

Die Leistung einer 2 Jahre alten Karten bei mehr Stromverbrauch... Schönen Dank auch.
Da bleib ich doch noch eine Weile bei meiner 5870...

(del676)
2016-06-29, 22:40:28
Der Stromverbrauch? Ich glaube, der lässt sich mit etwas Verlust an Performance durchaus senken

Genau in die falsche Richtung gedacht.

Erwartet:
1. stock ~110-120W
2. oc der referenzkarte bis 1400mhz dauertakt bei 150W (sofern der kuehler das mitmacht)
3. oc von customkarten (2x 8pin) unter wasser bis 250-300w - da waere ich von 1600-1700mhz ausgegangen

zu 2. da die stock schon zuviel zieht, lohnt sichs nicht auf ne referenzkarte einen fetten kuehler zu montieren - 6 pin limitiert.

zu 3. Da es bei stock aber schon peaks auf 180W gibt (welches ausserhalb der pcie spezifikationen rennt), sehe ich kein grossartiges potential fuer wassergekuehlte customkarten. da ist der chip zu ineffizient ....

Spasstiger
2016-06-29, 22:41:36
Wie recht ich doch im Speku-Thread leider hatte:
Dass hier noch so wild über die Performance spekuliert wird. Zwischen GTX 970 und GTX 980 wurde doch schon von AMD-Seite genannt, d.h. also R9-390-Niveau. Passt auch zu den spekulierten Spezifikationen, wobei ich noch skeptisch bin, ob AMD es gelingt, die deutlich niedrigere Speicherbandbreite durchgehend zu kaschieren.

Ich würde die RX 480 8 GiB übrigens über 250 € verorten. AMD sprach von "unter 500 US-$" für zwei dieser Karten im Crossfire. Das kann 249 US-$ für eine Karte bedeuten. Und 249 US-$ werden in Euroland ganz schnell 275 €. NV vertickt die GTX 1070 Founders Edition bei einer MSRP von 449 US-$ hierzulande offiziell für 499 € (https://www.nvidia.de/graphics-cards/geforce/pascal/gtx-1070/), also ca. 25 € teurer als man es der Umrechnung von Dollar zu Euro plus Steuern nach erwartet. Vielleicht, um Wechselkursschwankungen vorzubeugen, vielleicht aber auch, weil die Deutschen kaufkräftiger sind (waren?) als die Amerikaner.

Leider nix mit Performance einer R9 Nano oder Fury für knapp über 200€. Beim P/L und auch bei der Performance gerade mal knapp an der GeForce GTX 970 vorbeigezogen.
Ich warte mal auf die RX 470, die dürfte beim P/L wirklich neue Maßstäbe setzen.

captain_drink
2016-06-29, 22:43:07
NVIDIA Fast Sync

Das funktioniert seit der Vorstellung der 1080, wenngleich nicht in allen Anwendungen gleich gut.

Um noch etwas zur Relativierung beizutragen: NV ist Marktführer, AMD nicht. Bei den (teils essenziellen) Features "nur" gleich nachlässig zu sein, kann nicht der Anspruch sein, um am besagten Zustand etwas zu ändern.

d2kx
2016-06-29, 22:45:45
Die Leistung einer 2 Jahre alten Karten bei mehr Stromverbrauch... Schönen Dank auch.
Da bleib ich doch noch eine Weile bei meiner 5870...

Laut CB 5% schneller bei 12% niedrigerem Stromverbrauch in 1080p gegenüber der GTX 970, dazu mehr als doppelt soviel VRAM. Aber wen interessiert das schon.

bnoob
2016-06-29, 22:48:27
Die gute Nachricht:
Der Open-Source-Treiber (in der bei Phoronix getesteten Vorabversion) ist mittlerweile ungefähr performancegleich mit dem Closed Source Treiber. Damit sollte die Frage "nehme ich den problemlosen oder den schnellen Treiber?" bei AMD bald erledigt sein. Es wird wohl noch ein paar Monate dauern, bis diese Treiberversion ihren Weg in anfängerfreundliche Distributionen findet, aber daß sie kommt, ist wohl zweifelsfrei :).
*ubuntu wird seit 16.04 ausschließlich mit dem OS-Treiber ausgeliefert, viel anfängerfreundlicher geht es nicht ;)

Fliwatut
2016-06-29, 22:48:35
Laut CB 5% schneller bei 12% niedrigerem Stromverbrauch in 1080p gegenüber der GTX 970, dazu mehr als doppelt soviel VRAM. Aber wen interessiert das schon.
Und mit echten 4GB auch noch ca. 10% günstiger als die 3,5GB EOL-Karte im Abverkauf. Aber erklär das mal 'nem Laien...

y33H@
2016-06-29, 22:49:05
Ich möchte mal die Tester loben. Mir kommt es so vor, als ob man sehr oft einen echten Test geschrieben hat [...]Wenn man genug Zeit hat =)

Troyan
2016-06-29, 22:50:15
Laut CB 5% schneller bei 12% niedrigerem Stromverbrauch in 1080p gegenüber der GTX 970, dazu mehr als doppelt soviel VRAM. Aber wen interessiert das schon.

Richtig, wen interessiert es, dass eine 480 gegen eine 20 monate alte, verkrüppelte GM204 Karte besteht.

Die Custom-GTX1070 hat fast ein 1:1 P/L zur Referenz-480(!): 72% mehr Leistung für einen 80% Aufpreis.

Das ist viel beeindruckender...

BiZiNiZz
2016-06-29, 22:50:21
Laut CB 5% schneller bei 12% niedrigerem Stromverbrauch in 1080p gegenüber der GTX 970, dazu mehr als doppelt soviel VRAM. Aber wen interessiert das schon.

den speicher jetzt mal außen vor gelassen, trotzdem ist das erbärmlich im vergleich zu einer ~ 2 jahre alten karte (egal ob 970 oder 980) im alten 28mm prozess

CD-LABS
2016-06-29, 22:50:43
Laut CB 5% schneller bei 12% niedrigerem Stromverbrauch in 1080p gegenüber der GTX 970, dazu mehr als doppelt soviel VRAM. Aber wen interessiert das schon.
Also außer den Leuten halt, die die Karte nicht nur theoretisch (wie ich auch; kein Vorwurf an die anderen!) betrachten, sondern gerade wirklich auf der Suche nach einer Karte sind.
Die 480 hat knapp, aber eindeutig gewonnen. Genau, wie 1070 und 1080 halt (in einer komplett anderen Umgebung) halt auch.
Hab ich ja aber eh schon vorhin gesagt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11084719#post11084719

Lowkey
2016-06-29, 22:51:57
Jetzt wird es gerade sehr polarisierend: für die Einen ein Flop und für die Anderen Top.

Ich warte noch auf die Übersicht über alle Tests mit Stromverbrauch und Leistung.

Und dann bin ich nur noch gespannt auf die ersten Custom Karten oder gar die 470.


PS: nun muss man wirklich jede Info zum ZEN wörtlich nehmen.

AtTheDriveIn
2016-06-29, 22:52:25
Und mit echten 4GB auch noch ca. 10% günstiger als die 3,5GB EOL-Karte im Abverkauf. Aber erklär das mal 'nem Laien...

Exakt. Wo lag die 970 am Einführungstag? 100€ drüber? Und die ist sogar noch verkrüppelt gewesen. Es ist als würde man mit Apple Anhängern reden :(

Spasstiger
2016-06-29, 22:52:36
Und mit echten 4GB auch noch ca. 10% günstiger als die 3,5GB EOL-Karte im Abverkauf. Aber erklär das mal 'nem Laien...
Mit 4 GiB allerdings tendentiell eher langsamer als die GTX 970, da die RX 480 4 GiB einen um 12,5% geringeren Speichertakt aufweist. AMD hat das beste P/L-Verhältnis mit der RX 480, keine Frage. Aber der Fortschritt ist marginal angesichts der neuen Fertigungstechnologie.

(del)
2016-06-29, 22:52:44
@anddill
kannst du dich evtl mit Igor mal kurzschließen?
ich halte euch beide für sehr kompetent was "Strom" angeht und verstehe nicht ganz wie ihr da so komplett verschiedener Meinung sein könnt.
*liebkuck*
Wenn man meinen Test liest, dann gehen die Meinungen doch gar nicht so weit auseinander. Denn ich schrieb ebenfalls nicht, das was verbrutzelt, im Gegenteil. Da habe ich schon andere Ströme durchgejagt (Stichwort 4xCF). Aber riskieren möchte ich wiederum auch nichts, da mein Board jeden PEG deaktivieren kann, auch die Versorgungsspannung. Da ist in diesem Fall nicht nur eine Leiterbahn durchgeschleift, sondern es sitzt etwas Elektronik dazwischen und man erwartet von mir, dass ich bei mehr als einer Karte noch einen 6-Pin PCIe aufs Brett stecke... (was ich eh nie tue).

gedi
2016-06-29, 22:54:30
Ich habe ein natives 4k-Display am Notebook, von daher kann ich auf Gausfiltertechnik getrost verzichten. Die 980m hat definitiv andere Probleme, welche wahrscheinlich beinahe alle auf vermurkste Treiber zurückzuführen sind.

Da ließen sich die 2 7970m am AW-Notebook einfacher konfigurieren.

BTT: Eigentlich ein sehr nettes Kärtchen, die RX 480 (nach dem Lesen mehrerer Tests). Schade, dass AMD der Karte keinen 8-Pin Stromanschluss spendiert hat. So könnte man einen Custom-Kühler niedrigerer Preisklasse montieren und müsste zudem nicht auf Partnerkarten warten.

d2kx
2016-06-29, 22:54:49
Die Custom-GTX1070 hat fast ein 1:1 P/L zur Referenz-480(!): 72% mehr Leistung für einen 80% Aufpreis.

Laut CB sind es 46% mehr Leistung in 1080p und 50% mehr Leistung in 1440p für die GTX 1070. Keine Ahnung, wie du auf 72% kommst.

Ändert auch nichts daran, dass ich dir zustimme, dass die GTX 1070 sehr beeindruckend ist. Aber sie hat eine völlig andere Zielgruppe als eine Sub 300€ Karte.

AtTheDriveIn
2016-06-29, 22:55:27
den speicher jetzt mal außen vor gelassen, trotzdem ist das erbärmlich im vergleich zu einer ~ 2 jahre alten karte (egal ob 970 oder 980) im alten 28mm prozess

Vor zwei Jahren hättest du locker 100€ mehr bezahlt. Für 5% weniger Leistung bei 12% mehr Verbrauch und 3,5Gbyte.

Soo mies finde ich nicht was AMD 2016 abliefert.

Troyan
2016-06-29, 22:56:32
Laut CB sind es 46% mehr Leistung in 1080p und 50% mehr Leistung in 1440p für die GTX 1070. Keine Ahnung, wie du auf 72% kommst.

Custom-Karten laufen schneller durch die Kühlung. Die sind zwischen 5% bis 15% schneller.


Ändert auch nichts daran, dass ich dir zustimme, dass die GTX 1070 sehr beeindruckend ist. Aber sie hat eine völlig andere Zielgruppe als eine Sub 300€ Karte.

Darum ging es nicht. Die RX 480 sieht nur gegen alten Müll toll aus. Aber das kann wohl kaum der Maßstab sein. Davon abgesehen ist eine GTX1070 viel beeindruckender gegenüber einer >600€ teuren Fury X Karte als die RX 480 gegenüber der GTX970...

r3ptil3
2016-06-29, 22:57:35
Alleine schon eine anständige Treiberqualität hätte schon einiges zu einem besseren Gesamtbild beigetragen - speziell die Thematik um den Stromverbrauch. So gern ich die Karte trotz der Fehler holen würde, mir kommt's einfach vor ich kaufe ein nicht fertig entwickeltes Produkt.

dildo4u
2016-06-29, 23:00:15
Custom-Karten laufen schneller durch die Kühlung. Die sind zwischen 5% bis 15% schneller.



Darum ging es nicht. Die RX 480 sieht nur gegen alten Müll toll aus. Aber das kann wohl kaum der Maßstab sein. Davon abgesehen ist eine GTX1070 viel beeindruckender gegenüber einer >600€ teuren Fury X Karte als die RX 480 gegenüber der GTX970...
Jup die Karte ist vieleicht für 2-3 Wochen relevant bis die 1060 kommt.Es sei denn die 8GB Version gibt's dann für 199€.

captain_drink
2016-06-29, 23:00:36
Soo mies finde ich nicht was AMD 2016 abliefert.

"Nicht so mies" ist allerdings zu wenig, wenn es darum geht, dem Marktführer relevante Marktanteile abzunehmen.

gedi
2016-06-29, 23:02:54
Custom-Karten laufen schneller durch die Kühlung. Die sind zwischen 5% bis 15% schneller.



Darum ging es nicht. Die RX 480 sieht nur gegen alten Müll toll aus. Aber das kann wohl kaum der Maßstab sein. Davon abgesehen ist eine GTX1070 viel beeindruckender gegenüber einer >600€ teuren Fury X Karte als die RX 480 gegenüber der GTX970...

Echt? Wirklich beeindruckend dass man nicht einmal an einer Custom 980Ti vorbeikommt :uup:.

AtTheDriveIn
2016-06-29, 23:04:27
"Nicht so mies" ist allerdings zu wenig, wenn es darum geht, dem Marktführer relevante Marktanteile abzunehmen.

Sie liefern was gutes ab, keine Wortklauberrei bitte. Die Karte wird ihre Abnehmer finden, einzig eine 1060 im gleichen Preisbereich könnte das ändern.

Der_Korken
2016-06-29, 23:04:57
Ich denke die größte Enttäuschung ist ganz klar der Verbrauch. Dabei gibt es zwei Standpunkte: Die einen sagen der Verbrauch ist egal, solange sich die Karte mit Custom-Kühler leise kühlen lässt. Die anderen sagen die Effizienz ist zu schlecht, d.h. das größere Chips wie Vega nach aktueller Hochrechnung die reinszen Heizkraftwerke werden, wenn ein kleiner P10 mit 1200Mhz schon so viel verbraucht.

Für den Verbraucher sind die Preise gut, aber diejenigen, die die Effizienz bemängeln, machen sich Sorgen inwieweit AMD in Zukunft noch konkurrenzfähige (Highend)-Chips herstellen kann.

Es ist definitiv nicht alles schlecht an Polaris. Das aufgebohrte Frontend lässt den Chip ausgewogener erscheinen und auch das Downsizing von 512 auf 256bit ging einigermaßen gut (auch wenn man die mangelnde Bandbreite merkt).

Was AMD hätte besser machen können:
- Weniger Standardtakt oder geringeres PT, sodass die 150W immer eingehalten werden (eventuell sogar auf 140W runtergehen). Ich denke immer noch, dass das ohne zu große Einbußen gegangen wäre (zumal der Speicher manchmal schon eh schon bremst)
- voll funktionsfähige Treiber mit geringem idle-Verbrauch und allen Features. Der erste Eindruck zählt und wenn man schon bei Effizienz und Leistung nicht der Beste ist, sollte man wenigstens bei solchen Fleißaufgaben nicht patzen

Ich finde das hätte die Marke Polaris deutlich runder erscheinen lassen. AMD hat (auch wenn der Chip technisch nicht der Beste ist) zuviel verschenkt. Das kann Nvidia leider besser.

Linmoum
2016-06-29, 23:06:10
Jup die Karte ist vieleicht für 2-3 Wochen relevant bis die 1060 kommt.Es sei denn die 8GB Version gibt's dann für 199€.
Die 1060, die jetzt ganz urplötzlich vor dem "Launch" stehen soll?

Sehe ich maximal auf 480-Niveau, dazu die angeblichen 3GB (WTF?) und 6GB...
Gehe eher davon aus, dass Nvidia noch irgendwie hofft was abzugreifen und deswegen jetzt schon vorprescht mit der Karte.

Flusher
2016-06-29, 23:09:21
Ich bin nach wie vor der Meinung, dass die Effizienz ein Desaster ist. AMD hat es trotz neuem Fertigungsprozess und angeblichen Verbesserungen der Architektur gerade einmal geschafft die Effizienz der Vorgängergeneration des Konkurrenten zu erreichen.

Der Stromverbauch bringt damit auch einige Probleme:

a) der Kühler ist nicht ausreichend groß dimensioniert, wodurch die Karte ziemlich warm läuft und den kompletten PC damit heizt
b) mit a) verbunden ist das eher durchwachsene OC-Potential der Karte
c) das Missachten der PCIe-Spezifikationen, was für eine Karte die im OEM Bereich breite Akzeptanz gewinnen soll, eigentlich inakzeptabel ist
d) die nunmehr eingeschränkte Einsatzfähigkeit des Chips in Laptops.


Ich kann auch verstehen, warum AMD die Karte soviel mehr über den Slot ziehen lässt: die wenigsten Reviwer machen sich die Mühe den Stromverbrauch am Slot zu messen. Wenn überhaupt dann wird schnell mal ein Zangenampermeter um das 6-Pin Kabel geklemmt. Meist wird sogar nur das Komplettsystem mit einem billigen Energiekostengerät gemessen.

Hakim
2016-06-29, 23:09:34
Man kann es halt auch so sehen, derzeit bekommt man für 200-250€ nichts besseres auf den Markt bei einer Neuanschaffung oder? Oder würde hier jemand tatsächlich noch eine 970 Vorziehen? Von Daher kann man schon sagen das die Karte trotz einiger Negativ Punkte, die wie ich finde eigentlich leicht zu lösen gewesen wären (zumindest einige), Ok ist. Die Custom Versionen werden es da besser machen (OC, Stromversorgung, Lüfter, Temp). Das wird sicherlich mit erscheinen der 1060 wieder anders aussehen.

AtTheDriveIn
2016-06-29, 23:10:53
Ich denke die größte Enttäuschung ist ganz klar der Verbrauch. Dabei gibt es zwei Standpunkte: Die einen sagen der Verbrauch ist egal, solange sich die Karte mit Custom-Kühler leise kühlen lässt. Die anderen sagen die Effizienz ist zu schlecht, d.h. das größere Chips wie Vega nach aktueller Hochrechnung die reinszen Heizkraftwerke werden, wenn ein kleiner P10 mit 1200Mhz schon so viel verbraucht.

Für den Verbraucher sind die Preise gut, aber diejenigen, die die Effizienz bemängeln, machen sich Sorgen inwieweit AMD in Zukunft noch konkurrenzfähige (Highend)-Chips herstellen kann.

Es ist definitiv nicht alles schlecht an Polaris. Das aufgebohrte Frontend lässt den Chip ausgewogener erscheinen und auch das Downsizing von 512 auf 256bit ging einigermaßen gut (auch wenn man die mangelnde Bandbreite merkt).

Was AMD hätte besser machen können:
- Weniger Standardtakt oder geringeres PT, sodass die 150W immer eingehalten werden (eventuell sogar auf 140W runtergehen). Ich denke immer noch, dass das ohne zu große Einbußen gegangen wäre (zumal der Speicher manchmal schon eh schon bremst)
- voll funktionsfähige Treiber mit geringem idle-Verbrauch und allen Features. Der erste Eindruck zählt und wenn man schon bei Effizienz und Leistung nicht der Beste ist, sollte man wenigstens bei solchen Fleißaufgaben nicht patzen
Wo wäre das Problem wenn Vega soviel verbraucht wie Fiji, sich leise kühlen lässt, die Leistung auf 1080 Niveau oder leicht drüber hat, bei gutem Preis? Sind es wirklich die 7-8€ Stromkosten im Jahr bei 1000h Gaming?

dildo4u
2016-06-29, 23:11:24
Die 1060, die jetzt ganz urplötzlich vor dem "Launch" stehen soll?

Sehe ich maximal auf 480-Niveau, dazu die angeblichen 3GB (WTF?) und 6GB...
Gehe eher davon aus, dass Nvidia noch irgendwie hofft was abzugreifen und deswegen jetzt schon vorprescht mit der Karte.
Die 1060 kann langsamer sein als die 480,das OC Potenzial bis 2Ghz holt das ein.Ich muss kein Prophet sein um voraus zu sagen,das die Custom Pascal Karten deutlich attraktiver werden.

Schnoesel
2016-06-29, 23:11:32
Ja für ne 1060 wird man wohl für 3GB so viel zahlen dürfen wie für AMD mit 8GB aber die Grünen kaufens gerne jede Wette um sich (Achtung Übertreibung) 2,50 Mark Stromkosten im Jahr zu sparen :biggrin:

Der Markt wird zeigen wie die Karte angenommen wird und bis auf ein paar Freaks scheint das bisher nicht allzuschlecht zu laufen. Die Customs werden wohl noch besser weggehen. Dabei muss man auch noch anmerken dass die Händler die Karte über dem UVP verkaufen. Ihr führt ne Schattendiskussion da ihr ernsthaft glaubt es interessiert jemanden was eine Handvoll "Experten" in einem Forum so treiben.

Achill
2016-06-29, 23:13:53
Schöne und gute Tests zur 480 - hoffe ihr Redakteure findet jetzt auch etwas Freizeit ... :)

Ergebnisse entsprechen meinen Erwartungen, beim OC könnte ich mir vorstellen, dass der kritische Aspekte die Temp. ist - man also H2O oder ein 390 Kühler braucht (ähnlich PhenomII OC) und/oder ggf. zu viel Watt beim OC von PEG gezogen wird sodass die Spannung ggf. nicht stabil bleibt. Das kann sich aber mit Cus.Layouts und Lüftern noch ändern - wir werden sehen.

Zum PEG, ist jetzt nicht Spitze aber auch kein Weltuntergang, bei keinen Review habe ich gelesen das ein Board den Geist aufgegeben hat. Ob das wirklich zu einen stärkeren Verschleiß / Problemen führt werden wir erst in der Zukunft sehen.

Noch was für die Eth.Miners, hier gibt es ein Test einer 480 die mit leichten Tuning auf 27-28MH/s bei ~155W kommt: http://cryptomining-blog.com/8041-optimizing-the-power-usage-of-amd-radeon-rx-480-for-ethereum-mining/
=> Evtl. reicht die 4GB Variante auch schon, sofern der RAM gut übertaktbar ist.

captain_drink
2016-06-29, 23:14:35
Der Stromverbauch bringt damit auch einige Probleme:


Ich kann mir das ehrlich gesagt auch nur so erklären, dass die 480 ursprünglich mit 40 CUs geplant war, dann aber Probleme beim Prozess (Yields u.ä.) auftraten, weshalb man vier CUs deaktiviert und zum Ausgleich den Takt erhöht hat.
Damit sank gleichwohl die Effizienz und die absolute Leistungsaufnahme stieg, so dass zum einen die PCIe-Spezifikation verletzt werden musste und zum anderen der Kühler nicht mehr optimal ausreichte.
Dass das jetzt erhältliche Endprodukt genau so geplant war, kann ich mir nicht vorstellen.

Hakim
2016-06-29, 23:18:00
Ich kann mir das ehrlich gesagt auch nur so erklären, dass die 480 ursprünglich mit 40 CUs geplant war, dann aber Probleme beim Prozess (Yields u.ä.) auftraten, weshalb man vier CUs deaktiviert hat und zum Ausgleich den Takt erhöht hat.
Damit sank gleichwohl die Effizienz sowie die absolute Leistungsaufnahme, so dass zum einen die PCIe-Spezifikation verletzt werden musste als auch der Kühler nicht mehr optimal ausreichte.
Dass das jetzt erhältliche Endprodukt genau so geplant war, kann ich mir nicht vorstellen.

Das oder sie war für weniger Takt ausgelegt und man konnte nach der takterhöhung nicht mehr alles anpassen? Wilde Spekulationen :)

deekey777
2016-06-29, 23:18:52
VP9-Decoding für YouTube funktioniert erst mit einem kommenden Treiber.
Hast du was zum 2-Pass-Encoding?

AlphaNUSS
2016-06-29, 23:19:10
Wurde das hier schon gepostet?

http://fs5.directupload.net/images/160629/yy77ioim.png

Vll sehen wir ja doch bald eine 490.

gedi
2016-06-29, 23:19:43
Ich denke die größte Enttäuschung ist ganz klar der Verbrauch. Dabei gibt es zwei Standpunkte: Die einen sagen der Verbrauch ist egal, solange sich die Karte mit Custom-Kühler leise kühlen lässt. Die anderen sagen die Effizienz ist zu schlecht, d.h. das größere Chips wie Vega nach aktueller Hochrechnung die reinszen Heizkraftwerke werden, wenn ein kleiner P10 mit 1200Mhz schon so viel verbraucht.

Für den Verbraucher sind die Preise gut, aber diejenigen, die die Effizienz bemängeln, machen sich Sorgen inwieweit AMD in Zukunft noch konkurrenzfähige (Highend)-Chips herstellen kann.

Es ist definitiv nicht alles schlecht an Polaris. Das aufgebohrte Frontend lässt den Chip ausgewogener erscheinen und auch das Downsizing von 512 auf 256bit ging einigermaßen gut (auch wenn man die mangelnde Bandbreite merkt).

Was AMD hätte besser machen können:
- Weniger Standardtakt oder geringeres PT, sodass die 150W immer eingehalten werden (eventuell sogar auf 140W runtergehen). Ich denke immer noch, dass das ohne zu große Einbußen gegangen wäre (zumal der Speicher manchmal schon eh schon bremst)
- voll funktionsfähige Treiber mit geringem idle-Verbrauch und allen Features. Der erste Eindruck zählt und wenn man schon bei Effizienz und Leistung nicht der Beste ist, sollte man wenigstens bei solchen Fleißaufgaben nicht patzen

Ich finde das hätte die Marke Polaris deutlich runder erscheinen lassen. AMD hat (auch wenn der Chip technisch nicht der Beste ist) zuviel verschenkt. Das kann Nvidia leider besser.

Prinzipiell gebe ich dir recht, aber ich zitiere mal Hübie: "Ich denke wir sind hier im 3DC?". Ich denke jedem der Personen welcher gerade postet sollte es doch gelingen, P10 auf das Maß zu drosseln, welches ihm beliebt. Dafür braucht es noch nicht einmal 3rd-Party Tools. Das geht direkt über den Treiber :rolleyes:

Es würde mich unschwer wundern, wenn P10 trotz 1.075V die 1.26G genauso gut packt, wie mit eben mit 1.15V. Praktisch das gleiche Szenario wie bei der Nano.

Ärgerlich empfinde ich vielmehr die Posts von Personen, welche vor kurzer Zeit eine 4G 960 für 260€ als empfehlenswertes Produkt darstellten, jetzt aber bei einem Produkt des nicht favorisierten Herstellers im gleichen Preissegment, solch Wallung machen, obwohl eben jenes Produkt in einer ganz anderen Liga spielt!

Rabiata
2016-06-29, 23:20:30
*ubuntu wird seit 16.04 ausschließlich mit dem OS-Treiber ausgeliefert, viel anfängerfreundlicher geht es nicht ;)
Für den RX480-Test hat Michael Larabel nach eigener Aussage eine Version zusammenkompiliert, die zu einem noch nicht finalen Kernel gehört.
Currently you need to use a AMDGPU DRM-Fixes branch of the Linux 4.7 kernel as all of the Polaris fixes haven't yet been mainlined to Linux 4.7 (Linux 4.7 is going to be the first kernel release with Polaris support), Mesa Git (fixes are being back-ported to Mesa 12.0), Polaris firmware binaries from Alex Deucher's website until they appear in linux-firmware.git as the ones there are currently out of date, and to be using Git of xf86-video-amdgpu/libdrm. Rolling-release Linux distributions will get these various changes in the weeks ahead while for distributions like Ubuntu it won't be until Ubuntu 16.10 or Fedora 25 later in the year that there will be this support out-of-the-box.
Auf deutsch:
Ubuntu 16.04 hat noch keine Treiber für die RX480.
Linux-Gurus wie Michael bauen die Treiber aus diversen Vorabversionen zusammen, Endanwender die darin nicht fit sind warten auf Ubuntu 16.10.

Flusher
2016-06-29, 23:21:52
Dass das jetzt erhältliche Endprodukt genau so geplant war, kann ich mir nicht vorstellen.

Würde auch erklären warum AMD nun doch relativ "spät" dran ist mit dem Launch.

Der Titel von HT4u's Launchtest sagt es schon bereits: das Teil ist gerade so an der Kotzgrenze.

(del676)
2016-06-29, 23:22:30
Exakt. Wo lag die 970 am Einführungstag? 100€ drüber? Und die ist sogar noch verkrüppelt gewesen. Es ist als würde man mit Apple Anhängern reden :(

Hab jetzt mal was nachgsehen.
Eine Tripleslot GTX 970 bekomme ich gebraucht fuer 230€.

1241 MHz sind Standard Boostclock fuer eine normale 970, die Tripleslot bekomm ich auf ~1450MHz
Und den Takt haelt sie, dank tollem Kuehler, auch.

Eine (8GB, weil die 4GB Karten sind lahmer) RX-480 bekomm ich nur neu, und das fuer 270€. Allerdings mit verkrueppeltem Stock Cooler und mieserabler Stromanbindung. Die haelt nichtmal den Standard Boostclock dank miserablen Kuehler.

Fuer weniger Geld bekomme ich also eine leisere Karte, die die 480er ueberholt (wenn man beide uebertaktet) und dabei haelt sie noch alle Spezifikationen ein.

Hier is z.b. ein Video einer uebertakteten 480 und einer 970. Die 970 laesst sich viel besser uebertakten und zieht der 480er davon.

C24vLB6oYyU

captain_drink
2016-06-29, 23:27:32
Wurde das hier schon gepostet?

http://fs5.directupload.net/images/160629/yy77ioim.png

Vll sehen wir ja doch bald eine 490.

Wurde schon aufgelöst: https://www.computerbase.de/forum/showthread.php?t=1595928&page=10&p=18961713#post18961713

Da schon die Yields für 36 CUs nicht gut sein sollen, werden wir 40 CUs (wenn überhaupt) erst sehen, wenn GF den Prozess besser im Griff hat, was wohl noch etwas dauern wird.

stinki
2016-06-29, 23:30:18
Ich denke die größte Enttäuschung ist ganz klar der Verbrauch. Dabei gibt es zwei Standpunkte: Die einen sagen der Verbrauch ist egal, solange sich die Karte mit Custom-Kühler leise kühlen lässt. Die anderen sagen die Effizienz ist zu schlecht, d.h. das größere Chips wie Vega nach aktueller Hochrechnung die reinszen Heizkraftwerke werden, wenn ein kleiner P10 mit 1200Mhz schon so viel verbraucht.

Für den Verbraucher sind die Preise gut, aber diejenigen, die die Effizienz bemängeln, machen sich Sorgen inwieweit AMD in Zukunft noch konkurrenzfähige (Highend)-Chips herstellen kann.
Danke, du hast es extrem gut zusammengefasst!
Wenn man von Polaris 10 auf Vega hochrechnen würde käme man bei ca. 1080 Performance auf ca. 250W bis 275W.
Die Karte müsste AMD dann denke ich deutlich billiger als 1080 anbieten. Und sie wäre mit Interposer, HBM und wahrscheinlich größerer Chipfläche deutlich teurer als die 1080.
Da kann man nur auf Verbesserungen bei GF oder auf TSMC hoffen.

Troyan
2016-06-29, 23:33:33
Echt? Wirklich beeindruckend dass man nicht einmal an einer Custom 980Ti vorbeikommt :uup:.

Schafft eine 480 bei höherem Verbrauch auch nicht. :P

Mal der Vergleich der GTX1070 gegenüber der FuryX Karte:
Im Schnitt 5% schneller
50% des Stromverbrauchs
doppelter Speicher
Besserer Async Compute Support + FL12_1+
Besseres VR
180€ günstiger (UVP, 24% Reduzierung)

Hier mal der Vergleich der 480 zur GTX970
Im Schnitt 5% schneller
95% des Stromverbrauchs
doppelter Speicher
Besserer Async Compute Support
Besseres VR (?)
60€ günstiger (UVP, 16% Reduzierung)

Und dann geh mal in den nVidia-Thread und schau dir die Kommentare an. Da redet keiner vom supertollen P/L Verhältnis. :freak:

AtTheDriveIn
2016-06-29, 23:34:44
Danke, du hast es extrem gut zusammengefasst!
Wenn man von Polaris 10 auf Vega hochrechnen würde käme man bei ca. 1080 Performance auf ca. 250W bis 275W.
Die Karte müsste AMD dann denke ich deutlich billiger als 1080 anbieten. Und sie wäre mit Interposer, HBM und wahrscheinlich größerer Chipfläche deutlich teurer als die 1080.
Da kann man nur auf Verbesserungen bei GF oder auf TSMC hoffen.
Ich bleibe dabei, solange eine vernünftige Kühlung existiert, ist Verbrauch eine rein akademische Diskussion, da es finanziell nicht ins Gewicht fällt.

Btw: Ist es nicht so das HBM weniger braucht als GDDR? Somit dürfte Vega ja effizienter werden als Polaris.

anddill
2016-06-29, 23:42:48
OT-Gelaber gelöscht. Passiert das nochmal ist der Thread zu bis wieder ein Moderator Lust und Zeit hat hier in Echtzeit zu moderieren.
Autovergleiche bitte bei Auto-Bild oder Motortalk ausdiskutieren, aber nicht im 3DC. Die NV-Werbeveranstaltung passt hier auch nicht hin.

anddill
2016-06-29, 23:45:46
Btw: Ist es nicht so das HBM weniger braucht als GDDR? Somit dürfte Vega ja effizienter werden als Polaris.

Ja, ist so.

Was mich auch mal interessieren würde: Wieviel zieht die Karte bei Dauerbrennern wie LOL oder CS:Go oder Overwatch u.ä. bei eingeschaltetem vsync. Das dürfte nämlich ein häufiges Nutzungsszenario sein.

gedi
2016-06-29, 23:46:14
Schafft eine 480 bei höherem Verbrauch auch nicht. :P

Mal der Vergleich der GTX1070 gegenüber der FuryX Karte:
Im Schnitt 5% schneller
50% des Stromverbrauchs
doppelter Speicher
Besserer Async Compute Support + FL12_1+
Besseres VR
180€ günstiger (UVP, 24% Reduzierung)

Hier mal der Vergleich der 480 zur GTX970
Im Schnitt 5% schneller
95% des Stromverbrauchs
doppelter Speicher
Besserer Async Compute Support
Besseres VR (?)
60€ günstiger (UVP, 16% Reduzierung)

Und dann geh mal in den nVidia-Thread und schau dir die Kommentare an. Da redet keiner vom supertollen P/L Verhältnis. :freak:

Doch schafft sie - und zwar spielend: P10 ist immer schneller als eine 380(x):wink:

Der_Korken
2016-06-29, 23:46:48
Wo wäre das Problem wenn Vega soviel verbraucht wie Fiji, sich leise kühlen lässt, die Leistung auf 1080 Niveau oder leicht drüber hat, bei gutem Preis? Sind es wirklich die 7-8€ Stromkosten im Jahr bei 1000h Gaming?

Nein, die Stromkosten sind nicht das Problem, sondern dass AMD irgendwann power-limitiert und keine schnelleren Chips liefern kann. Ein Vega 10 mit 4096SPs wäre (wenn man proportional hochrechnet) mit den gleichen 1266Mhz etwa so schnell wie eine GTX1080, würde aber ca. 280W verbrauchen und hätte somit (im Gegensatz zur 1080) kaum OC-Potenzial. Für GP102 hätte AMD damit logischerweise keine Konkurrenz, denn ein entsprechender AMD-Chip würde geschätzt 400W verbrauchen.

Ein Nebenaspekt ist, dass AMD leider auch bei fps/mm hinten liegt, sodass die Chips teurer in der Produktion sind als die vergleichbaren Nvidia-Chips. Wenn Nvidia mit einem (geraten!) 180mm²-Chip und nur 6 Speicherchips (=6GB@192bit) der RX480 Paroli bieten kann, kann Nvidia Rekordmargen abschöpfen, während AMD kaum was dran verdient (vor allem da Nvidia ihre Karte wegen des geringeren Verbrauchs sogar etwas teurer verkaufen könnte, ohne dass der Aufschlag ungerechtfertigt wäre).

HOT
2016-06-29, 23:46:53
Wurde schon aufgelöst: https://www.computerbase.de/forum/showthread.php?t=1595928&page=10&p=18961713#post18961713

Da schon die Yields für 36 CUs nicht gut sein sollen, werden wir 40 CUs (wenn überhaupt) erst sehen, wenn GF den Prozess besser im Griff hat, was wohl noch etwas dauern wird.
Wenn man sich den Die Shot bei PCGH z.b. anschaut sieht man sehr deutlich, dass das Teil nativ 36CUs hat. Die haben das echt so gebaut.

Nein, die Stromkosten sind nicht das Problem, sondern dass AMD irgendwann power-limitiert und keine schnelleren Chips liefern kann. Ein Vega 10 mit 4096SPs wäre (wenn man proportional hochrechnet) mit den gleichen 1266Mhz etwa so schnell wie eine GTX1080, würde aber ca. 280W verbrauchen und hätte somit (im Gegensatz zur 1080) kaum OC-Potenzial. Für GP102 hätte AMD damit logischerweise keine Konkurrenz, denn ein entsprechender AMD-Chip würde geschätzt 400W verbrauchen.

Ein Nebenaspekt ist, dass AMD leider auch bei fps/mm hinten liegt, sodass die Chips teurer in der Produktion sind als die vergleichbaren Nvidia-Chips. Wenn Nvidia mit einem (geraten!) 180mm²-Chip und nur 6 Speicherchips (=6GB@192bit) der RX480 Paroli bieten kann, kann Nvidia Rekordmargen abschöpfen, während AMD kaum was dran verdient (vor allem da Nvidia ihre Karte wegen des geringeren Verbrauchs sogar etwas teurer verkaufen könnte, ohne dass der Aufschlag ungerechtfertigt wäre).

Von einem kaputten Polaris auszugehen halte ich für eine Fehleinschätzung. Wie gesagt ist der Treiber ein Frickeltreiber, das CU-Powergating funktioniert nicht (wir sind also wieder auf Hawaii/Tonga-Niveau, was das Stromsparen angeht) und das Referenzdesign ist glasklar ein ultra-billig-PCB, das zu viel Spannung/Takt bedienen muss. Das ist einfach ein epischer Fehlstart. Mit ordentlichem PCB, funktionierendem Powergating und ordentlichen Treiber wär das sicher nicht so gelaufen. Es ist aber nunmal wie es ist und es ist so nicht repräsentativ für Vega.

d2kx
2016-06-29, 23:49:32
Da die Treiberqualität hier mehrmals angesprochen wurde:

Die Anmeldungen zum neuen AMD Betatreiber-Programm sind nun freigeschaltet. Helft mit!

Drück mich! (http://radeon.com/calling-on-radeon-software-beta-testers/)

Für den RX480-Test hat Michael Larabel nach eigener Aussage eine Version zusammenkompiliert, die zu einem noch nicht finalen Kernel gehört.

Auf deutsch:
Ubuntu 16.04 hat noch keine Treiber für die RX480.
Linux-Gurus wie Michael bauen die Treiber aus diversen Vorabversionen zusammen, Endanwender die darin nicht fit sind warten auf Ubuntu 16.10.


Bezieht sich auf den AMDGPU all-open. Für Ubuntu 16.04 wurde heute allerdings zeitlich zum Windows-Treiber auch der AMDGPU PRO mit RX480-Support veröffentlicht: Klick mich! (https://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-GPU-PRO-Linux-Beta-Driver%E2%80%93Release-Notes.aspx)

Ich möchte mal die Tester loben. Mir kommt es so vor, als ob man sehr oft einen echten Test geschrieben hat und eine neutrale Position einnahm.


Sehe ich genauso ♥

https://i.imgur.com/PbLGigg.jpg

Schnoesel
2016-06-29, 23:54:58
Mal außen vorgelassen ob das jetzt ein tolles Produkt ist oder nicht da kommen wir eh auf (k)einen "grünen" Zweig ;-)

Fakt ist, dass die Karte von den Reviewern überwiegend positiv bewertet wurde, das zeigen alleine schon die Überschriften wie:

AMD Radeon RX 480 im Test: Schnell und effizient mit 8 GByte für 260 Euro
Radeon RX 480 Test: Vom Underdog zum Revoluzzer
Radeon RX 480 im Test: Eine bessere Grafikkarte gibt es für den Preis nicht
Radeon RX 480 (8 GiByte) im Test: Preisbrecher mit 14-nm-Technik
AMD Radeon RX 480 – Mehr Grafikkarte für weniger Geld
The AMD Radeon RX 480 Preview: Polaris Makes Its Mainstream Mark
AMD Radeon RX 480 review: A budget card with not-so-budget performance
AMD Radeon RX 480 Review: Polaris Hitting The Sweet Spot
AMD Radeon RX 480 review: Redefining what's possible with a $200 graphics card
Radeon RX 480 delivers more bang for less buck

nur HT4U fällt da schon in der Überschrift etwas aus dem Muster:

AMD Radeon RX 480 – hart auf Kante gebaut

(Neutrale Überschriften mal weggelassen)

Zudem wird die Karte derzeit gar nicht mal so schlecht verkauft für
1. Referenzdesign
2. Über dem UVP

bedeutet für mich erstmal die Karte kommt an und das ist wichtig für AMD. Ob es letztendlich dazu reicht Marktanteile zurückzugewinnen wird man sehen müssen.

Der_Korken
2016-06-29, 23:59:08
Von einem kaputten Polaris auszugehen halte ich für eine Fehleinschätzung. Wie gesagt ist der Treiber ein Frickeltreiber, das CU-Powergating funktioniert nicht (wir sind also wieder auf Hawaii/Tonga-Niveau, was das Stromsparen angeht) und das Referenzdesign ist glasklar ein ultra-billig-PCB, das zu viel Spannung/Takt bedienen muss. Das ist einfach ein epischer Fehlstart. Mit ordentlichem PCB, funktionierendem Powergating und ordentlichen Treiber wär das sicher nicht so gelaufen. Es ist aber nunmal wie es ist und es ist so nicht repräsentativ für Vega.

Dein Wort in AMDs Ohr, wollen wir es hoffen :)

Was meinst du mit nicht funktionierendem CU-Powergating? Dass komplette CUs nicht abgeschaltet werden können (wie es bei P11 möglich sein soll)? Würde das im Lastbetrieb denn überhaupt was bringen, wo doch die Auslastung gestiegen sein soll?

y33H@
2016-06-30, 00:00:01
Wenn man sich den Die Shot bei PCGH z.b. anschaut sieht man sehr deutlich, dass das Teil nativ 36CUs hat. Die haben das echt so gebaut.Als ob das ein echter Die-Shot wäre :freak:

Arcanoxer
2016-06-30, 00:04:40
Fakt ist, dass die Karte von den Reviewern überwiegend positiv bewertet wurde, das zeigen alleine schon die Überschriften
Beurteile niemals ein Buch nach seinem Umschlag.
Das trifft es wohl ganz gut.

Ätznatron
2016-06-30, 00:07:46
Hab jetzt mal was nachgsehen.
Eine Tripleslot GTX 970 bekomme ich gebraucht fuer 230€.

1241 MHz sind Standard Boostclock fuer eine normale 970, die Tripleslot bekomm ich auf ~1450MHz
Und den Takt haelt sie, dank tollem Kuehler, auch.

Eine (8GB, weil die 4GB Karten sind lahmer) RX-480 bekomm ich nur neu, und das fuer 270€. Allerdings mit verkrueppeltem Stock Cooler und mieserabler Stromanbindung. Die haelt nichtmal den Standard Boostclock dank miserablen Kuehler.

Fuer weniger Geld bekomme ich also eine leisere Karte, die die 480er ueberholt (wenn man beide uebertaktet) und dabei haelt sie noch alle Spezifikationen ein.

Hier is z.b. ein Video einer uebertakteten 480 und einer 970. Die 970 laesst sich viel besser uebertakten und zieht der 480er davon.

http://youtu.be/C24vLB6oYyU

Milchmädchenrechnung.

Allein der lahm angebundene 500MB Speicherbereich der GTX 970 macht die nVidia-Karte aber so was von obsolet.

dildo4u
2016-06-30, 00:07:49
Beurteile niemals ein Buch nach seinem Umschlag.
Das trifft es wohl ganz gut.

Jup bei CB steht was von Effizienz in der Überschrift und sie geben im Artikel selber zu das AMD mit diesem neuen 14nm Chip grad mal an den 28nm NV Chip kommt.

Ravenhearth
2016-06-30, 00:09:32
Von einem kaputten Polaris auszugehen halte ich für eine Fehleinschätzung. Wie gesagt ist der Treiber ein Frickeltreiber, das CU-Powergating funktioniert nicht (wir sind also wieder auf Hawaii/Tonga-Niveau, was das Stromsparen angeht) und das Referenzdesign ist glasklar ein ultra-billig-PCB, das zu viel Spannung/Takt bedienen muss. Das ist einfach ein epischer Fehlstart. Mit ordentlichem PCB, funktionierendem Powergating und ordentlichen Treiber wär das sicher nicht so gelaufen. Es ist aber nunmal wie es ist und es ist so nicht repräsentativ für Vega.

Polaris10 ist mitnichten "kaputt". Und auf Hawaii/Tonga-Niveau befindet man sich auch nicht, weil erstens die Verbesserungen aus Fiji drin sind und zweitens noch weitere (zB. Adaptive Clocking).

HOT redet es mal wieder schön :rolleyes:

Raff
2016-06-30, 00:09:38
Da die Treiberqualität hier mehrmals angesprochen wurde:

Die Anmeldungen zum neuen AMD Betatreiber-Programm sind nun freigeschaltet. Helft mit!

Drück mich! (http://radeon.com/calling-on-radeon-software-beta-testers/)

"Would you please sign my petition?" Signed – danke für den Hinweis, bin gespannt. :)

MfG,
Raff