PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24

Dino-Fossil
2016-11-23, 00:03:52
Da muß ich auch widersprechen - Karte verhällt sich selbst oberhalb von Idle bei leichten Tätigkeiten moderat & vorbildlich unter 16 Watt.

Ich denke, der Unterschied ergibt sich aus der Differenz zwischen dem angezeigten Wert in GPUz (GPU-only, also nur der Chip) und dem gemessenen Gesamtverbrauch der Karte (inklusive Speicher, Verlusten, etc.).

Wobei ich sagen muss, dass meine Powercolor 480 Red Dragon - besonders nach ein wenig UV - in den meisten Spielen im Durchschnitt auch weit unter den gemessenen 160W Maximalverbrauch einer Referenz-480 bleibt (wobei ich das nicht direkt messen kann, sondern nur anhand des GPU-Verbrauchs in GPUz extrapoliere).
Ich wage mal zu behaupten, dass der Durchschnittspieler mit einer 480 @Referenztakt im Mittel auch bei anspruchsvolleren Spielen (selbst ohne UV) eher 130-140W sieht.
Wird die Karte nicht voll gefordert (z.B. wg. vsync, oder in älteren/einfacheren Spielen) entsprechend auch teils nochmals deutlich weniger.

herp_derp
2016-11-23, 00:11:39
Leider taktet der VRAM nicht mehr herunter sobald man ein zweites Display anschließt. Bleibt stur auf 2000, der angezeigte Verbrauch stets über 20W.

N0Thing
2016-11-23, 00:16:39
Da muß ich auch widersprechen - Karte verhällt sich selbst oberhalb von Idle bei leichten Tätigkeiten moderat & vorbildlich unter 16 Watt. Im Idle lediglich 7,6 Watt mit Monitor an und bspws. E-Mail tippen oder Forenpost lesen. MSI Radeon RX 480 Gaming X 8 GB in aktuellem Win 10, allerdings noch auf Sandy Bridge Basis. Alles Serie, vorerst keine Veränderungen in Wattman vorgenommen.

http://fs5.directupload.net/images/161122/sh62igl4.jpg

Die 7,6W in GPU-Z geben nur den Verbrauch des Chips an, der Verbrauch des VRAM und des Boards an sich kann man damit nicht ablesen. Und wenn man im Browser, z.B. hier in diesem Thread scrollt, steigt der Verbrauch des Chips bei mir über die 30W Marke. Referenz RX 480 mit Standardtakt.

(del)
2016-11-23, 06:10:42
Im Launchartikel habe ich an exakt der Stelle, wo die Karte 167 Watt an PCIe-Stecker und Slot zog, als Rückgabewert des PWM-Controllers (also das, was GPU-Z auch anzeigt) die von Raja erwähnten 110 Watt auslesen können. Ja, es ist eine 110-Watt-GPU auf einem 167-Watt-Board. :)

Dino-Fossil
2016-11-23, 09:13:34
Im Launchartikel habe ich an exakt der Stelle, wo die Karte 167 Watt an PCIe-Stecker und Slot zog, als Rückgabewert des PWM-Controllers (also das, was GPU-Z auch anzeigt) die von Raja erwähnten 110 Watt auslesen können. Ja, es ist eine 110-Watt-GPU auf einem 167-Watt-Board. :)

Waren es nicht 130W bei der 480 und 110 bei der 470?

Mr.Bug
2016-11-23, 09:53:05
Ok, danke für die Korrektur Männers! Dann war es meine Fehlinterpretation mit GPU-Z, dachte es wird nicht nur der Chipverbrauch ansich angezeigt. ;) Aaaaaaaber trotzdem bin ich mit der Karte sehr glücklich, hat meinem i5 2500K nochmal ordentlich Leben vor Zen eingeheizt.

(del)
2016-11-23, 10:02:05
Waren es nicht 130W bei der 480 und 110 bei der 470?

Nein. Raja sprach bereits bei der Vorstellung in Macau von einem echten 110-Watt-Design. Ich hab sogar den Mitschnitt noch auf dem Smartphone ;)

Format_C schrieb hier (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html):
AMD hat durchaus Recht, wenn man im Zusammenhang mit der Radeon RX 480 von einer echten 110-Watt-GPU spricht. Betrachtet man die Mittelwerte unserer GPU-Z-Interpretation, dann ergibt dies eine absolut exakte Punktlandung!...

...Laut unserer Messung (siehe Diagramm oben) liegen zwischen der Board-Power von reichlich 164 Watt in diesem speziellen Benchmark und den ebenfalls mitgeloggten 110 Watt Chip-Power rund 50 Watt Unterschied, wenn man den extra versorgten 3,3-Volt-Anschluss am PEG gleich zu Beginn abzieht und ausklammert.

Dino-Fossil
2016-11-23, 10:08:03
Joa, der Verbrauch bei P10 hätte besser ausfallen können, aber ansonsten bin ich mit der Karte auch zufrieden.

Immerhin hat man mit Wattman ja ein nettes Tool um zumindest unter Windows die Karte noch ein wenig den individuellen Bedürfnissen anzupassen.
Schade nur, dass es sowas nicht für Linux gibt.

Dino-Fossil
2016-11-23, 10:11:21
Nein. Raja sprach bereits bei der Vorstellung in Macau von einem echten 110-Watt-Design. Ich hab sogar den Mitschnitt noch auf dem Smartphone ;)

Ok, daran kann ich mich nicht erinnern, bzw. hatte ich es so nicht gesehen.

Hatte nur irgendwie im Kopf, das viele Reviews bei Launch 130W GPU(z)-Verbrauch gesehen haben, aber vielleicht spielt mir mein Gedächtnis einen Streich.

von Richthofen
2016-11-23, 15:08:17
@Mr.Bug

7,6W im Idle für die GPU allein sind für eine 480 imho nicht schlecht. Hab hier mit niedriger Idlespannung (0,800V) höhere Werte 8,4;9,2;10,0W auf der Strix.
Vllt. kann man daraus auch nur eines ablesen: wie ungenau diese Software-Messungen doch sind. Oder aber LEDs/Lüfter werden mit über den Chip abgerechnet ;)

58087

(del)
2016-11-23, 17:13:53
Wie oft schaltet die VR und in welchen Intervallen liest man mit GPU-Z meistens aus? Da die Resultate keine Mittelwerte, sondern Momentaufnahmen sind,
st das noch nicht einmal für eine Schätztung geeignet. Einfach mal auf 0.1s stellen, eine Minute mitloggen und den Mittelwert bilden.
Das ist zwar immer noch recht ungenau, aber schon etwas besser :)

von Richthofen
2016-11-23, 17:33:20
Könnte man meinen...hab zumindest die Intervalle mal von den standardmäßig eingestellten 1,0s auf 0,1s runtergesetzt. Werte und Graphen zubbeln nun munter vor sich hin. Dabei benötigt die höhere Selbstverwaltung mehr Takt und Strom. Letzterer bewegt sich ungefähr zw. 10 und 30W.
Rechts wieder 1 sekündige Intervalle.

58089

Da würde interessieren wie das auf einer nV ausschaut.

Dino-Fossil
2016-11-23, 18:04:07
Wie oft schaltet die VR und in welchen Intervallen liest man mit GPU-Z meistens aus? Da die Resultate keine Mittelwerte, sondern Momentaufnahmen sind,
st das noch nicht einmal für eine Schätztung geeignet. Einfach mal auf 0.1s stellen, eine Minute mitloggen und den Mittelwert bilden.
Das ist zwar immer noch recht ungenau, aber schon etwas besser :)

So lange der zeitliche Verlauf der anliegenden Last homogen genug ist und du entsprechend lange misst, sollte das keinen Unterschied machen.

(del)
2016-11-23, 18:14:38
Ist er aber nicht. Das habe ich doch nun schon oft genug mit Diagrammen belegt. ;)

Hier mal altuell eine WX7100 im Idle (der Treiber ist verbuggt und taktet den RAM nicht runter),
aber das Prinzip ist das gleiche, egal ob GPU, ganze Karte oder Gouda:

http://media.bestofmicro.com/N/U/630714/original/03-Idle-Wattage-all-Rails-Hi-Res.png

Da würde interessieren wie das auf einer nV ausschaut.
Genauso :)

Dino-Fossil
2016-11-23, 18:20:04
Ist er aber nicht.

Aber was willst du damit sagen?
Das wir Spikes haben, die im GPUz Wert nicht auftauchen weil er eben doch eine gewisse Mittelung aufweist?
Wäre auch egal, solange sich Minima und Maxima in etwa aufheben.
Oder das der angezeigte Wert falsch ist weil er intern fehlerhaft berechnet?

Wenn er hingegen auch die Spikes anzeigen kann, ist es nur eine Frage der Zeit, bis die abgebildet werden und damit eine Frage der "Stichprobengröße".

Natürlich klappt es nicht, wenn sich die Last kurzzeitig mal ändert und ansonsten über die Aufnahme/Messdauer anders aussieht.

Edit:
Evt. reden wir auch aneinander vorbei - ich will nicht den exakten zeitlichen Verlauf abbilden, das würde natürlich nicht funktionieren.
Aber wenn es einem vor allem um die Häufigkeit/Wahrscheinlichkeit geht, dass ein bestimmter Wert auftritt, sollte es funktionieren, sofern GPUz wirklich halbwegs exakte Momentaufnahmen liefern kann.

Mr.Bug
2016-11-24, 10:54:10
Für alle "Sensorenfetischisten" gibt es ja noch das nette Tool HWInfo64 mit zahlreichen Möglichkeiten, siehe hier ausschnittweise bei mir:

http://fs5.directupload.net/images/161124/yuf394js.jpg

Da lässt sich schon geschmeidig etwas tiefer in die Materie eintauchen als bei GPU-Z. Aber dank zahlreicher, schlauer Füchse hier vermutlich auch ein alter Mottenhut. Ich persönlich bin da nicht so sehr auf den Verbrauch in einzelnen P-States fixiert, mir ist es wichtiger das alles rund, stabil und kühl läuft.

(del)
2016-11-24, 11:48:48
VRM Temperature1 und 2 *ichwerfmichweg* - das ist die Temperatur der PWM-Controllerchips, nichts anderes.
Das ist all das, was auch der Treiber per Schnittstelle bietet.

Thunder99
2016-11-24, 12:15:00
Aber was willst du damit sagen?
Das wir Spikes haben, die im GPUz Wert nicht auftauchen weil er eben doch eine gewisse Mittelung aufweist?
Wäre auch egal, solange sich Minima und Maxima in etwa aufheben.
Oder das der angezeigte Wert falsch ist weil er intern fehlerhaft berechnet?

Wenn er hingegen auch die Spikes anzeigen kann, ist es nur eine Frage der Zeit, bis die abgebildet werden und damit eine Frage der "Stichprobengröße".

Natürlich klappt es nicht, wenn sich die Last kurzzeitig mal ändert und ansonsten über die Aufnahme/Messdauer anders aussieht.

Edit:
Evt. reden wir auch aneinander vorbei - ich will nicht den exakten zeitlichen Verlauf abbilden, das würde natürlich nicht funktionieren.
Aber wenn es einem vor allem um die Häufigkeit/Wahrscheinlichkeit geht, dass ein bestimmter Wert auftritt, sollte es funktionieren, sofern GPUz wirklich halbwegs exakte Momentaufnahmen liefern kann.
Der Fehler der dadurch entstehen kann ist viel zu groß. Wer da dennoch viel misst misst Mist ;).

Stell dir vor, du misst mit 0,1s immer nur das Tal der Spikes. Damit bildest du nur ein Teil des Verbrauches ab, nicht den ganzen Bereich. Nur wenn du die Abtastrate fein genug ist können wir über eine wirkliche Messung reden :). Eine Messung bedarf auch einer Statistik wenn man es genau nimmt mit +/- Bereich.

(del)
2016-11-24, 12:17:18
Der Fehler der dadurch entstehen kann ist viel zu groß. Wer da dennoch viel misst misst Mist ;).

Stell dir vor, du misst mit 0,1s immer nur das Tal der Spikes. Damit bildest du nur ein Teil des Verbrauches ab, nicht den ganzen Bereich. Nur wenn du die Abtastrate fein genug ist können wir über eine wirkliche Messung reden :). Eine Messung bedarf auch einer Statistik wenn man es genau nimmt mit +/- Bereich.

Richtig. Maximale Abtastrate, guter (am besten variabler) Low-Pass und eine gute Mittelwertberechnung. Dann past es auch :)

Dino-Fossil
2016-11-24, 14:12:45
Ich bezweifle ja gar nicht, dass man ordentliche Technik braucht, um eine wirklich gute Messung zu machen, irgendeine Berechtigung muss der Aufwand ja haben, den z.B. Igor betreibt. ;)

Allerdings kann man durchaus darüber diskutieren, ob man nicht auch mit einfachen Methoden zumindest eine brauchbare Schätzung für den Hausgebrauch erhält.
Und ich meine, ja - wenn man weiß wie man damit umgehen muss zumindest.
Das ich hier keine ordentliche Abtastung des zeitlichen Verlaufs aus GPUz erhalte ist klar.

Nur - wenn der angezeigte Momentanwert an sich einigermaßen stimmt (d.h. der Sensor für den jeweils aktuellen Zeitpunkt einen vernünftigen Wert liefert), dann sollte man bei einer ausreichend langen Messung eine hinreichend (zum Abschätzen für mich, nicht zum publizieren :P ) genaue Abbildung der Häufigkeit des Auftretens der einzelnen Werte bekommen.
Natürlich muss in diesem Zeitraum die anliegende Belastung gleich bleiben (also entweder Desktop, oder im Spiel, oder Furmark, oder...).
Das ich immer gerade dann messe, wenn ich in einem Tal oder einem Berg bin halte ich dann doch über längere Zeiträume für arg unwahrscheinlich, dafür müsste das Signal mit relativ konstanter Frequenz fluktuieren.

Jedenfalls hätte ich damit auch ohne einen supergenauen zeitlichen Verlauf aufzunehmen einen guten Ansatz um den Verbrauch abzuschätzen.

Der_Korken
2016-11-24, 14:24:21
Würde mich da auf die Seite von Dino-Fossil stellen. Wenn ich einen Durschnitt messen will, aber gröber abtaste, kann ich das dadurch ausgleichen, dass ich entsprechend länger teste, bis ich die gleiche Anzahl von Messpunkten habe. Das einzige, was schief gehen könnte ist wie schon gesagt wurde, dass es einen systematischen Fehler gibt, d.h. dass Peaksnicht zufällig sondern in der gleichen Frequenz auftreten wie GPU-Z misst, oder wenn GPU-Z einige Peaks gar nicht misst, selbst wenn man sie genau trifft.

(del)
2016-11-24, 14:52:22
Deswegen schrieb ich ja auch weiter oben:
Mit GPU-Z mal über eine Minute mitloggen und den Mittelwert bilden. Da ist schon einigerma0en ok.

Godmode
2016-11-24, 14:53:04
VRM Temperature1 und 2 *ichwerfmichweg* - das ist die Temperatur der PWM-Controllerchips, nichts anderes.
Das ist all das, was auch der Treiber per Schnittstelle bietet.

Außer dem Controllerchips wird ja nichts so heiß, wenn man die ganzen Komponenten der Spannungsregelung ansieht? Oder wie ist der Beitrag zu verstehen?

(del)
2016-11-24, 15:20:10
Außer dem Controllerchips wird ja nichts so heiß, wenn man die ganzen Komponenten der Spannungsregelung ansieht? Oder wie ist der Beitrag zu verstehen?
Die Temperaturen der PWM-Controller sind absolut irrelevant, so wichtig wie ein Stück Hundekot in der Sahara.
Meist liegen die meilenweit von den wirklich heißen MOSFETs entfernt oder gleich auf der Rückseite.
Sicher sind die heiß und bei sehr gut gekühlten VRM sogar einen Tick heißer als diese,
aber mit "VRM"-Temperatur hat das nichts zu tun. Ich rechne es W1zzard hoch an, dass er diesen Blödsinn
aus GPU-Z wieder entfernt hat, wo doch ganze Heerscharen von Testern diese Werte in Reviews verwendet hatten.
Und jetzt kommt HWInfo und schreibt den Mist wieder rein...

Diese sogenannten "Aux"-Werte der Schnittstellen braucht kaum jemand, schon gar nicht der End-User.
Das ist so, als würde jemand nach der Helligkeit der Rücklichter fragen und als Antwort die Lumenzahl der
Innenraumbeleuchtung erhalten, weil man die von hinten ja auch sieht :D

Dino-Fossil
2016-11-24, 15:26:04
Die Temperaturen der PWM-Controller sind absolut irrelevant, so wichtig wie ein Stück Hundekot in der Sahara.

Für einen Pillendreher/Mistkäfer ist das wie Weihnachten und Ostern zusammen.

Aber was ich mich jedesmal gefragt habe, wenn diese Diskussion hochkommt:
Warum werden die Werte als VRM bezeichnet, wenn sie nichts damit zu tun haben? Es sollte doch irgendeinen (historischen?) Grund dafür geben.

(del)
2016-11-24, 16:01:09
Warum werden die Werte als VRM bezeichnet, wenn sie nichts damit zu tun haben? Es sollte doch irgendeinen (historischen?) Grund dafür geben.
In meinen Unterlagen steht überall nur Aux, was ja auch Sinn macht, wenn man die Chips als solche kontrollieren möchte.
Per I2C kann man so ziemlich alles steuern und auslesen - je nach Controllertyp mehr oder weniger.
Das meiste wird sowieso an den Grafiktreibern abgegraben und es sollte mich nicht wundern, wenn irgendwann mal jemand
bei ATI diese Grütze unbewusst in ein Doc versenkt hat, denn das fing bei älteren Karten an und hat sich dann lange gehalten.
Dass Nvidia-Karten diese Werte nicht bieten liegt sicher schlichtweg daran, dass es die Programmierer dort von vornherein
als albern erkannt und gleich gar nicht mit in die Schnittstellen zum Auslesen gepackt haben.

Solche Dinge halten sich dann hartnäckiger als der Irrglaube, dass die Erde keine Scheibe sei :D

Und VRM wohl deshalb, weil man alles, was zur VR gehört, umgangssprachlich vereinfacht als VRM bezeichnet (obwohl es
Käse ist). Es ist ja auch keine Strom- sondern eine Spannungsversorgung und wir messen auch keine "Verbräuche", sondern
die Leistungsaufnahme. :)

Mal was anderes - der Ellesmere XT auf der Radeon Pro WX 7100 (http://www.tomshardware.de/amd-radeon-pro-wx-7100-performance-leistungsaufnahme-temperatur,testberichte-242272.html)

Mr.Bug
2016-11-24, 16:46:08
Man lernt eben nie aus, interessant und danke dafür Format_C!

Also wie lautet die Quintessenz für uns fröhlich gestimmte RX 480-Besitzer? Onkel AMD spezifiziert die Karte mit einer Leistungsaufnahme von ungefähr 150 Watt. (Chip ca. 110, Rest Ram & Co) Ich denke das haut hin bei normalen Takteinstellungen und abhängig vom gewählten Boardpartner. Wer es jedoch genauer wissen möchte ohne Laboreinrichtung a'la Dr.Fred in Maniac Mansion, der misst selber mittels Tool - und bildet einen Mittelwert bei konstant gewähltem Szenario. Gell?

So - und davon abgesehen haben hoffentlich auch alle Spaß mit ihrer Karte! ;)

iuno
2016-11-24, 16:54:13
Mal was anderes - der Ellesmere XT auf der Radeon Pro WX 7100 (http://www.tomshardware.de/amd-radeon-pro-wx-7100-performance-leistungsaufnahme-temperatur,testberichte-242272.html)
Schoen, danke. Vor allem dass sich bei Radeon Pro einiges tut, gefaellt mir, auch hinsichtlich der Kommunikation. Die Karte steht ja auch nicht schlecht da, wobei sie sich da natuerlich momentan auch 'nur' mit Maxwell messen muss.

Dino-Fossil
2016-11-24, 16:56:51
In meinen Unterlagen steht überall nur Aux, was ja auch Sinn macht, wenn man die Chips als solche kontrollieren möchte. [...]

Ja, danke für die Infos.

Mal was anderes - der Ellesmere XT auf der Radeon Pro WX 7100 (http://www.tomshardware.de/amd-radeon-pro-wx-7100-performance-leistungsaufnahme-temperatur,testberichte-242272.html)

Da hast du im Text aber mehrmals tief in die Wortspiel-Kiste gegriffen. :freak:

Menace
2016-11-24, 17:04:40
Hört sich für die Profi-Sparte ganz optimistisch an; was AMD ja auch nötig hat.

Ich frage mich immer wieder nur, warum es, was Effizienz angeht, nur bei der Nano geblieben ist. Warum bringt AMD nicht einfach noch eine RX-E 480 raus, die auf Effizienz geprügelt wird, anstatt den recht akademischen paar Prozent Leistung? :confused: @Format_C: Ganz gut, dass Du in die Richtung AMD ein wenig treibst (bei deinen Testberichten).

(del)
2016-11-24, 17:05:10
Da hast du im Text aber mehrmals tief in die Wortspiel-Kiste gegriffen. :freak:Das mache ich auch deshalb, weil die Wortspielkasse eh mir gehört und ich die Übersetzer damit wieder so schön grillen kann. Die hassen meine Metaphern aber noch viel mehr. :D

Der_Korken
2016-11-24, 17:08:28
Interessant, dass die Karte fast 30W weniger als eine Referenz 480 verbraucht, obwohl die GPU mitunter schon ziemlich heiß wird. Liegt das wirklich nur an den teureren Elektronik-Komponenten oder wurde auch die Vcore bei gleichem Takt reduziert gegenüber der 480?

Dino-Fossil
2016-11-24, 17:16:23
Das mache ich auch deshalb, weil die Wortspielkasse eh mir gehört und ich die Übersetzer damit wieder so schön grillen kann. Die hassen meine Metaphern aber noch viel mehr. :D

Immer feste drauf, die native speakers traktieren uns schließlich auch immer mit ihren puns.

Übrigens, kann es sein, dass dir auf der letzten Seite ein Fehler unterlaufen ist?
Die RP WX7100 hat doch 5,7 TFLOPS (SP), nicht 7,6 TFLOPS.

(del)
2016-11-24, 17:47:47
Übrigens, kann es sein, dass dir auf der letzten Seite ein Fehler unterlaufen ist?
Die RP WX7100 hat doch 5,7 TFLOPS (SP), nicht 7,6 TFLOPS.Ist gefixt. Da hat wohl wer Drittes schlusskorrigiert und nicht aufgepasst :D

VCore lässt sich bei der Workstation-Karte nicht wirklich auslesen, aber der Takt ist etwas niedriger angesetzt,
so dass ich mal davon ausgehe, dass man hier auch etwas gemächlicher vorgegangen ist. Was aber Fakt ist -
die Referenzkarte der RX 480 hat im Vergleich zur WX 7100 ein beschissenes Spannungsversorgungs-Layout.
Außerdem spart man beim Speicher schon mal ein paar Watt, weil der HC28 etwas sparsamer ist.

Mr.Bug
2016-11-25, 10:27:22
Zum heutigen Black Friday mal zwei RX 480 (8 GB) Angebote:

Sapphire Radeon RX 480 NITRO+ für 259 € bei Alternate:

https://www.alternate.de/SAPPHIRE/Radeon-RX-480-NITROplus-Grafikkarte/html/product/1305861?

PowerColor RX 480 Red Devil für 241,90 € bei Caseking:

https://www.caseking.de/powercolor-radeon-rx-480-red-devil-8192-mb-gddr5-gcpc-044.html?ref=112

Eventuell folgen ja noch weitere Hersteller im Laufe des Tages.

horn 12
2016-11-25, 20:12:38
Und eine Fury für 149 Euro :-)

DrFreaK666
2016-11-25, 21:57:29
Und eine Fury für 149 Euro :-)

Die würde ich sofort kaufen, auch wenn ich sie nicht benötige :)

horn 12
2016-11-25, 22:16:40
Wunschdenken, aber 264 Euro habe ich meine Fury Nito OC+ bezahlt, vor 3 Wochen
Nun bekomme ich meine zweite Fury Tri-X nicht mehr los....

[MK2]Mythos
2016-11-25, 22:48:07
Wunschdenken, aber 264 Euro habe ich meine Fury Nito OC+ bezahlt, vor 3 Wochen
Nun bekomme ich meine zweite Fury Tri-X nicht mehr los....
Selber schuld, was deckst du dich auch jetzt noch mit 4GB Karten ein... Und nun back2Topic bitte.

radical83
2016-11-26, 08:32:11
Mal was anderes - der Ellesmere XT auf der Radeon Pro WX 7100 (http://www.tomshardware.de/amd-radeon-pro-wx-7100-performance-leistungsaufnahme-temperatur,testberichte-242272.html)

Trotz der simplen Kühllösung kommt die Karte gut zurecht.

Schade das es keine 470/480 mit gleichem PCB Layout und Abmessungen im Handel gibt.

dildo4u
2016-11-26, 10:00:50
Trotz der simplen Kühllösung kommt die Karte gut zurecht.

Schade das es keine 470/480 mit gleichem PCB Layout und Abmessungen im Handel gibt.

Ich glaube kaum der durchschnittliche User Karten kaufen würde hat die mit 90° Plus laufen.

Screemer
2016-11-26, 10:18:07
das ist dem durchschnittlichen user ohne negativ gelegte presseberichterstattung doch völlig scheiß egal. solange das ding stabil ist. das die temps am single slot radial design liegen ist dir auch klar und es wurde ja auch nicht nach dem kühler, sondern dem platinenlayout und entsprechender bestückung verlangt. ich will gar nicht wissen in wie weit der verbrauch noch sinken würde, wenn da kein singleslot-radial-fön drauf wäre.

(del)
2016-11-26, 10:52:41
ich will gar nicht wissen in wie weit der verbrauch noch sinken würde, wenn da kein singleslot-radial-fön drauf wäre. Bei 70°C Chiptemperatur "spart" man ganze 4.2 Watt, es ist also weniger dramatisch als noch bei Hawaii :)

radical83
2016-11-26, 10:55:11
Screemer hat meine Aussage verstanden.

Für mich persönlich gibt es im Moment keine einzige Grafikkarte die ein Upgrade für mich darstellen würde und gleichzeitig in mein Gehäuse passt.
Die Nano würde passen, jedoch will ich bei dem Preis nicht so viele Kompromisse eingehen müssen.

Mr.Bug
2016-11-26, 11:06:29
Screemer hat meine Aussage verstanden.

Für mich persönlich gibt es im Moment keine einzige Grafikkarte die ein Upgrade für mich darstellen würde und gleichzeitig in mein Gehäuse passt.
Die Nano würde passen, jedoch will ich bei dem Preis nicht so viele Kompromisse eingehen müssen.

Dann solltest doch mal über einen Gehäusewechsel nachdenken? :cool: Denn langfristig werden leistungsfähige Karten im Consumer-Segment sicher nicht wesentlich kleiner.

Screemer
2016-11-26, 11:20:29
Bei 70°C Chiptemperatur "spart" man ganze 4.2 Watt, es ist also weniger dramatisch als noch bei Hawaii :)
das sind immerhin noch mal 3-4% :ugly:

radical83
2016-11-26, 11:31:22
@Mr.Bug

Danke, auf die Idee bin auch schon selbst gekommen.

Da es wieder ein flaches HTPC/Desktop Gehäuse werden soll, ist die Auswahl genauso groß wie die Auswahl an Grafikkarten für mein jetziges Gehäuse.

Sorry, will den Thread auch nicht mehr mit OT zu spammen.

(del)
2016-11-26, 11:52:50
das sind immerhin noch mal 3-4% :ugly:

Da ich das in einem kalten Raum mit externer Lüfterhilfe geschafft habe, kannst Du gern noch einmal ca. 1 Watt für den Lüfter abziehen, der dann nur noch mit halber Kraft laufen muss. Das macht am Ende vielleicht noch 133 statt 136 Watt, also weniger als 2,5%. Das ist reichlich albern, sich daran zu ergötzen. Untervolting würde sicher mehr bringen. ;)

RoughNeck
2016-11-26, 12:08:30
Ich glaube kaum der durchschnittliche User Karten kaufen würde hat die mit 90° Plus laufen.

Da sage ich nur 290 / 290X
Die erreichten auch ohne Probleme 90° und die Karten hatten / haben noch viele. Habe selbst erst vor kurzen die 290X Direct CU vom Arbeitskollegen reinigen dürfen, die erreichte in Games locker 92°

w0mbat
2016-11-26, 13:20:37
Die ASUS ist auch eine der schlechtesten, wenn nicht die schlechteste, RX 290(X). Meine Sapphire Vapor-X erreicht ca. 75C unter Volllast.

Michalito
2016-11-27, 18:10:16
Die ASUS ist auch eine der schlechtesten, wenn nicht die schlechteste, RX 290(X). Meine Sapphire Vapor-X erreicht ca. 75C unter Volllast.

So sieht es aus. Lagen da nicht nur 3 von 5 Heatpipes auf dem Die :wink:

Aber "Asus" Top Marke, und so..

(del)
2016-11-27, 18:32:17
Ich habe dem R&D vor zwei Jahren mal im HQ in Taipeh einen Vortrag über Heatpipes, Material, Biegungen und Ausrichtung gehalten.
Dazu über die ganze Frage mit verschiedenen Heatsink-Technologien, DHT und anderem Gedöns, weil sie mal externe Erfahrungen hören wollten.
Dann ging es nur noch um deren neue 10mm-Heatpipes, die absoluter Nonsens waren. Das wollten sie dann schon gar nicht mehr hören.
Allein die Vorstellung, eine Heatpipe könnte 70-80% der gesamten Abwärme wegschaffen... Planlose Utopien. Das ist nun mal keine Vapor Chamber.

Beratungsresistenz, leider.

T86
2016-11-27, 19:04:23
Trotz der simplen Kühllösung kommt die Karte gut zurecht.

Schade das es keine 470/480 mit gleichem PCB Layout und Abmessungen im Handel gibt.

Also es gibt zunehmend 480er dir auf den Custom
470er Karten basieren
Es reicht halt... aber ist natürlich immer noch
Wuchtiger als das verlinkte Beispiel.

Die günstige HIS 480 für 250€ ist ne 470er Platine und kühler oder seh ich das falsch?

Weil die 480 die überall getestet wird ist ne andere und
Zwar die unterste.
https://geizhals.de/?cat=gra16_512&xf=545_HIS%7E9809_12+3793+-+RX+470%7E9809_12+5161+-+RX+480

radical83
2016-11-28, 11:27:55
@T86
Leider hat die HIS, genau wie die meisten anderen Karten, auch einen an der Seite liegenden PCI-E Anschluss.
Aber trotzdem danke.

Thunder99
2016-11-28, 12:12:30
Die ASUS ist auch eine der schlechtesten, wenn nicht die schlechteste, RX 290(X). Meine Sapphire Vapor-X erreicht ca. 75C unter Volllast.
Kann ich bestätigen. Deshalb kam damals nach der GTX970 nur die Vapor-X in Frage :cool:

Eine Hawaii GPU brauchte extreme Kühlung um leise zu sein. Da hat es logischerweise eine Polaris 10 GPU deutlich leichter. Schön das es dadurch auch mehre Lösungen gibt bei der Kühlung. :)

Thunder99
2016-12-01, 13:42:35
Roundup der RX480 bei CB (https://www.computerbase.de/2016-12/radeon-rx-480-partnerkarten-vergleich-test/). Nur leider ohne MSI...

Dino-Fossil
2016-12-01, 13:55:03
Hm, seltsam - die PC Red Dragon wird hier mit leichtem OC angegeben, allerdings hat meine den normalen Referenztakt und so wurde sie auch verkauft, soweit ich weiß.
Entweder hat PC ein neues BIOS rausgegeben, oder CB hat da einen kleinen Fehler.

Effe
2016-12-01, 14:09:18
Da gabs doch mal so ne Geschichte mit MSI, die Samples immer mit 20Mhz OC rausschickten, um den Längsten zu haben.

MechWOLLIer
2016-12-01, 14:54:44
Roundup der RX480 bei CB (https://www.computerbase.de/2016-12/radeon-rx-480-partnerkarten-vergleich-test/). Nur leider ohne MSI...
Sag das MSI...Zeit und Anfragen hatten sie wahrlich genug.

RoughNeck
2016-12-01, 15:07:47
Die hatten wohl angst dass wieder auf den paar MHZ mehr rumgeritten wird, MSI scheint hier wohl schon lange die Testsamples etwas höher zu takten um bei den Balken den längeren zu haben.

Thunder99
2016-12-01, 15:35:45
Sag das MSI...Zeit und Anfragen hatten sie wahrlich genug.
Hab ich mir schon gedacht. Soll ja keine Kritik an euch sein sondern nur den Umstand Rechnung tragen das eine wichtige Karte fehlt :).

Lupin III
2016-12-01, 19:16:45
Wieso wurde in dem Test ein Treiber verwendet, der ein halbes Jahr alt ist? Der ist ja älter als die meisten Grafikkarten im Test selber.

N0Thing
2016-12-01, 21:05:36
Roundup der RX480 bei CB (https://www.computerbase.de/2016-12/radeon-rx-480-partnerkarten-vergleich-test/). Nur leider ohne MSI...

Schöner Test, solche Vergleiche sind immer gut zu gebrauchen. Mit dem aktuellen Treiber wäre es noch besser gewesen, aber vermutlich waren die Grafikkarten nie zum gleichen Zeitpunkt in der Redaktion vorhanden.

MechWOLLIer
2016-12-02, 09:45:01
Zum Treiber:
Das macht doch genau null Unterschied in einem Test, wo nur die Radeon RX 480 und sonst nix drin ist. Da verschieben sich doch keine Verhältnisse. Ob die Karte jetzt zwei Prozent schneller oder langsamer ist, ist doch egal. Da ja alle im Test befindlichen Karten davon betroffen sind. Und warum das so ist, hat N0Thing schon heraus gefunden.

Mr.Bug
2016-12-02, 10:03:12
Natürlich macht das einen Unterschied bei Einführung einer neuen Architektur! PCGH hat ein Update seiner Tests nach vier Monaten mit aktuellen Treibern nachgereicht, ich zitiere mal:

"Bei AMD lohnt sich nach der Vorstellung einer neuen Architekturgeneration immer ein Blick auf die darauffolgende Treiberentwicklung. Häufig können zur Veröffentlichung noch nicht alle Verbesserungen optimal ausgenutzt werden, sodass die Leistung Monate, teilweise sogar Jahre später noch steigen kann. Im Falle der Radeon RX 480 lässt sich dieses Verhalten knapp vier Monate nach der Veröffentlichung schon beobachten. [.......] denn verglichen mit dem Grafikkarten-Index aus der PCGH-Ausgabe 08/2016, in dem die Radeon RX 480 erstmals enthalten war, ist die Performance um acht Prozent gestiegen."

Testen sollte man jedenfalls immer mit den zum Testzeitpunkt aktuell verfügbaren Treibern.

dildo4u
2016-12-02, 10:05:59
Das spielt hier keine Rolle,da nicht gegen andere Chips verglichen wurde das meint MechWOLLIer.Es geht hier um Lautstärke/Verbrauch/Takt innerhalb der 480 Serie etc.

Mr.Bug
2016-12-02, 10:14:38
Seh ich ein - aber selbst innerhalb dieses Szenarios kann man doch eventuelle Verbesserungen aus aktueller Treiberoptimierung mitnehmen. Es gab ja ein Performance-Szenario mit Benchmarkwerten. Aber gut - ansonsten schöner Test.

Dino-Fossil
2016-12-02, 10:59:58
@MechWOLLIer:

Kannst du bestätigen, dass die Red Dragon in eurem Test wirklich mit 1279 MHz lief?
Ich habe mir vor ca 3 Wochen eine geholt und die läuft definitiv auf Referenztakt (1266) - und so wird sie z.B. bei Mindfactory auch beworben.

INDEX75
2016-12-02, 11:39:26
Roundup der RX480 bei CB (https://www.computerbase.de/2016-12/radeon-rx-480-partnerkarten-vergleich-test/). Nur leider ohne MSI...
Was die Red Devil in diesem Test betrifft kann ich nur beipflichten. Schnurrt wie ein Kätzchen und macht keinerlei Anstalten. Der Takt wird brav gehalten. Ohne Zusätzliche Spannungserhöhung ist beim GPU-Takt allerdings kaum mehr drin. Bei Speichertakt allerdings schon, welcher bei mir mit +200MHz betrieben wird.

Achim_Anders
2016-12-02, 20:47:35
Meine erste Red Devil war leise und alles gut. Leider war der Biosswitch nicht vorhanden: RMA zweite Red Devil hatte Kratzer und war schon bei 1279 laut bei 1800rpm bei geöffnetem Gehäuse und einem Xeon 1230@Stock. Die nun dritte Red devil ist noch lauter -.- Ich überlege sie nun deswegen zurückzugeben. Aber eigentlich will ich nicht schon wieder eine Graka umtauschen/widerrufen. Silent bekomme ich meinen PC aber auch nicht.
Wahnsinn, was ein Chip, der viel Spannung braucht, ausmacht. Selbst bei 1266 bekomme ich die Red Devil btw. nicht unter 1500rpm.

Alles nach 10 Minuten in Witcher 3 ausgelesen (incl. Undervolting)

aufkrawall
2016-12-02, 21:09:26
Kann auch an der Verarbeitung liegen.

Odal
2016-12-02, 21:19:58
Wundert mich aber weil gerade chips mit hoher default spannung sind eigentlich meist kühler (geringere leckströme da höherer Widerstand zw. p-n) als chips mit geringer Spannung. Besonders wenn man noch Undervolting betreibt.

NikLaw
2016-12-03, 08:59:34
Wenn ich das hier so lese, bin ich froh, dass ich gleich das Referenzdesign genommen hab und den Mono Plus draufgemacht habe. 1310 Mhz bei 1000 :/min, 65 Grad.

Grumbart
2016-12-03, 09:05:37
@Achim_Anders meine Red Devil verhält sich leider genau so, in BF1 erreicht die Karte ca. 85 °c bei ~2800 U/min.

Mr.Bug
2016-12-03, 11:10:50
Also man mag MSI ja vorwerfen, das es vereinzelt spärlicher mit Testexemplaren war - aber die Karte ansich gilt nicht umsonst als eine der besten RX 480er, ich bin jedenfalls begeistert und kann sie nur jedem ans Herz legen. 67 Grad bei dauerhaft stabilen 1303 Mhz Chiptakt - und das nahezu unhörbar. Da lohnt es sich wirklich ein paar Euro mehr auszugeben.

Pirx
2016-12-06, 07:36:15
Grande updated review http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73945-gtx-1060-vs-rx-480-updated-review.html

Tarkin
2016-12-06, 10:06:31
Wow, nicht übel. Treiberentwicklung zahlt sich aus!

Bin gespannt auf den nächsten großen Treiber Release :D

Mr.Bug
2016-12-06, 10:38:04
Klasse Link Pirx, danke! AMD liefert seit einiger Zeit treiberseitig wirklich eine tolle Performance an den Tag - Hut ab. :)

Deshalb kann man sich dem Fazit auch nur anschließen:

"So which one of these would I buy? That will likely boil down to whatever is on sale at a given time but I’ll step right into and say the RX 480 8GB. Not only has AMD proven they can match NVIDIA’s much-vaunted driver rollouts, but through a successive pattern of key updates have made their card a parallel contender in DX11 and a runaway hit in DX12. That’s hard to argue against. "

Troyan
2016-12-06, 10:51:01
Toller Hit, der AMD unter DX12 ist: Langsamer in Quantum Break gegenüber DX11 bei nVidia, langsamer in BF1 (ist eigentlich DX12 schon spielbar?!) gegenüber DX11 bei nVidia, gleichschnell bis schlechter in Warhammer (richtiges Spiel und nicht korrupter Benchmark) gegenüber DX11 bei nVidia, langsamer in Tomb Raider und Gears of War.

Von 8 getesteten Spielen ist die RX 480 in 3 schneller. Und ohne Vulkan in Doom (immer noch bis zu 30% langsamer auf nVidia) sind es 2 von 7 Spielen.

Wie heißt es so schön: Glaube keiner Statistik, die du nicht selbst gefälscht hast. ;D

Kartenlehrling
2016-12-06, 10:51:10
Wow, nicht übel. Treiberentwicklung zahlt sich aus!
Bin gespannt auf den nächsten großen Treiber Release :D


Das wird leider nicht honoriert, keinem interessiert nach 8-12 Monaten ein Nachtest.
Der erste Auftritt ist wichtig und im Internet wird der erste GPU Vergleich herangezogen und bleibt in den Köpfen der Leser,
und da versagt AMD/Redeon immer wieder.


HEHE, immer noch nicht die neue Software,
aber ein neuer Treiber mit ca.5% mehr Leistung, die ersten Leak Sceenshots sind raus.

http://cdn.wccftech.com/wp-content/uploads/2016/12/Radeon-Software-Crimson-ReLive-NDA-Only-Confidential-v4-page-040-copy-840x473.jpg

MechWOLLIer
2016-12-06, 10:55:19
Die Performanceunterschiede kommen in dem Test aber kaum durch die Treiberentwicklung zu Stande. Sondern primär durch die anderen Spiele. Die Treiber machen nur ein wenig aus (wenig bedeutet aber nicht gar nichts). Und ja, das weiß ich, da ich hier super aktuelle Messungen habe.

Cyphermaster
2016-12-06, 11:14:25
Toller Hit, der AMD unter DX12 ist: Langsamer in Quantum Break gegenüber DX11 bei nVidia, langsamer in BF1 (ist eigentlich DX12 schon spielbar?!) gegenüber DX11 bei nVidia, gleichschnell bis schlechter in Warhammer (richtiges Spiel und nicht korrupter Benchmark) gegenüber DX11 bei nVidia, langsamer in Tomb Raider und Gears of War.

Von 8 getesteten Spielen ist die RX 480 in 3 schneller. Und ohne Vulkan in Doom (immer noch bis zu 30% langsamer auf nVidia) sind es 2 von 7 Spielen.

Wie heißt es so schön: Glaube keiner Statistik, die du nicht selbst gefälscht hast. ;DDer letzte Satz ist natürlich immer gut. Fakt ist trotzdem: In dem Link gibt es gar keine direkten Benches mit DX11 vs. DX12, auf die du dich überhaupt beziehen könntest (Es wird wegen der unterschiedlichen Meßmethodik für die Bestimmung sogar explizit drauf hingewiesen: "One thing to note is that our DX12 PresentMon results cannot and should not be directly compared to the FCAT-based DX11 results. They should be taken as a separate entity and discussed as such."). Das heißt, große Fresse, aber nicht einmal eine Quellenangabe zum Geschreibsel in Sicht. Von qualitativ besserer Statistik dahinter gar nicht erst zu reden.

Cyphermaster
2016-12-06, 11:17:06
Die Treiber machen nur ein wenig aus (wenig bedeutet aber nicht gar nichts).Sehe ich ganz genau so. Treiber sind das Sahnehäubchen, nicht der Kuchen.

Troyan
2016-12-06, 11:21:29
Dann sind die DX12 Benchmarks wertlos und jegliche Aussagen bzgl. DX12 hätten untersagt werden müssen:
"[...]a runaway hit in DX12. That’s hard to argue against."

Cyphermaster
2016-12-06, 11:41:11
Dann sind die DX12 Benchmarks wertlos und jegliche Aussagen bzgl. DX12 hätten untersagt werden müssen:
"[...]a runaway hit in DX12. That’s hard to argue against."Wieso? DU hast angefangen, Äpfel mit Birnen zu vergleichen bzw. personal Cherry-Picking zu betreiben, nicht der Artikelschreiber.

Die Vergleiche sind immer 1060 vs. 480 unter identischem Benchmark-Programm und identischem DX-Level; ich sehe keinen Grund, warum man deshalb keinerlei Aussagen bezüglich DX12 alleine tätigen dürfte, nur weil (wegen technischer Nicht-Vergleichbarkeit und damit auch korrekt!) keine Quervergleiche zu DX11 gezogen und bewertet wurden.

(del)
2016-12-06, 11:54:46
Übermorgen, Kinder, wird's was geben... *trallallallala" :D

Effe
2016-12-06, 12:00:05
Übermorgen, Kinder, wird's was geben... *trallallallala" :D
HYPE!!! :eek::freak:

(del)
2016-12-06, 12:15:04
HYPE!!! :eek::freak:
Nö, fieser Teaser. Ich bin quasi ein Teasauros Klecks. :P

Und ich habe mir privat eine RX480 von MSI weggefischt. Die ist echt hammerleise, lutscht aber locker mal 190 Watt weg. :D
Es ist mit Abstand die beste RX 480, die ich bisher im System hatte, aber auch die Hungrigste. Mit etwas Mut knackt man locker die 200er-Marke.

Mr.Bug
2016-12-06, 12:22:00
Ooooooh....Kling Glöckchen Klingelingeliiiiiing... :D Na, ob der Weihnachtsmann da vielleicht schon einen schönen, neuen Treiber im Rucksack für uns hat? *Händereib* Hoffe alle waren artig!

@Format_C:

Läuft sie bei dir im OC-Mode? Bin ja auch sehr begeistert, hier allerdings noch im normalen Gaming-Mode mit 1303 / 2000.

Effe
2016-12-06, 12:32:27
190W, pfffft. Ich hab ne MSI 390X, die braucht auch mal locker das Doppelte. Und klingt dann wie eine Flugzeugdüse. :biggrin:

dargo
2016-12-06, 12:43:05
Und ich habe mir privat eine RX480 von MSI weggefischt. Die ist echt hammerleise, lutscht aber locker mal 190 Watt weg. :D
Es ist mit Abstand die beste RX 480, die ich bisher im System hatte, aber auch die Hungrigste. Mit etwas Mut knackt man locker die 200er-Marke.
Nur wenn man sie lässt. ;)

Du hast den Wattman mit dem du dir deine individuelle Polaris basteln kannst, und zwar in beide Richtungen.

Der_Korken
2016-12-06, 12:51:56
Die PCGH hatte in einem Test im Oktober (?) um die 220W für die MSI 480 gemessen. Die anderen lagen auch alle so um 180-200W. Die MSI scheint ein so hohes Powertarget zu haben, dass der Boost-Takt immer gehalten wird, egal wieviel Strom er kostet.

@Format_C: Hast du die MSI im Furmark getestet oder sind die 190W der Spieleverbrauch?

Noebbie
2016-12-06, 12:57:36
Nö, fieser Teaser. Ich bin quasi ein Teasauros Klecks. :P

Und ich habe mir privat eine RX480 von MSI weggefischt. Die ist echt hammerleise, lutscht aber locker mal 190 Watt weg. :D
Es ist mit Abstand die beste RX 480, die ich bisher im System hatte, aber auch die Hungrigste. Mit etwas Mut knackt man locker die 200er-Marke.

So eine?

http://geizhals.de/msi-radeon-rx-480-gaming-x-8g-v341-003r-a1473074.html

Korfox
2016-12-06, 13:31:29
Übermorgen, Kinder, wird's was geben... *trallallallala" :D
:sneak:

(del)
2016-12-06, 14:28:18
So eine?
Ja. Genau die. Im Spiel bis ca. 190 Watt, mit Furmark geht es locker bis 217 Watt.
Geht zu Weinachten in den PC meiner Frau, aber man muss ja vorher testen, ob sie auch läuft :D
Also, die Karte meine ich....

pilzsammler2002
2016-12-06, 14:39:51
Was für eine karte kommt dann anschliessend bei dir rein? :biggrin:

Noebbie
2016-12-06, 14:43:50
Ja. Genau die. Im Spiel bis ca. 190 Watt, mit Furmark geht es locker bis 217 Watt.
Geht zu Weinachten in den PC meiner Frau, aber man muss ja vorher testen, ob sie auch läuft :D
Also, die Karte meine ich....

Hm. Ich hätte die ja gekauft aber ich glaube diese Woche ist doch noch Bescherung? ;D

Troyan
2016-12-06, 14:47:06
Wieso? DU hast angefangen, Äpfel mit Birnen zu vergleichen bzw. personal Cherry-Picking zu betreiben, nicht der Artikelschreiber.

Die Vergleiche sind immer 1060 vs. 480 unter identischem Benchmark-Programm und identischem DX-Level; ich sehe keinen Grund, warum man deshalb keinerlei Aussagen bezüglich DX12 alleine tätigen dürfte, nur weil (wegen technischer Nicht-Vergleichbarkeit und damit auch korrekt!) keine Quervergleiche zu DX11 gezogen und bewertet wurden.

Die Seite impliziert, dass die RX 480 unter DX12 ein "running hit" wäre, verheimlicht im Fazit jedoch, dass die GTX1060 mit DX11 in vielen Spielen schneller ist als AMD mit DX12.

Hier sind aktuelle Benchmarks aus Quantum Break: http://www.benchmark.pl/testy_i_recenzje/quantum-break-directx-12-vs-directx-11/strona/27094.html

Wieso sollte man die RX 480 gegenüber der GTX1060 empfehlen, wenn die GTX1060 mit DX11 gegenüber der 480 mit DX12 22% bzw. 30% schneller ist?

Die Seite hat keinen API-Vergleich gemacht. Sie hat Grafikkarten miteinander verglichen und das Fazit gezogen, dass die RX 480 ein besserer Kauf wäre, weil sie unter DX12 ein "running hit" wäre - was objektiv einfach falsch ist.

Gleiche Bedingungen müssen keine fairen Bedingungen sein. Niemand spielt freiwillig mit der schlechteren API-Implementierung oder würde sich seine Hardware nach solchen Maßstäben kaufen.

Gipsel
2016-12-06, 14:51:09
Die Seite impliziert, dass die RX 480 unter DX12 ein "running hit" wäre, verheimlicht im Fazit jedoch, dass die GTX1060 mit DX11 in vielen Spielen schneller ist als AMD mit DX12.Dann verheimlicht die Seite wohl auch, daß die GTX1060 unter DX12 "brutal" einbricht, oder? :rolleyes:
Fakt bleibt: Unter DX11 sind die Karten in dem Test praktisch gleich schnell, in DX12 hat die RX480 einen Vorteil.
Laß uns doch in Ruhe mit irgendwelchem Fanboykram!

Rancor
2016-12-06, 15:01:52
Ich als Nvidia-Besitzer würde auch jederzeit in dem Preissegment ne RX 480 kaufen anstatt ne 1060er.
Ich empfehle auch immer, ( außer Blzzard-Only Gamern , ja die gibts tatsächlich ) eine RX 480, wenn das Budget nicht mehr zulässt.

Schaffe89
2016-12-06, 16:16:39
Mich wundert schon dass es immer noch kein Tester mal geschafft hat dem Directx11 Overhead des AMD Treibers mal auf den Pelz zu rücken und das mal offen anzuprangern.
Vor Weihnachten soll auch der Rechner meiner besseren Hälfte aufgerüstet werden und es kommt nur die RX480 oder GTX 1060 in Frage.

Könnte man doch irgendwann mal testen, einfach mal mit einen alten FX oder aktuellen i3 6100 mal die AMD und Nivdia Grafikkarte bei low Res ins CPU Limit laufen lassen.

Dazu vielleicht auch mal early access Titel mit reinnehmen und nicht nur die fertigen Spiele von der Stange. Ich denke aber das würde bei AMD Befürwortern dann nen Shitstorm auslösen, aber vll ändert AMD dann was, dann würd ich auch gern wieder AMD kaufen, vorher ist das aber aus Spielgefühlgründen nicht möglich.

Messias
2016-12-06, 16:26:11
Sagt mal, ich habe jetzt schon eine Weile nicht mehr so intensiv mitgelesen.
Aber hat sich denn in der Zwischenzeit mal jemand mehr und intensiver damit beschäftigt, daß zwar die 470/480 als Einzelkomponenten deutlich mehr Strom ziehen, als die 1060... aber daß sich der Unterschied im Blick auf das Gesamtsystem fast komplett gegen null bewegt?

Ich nehme immer nur wahr, daß an der 470/480 rumgekrittelt wird, weil sie mehr verbrauchen, aber so, wie es scheint, stimmt das eben nicht so ganz, da ja entscheidend ist, was das Gesamtsystem zieht, nicht was die Grafikkarte alleine zieht.

Gibt es da eine genauere Untersuchung?

dildo4u
2016-12-06, 16:28:12
Natürlich zieht das Komplettsystem mehr mit einer 480.


http://www.pcgh-pc.de/

(del)
2016-12-06, 16:40:53
Was für eine karte kommt dann anschliessend bei dir rein? :biggrin:Ich bin bestens ausgestattet, aber die 960er meiner Frau muss einfach mal weg. Und warum nicht auch mal AMD?

Bei mir im Lian Li DK-04 sind bereits zwei GTX 1080 unter Wasser. Das reicht erst mal bis zur Ti. Office (siehe Avatar) und Labor zählen ja nicht ;)

HOT
2016-12-06, 16:43:51
Natürlich zieht das Komplettsystem mehr mit einer 480.


http://www.pcgh-pc.de/
Da sieht man gut, warum sich die 480 nicht verkaufen. Das hat eigentlich nix mit der 480 zu tun.

pilzsammler2002
2016-12-06, 16:47:04
Ich bin bestens ausgestattet, aber die 960er meiner Frau muss einfach mal weg. Und warum nicht auch mal AMD?

Bei mir im Lian Li DK-04 sind bereits zwei GTX 1080 unter Wasser. Das reicht erst mal bis zur Ti. Office (siehe Avatar) und Labor zählen ja nicht ;)

Das sollte reichen :biggrin:

Lies sich die MSI 480 gut undervolten? :freak:

(del)
2016-12-06, 17:10:48
Das sollte reichen :biggrin:
Lies sich die MSI 480 gut undervolten? :freak:Scheiß auf den Strom, sonst denken die Leute noch, ich bin pleite :D

Aber mal im Ernst:
Meine Frau braucht ein stabiles System, das auch dann läuft, wenn ich mal nicht da bin. Solche Frickeleien mögen für Freaks genau das Richtige sein,
aber ich möchte es mir nicht antun, wenn dann doch mal was abkackt, während irgendwas gerade speichert und dann als Savegame verlustig geht.

Das dann wieder gutzumachen wird garantiert deutlich teurer ;)

BTW:
Es gibt mal wieder Leute mit unterdimensioniertem Ego, die sich mit Leaks gleich richtig erwachsen fühlen:
http://wccftech.com/amd-radeon-software-crimson-relive-driver-leak/
Nur dass sie keinen Test zustande gebracht haben, dafür fehlten wohl Hirn oder Treiber oder beides.

Unicous
2016-12-06, 17:48:15
Warum regst du dich über die Leute auf... verlinkst sie am Ende aber doch?:rolleyes:

Warum nicht konsequent diese Schmarotzer boykottieren?

MechWOLLIer
2016-12-06, 17:50:43
Immerhin hats verhältnismäßig lange gedauert, bis wer das NDA gebrochen hat - man muss es mal so sehen :)

(del)
2016-12-06, 18:00:16
Warum regst du dich über die Leute auf... verlinkst sie am Ende aber doch?:rolleyes:
Warum nicht konsequent diese Schmarotzer boykottieren?
Weil es eh zu spät ist. Am Ende verlinkt es wer anders :)

Aber was soll's, ist ja kein Test. Nur PR-Blahblah, Folien bringen keinen um :)

BTW:
Schon Koffer gepackt? :P

pilzsammler2002
2016-12-06, 19:44:34
Scheiß auf den Strom, sonst denken die Leute noch, ich bin pleite :D

BTW:
Es gibt mal wieder Leute mit unterdimensioniertem Ego, die sich mit Leaks gleich richtig erwachsen fühlen:
http://wccftech.com/amd-radeon-software-crimson-relive-driver-leak/
Nur dass sie keinen Test zustande gebracht haben, dafür fehlten wohl Hirn oder Treiber oder beides.

Soviel Strom ist es bei Gelegenheitszockern eh nicht (deshalb hat meine Holde die "alte" 390 Nitro bekommen) :freak:

Bin derbe gespannt wie der Treiber in den ganzen benchmarks und Tests abschneiden wird :biggrin:

Schnoesel
2016-12-06, 19:57:21
Chrimson relive scheint einige nette Features zu haben was ich kurz aufschnappen konnte. Bin auf Tests gespannt.

PS: Ah Wattman für Fury Juhu!!!

(del)
2016-12-06, 20:05:22
.... und Chill :P

Wenn man WTFtech Glauben schenken kann. ;)

Schnoesel
2016-12-06, 20:12:21
@ Format C

Ich hoffe du wirst den Treiber bzw. die Features nach allen Regeln der Kunst sezieren ...

(del)
2016-12-06, 20:15:21
Ich weiß noch nichts, ich kenne ja noch nicht mal meine eigenen Ergebnisse.
Auf Befehl vergesslich nennt man das ;)

pilzsammler2002
2016-12-07, 09:23:45
Morgen ist es soweit... Ab 15 Uhr werden wieder die üblichen Seiten durchforstet...

Komisch finde ich nur, wenn sie schon das "Chill" mit reinnehmen warum sie dann noch kein "Boost" mit drin haben?
Basierend auf der Software/Idee von Hialgo... :uponder:

fondness
2016-12-09, 10:23:40
Updated Review RX480 vs. GTX1060 mit aktuellen Treibern (leider noch ohne Crimson ReLive) und Spielen. Siehe da, plötzlich ist die RX480 vorne:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73945-gtx-1060-vs-rx-480-updated-review.html

So which one of these would I buy? That will likely boil down to whatever is on sale at a given time but I’ll step right into and say the RX 480 8GB. Not only has AMD proven they can match NVIDIA’s much-vaunted driver rollouts but through a successive pattern of key updates have made their card a parallel contender in DX11 and a runaway hit in DX12. That’s hard to argue against.

Mit der Radeon Crimson ReLive Edition sieht es vermutlich sogar noch besser aus.

Iruwen
2016-12-09, 10:54:06
Mit anderen Spielen.

fondness
2016-12-09, 10:57:00
Mit aktuellen Spielen, wie ich auch oben geschrieben habe. ;)

Iruwen
2016-12-09, 11:17:04
Ich wollts nochmal hervorheben.

Mr.Bug
2016-12-09, 11:18:05
Also was mir subjektiv (ohne Excel-Statistik und kilometerlange Messdiagramme) aufgefallen ist mit meiner MSI RX 480 & dem neuen Crimson ReLive: Spiele laufen noch "smoother" & mit mehr FPS in rechenintensiven Szenen. Als Beispiel sei hier z.b. mal BF1, Assi Creed Unity, Witcher 3 & GTA V genannt. Mehr konnte ich abends noch nicht testen. Es scheint also, als hätte die Jungs auch den Overhead etwas reduziert.

Aber das muss nicht allgemeingültig sein...als Gamer hat man für sowas ja magische Intuition. :D

Lurtz
2016-12-09, 16:06:10
Finde es enttäuschend, dass es noch keine vernünftigen Tests zum Overhead gibt, nur Hörensagen. Kann nicht mal jemand RotTR DX11 anschmeißen?

Cyphermaster
2016-12-09, 16:09:30
Gib dem Ganzen doch mal ein paar Tage Zeit, gut Testen will Weile haben (u.a. auch Vergleich Overhead-Veränderung bei GCN4 vs. andere GCN-Level). Das Ding ist ganz frisch raus, und wahrscheinlich sitzen ein paar Testseiten im stillen Kämmerlein schon wieder an den Vorbereitungen für das, was zwecks NDA erst am 13. offiziell vorgestellt wird.

Mr.Bug
2016-12-09, 17:08:03
Ich lag wohl doch nicht so weit entfernt von meinem positiven "Gefühl", jawoll ja....Update bei PC Games Hardware:

"Update vom 09.12.2016: Ein Mitglied bei Reddit hat den Overhead-Test des aktuellen 3DMark mit der Radeon Software Crimson ReLive 16.12.1 getestet und stellt ein großes Plus bei den DX11-Drawcalls fest. Wir haben daher den Overhead Feature Test auf unserem Grafikkarten-Testsystem ebenfalls durchlaufen lassen und können die Steigerung der RSC ReLive 16.12.1 gegenüber der RS Crimson 16.11.5 bestätigen. Auf unserem PC mit Core i7-6800K @ 4,4 GHz (Broadwell-E) nebst Radeon RX 480/4G (1.266 MHz fixiert) steigt die DX11-Single-Thread-Leistung von 1.494.362 auf 1.757.680 Drawcalls. Das entspricht einem Plus von rund 18 Prozent. Interessant ist weiterhin, dass beide Treiber eine höhere Single- als Multi-Thread-Leistung erreichen."

:up:

Rampage 2
2016-12-10, 18:16:54
Die Seite impliziert, dass die RX 480 unter DX12 ein "running hit" wäre, verheimlicht im Fazit jedoch, dass die GTX1060 mit DX11 in vielen Spielen schneller ist als AMD mit DX12.

Wieso sollte man die RX 480 gegenüber der GTX1060 empfehlen, wenn die GTX1060 mit DX11 gegenüber der 480 mit DX12 22% bzw. 30% schneller ist?


WTF? Dass die 1060 in DX11 schneller ist, mag ja bei früheren Reviews der Fall gewesen sein, aber beim aktuellsten Review sind beide Karten unter DX11 auf gleicher Augenhöhe - zumindest in der Mehrzahl der getesteten Spiele; in manchen DX11-Benches ist die RX480 sogar schneller. Ich war von diesem Review (Hardware Canucks) so positiv überrascht, dass ich es hier verlinken wollte - nur um festzustellen, dass es bereits verlinkt wurde...

Die allgemeine Performance und die DX11-Performance der RX480 scheint sich deutlich verbessert zu haben - da dies erst jetzt der Fall ist, muss es an den Treiberoptimierungen liegen...

Zwei Dinge sind aber Fakt:

- AMD muss unbedingt die DX11-Leistung weiter verbessern. Jenseits von W10 gibt es nichts Anderes (außer Vulcan), DX12 steckt noch in den Kinderschuhen und die meisten älteren und auch aktuellen Spiele sind DX11-only!

- Es kann für AMD nicht mehr akzeptabel sein, das volle Potential erst nachträglich - also Monate nach dem Launch - rauszukitzeln! Hätte die RX480 sein jetziges Potential schon während des Launchs gezeigt, wären wohl viele heutige 1060-Besitzer zu AMD übergelaufen...

R2

captain_drink
2016-12-10, 20:48:39
Die angesprochenen Optimierungen sind allerdings nicht generisch, sondern eben nur für ausgewählte, bereits erschienene Titel.
Für ex-post-Betrachtungen ist das sicherlich nett, für die Mehrheit der potenziellen AMD-Kunden zählt aber die Leistung bei Release, und dort steht beim nächsten Mal die Uhr wieder auf Null.

Achill
2016-12-10, 20:52:33
Die angesprochenen Optimierungen sind allerdings nicht generisch, sondern eben nur für ausgewählte, bereits erschienene Titel.
Für ex-post-Betrachtungen ist das sicherlich nett, für die Mehrheit der potenziellen AMD-Kunden zählt aber die Leistung bei Release, und dort steht beim nächsten Mal die Uhr wieder auf Null.

Das stimmt so nicht, die Optimierungen beim Single- und Multi-Thread-Drawcall bringen in allen Spielen etwas.

captain_drink
2016-12-10, 20:59:56
Das stimmt so nicht, die Optimierungen beim Single- und Multi-Thread-Drawcall bringen in allen Spielen etwas.

Messbar offenbar nicht, wenn man den ersten Benches bei PCGH Glauben schenken darf.

dildo4u
2016-12-10, 21:06:53
Nicht jedes Game ist dort limitiert.Davon ab ist die oft 480 zu langsam um solche Vorteile aufzuzeigen,das dürfte mit Vega interessanter werden.

Screemer
2016-12-10, 21:18:56
Das bringt vor allem auf Kisten mit kleinen CPUs was oder wenn die games/ Szenen drawcalllimitiert ist. Das ist aber eher nicht die regel. Sollte doch mittlerweile bekannt sein.

Achill
2016-12-10, 21:51:47
Messbar offenbar nicht, wenn man den ersten Benches bei PCGH Glauben schenken darf.

Nicht jedes Game ist dort limitiert.Davon ab ist die oft 480 zu langsam um solche Vorteile aufzuzeigen,das dürfte mit Vega interessanter werden.

Das bringt vor allem auf Kisten mit kleinen CPUs was oder wenn die games/ Szenen drawcalllimitiert ist. Das ist aber eher nicht die regel. Sollte doch mittlerweile bekannt sein.

Also bei meinen bis jetzt gemachten Test mit den neuen Crimson 16.12.1 bisher Verbesserungen, auch immer bei den min. FPS und dort teilweise beachtlich wie in RotTR - hab zwar eine 390X, ich denke ähnliches gibt es auch bei Fury und 470/480.

RotTR: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11233537#post11233537
CivVI: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11233082#post11233082

captain_drink
2016-12-11, 00:23:36
DX12, es ging aber um DX11.

N0Thing
2016-12-11, 13:05:23
Mit dem neuen ReLive-Treiber scheint entweder der Lüfter auf meiner RX480 im idle/surfen unruhiger geworden zu sein, oder die Karte produziert nun eher Spulenfiepen. Muss ich mal im Auge behalten und herausfinden, ob es reproduzierbar ist.

So schaut's leider aus.

Hat man was rechtzeitig, ist es natürlich wie immer zu dünn. Lässt man sich hingegen Zeit, unterstellen einem die Fanboys nach 5 Minuten ohne Präsenz bereits Ignoranz.
Pickt man sich hingegen ein bestimmtes Thema raus, um wenigstens einen der Punkte näher zu betrachten und bringt den Rest als News, ist man luschig und oberflächlich.
Die meisten hätten gern eine Tiefenanalyse, erstellt in 10 Minuten, dafür auf 40 Seiten. Natürlich für lau und ohne Werbung.... Geht's noch?

Es ging in diesem Fall um inhaltliche Fehler (!), nicht um zu geringen Inhalt, auf mehrere Beiträge verteile Informationen, oder zu früh oder zu spät gebrachte News.
Und dabei hilft es niemandem, wenn dafür die Schuld dem Leser gegeben wird, was einfach nur unsagbar absurd ist und man sich nach solchen Äußerungen definitiv nicht wundern braucht, wenn die Leser weniger werden und sich mit dem Feedback von Lainen und Leakern zufrieden geben.

Mr.Bug
2016-12-11, 13:46:52
Journalismus-Debatte gerne separat fortführen, sehr interessant!

@Relive Treiber und RX 480:

Bei mir haben sich dank des neuen Treibers in allen getesteten DirectX-11 Titeln die Min-FPS um 5 bis teils sogar 10 erhöht! Mit identischen Einstellungen in 1920x1080 mit 'nem i5 2500K - also Unterbau noch etwas antik. ;)

Getestete Titel waren Assetto Corsa, Shadow of Mordor, Witcher 3, GTA V, BF 1, SW:Battlefront, Mad Max, Ass C. Unity etc.

Man hat also definitiv am Overhead optimiert.

anddill
2016-12-11, 15:33:58
Journalismus-Debatte gerne separat fortführen, sehr interessant!



Bitte hier weiter diskutieren:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11232851#post11232851

fulgore1101
2016-12-12, 22:17:57
Gibts Vergleiche zu aktuellen Spielen, in denen der Vram Verbrauch bei unterschiedlichen Qualitätseinstellungen und Auflösungen gemessen wird?

Mr.Bug
2016-12-12, 22:27:45
Gibts Vergleiche zu aktuellen Spielen, in denen der Vram Verbrauch bei unterschiedlichen Qualitätseinstellungen und Auflösungen gemessen wird?

Es gab auf Computerbase einen schönen Vergleich diesbezüglich im September mit vier aktuellen Spielen:

https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/

Inbegriffen sind da allerdins nicht unterschiedliche Auflösungen. Fazit ist aber: Zu viel Speicher gibt es nicht, insofern kann man 8 GB langfristig nur empfehlen.

Schaffe89
2016-12-19, 11:39:36
Grade mal wieder beim Rechnerzusammenstellen bei MF unterwegs gewesen und die Verkäufe GTX 1060 vs RX480/470 gezählt und dabei festgestellt dass AMD ordentlich aufholt.
17700 AMD´s vs 26000 Nvidia`s excl. der Referenzdesigns von AMD die auch noch ungefähr bei 6000 bis 7000 Stück liegen dürften.

Scheint so als ob AMD´s RX480 doch erfolgreicher ist als zuerst angenommen, noch vor Wochen war das Verhältnis deutlich schlechter.

Da schlägt wohl das Directx12 Argument und der Speicher zur Buche. Mittlerweile bereue ich es etwas zur GTX 1060 gegriffen zu haben.:uhammer:

marc-05
2016-12-19, 15:30:18
TPU zeigt bei dem Test das es noch weitere optimierungen beim Treiber gibt.
z.b den Sprung bei AC Syndicate in 2560er Auflösung

http://fs5.directupload.net/images/161219/nir4euog.jpg (http://www.directupload.net)

https://www.techpowerup.com/reviews/AMD/Radeon_Crimson_ReLive_Drivers/6.html

The_Invisible
2016-12-19, 15:57:57
Die Balkenrelation ist ja mal wieder sehr gut gewählt :D

dargo
2016-12-21, 10:12:10
TPU zeigt bei dem Test das es noch weitere optimierungen beim Treiber gibt.
z.b den Sprung bei AC Syndicate in 2560er Auflösung

http://fs5.directupload.net/images/161219/nir4euog.jpg (http://www.directupload.net)

https://www.techpowerup.com/reviews/AMD/Radeon_Crimson_ReLive_Drivers/6.html
Würde ich schon fast einen Messfehler vermuten. In 1080p fällt das unter Messschwankung (eventuell auch CPU-Limit), in 4k gibts genau Null Unterschied zum 16.10.1. Warum sollte gerade 1440p 6% zulegen?

2Ms
2017-01-01, 13:54:35
Kann keine Blu_Rays mehr abspielen über PowerDVD 12 am PC. PowerDVD erkennt die Grafikkarte nicht und stoppt das Abspielen.
Ob es an PDVD oder am Treiber oder der Graka liegt, kann ich nicht sagen. Aber PowerDVD zu deinstallieren, hat mich 3 Stunden meines Lebens gekostet.

Übrigens bietet Cyberlink die neuste Version bis zum 2.1.2017 in der Ultra-Edition für 50 Euros statt über 200 Euros an. http://de.cyberlink.com/store/powerdvd-ultra/buy_de_DE.html?affid=2581_1229_748_0_0_DEU
(Hat nicht wirklich was in diesem Thread zu suchen, aber bin mir sicher, ich bin nicht der einzige RX-Besitzer, der Probleme mit Blu-Rays hat.) Damit wird bestimmt auch die RX unterstützt.

eratte
2017-01-02, 11:41:54
Gerade ausprobiert, beide Rechner mit Power DVD12:

Rechner 1 mit Sapphire RX480 Nirto+
Rechner 2 mit Powercolor RX480 Ref.

Crimson Relive 16.12.2

Spielen beide ohne murren Fluch der Karibik 4 BD ab?

Hast du da nur eine bestimmte BD ausprobiert?

2Ms
2017-01-02, 18:40:41
Ich hatte hier eine OEM-Version von PDVD, die lag einem Blu-Ray-Brenner bei. Die Ultra-Edition hatte Versionsnummer 10, ließ sich aber per Update auch auf 12 pushen.

Ich schaue mir gerade die Support-Seite zu PowerDVD an. Denke, da ich eine Bundle-Version habe, gelten andere Kompatibilitäten als bei den Verkaufsversionen, denn die Updates sind unterschiedlich.

Und ich war außerdem im Irrtum zu glauben, die neuen AAC-Keys würden bis in alle Ewigkeiten für jedes PowerDVD aktualisiert. Der Support für PDVD 10 wurde aber eingestellt. Möglich, dass trotz des Updates auf 12 doch nur 10 drinsteckt, und somit nur alte Blu-Rays erkannt werden, wie auch alte Grafikkarten.

Werde mit der RX480 Umwege gehen müssen, ein neues PowerDVD werde ich jedenfalls nicht mehr kaufen. Die Software nervt mich seit Version 2.5.

Achso, es ging um eine Demo-Blu-Ray zu Dolby-Atmos, und der 3D-Version von "Avatar".

DrFreaK666
2017-01-03, 03:15:33
Ich verstehe sowieso nicht wieso man nicht einfach einen Br-Player nutzt.
Hatte mal vor Ewigkeiten (da war die Radeon 3850 aktuell) einen HTPC und hab mir ausgemalt dass alles super einfach wird. Hatte aber immer wieder Probleme.
Am Ende habe ich ihn nur noch für meine HD-DVDs benutzt und mir einen Panasonic DMP-BDT 220 BR-Player geholt, der noch heute seinen Dienst verrichtet. Der HTPC ist Geschichte
Sorry für OT

eratte
2017-01-04, 10:45:29
Rechner 2 ist überings ein PowerDVD 12 das von 9 über 10 auf 12 kostenlos upgedatet wurde.
AAC-Keys möchte Power DVD regelmässig updaten wenn die Version nich unterstützt wird.

Ich verstehe sowieso nicht wieso man nicht einfach einen Br-Player nutzt.

Ich schon, erstens brauchen die auch Updates und zweitens bin ich sehr zufrieden im Wohnzimmer nur TV, PC und Verstärker plus Lautsprecher stehen zu haben.

DVD/BR, Musik, Filme, Bilder, TV Aufnehmen, surfen, gelegentliches Spielen......

Hängt also von den eigenen Ansprüchen ab ob das sinnig ist oder nicht.

DrFreaK666
2017-01-04, 13:58:49
..Ich schon, erstens brauchen die auch Updates und zweitens bin ich sehr zufrieden im Wohnzimmer nur TV, PC und Verstärker plus Lautsprecher stehen zu haben.

DVD/BR, Musik, Filme, Bilder, TV Aufnehmen, surfen, gelegentliches Spielen......

Hängt also von den eigenen Ansprüchen ab ob das sinnig ist oder nicht.

Deswegen schrieb ich dass ich es nicht verstehe ;)
Das war damals auch meine Idee, aber PowerDVD lief nicht wirklich zuverlässig. Vielleicht funktioniert es ja nun besser.
Aber genug OT :)

dildo4u
2017-01-11, 11:28:35
AMD vs. Nvidia: All Current Gen GPUs Benchmarked [16 New Games]

https://youtu.be/3Jml0uItdnE

Mr.Bug
2017-01-15, 16:08:29
Im Moment gibts die Asus Radeon RX 480 ROG Strix 8G Gaming für nur 240 € bei Mindfactory:

http://www.mindfactory.de/product_info.php/8GB-Asus-Radeon-RX-480-ROG-Strix-8G-Gaming-Aktiv-PCIe-3-0-x16--Retail-_1124315.html

Radeonator
2017-01-20, 11:07:45
Ich habe jetzt ein paar YT Reviews bzw comparsions 480 vs 1060 geschaut und mir ist folgendes aufgefallen.

Der Ram soll in Referenz bei der 480er 1750MHz ergo DDR = 3500 MHz liegen ,
in den comparsions liegt der Takt bei max 2000MHz ergo nur 1000MHz ???
Die nVidia Karte läuft im gleichen Test bei 2000MHz DDR=4000MHz !

Zudem werden bei der nVidia in den Test in z.B. GTA V die ganzen 4G ausgenutzt, die AMD Karte Adressiert nur die Hälfte!

So ist es nicht verwunderlich, wenn die Karte in beinahe allen Benchmarks unterliegt, da hier nur das Halbe Ram Pontential ausgeschöpft wird?!

Sieht stark nach einem Treiber Problem aus.

als Bsp.: https://www.youtube.com/watch?v=C9QhOOGm_2k

fondness
2017-01-20, 11:17:16
Die meisten RX 480 4GB laufen mit 1750MHz. Alle 8Gb Karten laufen mit 2Ghz oder mehr, natürlich auch die Referenz.

dildo4u
2017-01-20, 11:17:25
GTA5 nutzt nicht nur 2GB auf einer 480.

http://abload.de/img/rx480gta5cwks8.png

https://youtu.be/ht5c5Plcb1g


GTA5 läuft auf AMD nich gut weil der DX11 Treiber zu viel Overhead erzeugt.

Complicated
2017-01-20, 11:29:12
Hier sollte man anfangen Unterschiede zu machen zwischen "nutzen" und "belegen". Dies geht aus solchen Screenshots nicht im geringsten hervor. Es stellt sich doch immer die Frage ob hier VRAM für genutzte Daten frei gemacht werden kann oder ob der ganze belegte VRAM gebraucht wird für das rendering der Szene.

Ich verweise mal auf einen Artikel bei Hardocp wo das genauer beleuchtet wurde:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11269507&postcount=1858
Habe es im Vega-Thread schon mal verlinkt mit Zitaten.

Mr.Bug
2017-01-23, 10:08:51
Gutes Angebot: Eine der besten Custom-Designs, die MSI Radeon RX 480 Gaming X 8G, gibt es aktuell für 253 € inkl. Versand bei Amazon in Frooonkreiiich!

https://www.amazon.fr/MSI-RX480-Gaming-8G-graphique-Express/dp/B01JGQBMB4/ref=sr_1_1/254-0263201-5526609?ie=UTF8&qid=1485162434&sr=8-1&keywords=MSI+Radeon+RX+480+Gaming+X+8G

Radeonator
2017-01-23, 11:30:23
GTA5 nutzt nicht nur 2GB auf einer 480.

Naja, bei den nV Karten ist der Speicher fast immer komplett vollgeschrieben. In den Vergleichsvids sieht man den Unterschied deutlich!


GTA5 läuft auf AMD nich gut weil der DX11 Treiber zu viel Overhead erzeugt.

Ich denke das alte AMD Problem ist und bleibt der Treiber.

Aber ansonten bietet diese Karte derzeit ein mMn unschlagbares Preis/Leistungsverhältnis. Eine XFX Radeon RX 480 XXX OC, 8GB GDDR5 für 234 €uronen ist schon Hammer! :eek:

Lordluti
2017-01-23, 14:06:58
GTA5 läuft auf AMD nich gut weil der DX11 Treiber zu viel Overhead erzeugt.

Naja das von dir verlinkte Video ist aber jetzt auch schon etwas älter. Mittlerweile hat sich ja einiges getan bei AMD was den CPU overhead angeht. Und so viel besser im DX11 Overhead ist Nvidia jetzt sicherlich auch nicht. Nur so zum Beispiel, bei Heroes of the storm habe ich 0 FPS verbesserung gegenüber meiner alten Radeon 7950er gehabt gegenüber meiner jetztigen 1070er, das Spiel ist immer noch komplett CPU limitiert und läuft nicht mal mit der Nvidia bei stabilen 60 Frames (VSync on) ;)

Dino-Fossil
2017-01-23, 14:35:23
Die Sache mit dem Treiber-Overhead hat sich inzwischen ziemlich verselbständigt.
Vermutlich gibt es Szenarien, in denen man davon etwas merkt, aber so häufig sind die jetzt auch nicht.
Es scheint mir eher so, als ob es der aktuellen NV Architektur eben etwas leichter fällt, die Rohleistung auf die Straße zu bringen. GCN benötigt dafür wohl manchmal etwas mehr Zuwendung seitens der Entwickler.

aufkrawall
2017-01-23, 15:16:06
Naja das von dir verlinkte Video ist aber jetzt auch schon etwas älter. Mittlerweile hat sich ja einiges getan bei AMD was den CPU overhead angeht. Und so viel besser im DX11 Overhead ist Nvidia jetzt sicherlich auch nicht. Nur so zum Beispiel, bei Heroes of the storm habe ich 0 FPS verbesserung gegenüber meiner alten Radeon 7950er gehabt gegenüber meiner jetztigen 1070er, das Spiel ist immer noch komplett CPU limitiert und läuft nicht mal mit der Nvidia bei stabilen 60 Frames (VSync on) ;)
Das Spiel hat aber auch überhaupt kein Multithreading. In Just Cause 3 hatte ich teilweise 40% Vorprung mit NV gemessen.

nagus
2017-01-23, 19:19:04
MSI Radeon RX 480 Gaming X 8G für 252,35€ [Amazon.fr] (https://www.mydealz.de/deals/msi-radeon-rx-480-gaming-x-8g-fur-25235eur-amazonfr-945800) geil :)

iuno
2017-01-26, 02:16:49
WTF Make Gaming Great Again: Patriotische Trump-Grafikkarte zu gewinnen
https://www.heise.de/newsticker/meldung/Make-Gaming-Great-Again-Patriotische-Trump-Grafikkarte-zu-gewinnen-3607452.html

:ulol:

(del)
2017-02-03, 15:17:29
Alter Falter....

HIS RX 480 IceQX² Roaring Turbo, 200 Watt beim Gaming, 216 im Stresstest. Das Teil ist irre.
Nette 1338 MHz ab Werk, stabil unter voller Last im Loop nach Aufwärmung im geschlossenen Case.

Wen es interessiert, ich sitze gerade am Roundup mit 8 erhältlichen RX480, mehr waren nicht aufzutreiben.

von Richthofen
2017-02-03, 15:40:01
Wen es interessiert, ich sitze gerade am Roundup mit 8 erhältlichen RX480, mehr waren nicht aufzutreiben.

Gestern waren es noch neun - schnell das Roundup bringen bitte, sonst werden es zu wenig ;).
Immerhin habe ich nun mal endlich neun RX 480 zusammenbekommen, damit ein Roundup nicht zur Lächerlichkeit verkommt. ;)
Aber im Ernst, schön noch einen weiteren breit gefächerten Vergleich zu bekommen. Bin gespannt ob daraus ähnliche *Kopfkratzergebnisse* (teilweise) wie bei der CB entstehen.

Palpatin
2017-02-03, 15:42:57
Nette 1338 MHz ab Werk, stabil unter voller Last im Loop nach Aufwärmung im geschlossenen Case.

Hätte man die nicht mit 1337 MHZ besser vermarkten können ;).

(del)
2017-02-03, 16:11:41
Ja, es waren neun. Waren, denn GB liefert höchstwahrscheinlich doch keine neue Karte nach.
Die rotierte, die ich schon hier hatte, kann ich nicht testen, da sind alle Gewinde ausgeleiert.
Wenn ich Millionär wäre, würde ich jedem mal einen Drehmomentschraubendreher schenken. :D

BTW:
Die MSI RX480 Gaming X 8G hat mich negativ überrascht. Was im Open Benchtable noch so
schön leise war, röhrt im Closed nahezu doppelt so laut los (nicht lautlos). Und dabei ist dort
ordentlich Airflow am Werk. Sie verliert dann sogar gegen die an sich recht laute HIS :(

fondness
2017-02-03, 20:19:45
BTW:
Die MSI RX480 Gaming X 8G hat mich negativ überrascht. Was im Open Benchtable noch so
schön leise war, röhrt im Closed nahezu doppelt so laut los (nicht lautlos). Und dabei ist dort
ordentlich Airflow am Werk. Sie verliert dann sogar gegen die an sich recht laute HIS :(

Das widerspricht allen bisherigen Tests. Sonntagsmodell?

TGKlaus
2017-02-03, 21:03:45
Das widerspricht allen bisherigen Tests. Sonntagsmodell?

Eher typisch Igor.
Sollte doch nun mittlerweile jeder mitbekommen haben, das man das von Ihm Geschriebene kritisch hinterfragen sollte.

dildo4u
2017-02-03, 21:05:48
Die Karte zieht abartig saft das Verpufft nicht so einfach im Gehäuse.

aufkrawall
2017-02-03, 21:34:18
Eher typisch Igor.
Sollte doch nun mittlerweile jeder mitbekommen haben, das man das von Ihm Geschriebene kritisch hinterfragen sollte.
Und wessen Sockenpuppe bist du? Ach, ich weiß es schon...

Raff
2017-02-03, 23:00:58
Die Karte zieht abartig saft das Verpufft nicht so einfach im Gehäuse.

Ein Gehäuse mit stehender Luft ist tödlich. Eines mit Durchzug sollte 200 Watt aber problemlos verkraften. Ich habe es beispielsweise noch nie erlebt, dass eine im Freiluftaufbau leise Karte in meinem Gehäuse zum Brüllaffen verkommt. Ist das doch der Fall, war der Heiztest im Freiluftbetrieb nicht schlimm genug oder es ist wirklich die Belüftung.

MfG,
Raff

StefanV
2017-02-03, 23:19:12
Die MSI RX480 Gaming X 8G hat mich negativ überrascht. Was im Open Benchtable noch so
schön leise war, röhrt im Closed nahezu doppelt so laut los (nicht lautlos). Und dabei ist dort
ordentlich Airflow am Werk. Sie verliert dann sogar gegen die an sich recht laute HIS :(
Na, schlimmer als Gigabyte wirds wohl kaum werden...
Und warum sollte die MSI lauter als die HIS werden?!

(del)
2017-02-04, 00:08:28
Weil sie wie irre versucht, die 72°C zu halten Im Case geht sie dann um satte 500 rpm rauf.
Die Karte ist für Open Benchtable und extrem große Gehäuse optimiert und/oder dass sie senkrecht steht.
Die dickste Heatpipe hat den längsten Weg. Klappt allerdings nur richtig gut, wenn der Lüfter frei atmen kann.

Case Lufttemperatur: 42,6°C HIS vs. 44,1°C MSI
(HIS bekommt hinten aus dem Case auch etwas mehr Luft raus)

Zum Power Limit schreibe ich jetzt mal noch nichts, werfe aber gedankenverloren die R9 390X in den Raum... ;)

An die Nachtzeiten muss ich mich noch gewöhnen :D

@Raff:
Ich bezweifle nur den Sinn einer extrem auf Silent getrimmten Karte, wenn man zum sicheren Betrieb dann
drei Gehäuselüfter braucht, die die Karte mit Sicherheit übertönen :)

Die Lüfterkurve der MSI samt Zieltemperatur ist ab 72°C aufwärts extrem aggressiv eingestellt, HIS ist da großzügiger.
Wenn man die MSI etwas entschärft, kann sie auch bei 80°C noch relativ leise agieren. Nun ja, könnte. :)
Im Testcase arbeitet der rückseitige Lüfter mit 1200 rpm, der Intake mit 900 rpm. Die CPU ist wassergekühlt (extern).
Andere Karten schaffen das ja auch ganz gut, da sind es bei ähnlichen Drehzahlen ca. 2°C mehr.
Das würde die MSI-Karte übrigens auch besservhinbekommen, wenn man die Folie unter der Backplate im GPU-
Bereich ausschneiden und ein geeignetes Pad nutzen würde. Dies bringt dann echt was.

Im Übrigen ist die HIS ja auch nur eine umgelabelte XFX-Karte mit eigenem Tooling für die Lüfterabdeckung.
Lustig ist aber deren Spannungsversorgung für den Speicher und das andere Gedöns. Da reicht jeweils ein Phase.
Die GPU bekommt immerhin sechs und die Spulen auf der HIS scheinen sogar etwas besser zu sein als bei MSI.

aufkrawall
2017-02-04, 00:20:30
Zum Power Limit schreibe ich jetzt mal noch nichts, werfe aber gedankenverloren die R9 390X in den Raum... ;)

Das war ja schon wieder klar. Aber macht nichts, kann man sicherlich gut tunen.

(del)
2017-02-04, 00:29:51
Nun ja, die HIS geht mit voller Wucht auch hoch bis 220 Watt.
Beide Karten haben nette OC-Reserven, wollen aber auch gut gefüttert werden.
Ab Werk taktet die HIS-Karte 35 MHz höher. Manuell geht das ungefähr pari aus.

Viel mehr gibt der 8-Pin dann ja auch (offiziell) nicht her.
(Die Quadro P6000 hat auch nur den 8-Pin, säuft aber einen Tick mehr)

aufkrawall
2017-02-04, 00:35:24
Wie bei Hawaii halt auch brutale Verrenkungen für ein paar popelige %, Undervolting ftw. Hat doch Tradition bei AMD. :D

(del)
2017-02-04, 00:37:33
Ich mag die Radeon Pro WX 7100. So hätte man die RX480 eigentlich konzipieren sollen.
Scheiß auf die letzen FPS, aber sie ist wirklich effizienter und näher am Sweet-Spot.

Troyan
2017-02-04, 09:44:12
/edit: Falsches Zitat erwischt.

Stromverbrauch der HIS liegt komplett im Einklang mit allen bisherigen Tests von Karten mit über 1300Mhz:
http://www.hardware.fr/focus/118/rx-480-sapphire-nitro-vs-gtx-1060-gainward-match-280.html

(del)
2017-02-04, 09:54:14
Das ist exakt, was ich meine. Die WX7100 ist jetzt nun nicht so sensationell viel langsamer, spart aber locker 60 Watt beim Energieversorger.
Dies ist der einzige Punkt, der mir wirklich missfällt, weil man es auch übertreiben kann. Früher gabs bei HIS auch schon mal eine Green-Edition ;)

Raff
2017-02-04, 10:34:55
Die RX-470-Karten von XFX und HIS sind im Gegensatz zu den meisten 480-ern sehr "grün" – aber daher auch ziemlich boostfaul. ;)

MfG,
Raff

(del)
2017-02-04, 10:42:23
Warum nicht? Kann man mit leben. Die paar MHz mehr reißen es nicht raus, bzw. es wird nichts plötzlich spielbar, was es vorher nicht war.
HIS hat ja mehrere 470er, welche meinst Du?

Viel schlimmer ist, dass die HIS RX 480 IceQ X2 Roaring am Mainboard ziemlich stark auf die 90 Watt-Marke zusteuert,
also auch deutlich über 7A liegt (5.5 sind laut PCI SIG eigentlich die Normobergrenze). Die MSI kommt da mit der Hälfte aus,
haut dafür aber am 8-Pin über 20 Watt mehr weg (172,4 W statt der 150 Watt). Beide Karten wären wohl mit 5
Wandlerzügen für die GPU und einer besseren Aufteilung besser gefahren, aber da hat bestimmt die PR nicht mehr mitgespielt. :D

BTW:
Ich habe die MSI mal neu zusammengesetzt, brachte zwar nur ca 150 rpm weniger im Case, aber immerhin. Mess- und hörbar.
Dann habe ich noch die Zieltemperatur auf 80°C hochgesetzt und die Kurve angepasst - nunmehr deutlich leiser als die HIS, aber eben nur mit Nachhilfe :)

Edit:
Laut ist immer relativ... Im Vergleich zur Sapphire Nitro sind die beiden anderen ja glatte Leisetreter.
So einen Orkan mit Zikadenkonzert als Side-Kick hatte ich seit Ewigkeiten nicht mehr :(

TGKlaus
2017-02-06, 19:11:50
Laut ist immer relativ...


Jepp. Im Vergleich zur Titan X (P) ist die Sapphire Nitro 480 leise.
Selbst die RX 480 Referenz, die echt laut war/ist, ist gegenüber der Titan X (P) leiser.

N0Thing
2017-02-06, 19:22:44
Laut und leise sind auch eine Frage des Standorts. Bei mir zu Hause stören (im Sinne von durchgehend bemerkbar) mich meine Lüfter im PC schon im idle, auf der jährlichen LAN mit Freunden merke ich nur an der Power-LED, daß mein Rechner schon angeschaltet ist. :D

(del)
2017-02-06, 19:34:31
Die Referenz ist sogar leiser als Sapphires Nitro und HIS' Roaring (nomen est omen), schluckt dafür aber auch 50-60 Watt weniger,
die dort ja als Abwärme weggekühlt werden müssen. Allerdings ist sie, die Referenz, dabei lauter als eine Quadro P6000, die wiederum
mit der TitanX Pascal leistungsmäßig den Boden aufwischt. Es ist also immer sehr relativ, je nach gewähltem Bezugspunkt und der
Quadro-Kühler mit der Firmware-Kurve ist durchaus brauchbar, auch wenn er nicht beeinflussbar ist.
Da die P6000 nicht über den Takt gepusht wurde, liegt sie im Mittel der Leistungsaunahme beim Gaming sogar unter der Titan X Pascal.

Allerdings glaube ich andererseits auch nur, was ich selbst gehört bzw. gemessen habe. Zumal man Reviews unterschiedlicher Seiten
kaum sinnvoll miteinander vergleichen kann, was die Schallpegel- bzw. Lautheitsmessungen betrifft (Equipment, Methoden).
Ich lasse die Technik halbjährlich kalibrieren, aber selbst dann hat man noch ab und zu messbare Unterschiede.
Was soll dabei rauskommen, wenn überall unter verschiedenen Voraussetzungen gemessen wird und man das untereinander vergleicht?

Der beste Vergleich ist noch immer der mit dem Griff ins Regal, Karte rein ins System, anhören/messen, Karte raus, andere Karte rein. :)
Nur dass den der normale Endanwender mangels Bestand nicht hat, was bedauerlich, aber nicht zu ändern ist.

Meine neue Refrenzkarte (die alte ging plötzlich aus und war danach ungewollt ultrasilent) ist deutlich besser als die Launchkarte.
Man merkt auch den Fortschritt, den der Produktionsprozess gemacht haben dürfte. Deshalb habe ich sie auch noch mal gemessen.

TGKlaus
2017-02-06, 19:57:53
Der beste Vergleich ist noch immer der mit dem Griff ins Regal, Karte rein ins System, anhören/messen, Karte raus, andere Karte rein. :)


Da muss ich dir ganz klar zustimmen!


Eine Quadro P6000 hatte ich leider noch nicht selbst in der Hand.



Man merkt auch den Fortschritt, den der Produktionsprozess gemacht haben dürfte. Deshalb habe ich sie auch noch mal gemessen.

Das wäre hoch interessant. Dafür gibts (meines Wissens nach) noch nicht einen sinnvollen Test.

(del)
2017-02-06, 20:03:04
Serienstreung ist eine Bitch. Aber ich denke mal, dass man heute wirklich deutlich weiter ist und die Ausbeute auch groß genug, um den schlechteren Anteil der Chips auf die kleineren Karten zu verlagern. Am Anfang musste ja wirklich alles herhalten, was nicht gleich bein Hochfahren Pffft gemacht hat :D

HOT
2017-02-06, 20:03:40
Unbedingt die Wärmeleitpaste wechseln. Meine war damals so zugeschmast, dass die trotz offenem Gehäuse plötzlich doch laut wurde. Einmal ordentliches Zeug draufgepappt und die dreht trotz Vollast nicht mehr hoch.

horn 12
2017-02-06, 22:00:51
Gibt es Referenz Design der RX 480 als NEU noch und da denke ich an Neue Karten und damit verbundener Besserer Fertigung!

(del)
2017-02-07, 06:26:14
Die fallen in Dongguan noch vom Fließband und landen sicher auch noch in so manchem SI-PC :)
Sapphire hat die noch als lite retail im Angebot.

Bei den anderen Partnern wie z.B. MSI würde ich hingegen vermuten, dass die gelabelten Karten,
die ja auch von PC Partner stammen, noch aus der zweiten oder dritten Batch kommen und
eher Restbestände sind.

horn 12
2017-02-07, 06:46:15
Du meinst exakt diese Karte:

Sapphire 2126000-20G

https://www.amazon.de/dp/B01H01E4CQ?smid=A3JWKAKR8XB7XF&linkCode=df0&creative=22502&creativeASIN=B01H01E4CQ&childASIN=B01H01E4CQ&tag=geizhalspre03-21

Hier habe ich die Chance eine aus der Neuesten Charge zu erwischen.
Welche Neue RX 480 hast du bitte erwischt, Hersteller und Modell.

(del)
2017-02-07, 08:55:03
Noch einmal:
Man kann mit etwas Glück sicher eine neuere Karte bekommen, aber eine Garantie dafür hat man definitiv nicht.
Schon gar nicht bei deuschen Einzelhändlern oder Amazon. Ich würde die Referenz auch nicht kaufen,
sondern eher eine gute Custom und die runtertakten + untervolten. Wenn Du einen SI kennst, dürftest Du
für so einen Kauf deutlich bessere Karten haben (Wortspielkasse aufgefüllt).

Ich habe eine ungelabelte aus China, die ist relativ neu. Nur würde ich nicht behaupten wollen, dass die um Galaxien besser ist.
Man kann sie jedoch etwas weiter untervolten und es macht am Ende ca. 9 bis 14 Watt aus, mehr aber auch nicht.
Im Nomalbetrieb merkt man es an der etwas niedrigeren Geräuschemission und der etwas niedrigeren Temperatur.
Mit deutlich besser meine ich den Gesamteindruck, denn mein Original-Sample war echt die Pest und ist sicher nicht ohne
Grund kaputt gegangen. Lange gehalten sie ja nun wirklich nicht und die Karte meines US-Kollegen ist mittlerweile auch hinüber.

[MK2]Mythos
2017-02-07, 09:02:10
Ich habe die letzten Seiten hier zwar nicht verfolgt, aber ich glaube nicht dass sich pauschal sagen lässt, dass die neuen Karten besser als die alten gehen, ich habe mir gleich nach Launch eine Referenz Karte gekauft, die kam schon ab Werk mit ultraniedrigen Spannungswerten, die im GPU-Z Bench mit einer GPU Power Draw von ca 80 Watt resultieren.

(del)
2017-02-07, 09:06:46
Serienstreuung ist immer Lotto :)

Im Verlaufe der Produktion sinkt diese Streuung jedoch, da auch die Yield-Rate steigt. Somit sollte sich dann auch der Durchschnitt vebessern und die Chance auf eine gute Karte steigen. Pech kann man allerdings immer haben. Nur die Gewinnausschüttung wird großzügiger :D

[MK2]Mythos
2017-02-07, 09:11:07
Dann wäre ein Stromverbrauchsnachtest einer solchen "guten" karte vielleicht angemessen. 30 Watt Serienstreuung schon auf Grund der unterschiedlich eingestellten Referenz Spannungen finde ich bei einer 150 Watt Karte schon ziemlich enorm.

(del)
2017-02-07, 09:27:05
Es ist ja eigentlich eine 170-Watt-Karte, aber egal ;)

Im Nachtest habe ich im Durchschnitt 10 Watt weniger für die gesamte Karte, nicht mehr und nicht weniger.
Man muss sich das auch mit GPU-Z nicht schönrechnen, weil diese Momentaufnahmen (a) recht ungenau sind und
man die Karte (b) auch immer in der Gesamtheit betrachten muss. Außerdem ist ein Golden Sample zwar schön,
repräsentiert aber leider nicht den wirklichen Durchschnitt.

Ein Undervolting-Artikel (wie damals bei der Fury) wäre für so etwas deutlich besser geeignet, denn er kann auch
die Extreme besser beschreiben Für ein Roundup, das sich eher an "Out of the Box"-Käufer richtet, ist dies einfach
ungeeignet. Ich habe bereits angefragt, ob Interesse an so einem Artikel besteht, allerdings haben die Amis abgewunken.
Die wollen lieber noch die RX470er durchgepeitscht wissen.

Da ich nebenher noch das gesamte Quadro- und Radeon-Pro-Lineup an der Backe habe und für alle Lokalisierungen
noch Rohdaten für Charts liefern muss, werden das wohl die Kollegen richten müssen. Das Thema ist viel zu speziell
(Nische), um es global für die träge Masse ausschlachten zu können. Leider. :(

vinacis_vivids
2017-02-07, 18:40:11
Da ich nebenher noch das gesamte Quadro- und Radeon-Pro-Lineup an der Backe habe und für alle Lokalisierungen
noch Rohdaten für Charts liefern muss, werden das wohl die Kollegen richten müssen.

Gibs 8K Benchmarks von der Quadro?
VS Titan P VS RX 480 würde mich interessieren.

(del)
2017-02-07, 19:12:17
Die RX480 nicht, da laufen die Programme, die nach zertifizierter Hardware schreien, ja leider nicht.
Und für AutoCAD tut es auch eine Consumer-Karte, so wie generell für das ganze DX-Geraffel.
Für den Crossover-Vergleich von Workstation- und Consumer-Karten wird es aber einen Extra-Artikel geben. :)
Vielleicht auch mal wieder mit ein paar Spielen...

Ich habe jedoch die WX7100 (RX480), die WX5100 (RX470) und die WX400 (RX460) mit dabei.
Ist ja eigentlich fast das Gleiche, nur eben in teuer ;)

Wen es interessiert, die RX480 habe ich bereits so wie hier beschrieben (http://www.tomshardware.de/so-testen-wir-grafikkarten-vga-benchmarks-performance,testberichte-242310.html) getestet. :)
Der Aufwand hat sich zwar verdoppelt, weil vieles zweimal gemessen werden muss (immerhin will ich ja auch
die Resultate des Open Benchtable zeigen), aber die Performance ist m.E. realistischer beurteilbar. Man sieht
zudem auch den Vorteil der oft zu Unrecht gescholtenen DHE-Karten plötzlich sehr viel deutlicher ;)

Die Workstation ist das aber nicht, die bekommt später einen Extra-Artikel. Aber auch die ist generell geschlossen.

Kühltechnisch am Besten hat bisher die Asus abgeschnitten, die ist sogar recht leise - mit oder ohne Deckel.
Im Takt etwas zurückhaltender, dafür vernünftig umgesetzt. Hätte ich so auch nicht vermutet.

vinacis_vivids
2017-02-07, 21:40:03
Für den Crossover-Vergleich von Workstation- und Consumer-Karten wird es aber einen Extra-Artikel geben. :)
Vielleicht auch mal wieder mit ein paar Spielen...

Ich habe jedoch die WX7100 (RX480), die WX5100 (RX470) und die WX400 (RX460) mit dabei.
Ist ja eigentlich fast das Gleiche, nur eben in teuer ;)

Ein paar kurze Benches P6000 vs WX7100 in 8k würde mich interessieren.

Beispiel:
http://www.tweaktown.com/tweakipedia/112/gears-war-benchmarked-dx12-8k-resolution/index.html

Überhaupt halte ich 8k DX12 als Leistungsbeurteilung der aktuelle Karten für interessant. Neben 4k natürlich :biggrin:

edit: + 6k

Godmode
2017-02-07, 21:43:20
Gibt es eigentlich wo eine Liste, welche RX480/470 Herstellerkarten das Referenzdesign verwenden? Oder kann ich das alleine am Kühler festmachen?

(del)
2017-02-07, 21:49:32
@vinacis_vivids:
Ich nicht. Virtuelle Auflösungen sind für die Beurteilung eher fragwürdig. Außerdem limitieren hier garantiert noch andere Dinge. Und ein 8K Grid habe ich nicht. Mir reicht schon zu sehen, wie sie bei 4K wegsackt. Der Artikel ist zudem albern. 8K und AA, kein Testsetup zu sehen. Das ist ziemlich dünne Kost.

@Godmode
Geht. Weil die Referenzkarten alle von PC Partner kommen und nur gelabelt werden.

Godmode
2017-02-08, 10:48:21
@Godmode
Geht. Weil die Referenzkarten alle von PC Partner kommen und nur gelabelt werden.

Danke. Die zweite Frage wäre dann: Gibt es Herstellerkarten mit dem Referenzdesign der Platine, aber mit eigenem Kühler?

(del)
2017-02-08, 11:49:37
Bei manchen Biligbratern sollte zumindest das Layout des PCB gleich sein.
Die Bestückung und Platinenqualität kann dann natürlich arg abweichen.
Schwierig zu überschauen, vor allem bei ungelabelten SI-Karten.

Bei genauen Produktauflistungen bin ich aber auch überfragt, sorry.

Dino-Fossil
2017-02-22, 09:57:11
@Format_C:

Arbeitest du noch an dem 480er Vergleichsartikel? Wenn ja, wann ist der denn zu erwarten?
Oder hab ich da etwas falsch verstanden?

TGKlaus
2017-02-22, 13:41:44
Hatte ich auch so verstanden.

Und in Anbetracht des Preisrutsches gerade / bzw. der teils doch hohen Nachlässe bei temporären Angeboten wäre jetzt ein sehr guter Zeitpunkt dafür.

(del)
2017-02-22, 14:21:57
Der erste Teil mit 5 Karten (knapp 90K Zeichen) ist fertig und wartet nur noch aufs Publishing,
die anderen drei Karten kommen dann später als Update, wenn AMD und Nvidia durch sind.

Im ersten Teil haben wir MSI, Asus, Sapphire, HIS und eine zweite Referenzkarte von einem SI (lite retail).
XFX, Powercolor und Gigabyte kommen dann als Einzel-Updates noch hinterher.

Wobei sich die XFX- und die HIS-Karte die gleiche Basis und damit auch gravierende Fehler teilen
(kommt ja alles aus der gleichen Butze). Ich habe mit zwei Karten im Crossfire über 14 Ampere
Durchschnittslast am Mainboard gemessen - trauriger Rekord. Dagegen ist die Referenzkarte echt ein Engel.
Das sind satte 30% über Norm. Mehr dazu im Artikel.

Eigentlich hat mir von den ersten fünf Karten nur eine richtig gut gefallen. Die ist aber leider nicht die Günstigste.
Das Referenzmodell ist auch besser als sein Ruf, das war mein Zeitplatzierter.

Ende März hänge ich dann nahtlos auch die RX580 mit rein, die ja völlig identisch sind. Wer jetzt eine RX480 günstig schnappen kann,
der sollte das schnell tun und darf sich die RX580 getrost schenken. Die gibt es dann anfangs wieder mit Idiotenaufschlag.

Godmode
2017-02-22, 14:44:13
Bei manchen Biligbratern sollte zumindest das Layout des PCB gleich sein.
Die Bestückung und Platinenqualität kann dann natürlich arg abweichen.
Schwierig zu überschauen, vor allem bei ungelabelten SI-Karten.

Bei genauen Produktauflistungen bin ich aber auch überfragt, sorry.

Besten Dank.


Das Referenzmodell ist auch besser als sein Ruf, das war mein Zeitplatzierter.


Ich bin sehr positiv überrascht vom RX 480/470 Referenzdesign. Die Karte selber fühlt sich hochwertig verarbeitet an und auch den Lüfter finde ich sehr ok.

Teste gerade verschiedene Polaris10 Modelle (RX480 8G Ref, RX480 4G Ref, RX470 8G Ref, RX470 4G Ref, Sapphire RX480 Nitro D5 OC 4G, Sapphire RX470 Nitro+ 4G,
Sapphire RX470 Nitro+ 8G). Alleine bei den Namen könnte man schon durchdrehen. :freak:

fondness
2017-02-22, 14:49:08
Kühltechnisch am Besten hat bisher die Asus abgeschnitten, die ist sogar recht leise - mit oder ohne Deckel.
Im Takt etwas zurückhaltender, dafür vernünftig umgesetzt. Hätte ich so auch nicht vermutet.

Die ASUS hat bei manch anderen eher versagt, schön langsam kann man auch würfeln :ugly:

Dino-Fossil
2017-02-22, 14:58:20
Ende März hänge ich dann nahtlos auch die RX580 mit rein, die ja völlig identisch sind. Wer jetzt eine RX480 günstig schnappen kann,
der sollte das schnell tun und darf sich die RX580 getrost schenken. Die gibt es dann anfangs wieder mit Idiotenaufschlag.

Hört hört, also steht der Launch der 500er Serie schon vor der Tür? Bin ja mal gespannt, wann Vega kommt... :D

Damit dürfte auch geklärt sein, dass sich AMD/RTG vom etwas fragwürdigen GCN-generationsbasierten Namensschema der 400er Serie wieder verabschiedet.
Hätte dem Marketing sicherlich auch zu viele schlaflose Nächte bereitet.

Immerhin kann ich mich so auf meiner 480 noch ne Weile ausruhen, Vega läuft anfangs vermutlich außerhalb meiner preislichen Interessenlage.

Ferengie
2017-02-22, 16:34:29
Hat wer Erfahrungen mit FlugSIMS mit der RX480?

X-Plane usw. setzen auf OpenGL und dort wird immer Nvidia empfohlen ... evtl.nur aus historischen Gründen? Oder ist OpenGl noch immer schlecht bei den neuen Treibern?

Ich würde lieber einen Rx480 mit 8GB und später eine Vega verbauen.

(del)
2017-02-22, 17:21:27
Die ASUS hat bei manch anderen eher versagt, schön langsam kann man auch würfeln :ugly:
Ich meine die Strix mit den drei Lüftern. Asus hat den größten und mit am sinnvollsten konstruierten Kühler,
keine abartige Übertakung (die eh nicht wirklich was bringt außer Hitze und damit Lärm) und ist somit eine
wirklich ausgeglichene Lösung.

Versagen ist relativ. Ich habe die ORIGINAL-Karte (also kein von 10 Redakteuren wieder zusammengefrickeltes Rotationsobjekt
mit fragwürdiger WLP und ausgelutschen Schrauben) sowohl im offenen Aufbau, als auch im geschlossenen Gehäuse getestet.
Als RX480 gefällt mir die Karte ausgesprochen gut, was einem nach dem R9-290X-Fauxpas auch mal wieder guttut.
Aber vielleicht waren es ja auch dieselben, die die HIS bzw. XFX besonders gut fanden, obwohl der Slot mit 30% über Norm laufen muss.
Auch hier ist Versagen immer relativ zu sehen. ;)

Dave
2017-02-22, 19:35:20
Da werde ich wohl meine MSI Gaming X 8G wohl doch noch gegen eine Asus tauschen müssen :freak: ...will ja keinen Versager in meinem Rechner haben.

edit: Kann man bei MSI die WLP problemlos tauschen auch wenn auf einer Schraube so ein kleiner Aufkleber ist? Dachte eigentlich das bei MSI der Tausch zulässig wäre...

(del)
2017-02-22, 19:56:33
WLP tauschen bringt bei MSI nichts, die originale ist wirklich ganz ok.

Die MSI ist doch nicht schlecht, nur wird man, je nach Airflow im Case, die Lüfterkurve etwas anpassen müssen.
Das Target steht bei 72°C. Erhöht man es und regelt die Lüfter so, dass die Karte bis 78°C geht, dann ist sie
signifikant leiser! MSI hat die Kurven mal wieder im offenen Aufbau designt, das kann man aber fixen.

Ein Versager ist die MSI nicht, sondern besonders zwei andere Karten (Norm) und eine dritte mit total
unterdimenioniertem Kühler und pornös hohem Power Limit (was nix bringt außer Krach).

Dave
2017-02-22, 23:53:43
WLP tauschen bringt bei MSI nichts, die originale ist wirklich ganz ok.

Die MSI ist doch nicht schlecht, nur wird man, je nach Airflow im Case, die Lüfterkurve etwas anpassen müssen.
Das Target steht bei 72°C. Erhöht man es und regelt die Lüfter so, dass die Karte bis 78°C geht, dann ist sie
signifikant leiser! MSI hat die Kurven mal wieder im offenen Aufbau designt, das kann man aber fixen.

Ein Versager ist die MSI nicht, sondern besonders zwei andere Karten (Norm) und eine dritte mit total
unterdimenioniertem Kühler und pornös hohem Power Limit (was nix bringt außer Krach).

War auch nicht ganz ernst gemeint, wenngleich ich die ASUS schon Präferiert hatte, aber die MSI war einfach sehr günstig (225 €) und wurde überall gelobt. Trotzdem danke für deine Ausführungen. Das mit der WLP lasse ich dann erstmal...

Achim_Anders
2017-02-23, 09:36:06
Hey Igor,

an den Spannungen zu spielen sprengt wahrscheinlich dem Arbeitsaufwand, oder?
Bei mir kommt die MSI in WQHD bei gta/witcher(angepasste spielbare Settings) nicht über 1050rpm und bleibt dabei konstant unter 73° (eher bei 65-69°) bei 1070mv. Das Undervolting bringt gefühlt extrem viel. Ich hatte auch zwei Red Devil hier, die ohne UV richtig laut waren. Mit dann ganz ok, aber noch hörbar. Aber während ich schreibe, merke ich schon, wie unterschiedlich die Voraussetzungen sind ein Vergleich hinfällig.

Ergo:es wäre toll, wenn du einen kleinen Abschnitt mit UV von 1080mv(nach offset, also real maximal anliegend) machen könntest. Das sollten alle Karten schaffen und der Unterschied im Verbrauch wäre sehr interessant. Alles bei 1300mhz bei mir, im übrigen, da ich das als guten Kompromiss für den Chip sehe.
Wie ist da deine Einschätzung in Bezug auf den Sweetspot generell bei dem 480er?
Geht man bei der Frage nach dem Sweetspot eher nach dem Gpu Takt, oder der Spannung? Als Ingenieur wahrscheinlich nach der Spannung?! Was ist da bei P10 deiner (eurer) Meinung nach der Sweetspot?
Gruß

(del)
2017-02-23, 14:30:19
Ich schriebs ja schon mehrfach, dass mir die WX7100 (bis auf den Plattfischkühler) gut gefällt. Den Sweet-Spot (immer nach Takt, da architektur- und fertigungsbedingt) sehe ich zwischen 950 und 1000 MHz. So dürfte die Karte ja auch mal geplant gewesen sein, denn der Rest ist nur noch der nachträglich rausgeholte Anti-GTX-1060 Holzhammer, den keiner wirklich brauchen kann, der auch nur ein klein wenig auf die Effizienz achtet. Takte ich die Originalkarte nämlich aiuf 1 GHz runter, dann bleibt sie auch ohne Treiber-Mod immer innerhalb der Specs.

Ich brauche beim Roundup pro Karte ungefähr zwei Tage, das schließt Untervolting quasi schon vom Aufwand her aus. Außerdem streuen die Chips immer noch so extrem, dass ich mich da zu keiner pauschalen Aussage verleiten lassen würde. Ein Stabilitätstest dauert bei mir einen Tag und das ist zeitlich einfach nicht drin. Wenn die RX580 demnächst als Re.Brand aufschlägt, ist vielleicht mal ein Extra-Artikel zum Untervolting außerhalb des Roundups möglich. Da ich aktuell für US und DE schreibe und ab Ende März zudem auch die inhaltliche Planung etwas anders läuft (eigentlich ja schon jetzt), findet sich nach den ganzen Launches sicher auch mal Zeit dafür. Momentan habe ich keine Zeit für nichts, denn mit bis zu 10 Artikeln und 10 Tests für die interne Datensammlung unseres Medienkonglomerats bin ich irgendwie sehr gut ausgelastet :)

Th3o
2017-02-23, 15:15:14
@Achim_Anders
Ich habe auch eine MSI und mich würden Deine Einstellungen interessieren. Viellecht kannst Du diese in Zeig mir Deinen Wattman (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=575630) präsentieren?

Achim_Anders
2017-02-23, 18:55:17
Danke dir Igor, ich hatte es mir gedacht und habe vollstes Verständnis dafür!
Theo ich bin gerade nicht daheim und weiß nicht, wann ich wieder dahin komme, reiche das aber gerne nach. Hoffentlich vergesse ich es nicht.. Aber aus dem Kopf:
1303mhz, 1060 oder 1070mv (wattman, ohne den offset zu berücksichtigen), Temptarget habe ich auf 73(Standard), Lüfter aber auch 533 zu 1000. Das funktioniert ganz gut. Daten aus dem Kopf, ohne Gewähr

2Ms
2017-02-23, 19:54:27
Bei mir werden im Wattman bei der "Sapphire RX480 Referenz" die Spannungen für die VCore nicht übernommen.
Ich weiß nur leider nicht, was da passiert. Ob Auslese- oder Anzeigefehler.

Habe im Wattman-Thread ein paar Screenshots hinterlegt, weil es mir dort passender erschien, aber hier arbeiten ja viele mit dem Wattman, und können es verifizieren.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11299861&postcount=34

Th3o
2017-02-23, 21:10:14
Habt Ihr schon WattTool probiert? Ich finde das Tool ganz praktisch, weil man damit die Einstellungen in eine Datei speichern bzw. aus einer Datei laden kann. Es sind unbegrenzt viele Dateien möglich.

WattTool gibt es hier (http://www.overclock.net/t/1609782/watttool-a-simple-tool-that-combines-overclocking-with-vrm-monitoring-tweaking-for-rx-400-series)

Godmode
2017-02-23, 22:53:18
Habt Ihr schon WattTool probiert? Ich finde das Tool ganz praktisch, weil man damit die Einstellungen in eine Datei speichern bzw. aus einer Datei laden kann. Es sind unbegrenzt viele Dateien möglich.

WattTool gibt es hier (http://www.overclock.net/t/1609782/watttool-a-simple-tool-that-combines-overclocking-with-vrm-monitoring-tweaking-for-rx-400-series)

Ja verwende das Tool seit Anfang an. Deutlich übersichtlicher und wegen den speicherbaren Profilen, deutlich schneller als Wattman.

Screemer
2017-02-25, 18:11:09
das muss man sich mal auf der zunge zergehen lassen:

Normalerweise lese ich hier nur mit, aber nachdem ich mir eine MSI 480 Gaming X 8GB geholt habe, wollte ich mal meine Erfahrungen hier teilen. Ich scheine nämlich auch ein gutes Exemplar erwischt zu haben, und undervolten mit diesen Karten bringt einfach sehr viel.

Aber zunächst nochmal zur Spannung und GPU-Z: GPU-Z liest durchaus richtig aus, aber es ist tatsächlich so, dass die Spannung für den Speichercontroller die untere Grenze ausmacht. Will man weiter runter, muss man auch diese reduzieren.

Die Standardspannung für die Werkseinstellung von 1305 MHz lag bei mir bei 1100mV. Vor allem zwei Undervolting-Einstellungen haben sich aber für meine Karte bewährt. Ich kann nicht beschwören, dass sie zu 100% stabil sind, weil ich nicht so viele aktuelle Spiele hier habe. Aber alle Benchmarks und mehrere Stunden Star Citizen liefen ohne Probleme.

Einmal reichen ich für 1300MHz lediglich 980mV. Der maximale Verbrauch ist von 163W (Werkseinstellung) auf 128,4 gesunken, der durschschnittliche von 140W auf 110W (GPU-only!!). Damit ist die Karte schon wunderbar leise, verbraucht einiges weniger und ist immernoch schnell.

Allerdings kann ich aus meiner MSI fast eine Silentkarte machen. Mit 1200MHz bei 900mV und 2000MHz-Ram wird die Karte im Heaven-Benchmark 60° warm, d.h. die Lüfter springen kaum an. Der maximale Verbrauch sinkt in Furmark von 163W auf 102W, der Durchschnitt von 140W auf 83,5 (GPU-only), für nur 10% weniger Leistung.

Hier sind die entsprechenden Wattman Einstellungen und GPU-Z Screenshots von 5-Minuten Furmark runs, jeweils in Werkseinstellung, bei 1300MHz@980mV@2100MHz und bei 1200MHZ@900mV@2000MHz.

:eek:

die würde ich gern mal auf igors prüfstand sehen.

iuno
2017-02-25, 18:48:24
6er im Lotto ;p

Th3o
2017-02-25, 18:49:04
Meine MSI RX 480, die ich im September 2016 gekauft habe, hatte als Default 1.15V bei 1305MHz. Die Qualität der Chips scheint besser geworden zu sein.

dildo4u
2017-02-25, 19:05:16
Es gab schon vor Ewigkeiten gute Chip's das ist immer noch Lottery.

https://youtu.be/zWASNajSdpg

Raff
2017-02-25, 19:09:34
1.100 Millivolt für 1.300 MHz (ab Werk) habe ich noch nicht gesehen – üblich sind da eher 1.150 mV. Glück gehabt. :)

MfG,
Raff

(del)
2017-02-25, 20:53:29
Nun ja. Stabilität getestet mit was? Ich habe mittlerweile so viele Karten durch, manche doppelt und dreifach. Klappte NIE wirklich stabil. Bissl Witcher & Co. heißt ja nicht stabil, sondern Glück gehabt.
Wenn es stimmt, ist es einer von Tausend. Solche Chips sind mega-rar. Ich habe noch eine GTX 980 Custom, die ging nie über 180 Watt und war recht kühl. Geschenk. :)

So, kleines Update:
Gigabyte zieht die RX480 zurück, die für diese Woche zugesagt Lieferung fällt also aus. Man verweist darauf, dass es bald neue Produkte gäbe...
Als ob ein anderes Label am Chip was ändern würde. Kommt sie halt im April als 5er mit den selben Ergebnissen rein, mir Wurst. :D

Mr.Bug
2017-02-26, 11:52:32
Meine MSI RX 480, die ich im September 2016 gekauft habe, hatte als Default 1.15V bei 1305MHz. Die Qualität der Chips scheint besser geworden zu sein.

Interessant, meine MSI von November benötigt 1.18V und 0.800V im Idle.

Hab sie im Bekanntenkreis auch erfolgreich weiter empfohlen, bis dato ebenfalls alle sehr zufrieden. :) Zumal derzeit ja auch schon für nur 230 "Mücken" zu haben.

horn 12
2017-02-26, 12:17:53
@Format

Überarbeiter Polaris oder Vega als Untere Mainstream- Performance

Th3o
2017-02-26, 12:40:04
Interessant, meine MSI von November benötigt 1.18V und 0.800V im Idle.

Hab sie im Bekanntenkreis auch erfolgreich weiter empfohlen, bis dato ebenfalls alle sehr zufrieden. :) Zumal derzeit ja auch schon für nur 230 "Mücken" zu haben.
Bei alten Games lasse ich sie mit 1265@1.01V laufen. Bei manchen neuen Games (Rust, Empyrion) muß ich auf 1.1V hochgehen bei 1300MHz.

NikLaw
2017-02-26, 12:48:16
Die Chipgüte unterscheidet sich schon sehr.

Meine XFX-Refeferenz (4 GB@8 GB, 219 EUR:biggrin:) RX 480 läuft mit 1090 mV auf 1310 Mhz. Wenn ich jedoch nur 10 Mhz höher gehe, reichen nicht mal 1150 mV. Auf 1370 Mhz kriege ich sie mit 1150 + 5*6,25 mV offset, aber das lohnt sich kaum für den gestiegenen Verbrauch.

Als Kühler habe ich den Arctic Mono Plus drauf. Mehr als 65-68° wird die Karte damit nicht warm und der Lüfter dreht auch nie wirklich auf.

(del)
2017-02-26, 14:18:17
Und wie warm/heiß sind dann die Spannungswandler?

NikLaw
2017-02-26, 14:37:11
Das kann ich nicht sagen, dafür fehlt mir eine Messmöglichkeit. Die VRM-Temps in HWInfo sind deiner Aussage nach Unsinn, da die Mosfets überhaupt keine Sensoren haben.

"Zitat von FormatC
Die Karten werden vorher sehr aufwändig an der Vorder- und Rückseite mit Klebesensoren präpariert, denn das, was der Treiber an externe Tools meldet, ist meist Grütze.
Man kann nun mal technisch bedingt keine VRM-Temperaturen auslesen, weil die MOSFETs schlichtweg gar keine Sensoren integriert haben.

Zitat von FormatC
Dass man die Temperaturen bei älteren AMD-Karten auslesen konnte, ist übrigens völliger Blödsinn. Das, was in den Tools als VRM1 und VRM2 angezeigt wurde und wird,
ist die Rückmeldung der Temperaturdiode in den älteren PWM Controllern von International Rectifier. Nur dass diese Chips meilenweit von den VRM entfernt sitzen."

Die Karte läuft jetzt mit dem Lüfter seit August stabil, hat also auch den Sommer gut überstanden, eine ausreichende Gehäusebelüftung ist natürlich vorhanden.

(del)
2017-02-26, 18:28:39
Es gibt ja immer noch Klebesensoren und ich bin durchaus nicht dement. Meine Aussage stimmt nun mal, auch wenn es manchen nicht ins Weltbild passt. Sonst hätte ja EVGA nicht mühsam solche Sensoren auf der Platine verteilt, sondern HWinfo angerufen :)

Vielleicht erinnerst Du Dich ja auch daran, was ich zum schleichenden Tod von Verbundmaterial schrieb, der durch Ausgasen und ggf. Bending bei Multi-Layer-Platinen kein Unbekannter ist? Industrienormen und Empfehlungen liegen wie immer deutlich unter dem, was als Flammpunkt angegeben ist.

Alessmo
2017-02-26, 19:20:59
Nochmal zu meinen Ergebnissen: Ich war auch sehr überrascht, als ich meine Standardspannung gesehen hab. Und ich kann wie gesagt die Stabilität nicht beschwören, aber bislang gab es keinen einzigen Treiberreset/Absturz. Natürlich kann es sein, dass man für Witcher und co. noch einige mV drauflegen muss.

Aber andere haben ganz ähnliche Ergebnisse wie ich, wie Chaser187 z.B. in dem anderen Thread bereits geschrieben hat:

Habe ähnliche Ergebnisse, siehe hier:

http://youtu.be/pf3MRLyIhaY


Wäre interessant zu wissen, ob das wirklich an neueren Chips, oder einfach an der Lotterie liegt. Jedenfalls würde ich sagen: Wenn man eine Silent/Greend-Edition von Polaris möchte, sollte man sich auf ca. 1100-1200MHz bewegen und kräftig undervolten. Darunter wirds vielleicht in manchen Spielen mit der Leistung knapp. Möchte man möglichst alles aufdrehen, sollte man nicht viel mehr als 1300MHz anpeilen, das bringt kaum etwas und schießt nur den Verbrauch hoch.

NikLaw
2017-02-27, 12:55:19
Es gibt ja immer noch Klebesensoren und ich bin durchaus nicht dement. Meine Aussage stimmt nun mal, auch wenn es manchen nicht ins Weltbild passt. Sonst hätte ja EVGA nicht mühsam solche Sensoren auf der Platine verteilt, sondern HWinfo angerufen :)

Vielleicht erinnerst Du Dich ja auch daran, was ich zum schleichenden Tod von Verbundmaterial schrieb, der durch Ausgasen und ggf. Bending bei Multi-Layer-Platinen kein Unbekannter ist? Industrienormen und Empfehlungen liegen wie immer deutlich unter dem, was als Flammpunkt angegeben ist.

Ne, leider nicht. Wenn die Karte noch 1 Jahr durchhält bin ich zufrieden. Oder tritt der schleichende Tod deutlich früher ein?

(del)
2017-02-27, 13:06:58
Das kann keiner Wissen :D

Normalerweise gilt, dass man auch partiell nicht über 95 bis 100°C gehen sollte, weil dann diese Effekte eintreten können.

@Format
Überarbeiter Polaris oder Vega als Untere Mainstream- Performance
Polaris. Exakt der gleiche Chip. Aus Vier wird Fünf, mehr nicht :)

Locuza
2017-02-27, 15:07:04
Chip, klar, aber was ist mit den Taktraten?

(del)
2017-02-27, 15:36:03
Die sind doch eh schon an der Kotzgrenze.... Viel Luft ist bei Polaris echt nicht mehr.
Jedenfalls nicht in der Masse. Und Binning ist zu teuer für untere Mittelklasse.

Mir wäre es lieber, wenn sie mehr Liebe ins Detail stecken würden. Ich sag nur Encoder...

Achim_Anders
2017-02-27, 16:22:57
Meine MSI von vor 2 Monaten macht nur 1070@1300mhz. Ich glaube nach wie vor eher an Lotterie und nicht an bessere Chipausbeute. Aber es ist natürlich glaube anhand einer viel zu kleinen Menge xD

Dino-Fossil
2017-02-27, 16:28:08
Je nachdem, wo Vega landet wäre Polaris als 570 näher am sweet spot vielleicht besser aufgestellt.

(del)
2017-03-15, 10:10:20
Kommentarlos. Gigabyte hat die Karte leider zurückgezogen :(

http://www.tomshardware.de/amd-polaris-benchmark-analyse-review,testberichte-242322.html

Kommen noch XFX und Powercolor.

dargo
2017-03-15, 10:28:25
Von der HIS RX480 IceQ X² Roaring Turbo bin ich echt positiv überrascht. Sehr niedrige Lüfterdrehzahlen beim Gaming. Und trotzdem sehr kühle VRMs. Ich bin mir sogar ziemlich sicher, dass der Kühler von der Lautstärke und Temps. locker mit der Asus Strix mithalten kann wenn man der HiS die 23W weniger genehmigt. Das mit der PEG Sache ist natürlich nicht so toll.

(del)
2017-03-15, 10:42:09
Nein. Die HIS ist schlechter als die fast baugleiche XFX RX480 GTR BE. Deren Lüfter sind besser und auch sonst ist die XFX thermodynamisch im Vorteil. Doch das ist Teil vom Follow-Up (XFX, Powercolor)

XFX ist so ein Thema, zu dem ich mich erstmal nicht äußern möchte.

DrFreaK666
2017-03-15, 23:45:47
Ich liebe Vergleichtests danke. Die 480 ist für mich zwar uninteressant, aber ich kenne jemanden, der noch eine 270X im Rechner hat :)

dargo
2017-03-16, 08:41:16
Nein. Die HIS ist schlechter als die fast baugleiche XFX RX480 GTR BE. Deren Lüfter sind besser und auch sonst ist die XFX thermodynamisch im Vorteil.
Argh... ich sehe gerade, dass ich den Coretakt mit der Lüfterdrehzahl verwechselt habe. :freak: Hatte mich schon etwas gewundert... ~1340RPM wären ja sensationell. :D

(del)
2017-03-16, 11:00:18
Bis auf wenige Lichtblicke sehen die Rx480-Designs bisher echt lieblos zusmmengestöpselt aus, was wirklich schade ist. Wenn die Hersteller die 580er Refresh auch nur wieder so uninspiriert an den Mann bringen wollen, geht mir echt die Attraktivität flöten. Das ist stellenweise echt schade, denn das hat der Chip eigentlich nicht verdient.

Dino-Fossil
2017-03-16, 11:07:18
Keine Ahnung ob die Karte das Format_C-Seal-of-Approval bekäme (mir auch relativ egal ;) ), aber ich bin immer noch sehr zufrieden mit meiner PC Red Dragon. War beim Kauf eine der günstigsten customs.
Kein sinnloses OC, dazu 0-Fan-mode auf dem Desktop und auch sonst (in meinem Rechner) nicht zu hören.
Fahre inzwischen mit UV+leichtem UC sparsam, sehr leise und der Performanceverlust hält sich in Grenzen.

Aber netter Artikel, bin mal gespannt auf die Nachzügler.

Effe
2017-03-16, 11:23:52
Bis auf wenige Lichtblicke sehen die Rx480-Designs bisher echt lieblos zusmmengestöpselt aus, was wirklich schade ist.
Richtig. Es gibt leider keine einzige ITX Version. Das ist alles sehr einfallslos. Auch bei der 460 braucht es ewig, bis mal eine Low Profile erhältlich ist(bisher nur angekündigt von MSI).
Hat AMD die Partner so schlecht behandelt, dass die keinen Bock mehr haben?

TGKlaus
2017-03-16, 13:33:38
Schöner (Nach)Test!

Sehr schön, dass es nicht nur Balken gibt, sonder viel auf Kühlung und Platine eingegangen wird. (Die Wärmekamerabilder finde ich sehr aufschlussreich.)

Etwas verwundert bin ich über dass leise Abschneiden der Asus Strix. Erst dachte ich die haben die Zieltemeratur erhöht, aber die liegt ja immernoch bei ca. 65C.

Hast du irgendwo in deinen Daten, welche Karte mit welcher Spannung betrieben wurde?

j4l
2017-03-16, 14:13:35
Igor: Bei der Strix steht "Wort Case" unter den Wärmebildern. Ansonsten, wird ja wirklich oft über die Karte geschrieben, dass die erst so richtig zündert, wenn man die 65°C Zieltemperatur erhöht. 5°C -10°C sollten ja da eigentlich keine Problme machen, oder?

(del)
2017-03-16, 15:20:54
Hast du irgendwo in deinen Daten, welche Karte mit welcher Spannung betrieben wurde?Messwerte:
HIS und XFX gehen mit bis zu 1.1438V ins Rennen, die MSI und Sapphire mit bis zu 1.1688V und Asus mit 1.1375V. Die Referenzkarte bringt es nur auf bis zu 1.0875V.

@j4l:
Danke, ist korrigiert :) Zieltemperatur geht immer, aber dann wird sie erst einmal leiser (und heißer). Du musst gleichzeitig das Power Limit und den Takt etwas hochsetzen, weil sie es nicht von allein hinbekommt.

dargo
2017-03-19, 11:31:04
Ist die RX480 8GB Referenz in den USA schon auf 189,99$ gefallen?

https://abload.de/img/zwischenablage03xzbmx.jpg

https://www.youtube.com/watch?v=Rl_ioGy2dds#t=3m16s