PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24

dargo
2016-09-17, 17:48:16
Falscher Ansatz. Einfach erstmal ausloten wie tief sich die GPU undervolten lässt. Damit verliert man keine Leistung. Im Gegenteil, der Takt steigt sogar sollte man vorher schon im PT gelegen haben.

Es gibt eigentlich keine 1060, die deutlich über 130 Watt geht.

Dann wird der Unterschied zur RX480 Gaming noch größer.


Raff schreibt hier sicher nichts im Detail rein, Du sollst ja die Inhalte schließlich kaufen (siehe Links oben) ;)
Ich kaufe schon ewig keine Hefte mehr. :P

Edit:
Hier werden der RX480 MSI Gaming 196W bescheinigt.
https://www.techpowerup.com/reviews/MSI/RX_480_Gaming_X/21.html

Th3o
2016-09-17, 18:13:51
Meine MSI RX 480 war vom Werk aus mit 1305MHz@1,15V eingestellt. Sie läuft sowohl mit 1330MHz@1.09V als auch mit 1265MHz@1.01V sehr stabil. Max OC war 1355MHz@1.15V.

Hübie
2016-09-17, 18:16:15
Das wäre in puncto Perf/W als Metrik also ein deutliches Hintertreffen für Polaris. Wobei die Kühlung auf Polaris etwas besser arbeiten dürfte bei gleicher TDP/gleichem PT.
Wenn man die Spannung senkt muss man dies bei beiden Karten machen, sonst ist das ja wieder dahin gemogelt. Und dann vermute ich mal verschiebt sich die Leistungsaufnahme beider proportional nach unten, was also irgendwie quatsch wäre.

dargo
2016-09-17, 18:26:01
@Hübie
Mir gings eher darum, dass man als User eine RX480 MSI Gaming mit Hilfe vom UV auch in Richtung ~150-160W drücken kann ohne auf die Leistung verzichten zu müssen. Oder eben nur minimal, ob die Karte jetzt mit 1,266 oder 1,3Ghz läuft ist Jacke wie Hose. Dadurch wird die Karte entsprechend leiser. Natürlich kann man auch Pascal undervolten, hier sei aber angemerkt, dass dies erst ab Pascal geht. Bei Maxwell gings noch nicht.

Ex3cut3r
2016-09-17, 19:00:52
Ich kaufe schon ewig keine Hefte mehr. :P



warum nicht? Ich lese die immer sehr gerne auf dem Klo. :biggrin:
Und es gab einige interessante Sachen zur RX 480/470/GTX 1060 im Heft

Raff
2016-09-17, 19:13:46
:biggrin:

Zumal ich auch die Digitalausgabe verlinkt habe, die weniger kostet als das reguläre Heft.

MfG,
Raff

horn 12
2016-09-17, 19:15:14
@Raff

Wie laut wird die RX 480 im Referenz DESIGN unter Idle und vor Allem auch unter Last
Die Fiji Sapphire Fury Tri-X ist unter Idle lautlos, Lüfter schalten ab und unter Last maximal wieviel Sone Laut?
Mit fixiertem Lüfter auf 38% denke sind es 1,6 Sone!

Raff
2016-09-17, 19:20:29
Die RX-480-Referenzkarte erzeugt laut PCGH-Test (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/RX-480-Test-1199839/#a4) 0,3 Sone im Leerlauf und maximal 3,3 Sone unter Last. Jeweils aus 50 cm Entfernung gemessen. Die Fury Tri-X OC (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Videos/Sapphire-Fury-Tri-X-Video-Review-1164162/) kommt auf 0,0 respektive 1,5 Sone (IIRC!), braucht also gar keine bessere Lüfterkurve. :)

MfG,
Raff

dargo
2016-09-17, 19:23:08
warum nicht?
Weil ich die nicht brauche. Ich finde auch so genug Informationen Online.

Ex3cut3r
2016-09-17, 19:27:37
Diese Online Informationen kommen da aber überhaupt nicht ran, also die paar € kann man sich als Hardware Interessent schon investieren, meiner Meinung nach. Aber gut. ;)

fondness
2016-09-17, 19:36:10
Wenn man die Spannung senkt muss man dies bei beiden Karten machen, sonst ist das ja wieder dahin gemogelt. Und dann vermute ich mal verschiebt sich die Leistungsaufnahme beider proportional nach unten, was also irgendwie quatsch wäre.

Bei Polaris geht in der Regel -0.1V problemlos, ohne den Takt anzupassen. Die Karte boostet dann sogar höher, wegen geringerer Leistungsaufnahme. Und das alles lässt sich bequem über Wattman im Treiber einstellen. Wieviel geht bei einer GTX1060? AFAIK selektiert NV die Chips deutlich stärker, was weniger Undervoltingspielraum bedeuten würde.

horn 12
2016-09-17, 19:36:24
Frage noch an Raff:
Somit bekommt man eine RX 480 (Custom, Referenz mit Drosselung, Untervolting)
nie so leise wie eine Sapphire Fury Tri-X und mit angepasster Lüfterkurve auf 35 bis 38% wird die Fury unter 4K dann halt auch 85 bis 83 Grad heiß. (Farcry 4, Witcher 3)

Dafür aber auch nur 1,4 bis 1,6 Sone laut.
Wie wiel Sone schafft die MSI Gaming RX 480
Dank Dir Raff!

Achim_Anders
2016-09-17, 19:37:23
Und bitte wieder zurück zur RX 480 und nicht zu Werbeeinblendungen einer Zeitschrifft, die hier immer wieder aufflammen. Vielen Dank.

Krass das die 4gb Version schon bei 220-235€ angekommen ist. Die 8GB geht ab 270€ los, wobei das noch fast nur Refdesigns sind. 280€ kostet dann die Nitro... So langsam scheinen die Chips also den Markt zu erreichen...

EvilTechno
2016-09-17, 23:22:00
Die Werbeeinblendung ist transparent und imho völlig angemessen. Allerdings kann ich mich trotz aktueller PCGH nicht entscheiden welche Grafikkarte es sein soll.

@Raff: Für Typen wie mich muss einfach ein runtergedummtes Wertungssystem her. Mein Stammhirn hat entschieden, es will eine neue Karte. Wieso sagst du mir nicht einfach welche? ;(
*edit* Achja, wäre ein XCOM2 GPU Benchmark nicht mal eine Idee? Mein Phenom II liefert bei 3,0 GHz die gleichen FPS wie bei 3,6 GHz (mit einer Radeon 6950 2GB). Die vielen 1060vs480 Benchmarks waren ja vom Ergebnis sehr ähnlich.

@topic: Will (erstmal) hauptsächlich RaceRoom und XCOM2 zocken und bilde mir noch tapfer ein Win10 entsagen zu können.

Für die 1060 spricht dass sie ein wenig schneller scheint und die Radeon DX12 Vorteile ja Win10 voraussetzen. Beim alten GTR2 (dx9) beruhigt das Radeon SSAA das Bild sehr schön und auch bei RaceRoom kann mit "Einstellungen erweitern" SSAA zugeschaltet werden. Wie sieht das bei NVidias aus? Gibt es da etwas vergleichbares/besseres/identisches?

Schaffe89
2016-09-18, 00:07:21
Die 8GB geht ab 270€ los, wobei das noch fast nur Refdesigns sind. 280€ kostet dann die Nitro... So langsam scheinen die Chips also den Markt zu erreichen...

Die Lieferbarkeit ist aber immernoch ziemlich schlecht, vor allem der guten Customdesigns wie der von Powercolor. AMD muss irgendwie lange Chips gesammelt haben um beim Launch nen Batzen zu haben, weil die Customdesigns immernoch nicht die Stückzahlen des nur ca 4 Wochen erhältlichen Referenzdesigns erreicht haben, bspweise bei Mindfactory stagnieren die Verkäufe der rx480 ziemlich atm, während die GTX 1060 wie warme Semmeln weggeht.

tech noir
2016-09-18, 00:29:40
Du könntest Dir JETZT eine Red Devil Custom bestellen.

http://www.shopatnorway.com/images/840100_LA_trolls_norway.jpg

gedi
2016-09-18, 01:04:11
Also ich habe mir heute mal eine Nitro+ OC (ASIC 80.5%) zugelegt.

Meine Eindrücke:

- Hält mit PT 20% ohne Eingriff an die Vcore ihren Takt von 1.342G.
- max. OC out of the Box: 1.38G (bisschen wenig, imo)
- max. OC mit deutlicher Anhebung der Vcore: 1.45G (mehr geht mit dem verbauten Lüfterkonstrukt nicht)
- die Lüfter taugen nicht viel
- mittels Trixx sehr umfangreiche OC-Funktionen
- bei 1.45G ca. 65% der Performance einer 1080@2.1G
- Skalliert sehr gut mit dem Takt
- kein Spulengequitsche
- wirkt hochwertig verarbeitet
- Freesync funktioniert soweit gut. Nur bräuchte ich eine Anleitung für das CRU.

Irgendwie bin ich Hin- und Hergerissen. Die Performance ist etwas besser als ich erwartet habe, der Treiber macht einen guten Eindruck, die Lüfter dafür einen umso Schlechteren. Nun versuche ich mich mal ans undervolten ...

Mal kucken, was dann geht :redface:

Th3o
2016-09-18, 01:35:50
Wie hoch bist Du mit den Vcore bei OC gegangen? Womit testest Du die Stabilität?

gedi
2016-09-18, 02:24:25
Battlefront, Mirrors Edge Cat., F1 2016 und Doom - wobei Battlefront Grafikkarten extremst fordert. Hier liegen auf der RX 480 bei 1.45G bis zu 230W an. Bei meiner gemoddeten 1080 sind es mit dem X3-Bios bis zu 270W :D

Zum Vergleich:

F1 2016 resultiert mit 1.26V bei 1.45G in bis zu 200W
F1 2016 mit 1.09V bei 1.37G in bis zu 140W

x-force
2016-09-18, 02:53:25
bis wie viel spannung erlaubt das tool eigentlich?

gedi
2016-09-18, 03:48:21
Bis zu 1.35V.

x-force
2016-09-18, 03:51:40
gar nicht mal übel.... hat da schonmal jemand einen ordentlichen lukü oder wakü draufgeschnallt?

kling ja als wären dann min. 1,5ghz, wenn nicht sogar 1,6ghz drin.:)
edit:
oder auch nicht, wenn du für die letzen 80mhz schon 0,17v gebraucht hast.:freak:

Schaffe89
2016-09-18, 06:58:04
Hat AMD jetzt eigentlich den Idle Strombedarf gefixed?

Achim_Anders
2016-09-18, 08:28:02
Hat nvidia jetzt eigentlich den 144hz Multimonitorbug gefixt?

fondness
2016-09-18, 10:17:53
- Freesync funktioniert soweit gut. Nur bräuchte ich eine Anleitung für das CRU.


Hier sollte alles stehen, was du benötigst:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=572279

Dein Samsung U24E590D sollte 32-60 Hz schaffen...

RoughNeck
2016-09-18, 10:37:43
Hat nvidia jetzt eigentlich den 144hz Multimonitorbug gefixt?

Hat AMD den Verbrauch im Video Modus gefixt?
Bei Nvidia habe ich immer noch die Chance mit dem Nvidia Inspector die Karte in den 2D Modus zu zwingen.
Bei AMD hat man pech, da muss man auf Treiber warten, was manche schon seit Monaten tun.

anddill
2016-09-18, 10:43:28
Hat AMD jetzt eigentlich den Idle Strombedarf gefixed?

Laut Igor nein. (http://www.tomshardware.de/amd-grafiktreiber-leistungsaufnahme-hotfix-kompatibilitatsmodus,testberichte-242229.html)
Und ich hab irgendwie den leisen Verdacht daß da auch nichts mehr kommen wird.

Raff
2016-09-18, 12:10:03
Wollte AMD nicht einmal im Jahr eine neue Major Version veröffentlichen? Der Crimson-Nachfolger stünde demzufolge bald an – eventuell bringt der ein paar Fixes und nützliche Funktionen.

MfG,
Raff

fondness
2016-09-18, 12:33:14
Jap, heuer kommt noch ein neuer Rotton.

Schaffe89
2016-09-18, 13:15:53
Der denn hoffentlich auch mit dem lang angekündigten VSR Update kommt.

gedi
2016-09-18, 13:47:49
Hier sollte alles stehen, was du benötigst:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=572279

Dein Samsung U24E590D sollte 32-60 Hz schaffen...

Hat funktioniert - vielen Dank :)

gedi
2016-09-18, 13:52:54
gar nicht mal übel.... hat da schonmal jemand einen ordentlichen lukü oder wakü draufgeschnallt?

kling ja als wären dann min. 1,5ghz, wenn nicht sogar 1,6ghz drin.:)
edit:
oder auch nicht, wenn du für die letzen 80mhz schon 0,17v gebraucht hast.:freak:

Das Problem ist die Temperatur. Erfahrungsgemäß braucht man für eine kühlere GPU weitaus weniger für einen bestimmtes Target. Wenn die 480 unter 70°C bleibt, dann sollte einiges möglich sein.

drumnbass
2016-09-19, 22:18:27
schon jemand darüber gestolpert?

https://www.reddit.com/r/Amd/comments/4zxbjv/comparisons_of_nonreference_470s_and_480s_not/

gedi
2016-09-19, 23:21:10
Also - ich habe eine Menge probiert in Bezug OC und es gibt 2 Dinge, welche wesentlich zu limitieren scheinen:

- der Vram: Heizt ab 8.9G das PCB brutal auf. Leider bietet Trixx bis dato keine Möglichkeit zum ändern der Spannung des Rams.

- die Wandler: Erreichen bei einer Vcore höher als 1.185V locker 105°C :freak:. Danach schmiert der Treiber reproduzierbar ab. Ich habe mal zum Test 2 80er Lüfter auf die Backplate gelegt mit dem Ergebnis, dass so die Wandler sich bei ca. 87°C einpendeln und die 1.45G auf einmal rockstable sind (seit gestern Abend keinen TDR mehr gehabt). Positiver Nebeneffekt in doppeltem Sinne: max. GPU-Temp 75°C bei 60% RPM und es werden für den Takt nur noch lediglich 1.22V benötigt.

Edit: Was mir noch auffiel: Mit der letzten offiziellen Build von Win 10 ist mir die CPU sehr oft auf 1.2G eingebrochen, was mit der aktuellen Preview 14926 so gut wie nicht mehr passiert.

NikLaw
2016-09-21, 17:55:54
Also - ich habe eine Menge probiert in Bezug OC und es gibt 2 Dinge, welche wesentlich zu limitieren scheinen:

- der Vram: Heizt ab 8.9G das PCB brutal auf. Leider bietet Trixx bis dato keine Möglichkeit zum ändern der Spannung des Rams.

- die Wandler: Erreichen bei einer Vcore höher als 1.185V locker 105°C :freak:. Danach schmiert der Treiber reproduzierbar ab. Ich habe mal zum Test 2 80er Lüfter auf die Backplate gelegt mit dem Ergebnis, dass so die Wandler sich bei ca. 87°C einpendeln und die 1.45G auf einmal rockstable sind (seit gestern Abend keinen TDR mehr gehabt). Positiver Nebeneffekt in doppeltem Sinne: max. GPU-Temp 75°C bei 60% RPM und es werden für den Takt nur noch lediglich 1.22V benötigt.

Edit: Was mir noch auffiel: Mit der letzten offiziellen Build von Win 10 ist mir die CPU sehr oft auf 1.2G eingebrochen, was mit der aktuellen Preview 14926 so gut wie nicht mehr passiert.

Bei mir gehen mit dem Mono Plus 1370 Mhz, allerdings geht dann schon die VRAM Temp auf 115 Grad.

(del)
2016-09-21, 18:18:12
Wo habt ihr die VRM-Temperatur her? Die verbauten MOSFETs auf den 480ern haben keinen eingebauten Temperatursensor! Fast alle Tools lesen da einen Rückgabewert der die Temperatur des PWM-Controllers ausgibt. Nur sind beide PWM-Controller-Chips (GPU / Memory) meilenweit von den VRM entfernt ;)

Screemer
2016-09-21, 18:36:08
Und in welche richtung?

gedi
2016-09-21, 19:03:33
Es wäre schlimm, wenn es noch höher gehen würde ... Von daher Danke an Format_C, ich habe das VRM-Gedöns gleich aus dem OSD entfernt.

NikLaw
2016-09-21, 20:04:09
Es wäre schlimm, wenn es noch höher gehen würde ... Von daher Danke an Format_C, ich habe das VRM-Gedöns gleich aus dem OSD entfernt.

gut zu wissen, ich hab nur gemerkt das mit der Anzeige von hwinfo VRAM hoch, auch die Leistung nachlässt, wobei die GPU Temp bei 65 - 70 Grad lag.

(del)
2016-09-21, 22:08:13
hwinfo... Die verkaufen auch irgendeinen Aux-Wert als VRM-Temperatur.
Krank. Ich denke mal, dass ist ein Wert aus dem PWM-Controller.

Es gibt nur ganz wenige MOSFETs, die überhaupt ein Monitoring anbieten. Die auf der 480 jedenfalls nicht.
Weder auf der Referenz- noch den Boardpartnerkarten. Wo sollen denn die Werte überhaupt herkommen? :D

Screemer
2016-09-21, 22:10:03
hwinfo... Die verkaufen auch irgendeinen Aux-Wert als VRM-Temperatur.
Krank. Ich denke mal, dass ist ein Wert aus dem PWM-Controller.

Wie wäre es wenn man mal in einen artikel messeerte und sensorlogs gegenüber stellt? Das würde mich wirklich interessieren.

gedi
2016-09-22, 00:37:15
@Format_C

Die 290x konnte es - afair


Noch ein paar Infos zu meinen System und zur Nitro explizit:

- den Freesync-Range Bereich konnte ich noch auf 31Hz drücken. Darunter gibt's Bildfehler - aber immerhin, bin sehr zufrieden.

- die Nitro schaltet ab 1.32V ab. Vermutlich eine Notschaltung um einem Defekt vorzubeugen. Vorbildlich

- die Nitro verbraucht bei 1.45G bis zu 240W :freak:

- viel Zeitaufwand lohnt, um das richtige Setting zu finden. Wenn man es mit dem Ram_OC nicht übertreibt, dann sind 1.4G@1.15V stabil möglich (bei mir bis 8.875G). Weitere Settings: 1.37G@1.08V, 1.39G@1.038V, 1.42G@1.188V, 1.45G@1.222V, was allerdings mit dem verbauten Lüfterkonstrukt nicht mehr zu kühlen ist.

- bei 23°C Raumtemperatur und 60% der Lüftergeschwindigkeit wird die Nitro bei 1.4G bis zu 73°C warm. Das ist noch gerade so im erträglichen Rahmen, ändert allerdings nichts an der Tatsache, dass die Lüfter Schrott sind.

- die Backplate erfüllt ihren Zweck. Im Gegensatz zu Inno3d-Lösung nimmt Sie die Wärme schön auf und gibt sie bei ausreichender Gehäusebelüftung, relativ zügig wieder ab (gemessen mit Fingersensor - also rein subjektiv).

- Änderungen der Vcore werden alle 6mV wirksam.

- wie Hawaii droopt auch die Nitro, allerdings lange nicht mehr so extrem. Unter Full-Load sind es max. 0.012V

- die Nitro hat so ihre Probleme mit dem AB. Aus diesem Grund lese ich das OSD mittels Hwinfo aus. OC funktioniert einwandfrei mit Trixx.


Die Tage werde ich der GPU noch eine Runde Gelid spendieren. Dann darf sie drin bleiben bis Vega kommt.

(del)
2016-09-22, 07:18:49
@Format_C
Die 290x konnte es - afair

Nein, das war ebenfalls ein Fake mit VRM1 und VRM2. Und alle haben das immer wieder fleißig abgeschrieben, obwohl es alberne Grütze ist :D
Auf den meisten 290(X) waren stinknormale MOSFETs wie die IRF6894 im Metallgehäuse auf der Low-Side, kleinere Varianten, wie der IRF 6811, dann auf der High-Side.
KEINES dieser Bauelemente kann auch nur irgendwelche Temperaturwerte auslesen. Da ist nur eine Schottky-Diode drin. Datenblätter FTW - ist nicht zuviel verlangt.

http://i.imgur.com/NA5lY0k.png

Einige PWM Controller von International Rectifier geben auf Wunsch sehr wohl Temperaturen aus - jedoch in diesem Fall ihre eigenen :)
Ein Controller für die GPU und einer für den Speicher - dann hast Du 2 Werte, mit denen man aber nur den Popo abwischen kann.

Die fast schon religiöse Gläubigkeit an irgendwelche Tools macht mich immer wieder sprachlos ;)

Cyphermaster
2016-09-22, 08:08:29
Das liegt wohl daran, daß du - genau wie ich - noch in der analogen Welt groß geworden bist. Da war/ist man nicht ganz so Daten-hörig. ;)

(del)
2016-09-22, 08:22:16
Das liegt wohl daran, daß du - genau wie ich - noch in der analogen Welt groß geworden bist. Da war/ist man nicht ganz so Daten-hörig. ;)

Nichts gegen Daten, solange es meine eigenen, real ermittelten sind. ;D
Aber diese Softwareabhängigkeit und -gläubigkeit ist schon beängstigend. :freak:

Mit nur etwas logischem Denkvermögen muss man sich nämlich fragen, welcher der MOSFETS jetzt diese "Temperatur" hat.
Hat man z.B. Phase Doubling mit 8 MOSFETs auf 4 Phasen (gern auch hochintegrierte mit Low- und High-Side in einem Package),
dann werden die durchs Balancing sogar noch unterschiedlich heiß. Wie wollte man acht solcher Resultate dann verlässlich in einem Wert darstellen?

Man konnte es noch nie per Sensor auslesen und wird es wohl auch in Zukunft nicht können.
Diese sogenannten Tools sind in dieser Hinsicht einfach nicht zu Ende gedachte Konstrukte mit digitalen Nebelkerzen.

Infineon hat zwar solche MOSFETs, aber die kosten das Drei- bis Fünffache. Da macht kein Kostenoptimierer mit.

BTW:
Mir geht immer wieder das Herz auf, wenn ich mal wieder so etwas sehe: Komplementärendstufen.
Was habe ich als Jugendlicher Pärchen ausgemessen, um die Endstufen (oder Treiber) möglichst verzerrungsarm hinzubekommen...

http://i.imgur.com/9SxwS1s.png

Gestern habe ich einen Low-Budget-Subwoofer gepimpt. Analog war schon geil und ist es immer noch!
20 Watt mehr Sinusleistung (fast) für lau und durch das Umlöten von ein paar RC-Gliedern auch noch ein besserer Frequenzverlauf. :)

RoughNeck
2016-09-22, 08:52:43
Ich frage mich schon länger warum immer alle so blind GPU-Z oder anderen Tools vertrauen.
Infrarotthermometer bekommt man schon so um die 25€, da kann dann jeder selbst messen wie warm die Bauteile werden und schon interessiert einen die Software nicht mehr.

gedi
2016-09-22, 09:13:40
Nichts gegen Daten, solange es meine eigenen, real ermittelten sind. ;D
Aber diese Softwareabhängigkeit und -gläubigkeit ist schon beängstigend. :freak:

Mit nur etwas logischem Denkvermögen muss man sich nämlich fragen, welcher der MOSFETS jetzt diese "Temperatur" hat.
Hat man z.B. Phase Doubling mit 8 MOSFETs auf 4 Phasen (gern auch hochintegrierte mit Low- und High-Side in einem Package),
dann werden die durchs Balancing sogar noch unterschiedlich heiß. Wie wollte man acht solcher Resultate dann verlässlich in einem Wert darstellen?

Man konnte es noch nie per Sensor auslesen und wird es wohl auch in Zukunft nicht können.
Diese sogenannten Tools sind in dieser Hinsicht einfach nicht zu Ende gedachte Konstrukte mit digitalen Nebelkerzen.

Infineon hat zwar solche MOSFETs, aber die kosten das Drei- bis Fünffache. Da macht kein Kostenoptimierer mit.

BTW:
Mir geht immer wieder das Herz auf, wenn ich mal wieder so etwas sehe: Komplementärendstufen.
Was habe ich als Jugendlicher Pärchen ausgemessen, um die Endstufen (oder Treiber) möglichst verzerrungsarm hinzubekommen...

http://i.imgur.com/9SxwS1s.png

Gestern habe ich einen Low-Budget-Subwoofer gepimpt. Analog war schon geil und ist es immer noch!
20 Watt mehr Sinusleistung (fast) für lau und durch das Umlöten von ein paar RC-Gliedern auch noch ein besserer Frequenzverlauf. :)

Wenn schon analog, dann bitte richtig: https://reverb.com/au/item/1225966-mesa-boogie-mark-iii-3-simul-class-rack-head-1985-black-white-logo

(del)
2016-09-22, 09:37:42
Ach, zwing mich nicht ins Außenlager, da liegt ganz hinten noch meine Eigenbau-Endstufe mit zwei EL36 und fetten M-Kern-Trafos rum (1979-80).
Als alle sich um fette Transistoren gekloppt haben, habe ich die PA noch mit abgetragenen Restbeständen zusammengelötet.
Das war mal fürs Bühnen-Keyboard. Die Röhren haben das Yamaha locker überlebt, die Halbleiter nie sonderlich lange. :P

Da kamen zwar nur reichlich 100 Watt raus, aber mit gescheiten Boxen reichte das schon für mittelgroße Säle. :)

kruemelmonster
2016-09-22, 10:02:54
Ich frage mich schon länger warum immer alle so blind GPU-Z oder anderen Tools vertrauen.
Infrarotthermometer bekommt man schon so um die 25€, da kann dann jeder selbst messen wie warm die Bauteile werden und schon interessiert einen die Software nicht mehr.

Bevor du mit nem 25€ Infrarotthermometer einfach drauf hältst, kannst du auch GPU-Z nutzen.
Zum richtigen und falschen Umgang mit Infrarotthermometern hat Format_C schon paarmal was geschrieben.

Hübie
2016-09-22, 11:20:44
Also als Näherung für den Heimbedarf ist es sicherlich mehr als ausreichend. Silizium und Co haben spezifische Koeffizienten über die sich Werte errechnen lassen die genau genug sind um zu beurteilen ob gedrosselt werden muss oder nicht, denn immerhin arbeiten die internen Algorithmen auch nicht mit anderen Werten.
Was natürlich immer passieren kann ist ein Bug beim Auslesen des genutzten Tools. Ich erinnere mich an eine groben Fehler in Speedfan...

Megamember
2016-09-22, 12:15:49
Test der Gigabyte 480 G1 Gaming, eine ausserordentlich "heisse" Karte :rolleyes:

9MWMyQ-slLI

Der_Korken
2016-09-22, 12:45:42
Test der Gigabyte 480 G1 Gaming, eine ausserordentlich "heisse" Karte :rolleyes:

http://youtu.be/9MWMyQ-slLI

188W GPU Power Draw und >1200mV im OC-Modus ;D :freak: :facepalm:

Kein Wunder, dass der Kühler überfordert ist. Hier hätte UV wesentlich mehr gebracht, als ein WLP-Wechsel. Zumal letzteres i.d.R. zum Garantieverlust führt.

N0Thing
2016-09-22, 12:52:10
Test der Gigabyte 480 G1 Gaming, eine ausserordentlich "heisse" Karte :rolleyes:

http://youtu.be/9MWMyQ-slLI

Da schließt sich der Kreis.



Gigabyte gibt sich bewusst keine Mühe. Es lohnt einfach nicht, die Karten in Kleinserie zu produzieren.
Der alte Windforce auf der G1 ist auch nicht wirklich optimal, er wirkt irgendwie nur draufgeschludert - Cost Down.
Kein Wunder, dass es diese Karte nie in Stückzahlen nach Europa schaffen wird.

Gigabyte hat in Dongguan mit der neuen Fabrik genügend andere Probleme und MSI als Nachbarn.
Und wenn selbst ich keine eigenen Samples bekomme, dann gibts die Karte auch nicht wirklich ;)

Aber vielleicht erfahre ich ja im Oktober bei PC Partner bezüglich Verfügbarkeiten was Neues, ist auch in Dongguan :)
Da stempeln sie neben Zotac, inno3D und Manli ja auch die Sapphire-Karten.

dildo4u
2016-09-22, 12:59:08
Kein Plan was die da gebaut haben der 1060 Kühler erscheint mir größer als der 480 Kühler.

http://www.gigabyte.de/products/product-page.aspx?pid=5956#kf

http://www.gigabyte.de/products/product-page.aspx?pid=5958#kf

Der_Korken
2016-09-22, 13:19:58
Ich glaube, dass mehr Kühlermaterial hier auch nichts gebracht hätte, weil der Chip einfach zu klein ist, um knapp 200W daraus abzuführen. Die Spannung muss runter bzw. das (GPU-)Powertarget auf <140W gedrosselt.

dildo4u
2016-09-22, 13:21:39
Naja die 80° kommen ja schon wenn die Karte nur 130 zieht.

Isen
2016-09-22, 14:15:46
Abwärme über die Heatpipes kann nicht schnell genug abgeführt werden, wie es aufgenommen wird. ^^ Gigabyte halt. Zum heulen.
Edit: Hatte ich bisher bei allen Karten von denen. Da half nur noch Lüfter hochdrehen und mit dem Krach leben.

Dino-Fossil
2016-09-22, 14:35:17
Meine alte Gigabyte GTX 460 blieb eigentlich relativ ruhig.
Wobei die auch kaum mehr als ~130W gezogen haben dürfte.

Aber bei vielen RX470/480 customs bekomme ich das Gefühl nicht los, das die Kühllösungen für niedrigere TDP geplant waren.
Unsinniges OC-Gedöns immer.

Hübie
2016-09-22, 14:36:14
Abwärme über die Heatpipes kann nicht schnell genug abgeführt werden, wie es aufgenommen wird. ^^ Gigabyte halt. Zum heulen.
Edit: Hatte ich bisher bei allen Karten von denen. Da half nur noch Lüfter hochdrehen und mit dem Krach leben.

Wieso macht man immer den gleichen Fehler? :confused::redface:

Schaffe89
2016-09-22, 14:38:16
Und die nächste Karte die das alte Vorurteil von lauten und heißen AMD Karten bestätigt, dazu noch von jemanden mit großer Reichweite.
Angemahnte Änderungen an der Außenwirkung der AMD Karten, trotz der Marketing Versprechen von nun an leise und kühle Karten zu bauen. Vielleicht sollte AMD mal versuchen hier Qualitätssicherung zu betreiben bzw. bei den Boardpartnern auszusieben.

(del)
2016-09-22, 14:45:12
Wieso macht man immer den gleichen Fehler? :confused::redface:
Weil man keinen wirklich neuen Lüfter genommen hat.
Mir glaubt ja keiner, nur ist es halt eben so. :)

Hübie
2016-09-22, 14:46:10
Nein das meinte ich nicht. Wieso kauft man immer wieder einen Fehler. :confused: Verstehe so ein Kaufverhalten nicht. Ich sitze passenderweise gerade in einer Vorlesung "consumer buying behaviour" :D

Cyphermaster
2016-09-22, 14:51:12
Wieso macht man immer den gleichen Fehler? :confused::redface:Keine Ahnung, aber mit guten Kühl-Lösungen hatte es Gigabyte irgendwie nie so recht, bei allen ihren Produkten. Hätte man wirklich draus lernen können, sowohl Hersteller wie Kunde. /€dit: Vielleicht macht ja das Design immer was aus. Da geben sie sich wenigstens etwas Mühe.

Der_Korken
2016-09-22, 15:04:46
Und die nächste Karte die das alte Vorurteil von lauten und heißen AMD Karten bestätigt, dazu noch von jemanden mit großer Reichweite.
Angemahnte Änderungen an der Außenwirkung der AMD Karten, trotz der Marketing Versprechen von nun an leise und kühle Karten zu bauen. Vielleicht sollte AMD mal versuchen hier Qualitätssicherung zu betreiben bzw. bei den Boardpartnern auszusieben.

Es wäre vielleicht besser gewesen, wenn AMD strengere Auflagen beim zu verwendenden Powertarget gemacht hätte. Die Referenzkarte hat 110W, während die G1 auf >180W hochgeprügelt wird, um noch das eine Prozent schneller zu sein als die Konkurrenz. Solche Modelle schaden dem Image von AMD mehr als dass sie nützen. Bei Nvidia liegen die Customs max. 30W über dem Referenzdesign.

Isen
2016-09-22, 15:22:21
Wieso macht man immer den gleichen Fehler? :confused::redface:

Weil man es testen muss ;)
Und den Amis ist der Krach eh wurscht.

Und die nächste Karte die das alte Vorurteil von lauten und heißen AMD Karten bestätigt, dazu noch von jemanden mit großer Reichweite.
Angemahnte Änderungen an der Außenwirkung der AMD Karten, trotz der Marketing Versprechen von nun an leise und kühle Karten zu bauen. Vielleicht sollte AMD mal versuchen hier Qualitätssicherung zu betreiben bzw. bei den Boardpartnern auszusieben.

Seit wann Baut AMD für Gigabyte die Kühllösungen?

@Pirx,

Bald gibt es nen paar die VW folgen werden... die USA mag das atm gern, da ists mit IT-Magazinen nicht mehr weit.

Pirx
2016-09-22, 15:22:23
Da schließt sich der Kreis.
Da schließt sich nix. Die Ausdrucksweise ist weiterhin unmöglich bis Rufschädigung, bei einem angeblichen GPU-"Verbrauch" von 188 W, allerdings im OC-Modus, braucht man sich nicht wundern, die Karte ist gut verfügbar - wenn selbst dann FormatC kein Sample bekommt - was sagt das aus? kA:freak:

N0Thing
2016-09-22, 15:36:18
Der Kühler kommt mit der Karte schon auf Referenztakt nicht zurecht, da finde ich die Bezeichnung, dass sich Gigabyte "keine Mühe" gibt und den Kühler möglichst günstig "draufgeschludert" ziemlich treffend. Rufschädigend ist da nur das Verhalten Gigabytes, so eine Karte anzubieten.

Schaffe89
2016-09-22, 16:07:17
Seit wann Baut AMD für Gigabyte die Kühllösungen?

Die Polemik und die persönlichen Angriffe sind doch wirklich unnötig. Erstmal ist natürlich AMD auch für das Endresultat verantwortlich, schließlich steht ja nicht nur Gigabyte auf der Verpackung.
AMD braucht Partner wie Sapphire die sich mit der Nitro Serie einen Namen gemacht haben, weil die gut waren. Nun hat auch die Sapphire Nitro rx480 OC wegen schlechter Laustärkewerte Kratzer bekommen. So was kann man sich imho nicht leisten.
Wenn AMD hier keine Vorgaben macht, entweder Beschränkungen des Powertargets oder sonst was, ist AMD genauso mit im Boot.

Die Ausdrucksweise ist weiterhin unmöglich bis Rufschädigung

Eher ist es eine Hilfe zur Selbsthilfe, wenn man kritische Videos produziert.

Dino-Fossil
2016-09-22, 16:38:31
Es wäre vielleicht besser gewesen, wenn AMD strengere Auflagen beim zu verwendenden Powertarget gemacht hätte. Die Referenzkarte hat 110W, während die G1 auf >180W hochgeprügelt wird, um noch das eine Prozent schneller zu sein als die Konkurrenz. Solche Modelle schaden dem Image von AMD mehr als dass sie nützen. Bei Nvidia liegen die Customs max. 30W über dem Referenzdesign.

AMD lässt ihren Kunden ja generell relativ freie Hand, das wäre auch kein Problem, wenn es neben dem ganzen Unsinn den die auf den Markt werfen auch mehr stimmige Produkte gäbe.
Im Fall der 480 ist aber wohl auch das Problem, dass sie schon im Referenzdesign an der oberen Grenze des technisch sinnvollen betrieben wird. Wenn die Partner jetzt meinen sich von der Konkurrenz absetzen (oder sich an sie anpassen) zu müssen, indem sie extra hohe OC fahren, kommt halt ein schwieriger zu kühlendes Produkt mit für die Leistung eigentlich zu hohem Verbrauch heraus.

Persönlich hätte ich viel lieber eine ruhige und sparsame "Öko" Edition als 10 OC+ Extreme Gaming Varianten mit 10% mehr Leistung aber 50% mehr Verbrauch.

dargo
2016-09-22, 16:45:44
Deine "Öko-Edition" kannst du dir mit Hilfe vom Wattman selbst basteln. Sind hier echt manche mit paar Klicks schon überfordert?

Dino-Fossil
2016-09-22, 16:49:15
Deine "Öko-Edition" kannst du dir mit Hilfe vom Wattman selbst basteln. Sind hier echt manche mit paar Klicks schon überfordert?

Das ich das kann ist mir klar, es ist auch das, was ich tun werde.

Aber warum soll "mach's doch gefälligst selber" die einzige gültige Antwort auf eine fragwürdige Produktpolitik sein?

dargo
2016-09-22, 16:52:33
Es gibt auch Partner mit einem "Silentbios" wo in der Regel der Takt und das PT tiefer angesiedelt sind. Wenn dir das nicht reicht ist Feintuning für die eigenen Vorlieben im Wattman gefragt. Wo ist jetzt das Problem?

Dino-Fossil
2016-09-22, 16:56:45
Das "Silent"-Bios liegt in der Regel bei Takt und Verbrauch immer noch deutlich über der Referenz.
Wo ist das Problem für die Hersteller, einfach eine non-OC Karte zu bringen?

dargo
2016-09-22, 17:03:27
Frag die Hersteller, anscheinend verlangt das die Masse nicht.

Gipsel
2016-09-22, 17:38:46
Bisher war die Moderation nachsichtig, wenn Diskussionsteilnehmer hier in nicht akzeptabler Weise persönlich angegangen wurden und hat keine Strafen ausgesprochen sondern entsprechende Passagen nur gelöscht. Allerdings stellt dies keinen Freibrief dar. Bei fortgesetzter Praxis wird dies Sperren nach sich ziehen. Ich bitte daher dringend darum, dies nicht auszutesten und demzufolge von solchen Bemerkungen, die als Flames und Beleidigungen aufgefaßt werden können, abzusehen.

Danke.

dargo
2016-09-22, 19:50:12
Ich hoffe das ist nicht an mich gerichtet, ansonsten erläutere ich gerne im Detail worum es mir die ganze Zeit geht.

Nehmen wir doch mal als Beispiel die MSI Radeon RX 480 Gaming X 8G (https://www.msi.com/Graphics-card/Radeon-RX-480-GAMING-X-8G.html#hero-overview). Die Karte hat drei Modis. Möchte man eine "Green-Edition" einfach den Modus mit 1266Mhz (Silent Mode) verwenden und undervolten. Schon hat man eine sparsame und sehr leise RX480. Will man Leistung um jeden Preis gibts eben die beiden anderen Modis. Jeder hat die Wahl. Zusätzlich bietet der Treiber ein mächtiges Werkzeug mit Wattman für weiteres Feintuning. Für UV bsw. brauchte man in den älteren Generationen noch den Afterburner.

Stattdessen wird seitenweise philosophiert warum die Hersteller immer Custom-OC Karten anbieten die an der "Kotzgrenze" operieren. Dafür gibt es einen einfachen Grund... der Großteil der Kunden achtet nur auf die Balkenlänge. Danach richten sich dann die Hersteller. Es wäre einfach unsinnig im Falle von MSI Gaming drei verschiedene RX480 zu releasen. Man geht den Weg über mehrere Biose oder eben Modis.

Möchte man seine Custom auf die ~160W der Referenz trimmen einfach mal Raff, Wolfgang oder Igor fragen was die Referenz unter GPU Power Draw in GPU-Z schluckt. Sind es bzw. 130W und die ganze Karte verbraucht in Spielen ~160W hat man schon einen guten Anhaltspunkt um seine Custom abzustimmen.

Hermelinmaster
2016-09-22, 20:14:27
Ich muss Jay da mal kurz zur Seite springen. Er hat ja explizit gesagt, dass sein Test das Ende der Fahnenstange ist. Nur, dass die Karte auch ohne OC den Boosttakt oder gar den Boosttakt der Referenzkarte nicht hält und mit 44% (sollten es die gleichen Lüfter meiner Winforce 1060 sein, dann ist das an der Hörgrenze und wird bei 50-60% definitiv hörbar) 80°C bei unter 1240MHz erreicht, ist einfach schlecht. Mit 100% und OC hat sie nur sporadisch auf 1390MHz getaktet und bliebt meistens bei den angesprochenen <1240MHz. Da sollte die Karte sich bei 1300+ einpendeln und stabil halten.
Frage: Sind die ausgelesenen 188W sicher nur von der GPU? Bei der Referenz gilt dies sicherlich, aber bei nem Custom-PCB weiß ich es nicht. Aber entweder sind es über 200W die die Karte verballert oder die Kühllösung ist schon mit 200W überfordert. Interessant ist, das Jay sagt die Abluft sei kühl, spricht für die These der schlechten Heatpipes.
Ist mit der 480 eigentlich eine Karte wie die 1060 von EVGA mit nur einem Lüfter denkbar?

Der_Korken
2016-09-22, 21:06:08
Eine Karte mit einem Lüfter gibt es quasi schon und das ist die Referenz :tongue:. Ich glaube ein besseres Ein-Lüfter-Modell wird es nicht geben.

Bei den Powertargets und der GPU Power Draw würde ich vermuten, dass es sich immer um die Angabe der reinen GPU handelt. In der PCGH gab es für die 480er Modelle mal eine Auflistung vieler Custom-Modelle und den jeweils ausgelesenen, absoluten Powertargets, die jedoch bei den Verbrauchsmessungen der gesamten Karte durchgehend überschritten wurden. Und zwar deutlich. Ich würde die 180W der G1 durchaus für bare Münze nehmen. Der Unterschied zwischen 1240Mhz@1050mV und 1320Mhz@1220mV ist schon Faktor 1,44 (bei quadratischer Gewichtung der Spannung). 120*1,44 = 172W.

x-force
2016-09-22, 21:09:48
Der Unterschied zwischen 1240Mhz@1050mV und 1320Mhz@1220mV
sind das phantasiezahlen oder sieht die skalierung wirklich so schlecht aus?

Der_Korken
2016-09-22, 21:16:48
sind das phantasiezahlen oder sieht die skalierung wirklich so schlecht aus?

Die Zahlen sind aus dem Video, wobei es extrem schwierig ist, das genau festzumachen, weil die Taktraten teilweise stark schwanken. Manchmal waren es 1390Mhz@1220mV, manchmal auch nur 1320Mhz@1220mV. Kann sein, dass Gigabyte die P-States im OC-Modus schlampig ausbalanciert hat und einfach max. Spannung für jeden Takt anliegt, ist aber nur Spekulation meinerseits.

gedi
2016-09-22, 21:26:26
Ach, zwing mich nicht ins Außenlager, da liegt ganz hinten noch meine Eigenbau-Endstufe mit zwei EL36 und fetten M-Kern-Trafos rum (1979-80).
Als alle sich um fette Transistoren gekloppt haben, habe ich die PA noch mit abgetragenen Restbeständen zusammengelötet.
Das war mal fürs Bühnen-Keyboard. Die Röhren haben das Yamaha locker überlebt, die Halbleiter nie sonderlich lange. :P

Da kamen zwar nur reichlich 100 Watt raus, aber mit gescheiten Boxen reichte das schon für mittelgroße Säle. :)

Was nichts an der Tatsache ändert, dass weder davor noch danach wieder etwas fetteres gebaut wurde. Welches Produkt kann das von sich behaupten?

BTT: Das Sapphire VBios vom 2.8. lässt nun Ram_OC bis 9G problemlos zu - es wird also keine weitere Spannungserhöhung für den maximalen Ramtakt benötigt. Die Trixx-Settings gehen zwar weit über 10G hinaus, allerdings wird alles über 9G nicht übernommen.

Dino-Fossil
2016-09-22, 21:37:00
Ich hoffe das ist nicht an mich gerichtet, ansonsten erläutere ich gerne im Detail worum es mir die ganze Zeit geht.

Keine Ahnung, ich heul' auch nicht gleich nur weil mich 'ne Nase im Internet mal ein klein wenig anpflaumt.
Auch wenn ich es allgemein bevorzuge nicht immer gleich latent gereizt zu reagieren (gelingt mir auch nicht immer).
Vielleicht stand da auch was, das schon gelöscht wurde.


Nehmen wir doch mal als Beispiel die MSI Radeon RX 480 Gaming X 8G (https://www.msi.com/Graphics-card/Radeon-RX-480-GAMING-X-8G.html#hero-overview). Die Karte hat drei Modis. Möchte man eine "Green-Edition" einfach den Modus mit 1266Mhz (Silent Mode) verwenden und undervolten.

Wie gesagt, auch in den Silent-Modi ist ja PT meist noch deutlich über Referenz (und die halte ich schon für grenzwertig).
Nachjustieren bleibt trotzdem nötig.
Das es Wattman gibt find' ich super (sonst wäre die 480 in der aktuell erhältlichen Form für mich auch schon gestorben), aber mir ist es trotzdem lieber, wenn ich eine Karte kaufen kann, die ab Werk das bietet was ich suche - ohne Software-seitiges nachjustieren.
Ich glaube nicht, dass ich mich dafür rechtfertigen muss.

Stattdessen wird seitenweise philosophiert warum die Hersteller immer Custom-OC Karten anbieten die an der "Kotzgrenze" operieren.

Das zeigt doch, das offenbar eben doch eine Nachfrage nach solchen Karten besteht! Jetzt damit zu kommen das man nicht darüber diskutieren brauch, weil "der Kunde" sowas nicht will?
Da beißt sich doch die Katze in den Schwanz.

dargo
2016-09-22, 21:41:13
Das zeigt doch, das offenbar eben doch eine Nachfrage nach solchen Karten besteht!
Du meinst weil 2-3 Leute sowas im 3DC suchen wird jemand so eine Karte auflegen? :D Lass es von mir aus 10-20 Leute sein. Völlig unbedeutend solche Zahlen.

Dino-Fossil
2016-09-22, 21:43:12
Sagt dargo der Marktforscher :biggrin:

dargo
2016-09-22, 21:44:08
Du kannst ja gerne eine Umfrage starten.

Monsta
2016-09-22, 21:49:36
Also ich habe lieber eine Karte die an der Kotzgrenze läuft, und die ich mit beiliegenden Tools leiser/langsamer machen kann, als eine Green Edition die schon wegplatzt wenn ich ein paar MHz draufgeben will.
Wenn der Hersteller das Max aus dem Chip rausholt spar ich mir die Arbeit :)

dargo
2016-09-22, 21:51:45
Also ich habe lieber eine Karte die an der Kotzgrenze läuft, und die ich mit beiliegenden Tools leiser/langsamer machen kann, als eine Green Edition die schon wegplatzt wenn ich ein paar MHz draufgeben will.

Oder anfängt zu fiepen weil die Stromversorgung mal wieder unterdimensioniert ist. ;)

gedi
2016-09-22, 22:48:00
Ich glaube es gibt keinen P10 der fiept :)

Cyphermaster
2016-09-23, 08:19:45
BTT: Das Sapphire VBios vom 2.8. lässt nun Ram_OC bis 9G problemlos zu - es wird also keine weitere Spannungserhöhung für den maximalen Ramtakt benötigt. Die Trixx-Settings gehen zwar weit über 10G hinaus, allerdings wird alles über 9G nicht übernommen.Wie skaliert die Karte mit 8G -->9G?

RoughNeck
2016-09-23, 08:21:46
Abwärme über die Heatpipes kann nicht schnell genug abgeführt werden, wie es aufgenommen wird. ^^ Gigabyte halt. Zum heulen.
Edit: Hatte ich bisher bei allen Karten von denen. Da half nur noch Lüfter hochdrehen und mit dem Krach leben.

Oder Kühler tauschen, leben muss man mit dem krach sicher nicht.

gedi
2016-09-23, 20:22:26
Wie skaliert die Karte mit 8G -->9G?

Eine 1.35G 480 mit 9G Vram-Takt ist oft schneller als eine 480 8G mit 1.45G GPU-Takt.

Positiv überrascht bin ich von Freesync, welches bisher immer und zuverlässig funktioniert hat. Bei Gsync hatte ich (sehr selten) das Problem, dass Gsync sich schlagartig deaktiviert hatte. Den fehlenden Fenstermodus kann ich für mich nicht als Nachteil ausmachen, da ich den bei Gsync auch immer "off" hatte.

Mit Freesync, so kann ich konstatieren, ist die 480 eine erstklassige 1440p-Karte. FrameTarget auf 59 (da nur 60Hz-Monitor), die Range erweitern und glücklich sein.

Die Performance einer 480 mit meinem 24/7-Setting (1.42G GPU- und 9G-Vramtakt) kann man am besten so umschreiben:

GTX1080 (2.114G)@UHD, Games maxed out ohne AA = meine 480@1440p, Games maxed out mit ein wenig AA.

Messias
2016-09-23, 20:58:48
Die Performance einer 480 mit meinem 24/7-Setting (1.42G GPU- und 9G-Vramtakt) kann man am besten so umschreiben:

480@1440p, Games maxed out mit ein wenig AA.

Sehe ich ähnlich, wobei meine nicht ganz auf dem Niveau läuft:
1,3G GPU/8,8G VRAM (Ist die Referenzkarte von XFX auf Standardspannung)
Und zwar an einer 3400x1440 Auflösung.

Bin super happy mit der Karte, auch wenn AA nur noch bedingt möglich ist. Allerdings bei der Auflösung auch nur sehr bedingt nötig. ;)

Alles richtig gemacht mit der Karte...

fondness
2016-09-23, 21:02:03
Eine 1.35G 480 mit 9G Vram-Takt ist oft schneller als eine 480 8G mit 1.45G GPU-Takt.

Positiv überrascht bin ich von Freesync, welches bisher immer und zuverlässig funktioniert hat. Bei Gsync hatte ich (sehr selten) das Problem, dass Gsync sich schlagartig deaktiviert hatte. Den fehlenden Fenstermodus kann ich für mich nicht als Nachteil ausmachen, da ich den bei Gsync auch immer "off" hatte.

Mit Freesync, so kann ich konstatieren, ist die 480 eine erstklassige 1440p-Karte. FrameTarget auf 59 (da nur 60Hz-Monitor), die Range erweitern und glücklich sein.

Die Performance einer 480 mit meinem 24/7-Setting (1.42G GPU- und 9G-Vramtakt) kann man am besten so umschreiben:

GTX1080 (2.114G)@UHD, Games maxed out ohne AA = meine 480@1440p, Games maxed out mit ein wenig AA.

Freut mich, dass du zufrieden bist. Besonders auch mit FreeSync, da ja die wenigsten beide Techniken live erlebt haben und sich viele Diskussionen nur um den fehlenden Fenstermodus bei FreeSync drehen.

Kartenlehrling
2016-09-24, 10:28:43
Ich finde die Konstruktion nicht gelungen, die Spannungsversorgung wird überhaupt nicht umspült,
man nutzt nur die wärmeleitfähigkeit von wasser aus, hat aber nicht Kupfer selbst besser wärmeleitfähigkeit als Wasser?


https://www.youtube.com/watch?v=wstG14DmZVk
GIGABYTE RX480 G1 GAMING ReferenzRX480 EKWB Full cover waterblock.

Botcruscher
2016-09-24, 10:57:08
Wozu? Die wichtigen Sachen von den SpaWa sind abgedeckt. Insgesamt kommt da ja auch nicht viel zusammen. Bei angenommen 200W und einer Effizienz von 80-90% verteilen sich da 20-40W. Wenn die Dinger mehr als handwarm werden liegt das alleine an der Inkompetenz der Hersteller bezüglich Kühlerentwicklung.

dargo
2016-09-24, 10:58:36
Ist die GIGABYTE RX480 G1 GAMING die einzige Custom Karte mit einem 6Pin Stecker?

Botcruscher
2016-09-24, 11:11:51
Also auf den Bildern hat die klar einen achter.

Vollnoob
2016-09-24, 11:12:52
Ist die GIGABYTE RX480 G1 GAMING die einzige Custom Karte mit einem 6Pin Stecker?

Nach der Übersicht sollte eigentlich auch die GIGABYTE RX480 G1 GAMING einen 8 Pin haben....

http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/Radeon-RX-480-Custom-Designs-Uebersicht-1202984/

dargo
2016-09-24, 11:18:08
Ach sorry, ich habe das ganze Video nicht gesehen. Die haben die Wakü ja auf die Referenz geschnallt. :redface:

Kartenlehrling
2016-09-24, 11:20:58
@Botcruscher
FaKt ist hier wurde optik vor effizenz gewählt, man hätte einen funktionieren strömungsfluß gewährleisten sollen oder gleich den bereich auslassen und
nur mit kupfterblock abdecken, die Wärmekapzität ist wiederum von Wasser sehr gut, nur hier wird es nicht angewendet.
Eigentlich ist das Wasser an dieser Stelle sogar hinderlich.

Wasser eine Wärmeleitfähigkeit von 0,60 W/(m·K) auf. Zum Vergleich: Kupfer 394 W/(m·K) und Silber 429 W/(m·K), Aluminiumlegierungen 235 W/(m·K)

HardStyler3
2016-09-24, 11:27:52
https://www.youtube.com/watch?v=wstG14DmZVk

polaris unter wasser stimmt der stromverbrauch der da ausgelesen wird?

finde ich schon beachtlich wenn das stimmt

Botcruscher
2016-09-24, 11:32:56
Eigentlich ist das Wasser an dieser Stelle sogar hinderlich.
Deswegen wird es gepumpt womit sich dein Vergleich erübrigt. Mehr lässt sich ohne ausführlichen Test des Kühlers eh nicht sagen.


finde ich schon beachtlich wenn das stimmt
Normales Verhalten bei ordentlicher Kühlung.

dargo
2016-09-24, 11:34:04
https://www.youtube.com/watch?v=wstG14DmZVk

polaris unter wasser stimmt der stromverbrauch der da ausgelesen wird?

finde ich schon beachtlich wenn das stimmt
Nein, das ist nicht die gesamte Karte.

Botcruscher
2016-09-24, 11:37:07
Er vergleicht ja auch nicht die ganze Karte.

dargo
2016-09-24, 11:38:21
Trotzdem ist die Messung sinnlos da der Verbrauch der Spawas mit dem OC auch ansteigt, was hier gar nicht gemessen wird.

Botcruscher
2016-09-24, 11:51:57
Deswegen bleibt doch aber der Effizienzgewinn des Chips erhalten. Von einer Verbrauchsmessung der ganzen Karte spricht doch auch keiner. Zudem dürften auch die SpaWa etwas sparsamer sein.

Der_Korken
2016-09-24, 12:12:11
Er sagt im Video, dass er mit 1,4Ghz@1180mV bei 145W GPU-Verbrauch liegt, während die G1 mit 1320-1390Mhz und 1220mV schon bei 190W lag. Die Temperatur macht also einen großen Unterschied bei der Effizienz. Ich selbe kenne den Effekt von meiner Karte auch: Wenn ich Furmark kalt starte, fängt der GPU Power Draw irgendwo bei 90W an bei 40°C. Wenn die Karte sich bis 80°C aufgeheizt hat, sind es 130W. Entspricht also dem, was im Video gezeigt wurde.

dargo
2016-09-24, 12:59:00
Ach Leute, das war doch gar nicht die Frage von HardStyler3. Dass kühlere Komponenten weniger verbrauchen ist doch schon ewig bekannt.

Er sagt im Video, dass er mit 1,4Ghz@1180mV bei 145W GPU-Verbrauch liegt, während die G1 mit 1320-1390Mhz und 1220mV schon bei 190W lag.
Da hätte er sich wenigstens die Mühe machen und unter den selben Bedingungen vergleichen können. Sprich... gleicher Takt und Spannung. Ich bin mir sicher, dass da nur noch ~25W Unterschied bei der GPU rauskommen würde.

(del)
2016-09-24, 13:10:03
Leck mich doch, sagte der Strom, als es richtig heiß wurde :D
Daher auch die Bezeichnung ;)

Th3o
2016-09-24, 21:52:03
Die Auswirkung der Wasserkühlung ist beeindruckend, aber ist das bei einer Karte für ~300€ überhaupt sinnvoll? Was kostet der Spaß? Bekommt man nicht für das insgesamt ausgegebene Geld nicht gleich eine Karte, die mehr leistet?

raumfahrer
2016-09-24, 22:24:56
Die Kühler sind doch ziemlich gleich im Preis, unabhängig für welche Karte? Ob jetzt RX480 + 100 Euro oder GTX1070 + 100 Euro.

Der_Korken
2016-09-25, 01:07:45
Wenn man die 480 umbaut (=Garantieverlust) und einen teuren Kühlerblock anbringt, wäre die 1070 ziemlich sicher das bessere Geschäft. Es sei denn, man will unbedingt FreeSync haben.

nagus
2016-09-25, 09:56:04
welche ist derzeit die beste 480X?

dargo
2016-09-25, 10:00:40
Definiere "beste".

dildo4u
2016-09-25, 10:03:45
MSI Gameing X laut dem Vergleichstest im aktuellen PCGH Heft hat ein Top Produkt Award bekommen.
Laut dem Test sind die Vorteile der Karte: Leise und hält 1.3GHz Boost,Nachteil hohe Leistungsaufnahme.(209 Watt)

nagus
2016-09-25, 10:08:35
beste zum OCn, halbwegs leise... preis relativ wurscht - sind eh alle dicht beisammen.

ist die MSI besser als die Sapphire Nitro+ Radeon RX 480 8G OC ?

dildo4u
2016-09-25, 10:13:17
Laut PCGH ist die MSI besser als die Nitro die hatten sie auch in dem Vergleichstest Test.
Vorteile der Nitro sie ist schneller aber sowohl das Quiet als auch Boost Bios sind laut.

dargo
2016-09-25, 10:13:20
Bei der Kühlung sicherlich.

Raff
2016-09-25, 10:14:23
Digitales Sonderheft Geforce GTX 1060 / RX 480 / RX 470 / RX 460 (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Sonderheft-GTX-1060-RX-480-1207317/)

Wenn dann noch Fragen offen sind: Wir sind da. :) Dildo liegt aber bereits goldrichtig, wie ich finde.

MfG,
Raff

Goser
2016-09-25, 10:23:22
Moin Raff, gibt es das "digitale Sonderheft" auch als Druck Version? Also finde ich den Artikel in einer Ausgabe der PCGHartware?

Raff
2016-09-25, 10:27:56
Hi Goser,

einen Teil, auch den mit dem Test der 15 Karten, gibt's noch bis Mittwoch im Handel und dann noch bestellbar in Form der PCGH 10/2016: GPU-Boost-Reserven erhöhen, Großbild-Zocken, Titan X, 15x GTX 1060 und RX 480 u.v.m. DVD-Plus: Sins of a Solar Empire - Rebellion (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2016-Magazin-DVD-Download-PDF-1206420/). Dort fehlen nur die im Digitalheft dazugepackten Tests der beiden Referenzdesigns (GTX 1060/6G und RX 480). Aber wer sich eh nur für Partnerkarten interessiert, braucht die nicht zwingend – zumal die GTX 1060 Founders Edition zum Vergleich bei den Partnerkarten aufgeführt ist. :)

MfG,
Raff

horn 12
2016-09-25, 11:35:22
Nun, wie ich finde für den Preis von knapp 300 Euro und dem Verdacht auf Vega im Februar/ März 2017 würde ich die 4 bis 5 Monate noch so überbrücken.
Die 8GB bei RX 480 sind goldrichtig, nur fehlt es aber an Leisetretern, UND ZUDEM kühlen Karten, schlussendlich kommt eben die Performance etwas zu kurz.
Mal sehen ob ich meine Sapphire Tri-X Fury auf die X flash... :-(

nagus
2016-09-26, 11:37:23
danke für die infos!

wie schneidet die Asus ROG Strix-RX480-O8G ab?

captain_drink
2016-09-26, 12:08:23
Sofern man in Wattman nachhilft: Ganz okay. Den Müllkühler von Asus kann ich aber trotzdem eigentlich nicht guten Gewissens empfehlen.

Raff
2016-09-26, 12:29:36
Der Kühler ist gut (bei der RX 480 Strix), das Temperaturziel ist einfach viel zu tief angesetzt. Steht alles im PCGH-Test, nagus. ;)

MfG,
Raff

Goser
2016-09-26, 15:31:32
@Raff Danke habe mir mal die 10/16 geholt.

Schaffe89
2016-09-26, 15:33:13
Er sagt im Video, dass er mit 1,4Ghz@1180mV bei 145W GPU-Verbrauch liegt, während die G1 mit 1320-1390Mhz und 1220mV schon bei 190W lag. Die Temperatur macht also einen großen Unterschied bei der Effizienz.

Das wäre nach dem Release der rx460 die beschnitten war und bei diesem Leckströmen die da auftauchen eigentlich der nicht zu leugnende Beleg, dass die Fertigung bei Globalfoundries Müll ist und sich AMD mal wieder unter Wert verkauft, es ist schon ein Kunststück sowas immerwieder zu schaffen.

(del)
2016-09-26, 15:33:37
@Raff Danke habe mir mal die 10/16 geholt.
;D Verkaufsförderung

Schaffe89
2016-09-26, 15:35:54
Ich hab mir die aktuelle PCGH auch geholt, es lohnt sich.:P

dargo
2016-09-26, 15:39:15
Das wäre nach dem Release der rx460 die beschnitten war und bei diesem Leckströmen die da auftauchen eigentlich der nicht zu leugnende Beleg, dass die Fertigung bei Globalfoundries Müll ist und sich AMD mal wieder unter Wert verkauft, es ist schon ein Kunststück sowas immerwieder zu schaffen.
Anstatt wieder rumzutrollen könntest du uns mal auflisten was die einzelnen Komponenten einer RX480 AMD kosten, inkl. Waferpreisen.

Raff
2016-09-26, 15:41:56
Freut mich, dass mein Spam hier auch Freunde findet. Have fun! :up:

MfG,
Raff

Th3o
2016-09-26, 15:59:15
Das wäre nach dem Release der rx460 die beschnitten war und bei diesem Leckströmen die da auftauchen eigentlich der nicht zu leugnende Beleg, dass die Fertigung bei Globalfoundries Müll ist und sich AMD mal wieder unter Wert verkauft, es ist schon ein Kunststück sowas immerwieder zu schaffen.

Müll ist schon etwas heftig. Jeder neuer Herstellungsprozess bedarf einiger Zeit, bis er gut funktioniert und die Ausbeute entsprechend gut ist. Das ist bei den anderen Firmen auch nicht anders, aber auf die Kleinen kann man ja immer gut draufhauen.

Schaffe89
2016-09-26, 17:00:10
Anstatt wieder rumzutrollen könntest du uns mal auflisten was die einzelnen Komponenten einer RX480 AMD kosten, inkl. Waferpreisen.

Wieso, ich rede doch nicht von Kosten, sondern von dem Fertigungsprozess in dem die rx480 gefertigt wird.
Das sieht nach hohen Leckströmen aus und wenn AMD Vega etwas werden soll, dann muss der definitiv von TSMC kommen, mit den aktuellen Verschiebungen, habe ich da aber meine Hoffnung aufgegeben, sieht alles imho nach GloFo aus.

Müll ist schon etwas heftig.

Vermutlich aber die zugespitze Wahrheit. Ist das WSA eigentlich so bindend an Globalfoundries? Früher hatte man doch jahrelang auf TSMC gesetzt.
Könnte das ein erneuter Versuch sein, Kosten zu sparen?

Gorkon
2016-09-26, 17:01:04
Das wäre nach dem Release der rx460 die beschnitten war und bei diesem Leckströmen die da auftauchen eigentlich der nicht zu leugnende Beleg, dass die Fertigung bei Globalfoundries Müll ist und sich AMD mal wieder unter Wert verkauft, es ist schon ein Kunststück sowas immerwieder zu schaffen.
Keule...ernsthaft, geht es wirklich nicht mal objektiv und nicht unter der Gürtellinie bei dir :confused:
Das der Prozess von GloFo nicht gerade der beste ist, ok...akzeptiert. Aber du kannst nicht einfach auch die zugrunde liegende µArch die damit hergestellt wird ignorieren. Pascal @ 16nm TSMC != GCN @ 14nm GloFo.
GCN als µArch ist einfach ein Schluckspecht, dafür aber ungeheuer flexibel. Egal was für "n00bs" bei AMTi sitzen, die werden sich da schon irgendwie was bei gedacht haben. Klassischer Trade-Off ;) Das sich die gesamte Presse in den letzten Jahren auf 40-50W mehr Verbrauch kollektiv einen runterholt, tut ihr übriges.

Wie "schlecht" 14nm LPP(+) wirklich ist, werden wir ja bei GP107/108 sehen. Dann haben wir jedenfalls die gleiche zugrunde liegende µArch mit 2 verschiedenen Fabs. Oder wir warten auf irgendwas mit GCN IP 9.x (inkl. Clock Gating), dass wäre noch besser.

dargo
2016-09-26, 17:06:23
Wieso, ich rede doch nicht von Kosten, sondern von dem Fertigungsprozess in dem die rx480 gefertigt wird.

Liest du auch was du schreibst?
Das wäre nach dem Release der rx460 die beschnitten war und bei diesem Leckströmen die da auftauchen eigentlich der nicht zu leugnende Beleg, dass die Fertigung bei Globalfoundries Müll ist und sich AMD mal wieder unter Wert verkauft, es ist schon ein Kunststück sowas immerwieder zu schaffen.

Schaffe89
2016-09-26, 17:20:51
Sich unter Wert verkaufen als Firma ist nun doch ein bisschen was anderes als konkrete Fertigungskosten der rx480.:redface:

tech noir
2016-09-26, 17:33:08
Freut mich, dass mein Spam hier auch Freunde findet. Have fun! :up:

MfG,
Raff

Ich habe mir nach Deiner letzten Empfehlung hier für die Ausgabe vor einer Woche ~ das PDF Dossier für 2,99 gekauft. Das Heft war schon überall vergriffen und das Spiel hätte ich auch verschenkt.
Du warst ja so fair, vorher hier im Forum schon den Testsieger der AMD Karten als Kaufempfehlung zu nennen.
Dann kauf dir wenigstens eine vernünftige Karte wie die MSI Gaming X, nicht das Referenzdesign. Das vergrößert die Chancen auf Zufriedenheit immens. :D

MfG,
Raff

Kurze Einschätzung:
Hab ja im Vorfeld schon viel auch im englischsprachigem Netz zu den Karten gelesen und war überrascht, doch noch neue Informationen zu finden.
Vielleicht besonders Erwähnenswert fand ich:
- Den Umfang, alles Interessante im Einsteiger bis Performance Bereich ist abgedeckt und man braucht neben dem Heft nirgends woanders rumwühlen.
- Die Liste "Radeon RX 480: Kompatibilität von 20 Nachrüstkühlern geprüft" - Dat Manpower!
- Das "Wussten Sie, dass ..." Feld ist skurril.
- Leider keine Tests zur tatsächlichen VR-Tauglichkeit der Karten.
- Leider keine Erwähnung wieviele verschiedene Exemplare einer Karte getestet werden und ob diese vom Hersteller bereit gestellt werden.

Am Freitag habe ich dann die passive r9 270 raus-, die rx480 Strix reingesteckt und am Wochenende ein bisschen gezockt. Die Doom Demo lief trotz niedriger FPS (30-45) und Details auf der 270 ja noch erstaunlich sauber
trotz gelegentlicher Ruckler, die rx480 zieht das auf Ultra butterweich durch.
Auch mit vsync. Bin noch dabei, mir das beizubringen; die Karte wird nicht wärmer als 64° (Raumtemperatur ~25°) wenn ich gpu 1350 mhz und mV 1090 einstelle.
Die Lüfter bewegen sich zwischen 1200 und 1600 RPM und sind für mich dann nicht rauszuhören. Große Karte! Kriegt bei mir gut Luft, und macht das ganze auch stundenlang mit.
Soweit kann ich sagen Super - für 289 Schleifen, und die 270 wird im Haushalt weiter genutzt.

gedi
2016-09-27, 11:10:35
Was zum Tweaken: http://www.overclock.net/t/1609782/watttool-a-simple-tool-that-combines-overclocking-with-vrm-monitoring-tweaking-for-rx-400-series

Th3o
2016-09-27, 18:45:08
Nettes Tool. Eine Verwaltung der Profile vermisse ich sehr im WatMann.

gedi
2016-09-28, 00:51:14
Ich finde es auch gut - BIOS-Mod und Shunt-Mod in einem. Zudem weiterhin verwendbar sind trotzdem noch Tools wie der AB, TriXX oder aber der Wattman.

Chimel
2016-09-28, 15:24:40
Bin gestern bei dem 15% eBay Gutschein schwach geworden und hab mir für 237,15€ die XFX Karte bestellt :biggrin:

Was zum Tweaken: http://www.overclock.net/t/1609782/watttool-a-simple-tool-that-combines-overclocking-with-vrm-monitoring-tweaking-for-rx-400-series

Wo werden denn die Einstellungen gespeichert? Im Treiber/Registry etc. oder muss das Tool immer mitlaufen?

gedi
2016-09-28, 18:16:28
In der registry, das Tool muss nicht mitlaufen.

NikLaw
2016-09-29, 18:10:47
Das Watt tool is cool. Allerdings bekomme ich komische Werte wenn ich die min rpm auf 600 setze (600*2/3). Hab den Mono Plus drauf, der geht von 400 bis 1500 rpm. Die Werte schwanken zwischen 600.000 und 1.500.000 rpm :freak:.

von Richthofen
2016-09-30, 15:37:08
Bin gestern bei dem 15% eBay Gutschein schwach geworden und hab mir für 237,15€ die XFX Karte bestellt :biggrin:

Das hab ich auch gemacht - ist aber eine Asus geworden.
Den Treiber hat er automatisch "verbessert" und das Wattman Tool mit eingebaut. Soweit, sogut. Aber was ist mit dem Afterburner los? Schon die neueste Beta nachinstalliert. Totzdem bleibt die ganze linke Seite verwaist.

57572

Finanzamt
2016-09-30, 15:51:17
die neuste beta ist die 4.3.0 Beta 14

http://www.guru3d.com/files-details/msi-afterburner-beta-download.html

von Richthofen
2016-09-30, 17:19:35
die neuste beta ist die 4.3.0 Beta 14

http://www.guru3d.com/files-details/msi-afterburner-beta-download.html

Huch!
Danke, jetzt ist alles bestens.
Der Version lag ein neuer Riva Statistics Server bei (6.5.0 Beta). Auch die GPU-Temperatur wird nun im OSD angezeigt - genau so wie ich es wollte :smile:.

gedi
2016-10-02, 00:40:53
Kann es sein, das der Verbrauch in Idle mit dem letzten Treiber gefixt wurde? Leider habe ich keine Referenz, allerdings fiel mir folgendes in GPU-Z auf:

http://up.picr.de/26995339ng.gif

aufkrawall
2016-10-02, 00:43:56
Und was genau fällt dir da auf?
Für mich sieht das so aus, als würd immer noch für jedes Fenstergeschubse heraufgetaktet.

gedi
2016-10-02, 00:52:35
Und was genau fällt dir da auf?
Für mich sieht das so aus, als würd immer noch für jedes Fenstergeschubse heraufgetaktet.

Ne das kommt beim Surfen gelegentlich vor ;) - zumal die Hardwarebeschleunigung aktiviert ist. Ich meinte eigentlich die 7.6W.

Jake Dunn
2016-10-02, 01:08:07
Ne das kommt beim Surfen gelegentlich vor ;) - zumal die Hardwarebeschleunigung aktiviert ist. Ich meinte eigentlich die 7.6W.

Nee war immer so.

https://abload.de/img/zhisds08.jpg (http://abload.de/image.php?img=zhisds08.jpg)

gedi
2016-10-02, 01:09:11
Okay - danke für die Rückmeldung ;)

von Richthofen
2016-10-02, 01:49:23
Der Coretakt muss runter. Tahiti und Hawaii idlen auf 150MHz.
Bei geöffnetem Wattman schießt die Anzeige alle Sekunde hoch und runter.
Soweit ich mich erinnern kann schafft nV die tollen Idleverbräuche der FE wohl u.a. durch niedrige 139MHz Chiptakt.

dargo
2016-10-02, 08:54:47
Der Coretakt muss runter. Tahiti und Hawaii idlen auf 150MHz.

Du meinst den Speichertakt und somit auch den Memory Controller. ;) Die 0,9V von P10 in Idle für die GPU sind aber auch etwas hoch. Kann man die nicht reduzieren? Wobei... bei Jake Dunn sinds wiederrum 0,8V. :uponder:

Edit:
Bei der GTX1060 geht NV auch sehr tief mit der Spannung runter.
http://webmail.fudzilla.com/component/k2/41152-nvidia-geforce-gtx-1060-previewed?showall=1

Der Speicher bleibt aber bei 200Mhz. Möglicherweise macht der GDDR5 8Gbps oder der Speichercontroller bei weniger Probleme.

bnoob
2016-10-02, 10:30:52
Hat AMD den Verbrauch bei Multimonitorbetrieb mit unterschiedlichen Auflösungen gefixt?

Ich fahre mit meiner 290X ein AB-Profil mit 500/620 Core/Mem als Max-Vorgabe (niedriger lässt mich AB nicht gehen) um das ganze etwas einzudämmen.

gedi
2016-10-02, 10:57:07
Du meinst den Speichertakt und somit auch den Memory Controller. ;) Die 0,9V von P10 in Idle für die GPU sind aber auch etwas hoch. Kann man die nicht reduzieren? Wobei... bei Jake Dunn sinds wiederrum 0,8V. :uponder:

Edit:
Bei der GTX1060 geht NV auch sehr tief mit der Spannung runter.
http://webmail.fudzilla.com/component/k2/41152-nvidia-geforce-gtx-1060-previewed?showall=1

Der Speicher bleibt aber bei 200Mhz. Möglicherweise macht der GDDR5 8Gbps oder der Speichercontroller bei weniger Probleme.

Kann sein dass dies am Watt-Tool liegt. Beim Speicher liegen bei mir 0.9V für 8.9GB/S an.

von Richthofen
2016-10-02, 14:02:52
Du meinst den Speichertakt und somit auch den Memory Controller. ;) Die 0,9V von P10 in Idle für die GPU sind aber auch etwas hoch. Kann man die nicht reduzieren? Wobei... bei Jake Dunn sinds wiederrum 0,8V. :uponder:


Meinte schon den Chiptakt. Beim Speicher gibt's bei AMD soweit ich weiss auch keine Zwischenstufen: Auch die 480 macht 300->2000->300.
Die Spannung beträgt hier 1,0V und lässt sich zwischen 800-1100mV justieren.
Die Idle-Chipspannung beträgt 0,8V.
Unter 800mV und über 1150mV lässt sich per Wattman nicht regeln. Das ist abhängig vom BIOS. Manche lassen höhere Spannungen zu.

marc-05
2016-10-02, 14:05:56
Idle Takt/Spannung ist ja eigentlich gesperrt ,da ist 0,9V ungwöhnlich hoch.


YT Actually Hardcore Overclocking mit PCB Breakdown /Analyse Videos

ASUS RX 480 Strix
W3QDevWleVY

Gigabyte RX 480 G1 Gaming
zdYzPEK9A30

Powercolor RX 480/470 Red Devil
4nEbpn6NKPQ

Sapphire RX 480 Nitro
EPwsLOX7Y_k

Fliwatut
2016-10-02, 14:11:25
Interessante Videos, da hat Asus wohl die beste Karte rausgehauen.

Im Mindstar:
8192MB Sapphire Radeon RX 480 Nitro+ Aktiv PCIe 3.0 x16 (Lite Retail) 269,90
http://www.mindfactory.de/Highlights/MindStar

Thunder99
2016-10-02, 14:44:58
Hat AMD den Verbrauch bei Multimonitorbetrieb mit unterschiedlichen Auflösungen gefixt?

Ich fahre mit meiner 290X ein AB-Profil mit 500/620 Core/Mem als Max-Vorgabe (niedriger lässt mich AB nicht gehen) um das ganze etwas einzudämmen.
Seit Fiji oder aka GCN 1.2 haben sie was verbessert

uweskw
2016-10-02, 15:03:54
Bin gestern bei dem 15% eBay Gutschein schwach geworden und hab mir für 237,15€ die XFX Karte bestellt :biggrin:

....


Da hab ich wohl was verpasst. Gibts die Aktion noch, wo?

greetz
US

von Richthofen
2016-10-02, 15:08:15
Er wird im Video nicht müde auf die Red Devil einzudreschen. "Much worse power regulators than on Ref.PCB".
Ferner weist er darauf hin, falls das neue BIOS mit dem erhöhten Powertarget verwendet wird, keinesfalls Furmark (und Derivate wie Kombustor) oder ähnlich intensive Programme auszuführen. Autsch.

Der Vollständigkeit halber noch die Analyse zum Referenzdesign:
qG2e-v94L4M

Wie zum Kuckuck bindet man diese Videos ein? Die Video-URL in die "YT../YT"-Klammern inkludieren klappt nicht.
Edit2: Danke marc-05

Edit:
Softwareseitige Spannungsregulierung des Speichers ist nur scheinbar möglich. Änderungen der Werte schlagen nicht durch. Derzeit ist quasi nur Hardmodding möglich.

Die ebay-Rabattaktion mit den 15% auf alles lief nur einen Tag.

marc-05
2016-10-02, 16:16:34
Wie zum Kuckuck bindet man diese Videos ein? Die Video-URL in die "YT../YT"-Klammern inkludieren klappt nicht.



nach v= die Nummer/Ziffern einfügen YT qG2e-v94L4M /YT

dargo
2016-10-02, 16:52:02
Meinte schon den Chiptakt.
Ein Grenada/Hawaii hat in Idle 300Mhz GPU und 150Mhz Speicher. Beim Tahiti bin ich mir jetzt nicht sicher, afaik war es aber auch so.

von Richthofen
2016-10-02, 17:01:46
Ein Grenada/Hawaii hat in Idle 300Mhz GPU und 150Mhz Speicher. Beim Tahiti bin ich mir jetzt nicht sicher, afaik war es aber auch so.

Tahiti hat 150, hatte bis übergestern noch eine 7950 drin. Bei Hawaii hast du aber recht. Aus irgendeinem Grund hab ich das in einen Topf geschmissen oder verdreht gemerkt.

dargo
2016-10-02, 17:18:50
Nö... :D
https://www.computerbase.de/forum/attachment.php?attachmentid=451468&d=1415056534

von Richthofen
2016-10-02, 17:30:17
Dann hab ich das komplett verdreht.
Ziehe meine Aussage zum Idletakt damit reuevoll zurück.

Megamember
2016-10-02, 17:32:58
150 war mem.

Pumpi74
2016-10-02, 20:04:53
Die ebay-Rabattaktion mit den 15% auf alles lief nur einen Tag.

Jo. Da hatte ich die "RX 480 ASUS Strix OC 8GB" für 266€ erworben.

Wollte ich mal ausprobieren wegen Freesync am neuen Monitor. Freesync funktionierte auch ganz gut. Downsampling auch. Die Treiberbedienung gefällt mir sogar. Was mir nicht sonderlich zusagte war die Strix selbst. Speicher schaffte keine 2200Mhz, leise war die Karte nur mit maximal 1250Mhz auf der GPU (mit Peaks bis 1310Mhz), trotz massiver manueller Wattmanregelung. Ein riesiger schwerer Klotz der bei 180 Watt Verbrauch schon am Erträglichkeitslimit hängt. Hab die Karte grad auf E-Bay Kleinanzeigen wieder für 249€ verkauft. Die Erfahrung waren mir die 17€ wert, so schnell wieder wird mir aber keine Radeon in den Rechner kommen.

Nachdem ich meine W10 Update-Build Probleme im Griff hatte (kein AMD Problem), blieben noch zwei Ärgernisse: Ich kam mit der Karte nicht in mein Mainboard BIOS. Wollte ich da rein musste ich die Karte vom 8 Pin lösen und an mein Mainboard HDMI gehen. Mit der Intelgrafik ging es dann.

Als ich die Karte ausbaute blieb nach dem hochfahren mit Intelgrafik das Windows "schwarz". Der AMD Treiber war dann auf einmal, als die Karte draußen war, so dominant das er sogar die Intelgrafiknutzung unterband. Also Karte wieder rein und AMD Treiber deinstalliert. Dann lief es wieder. Ist mir so mit noch keiner einzigen nVidia Karte passiert.

Fazit: Mag sein das AMD treiberseitig aufgeholt hat, Plug and Play kann nVidia noch immer wesentlich besser.

von Richthofen
2016-10-02, 23:18:59
Jo. Da hatte ich die "RX 480 ASUS Strix OC 8GB" für 266€ erworben.

Wollte ich mal ausprobieren wegen Freesync am neuen Monitor. Freesync funktionierte auch ganz gut. Downsampling auch. Die Treiberbedienung gefällt mir sogar. Was mir nicht sonderlich zusagte war die Strix selbst. Speicher schaffte keine 2200Mhz, leise war die Karte nur mit maximal 1250Mhz auf der GPU (mit Peaks bis 1310Mhz), trotz massiver manueller Wattmanregelung. Ein riesiger schwerer Klotz der bei 180 Watt Verbrauch schon am Erträglichkeitslimit hängt.

Exakt 266,48€ :D.
Die Karte hält in Heaven jederzeit den vollen Boost (1310MHz im Gaming Mode). 2200 MHz Speicher sind kein Problem, zumindest nicht während der zwei Durchläufe, die angestellt wurden. 170 Watt (+-15) stehen dabei etwa auf der Uhr. Die 70 Grad werden nicht überschritten. Meist sind es ein paar Grad weniger. Dabei tourt der Lüfter auf sein Standardmaximum von etwa 2100upm. Das allerdings ist, wie bekannt, dem (ebnfalls standardmäßigen) aggressiven Temperatur-Target von 65 Grad geschuldet.

Aktuell brauch ich die Leistung nicht. Arx Fatalis läuft heute auch auf nem Taschenrechner.
Später klecks ich vllt. etwas LiquidMetal auf den Chip. Allerdings ist die Karte mit einem Schraubenaufkleber verplombt. Man kann das z.B. schön auf den Bildern des CB Tests sehen.

gedi
2016-10-03, 00:18:29
Hi, ich habe mal ein paar Benchmarks gemacht, so dass evtl. ein Vergleich zur selbst verbauten Hardware möglich ist. Alle Benchmarks wurden in 1440p in max. Qualität ausgeführt. Wenn nicht, dann siehe Vermerk bzw. gebe einen Screenshot bei. Die Grafikkarte wurde absichtlich nicht weiter übertaktet, da es sich um meine 24/7-Settings handelt.

Hardware: 6700k@4.8G
Ram: DDR4-3000 cl 15,16,16,38

Treiber: 16.9.2
Texturfilterung: Hoch
Freesync: On

Die Grafikkarte:

http://up.picr.de/27008327mw.gif


Die Benchmarks:

Bioshock Infinite:

http://up.picr.de/27008357fy.jpg


F1 2016 V1.51

http://up.picr.de/27008392hv.jpg


Metro LL

http://up.picr.de/27008424pr.jpg



Mirrors Edge Catalyst (Ultra-Setting):

http://up.picr.de/27008501tw.png



RotTR (DX12, FXAA)

http://up.picr.de/27008555ct.jpg
http://up.picr.de/27008742fo.jpg

Star Wars Battlefront

http://up.picr.de/27008563jy.png


TR 2013

http://up.picr.de/27008566ey.jpg
http://up.picr.de/27008571tk.jpg

FC Primal

http://up.picr.de/27008700of.jpg

Project Cars (19 Autos, Hockenheim historisch)

http://up.picr.de/27008832vb.jpg
http://up.picr.de/27008834lv.png

Crysis 3 (SMAA 1x)

http://up.picr.de/27008891zq.png

Sleeping Dogs (2xSSAA)

http://up.picr.de/27023648je.jpg

Hübie
2016-10-03, 01:50:10
Er wird im Video nicht müde auf die Red Devil einzudreschen. "Much worse power regulators than on Ref.PCB".
Ferner weist er darauf hin, falls das neue BIOS mit dem erhöhten Powertarget verwendet wird, keinesfalls Furmark (und Derivate wie Kombustor) oder ähnlich intensive Programme auszuführen. Autsch.

Der Vollständigkeit halber noch die Analyse zum Referenzdesign:
http://youtu.be/qG2e-v94L4M

Wie zum Kuckuck bindet man diese Videos ein? Die Video-URL in die "YT../YT"-Klammern inkludieren klappt nicht.
Edit2: Danke marc-05

Edit:
Softwareseitige Spannungsregulierung des Speichers ist nur scheinbar möglich. Änderungen der Werte schlagen nicht durch. Derzeit ist quasi nur Hardmodding möglich.

Die ebay-Rabattaktion mit den 15% auf alles lief nur einen Tag.

Der Bengel gefällt mir. Ich glaube aber das auch AMD zwei Spannungseingänge hat. Somit wären es nicht 600 sondern 2x300 Ampere. Bin aber nicht sicher.

Pumpi74
2016-10-03, 04:39:27
Exakt 266,48€ :D.
Die Karte hält in Heaven jederzeit den vollen Boost (1310MHz im Gaming Mode). 2200 MHz Speicher sind kein Problem, zumindest nicht während der zwei Durchläufe, die angestellt wurden. 170 Watt (+-15) stehen dabei etwa auf der Uhr. Die 70 Grad werden nicht überschritten. Meist sind es ein paar Grad weniger. Dabei tourt der Lüfter auf sein Standardmaximum von etwa 2100upm. Das allerdings ist, wie bekannt, dem (ebnfalls standardmäßigen) aggressiven Temperatur-Target von 65 Grad geschuldet.

In Heaven wurde die Karte bei mir 74 Grad warm ( mit angehobenem Temptarget auf 90 Grad, Zielgeschwindigkeit Lüfter ganz nach unten....), allerdings konnte die Karte im standard Gamingmode nicht konstant die 1310Mhz halten, 1290Mhz waren keine Seltenheit. Nur ist Heaven ja kein Stabilitätsgarant. Ünglücklicherweise spiele ich die Anno Reihe wirklich gern. Da ist man dann mit der Strix ganz schnell bei 1250Mhz runter. Man konnte das droppen weitgehend umgehen indem man von den stock 1,13 Volt auf 1,15 gegangen ist, nur ist die Geräuschkulisse dann wirklich sehr unangenehm.

Heißt für mich in der Praxis das nicht mal der angegebene Boosttakt einer Referenzkarte nutzbar ist. Was für 266€ einfach zu wenig Leistung bedeutet. Sollte die "RX 470 Nitro+ 8GB" in nächster Zeit auf 200€ fallen, dann werde ich die vielleicht noch mal probieren. Ansonsten werde ich mir wieder eine nVidia zulegen, trotz Feesync Monitor.....

(del)
2016-10-03, 08:52:29
Er wird im Video nicht müde auf die Red Devil einzudreschen. "Much worse power regulators than on Ref.PCB".

Das Dumme an diesem Video: Sensationshascherei. In den Datenblättern wird in Überschriften und Einleitungen gern die maximale Stromstärke
für konstanten Gleichstrom unter ganz bestimmten Bedingungen angegeben, auf die er sich ganz offensichtlich auch bezieht.
Dass auf der Referenz vor allem auf der Low-Side so riesige MOSFETs verbaut wurden, ist aber nur dem Umstand geschuldet, dass AMD versucht hat,
an jeder Ecke ein paar Watt zu sparen und Komponenten mit möglichst extrem niedrigen Innenwiderstand verbaut hat.
Die waren halt groß und günstig, aber keine absichtliche Offerte an Extremübertakter oder Haltbarkeitsfanatiker.

Nur ist es ja so, dass hier pulsierende Ströme fließen. Ich hatte einen ähnlichen Fall, wo sich jemand über die zwei angeblich zu kleinen 11A-MOSFETS
pro Wandlerzug auf der Gigabyte 1070 mini ITX OC mokierte, jedoch vergaß, dass bereits beim Switching im 1s-Bereich das Doppelte möglich ist
und im 100ms-Bereich sogar mehr als das Vierfache. Auch laut Datenblatt, nur muss man eben auch mal die Folgeseiten lesen und berücksichtigen,
wie so eine Regelung überhaupt funktioniert. Da kommen dann noch weitere Dinge wie die Drain-Source-Spannung hinzu, die man schon kennen muss,
um überhaupt ein objektives Urteil fällen zu können, ob etwas zu eng bemessen ist oder nicht.

Beispiel, was ein "11A"-MOSFET zu leisten vermag:

http://i.imgur.com/wh3xxYD.jpg
Sicherer Arbeitsbereich

http://i.imgur.com/SPOUUQa.jpg
Peak-Leistung in Watt

Aber selbst bei "Power-Viren" wie Kombustor oder Furmark wird "geswitcht", so dass nie und nimmer ein konstanter Gleichstrom auftreten wird.

Die Bestückung der Red Devil ist ausreichend, zumal der Innenwiderstand der verbauten Komponenten noch klein genug ist,
um keine thermischen Bomben zu zünden. Solche Videos gehören gelöscht oder mal ergänzend kommentiert. Bei TUL hat man sich jedenfalls amüsiert.

Gumril
2016-10-03, 10:53:29
In Heaven wurde die Karte bei mir 74 Grad warm....

Interessant wie unterschiedlich die Werte ausfallen bei den RX-Karten.
Meine Asus läuft bei Heaven mit 1330 HZ auf 1070mV ohne Einbrüche stabil und der Lüfter säuselt bei 950 RPM bei 65 Temp. vor sich hin.
Also scheinen die meisten Modelle wohl wirklich nicht für Out of the Box Betrieb geeignet zu sein, da sollte man wohl lieber bei den grünen bleiben ;)

(del)
2016-10-03, 11:28:06
Ich denke mal auch, dass die Serienstreuung im Moment noch sehr hoch ist. Ich habe mittlerweile eine zweite MSI RX 480 Gaming X 8R retail, die ist erstaunlicherweise reichliche 8 Watt sparsamer bei gleichem Takt (und damit auch kühler), wenn man den OC-Mode als Maßstab nimmt. :)

Elandur
2016-10-03, 12:59:59
https://abload.de/img/zhisds08.jpg (http://abload.de/image.php?img=zhisds08.jpg)

Hmm.... nun ja, immerhin, mit 144Hz sieht das ganze ja so aus:
https://abload.de/img/rx480_144hzhbscj.gif (http://abload.de/image.php?img=rx480_144hzhbscj.gif)

Mit 120Hz nur noch ab und an:
https://abload.de/img/rx480_120hz6bssf.gif (http://abload.de/image.php?img=rx480_120hz6bssf.gif)

Hätte ja gehofft das hätten die mit Polaris mal "gelöst" ...

gedi
2016-10-04, 22:07:59
Ich weiß nicht, ob es bereits jemandem aufgefallen ist: Wenn man die kleineren P-States deutlich nach oben setzt, dann sind 2 Dinge möglich: Eine wesentlich geringere Vcore für P8 und stabile 9G Vram-Takt ohne plötzlichen Blackscreen.

Aussehen sollte es dann so:

http://up.picr.de/27033419ok.png

Natürlich variiert der Targettakt nach Güte der GPU und Kühlung.

RitterRost
2016-10-05, 10:44:28
Interessant wie unterschiedlich die Werte ausfallen bei den RX-Karten.
Meine Asus läuft bei Heaven mit 1330 HZ auf 1070mV ohne Einbrüche stabil und der Lüfter säuselt bei 950 RPM bei 65 Temp. vor sich hin.

Wie hast Du den Lüfter unter 1400 Umdrehungen bekommen?
Meine ASUS STRIX RX480 OC hatte minimal 1400 U/Min, was jedes mal bei Erreichen vom 50°C (z.B. BattleNet im Fenster) zu einem kurzzeitigen, sehr lautem Lüftergeräusch führte. Das war sehr nervig und ich kann nicht verstehen, wie irgendjemand die ASUS Karte als leise bezeichnen kann.

Ich hatte per WattMan, ASUS GPU Tweak II und WattTool 0.92 versucht, die Lüfter langsamer zu kriegen... aber, unter 1400 Umdrehungen habe ich sie nicht stellen können.

Dino-Fossil
2016-10-05, 11:22:51
Wurde zu den ASUS Karten nicht gesagt, dass primär das eingestellte Temperaturziel zu niedrig angesetzt ist?

RitterRost
2016-10-05, 12:00:57
Wurde zu den ASUS Karten nicht gesagt, dass primär das eingestellte Temperaturziel zu niedrig angesetzt ist?

Ja, das ist richtig.

Allerdings ändert das nix an dem senkrechten Regler im Wattman. Da kann man die min. Fanspeed nur bis ca. 1400 Umdrehungen runter ziehen.

Pumpi74
2016-10-05, 13:00:11
Es gibt im Wattman unter dem Fanspeed Target noch einen kleinen Regler mit Bezug Lüfter. Den mal ganz nach links setzen, dann geht es auch auf 1000 U/Min runter mit der Strix. Was dann sehr erträglich ist, hält aber auch keine hohen Mhz Zahlen....

RitterRost
2016-10-05, 13:43:04
Es gibt im Wattman unter dem Fanspeed Target noch einen kleinen Regler mit Bezug Lüfter. Den mal ganz nach links setzen, dann geht es auch auf 1000 U/Min runter mit der Strix. Was dann sehr erträglich ist, hält aber auch keine hohen Mhz Zahlen....

Danke für die Info. Hätte ich hier mal gleich gefragt.
1000 U/Min klingen immer noch recht viel. Unter Linux hatte die Karte im idle auch immer hörbar drehende Lüfter.
Hab sie schon zurück geschickt und hoffe, dass die MSI wirklich leiser ist.

Th3o
2016-10-05, 16:41:35
Bei meiner MSI sind 522 Minimum RPM.

RitterRost
2016-10-05, 17:31:47
Bei meiner MSI sind 522 Minimum RPM.

Danke, das sollte silent sein - steigert die Vorfreude :-)

Gumril
2016-10-05, 19:09:14
Wie hast Du den Lüfter unter 1400 Umdrehungen bekommen?.

Dir wurde zwar schon geantwortet aber vielleicht hilft das Bild auch anderen.
So hab ich sie momentan eingestellt, noch nicht viel rum gestellt da für mich aus meinen Gehäuse nicht hörbar.
http://fs5.directupload.net/images/161005/oyta9x85.png

Etienne
2016-10-05, 22:57:20
Neuer Crimson 16.10.1 Treiber released:

http://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-Edition-16-10-1-Release-Notes.aspx


Release notes

Radeon Software Crimson Edition 16.10.1 Highlights

Support For:
Gears of War® 4
Mafia III™

New AMD CrossFire profile added for DirectX® 11:
Shadow Warrior™2

Fixed Issues

Deus Ex: Mankind Divided™ may experience minor stutter during gameplay when using AMD CrossFire mode or may crash when launching the in game benchmark.
The Crew™ may experience a random or sudden FPS drop while playing.
Battlefield™1 may experience flickering on some surfaces when using AMD CrossFire mode.
Radeon WattMan may fail to keep Power Limit settings after hitting apply in some cases.
Overwatch™ may experience flickering character models while in the hero selection menu or during gameplay in AMD Crossfire mode.
Paragon™ may experience flickering while using AMD FreeSync technology and AMD CrossFire mode in conjunction.
Pixel Format option is no longer missing for some Radeon RX 400 series products in Radeon Settings.

Known Issues

A few game titles may fail to launch, experience performance issues or crash if the third party application "Raptr" has its game overlay enabled. A workaround is to disable the overlay if this is experienced.
The Division™ may experience a game hang during extended periods of play while in AMD CrossFire mode.
Rise of the Tomb Raider™ may experience an application crash when changing the resolution from in-game menus when running DirectX®12. Users can restart the game to complete the resolution change.
While using or having Radeon WattMan open in Radeon Settings in AMD CrossFire mode, the secondary/slave graphics processor clocks will increase to their highest state.
H.264 content may experience blocky corruption when streaming using P2P content players on some Radeon RX 400 series graphics products.

MechWOLLIer
2016-10-06, 10:54:42
Es gibt im Wattman unter dem Fanspeed Target noch einen kleinen Regler mit Bezug Lüfter. Den mal ganz nach links setzen, dann geht es auch auf 1000 U/Min runter mit der Strix. Was dann sehr erträglich ist, hält aber auch keine hohen Mhz Zahlen....
Mal ne ganz blöde Frage: Was GENAU macht der Schalter überhaupt? Das konnte mir bis jetzt noch nichtmals AMD so wirklich beantworten...

Kartenlehrling
2016-10-07, 23:35:36
https://www.youtube.com/watch?v=4SvbJx1vlZw
LiquidVR™ Asynchronous Space Warp

http://techreport.com/r.x/2016_10_6_Oculus_Asynchronous_Spacewarp_lowers_VR_requirements_to_45_FPS/async_spacewarp_1.jpg
http://techreport.com/r.x/2016_10_6_Oculus_Asynchronous_Spacewarp_lowers_VR_requirements_to_45_FPS/async_spacewarp_2.jpg

Megamember
2016-10-09, 17:53:08
Jayz2cent Review der XFX 480 GTR
NAch den Resultaten aber wohl ein cherrypicked Golden sample, oder sind die alle so gut :rolleyes:

zWASNajSdpg

AnarchX
2016-10-09, 18:18:43
AMD will ja 5,8 TFLOPs bei 95W erreichen können: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11175095#post11175095
... vielleicht gibt es ja da mittlerweile eine neue Revision/Metalspin.

iuno
2016-10-09, 18:35:11
NAch den Resultaten aber wohl ein cherrypicked Golden sample, oder sind die alle so gut :rolleyes:
schoen waers
https://pics.computerbase.de/6/9/7/2/8/8-1080.3405584663.png
seems legit
So haetten alle Polaris von Anfang an aussehen sollen...

Ist aber schon uebel. Das sind halt mal eben 15 W weniger im Heaven als die 480, die er mit fullcover getestet hat. Und das bei selber Spannung, +25 K, +20 MHz, + was die Luefter brauchen. Ich gehe einfach mal von denselben Settings aus.

Th3o
2016-10-09, 18:37:13
Jayz2cent Review der XFX 480 GTR
NAch den Resultaten aber wohl ein cherrypicked Golden sample, oder sind die alle so gut :rolleyes:

http://youtu.be/zWASNajSdpg

Leider keinerlei Infos bzgl. Power Target / VCore / Lautstärke. Und dann noch außerhalb eines Gehäuses.

dargo
2016-10-09, 18:46:10
Jayz2cent Review der XFX 480 GTR
NAch den Resultaten aber wohl ein cherrypicked Golden sample, oder sind die alle so gut :rolleyes:

http://youtu.be/zWASNajSdpg
Schon erstaunlich wie groß offenbar die Serienstreuung ist. :freak:

Leider keinerlei Infos bzgl. Power Target / VCore / Lautstärke. Und dann noch außerhalb eines Gehäuses.
Vcore siehst du ja im Video. Mit den Default 1288Mhz nur 1056-1062mV. Power Target kann auch nicht sehr tief sein sonst würde man den Takt nicht erreichen. Da hat der Tester wohl ein extrem gutes Exemplar erwischt.

Megamember
2016-10-09, 18:58:48
Leider keinerlei Infos bzgl. Power Target / VCore / Lautstärke. Und dann noch außerhalb eines Gehäuses.

War anscheinend AUto Lüftersteuerung und die kann bei 65 Grad nicht sonderlich laut sein. Der offene Testbench macht auch keinen großen Unterschied zu einen normal durchlüfteten Gehäuse.

iuno
2016-10-09, 19:07:05
Sieht man eigentlich da im overlay schon wie in gpu-z den Verbrauch der GPU, nicht der ganzen Karte oder?
Er suggeriert ja, dass die (XFX) die Karte so hinbekommen haben, was ja demnach ziemlicher Unsinn waere?!

dargo
2016-10-09, 19:16:29
Sieht man eigentlich da im overlay schon wie in gpu-z den Verbrauch der GPU, nicht der ganzen Karte oder?

Nur GPU. Hier hast du mal einen Vergleich der Referenz RX480 unter Wasser bei ähnlicher Vcore.
https://www.youtube.com/watch?v=wstG14DmZVk

Die XFX GTR ist mit Luftkühlung, bissel mehr Takt und 25°C höherer Temp. noch einiges sparsamer (ca. 16W nur bei der GPU) in Heaven. :freak:

fondness
2016-10-09, 19:37:49
So sieht eben eine RX480 aus, wenn man sie auf 1,05V betreibt, was im übrigen eh jede die ich bis jetzt in den Fingern hatte schafft. Wäre interessant, ob bei der XFX noch mehr geht, oder ob sie nur besser selektiert wurde.

dargo
2016-10-09, 19:43:58
Kein Hersteller undervoltet. ;)

Nur weil die Karten bei den Spielern mit -XmV stabil laufen muss das noch lange nicht heißen, dass die Karten 100% stabil sind. Ich könnte mir aber durchaus vorstellen, dass man dieses gute XFX Exemplar mit etwas UV Richtung 150W bei 1,3Ghz drücken könnte.

Hübie
2016-10-09, 20:16:46
Er testet 3D Quark und Heaven :facepalm:

HOT
2016-10-09, 22:18:23
Witzig an der Geschichte ist vor allem, dass die GTR genau auf die gleichen Hochtemperatur-MOSFETs setzt wie Fiji und Hawaii. Die sind jetzt nicht grad für ihre Sparsamkeit bekannt. Das Ding ist sowas von überpowert, das ist ziemlich krank.

Erinnert sich wer an AMDs Thoroughbred? Das kommt mir ähnlich vor. Die haben den Müll abverkauft und jetzt kommt Rev.2. Schade eigentlich, hab mir grad ne MSI gegönnt.

N0Thing
2016-10-10, 00:06:35
Wird interessant zu sehen sein, ob alle XFX RX 480 GTR so ausfallen und ob auch andere Hersteller bald ähnliches erreichen. Oder ob die Karte nur ein Ausnahmeexemplar darstellt.

iuno
2016-10-10, 00:21:14
Nur GPU.

OK, danke. Dann redet er aber ziemlich abartigen Blödsinn, so wichtig wie er sich macht dürfte das doch nicht passieren :rolleyes:

Zum Rest: ja, das hatte ich gesehen und ja auch schon so geschrieben, nur die Sache mit den Lüftern, wie er es auch im Video gesagt hat, muss dann halt gestrichen werden.

Das heißt dann aber auch, dass an der Karte absolut nichts besonderes ist, sondern alleine die GPU so gut ist.

So sieht eben eine RX480 aus, wenn man sie auf 1,05V betreibt
Nein, wie schon geschrieben. Der Chip unter Wasser lief genauso mit 1,05 V und war zudem noch deutlich kaelter. Und das ist wohl nicht mal der worst case.

Er testet 3D Quark und Heaven :facepalm:
Ist doch voellig egal. Selbes Szenario, 10% weniger Verbrauch.
Natuerlich haette er die alte Karte unter Wasser neu gegentesten muessen , wenn er auch nur eine Sekunde darueber nachdenkt. Und zwar mit einer ordentlichen Messung, statt nur im OSD abzulesen. Stattdessen macht er unberechtigterweise Werbung fuer die XFX und zieht voellig unsinnige Schluesse.

gedi
2016-10-10, 00:47:33
Könnte eine Karte sein, welche die 1.5G mit < 1.25V schafft - entsprechende Kühlung vorausgesetzt.

iuno
2016-10-10, 01:08:59
@gedi: hast du nicht deine 480 unter Wasser?
Hast du zufaellig Messungen zum Verbrauch gemacht? Also ein Vergleich kalte (Wasser) vs. heisse (Luft) GPU? :usad:

gedi
2016-10-10, 01:27:13
Bei gleichem Setting gibt es de facto keinen Unterschied. Unter Wasser kann man allerdings die Vcore drastisch senken, so dass im Umkehrschluss ein geringerer Verbrauch bei identischer Taktrate zustande kommt.

Ich brauche mit einer AiO für 1.475G/8.9G exakt 1.238V bei max. 45°C. Ein relativ guter Wert für eine 480 wie ich finde. Der Verbrauch schwankt so zwischen 120W-210W. Die letzten 25Mhz für die GPU und 100Mhz für den Speicher für 1.5G/9G sind allerdings teuer und nur mit dem Watttool zu bewältigen.

iuno
2016-10-10, 01:35:42
Ach du hast eine AiO, kein FC?
Bei mir (Hawaii) hat alleine der Umstieg auf Wasser (FC) bereits vor dem UV zig Watt Ersparnis gebracht. Aber ich habe natuerlich kein gutes Messwerkzeug und nur an der Steckdose gemessen. Dann ist da aber wohl doch mehr davon auf kuehlere VRMs zurueckzufuehren als gedacht?!

OK, das ist dann aber OT. In dem Fall ist es auch ziemlich unwichtig, dass dessen P10@WK mit 30 Grad weniger im OSD mehr Watt anzeigt.

gedi
2016-10-10, 01:49:53
Die Anzeige kannst du vergessen. Ich lasse mir den Müll zwar auch immer anzeigen, nur scheinen dies lediglich geschätzte Werte zu sein. Ein Beispiel: Das OSD zeigt 200W nur für die GPU an - Corsair Link zum gleichen Zeitpunkt allerdings einen Output von 260W für das komplette System. System s. Sig.

von Richthofen
2016-10-10, 02:03:17
Ich brauche mit einer AiO für 1.475G/8.9G exakt 1.238V bei max. 45°C. Ein relativ guter Wert für eine 480 wie ich finde.

Nur 45 Grad bei Vollast und der VCore inklusive OC? Das ist Wahnsinn (-ig gut). Der Kühler vollbringt echte Wunder.
Die Asus wird im offenen Gehäuse im Idle wenn der Zero Core Modus aktiv ist (nehme den allerdings nicht) 49-54 Grad warm.:freak:

Megamember
2016-10-10, 11:22:20
Kann man eigendlich auch bei der Fury per Afterburner den Verbrauch auslesen?
Ich find da bei Überwachung keine Option.

Triskaine
2016-10-10, 12:21:15
Kann man eigendlich auch bei der Fury per Afterburner den Verbrauch auslesen?
Ich find da bei Überwachung keine Option.

Mit HWiNFO kann man sich für Fiji den Core und HBM Verbrauch anzeigen lassen.

dargo
2016-10-10, 12:35:33
Die Asus wird im offenen Gehäuse im Idle wenn der Zero Core Modus aktiv ist (nehme den allerdings nicht) 49-54 Grad warm.:freak:
Das ist allerdings normal, schließlich ist P10 nicht gerade ein Sparwunder in Idle. Normalerweise sollte so eine Grafikkarte bei 5-8W in Idle liegen. Dann kommst du auch in den Bereich ~35°C mit passiver Kühlung. Wie sieht eigentlich dein Gehäuse aus? Wenn von vorne ein langsam drehender 120-140mm Lüfter direkt auf die Karte pustet sollte das bei passiver Kühlung auch einiges bringen.

von Richthofen
2016-10-10, 16:16:07
Normalerweise sollte so eine Grafikkarte bei 5-8W in Idle liegen. Dann kommst du auch in den Bereich ~35°C mit passiver Kühlung. Wie sieht eigentlich dein Gehäuse aus?

So sieht das aus:
http://abload.de/browseGallery.php?gal=sAl1W8Fa&img=1000912x4stp.jpg

Und da es im Betrieb offen ist und die Abwärme nach oben an die Umgebungsluft abgegeben wird, spare ich mir natürlich jedweden weiteren Lüfter.

Die Sache mit dem Idle ist ja dass es praktisch nie dazu kommt. Ständig taktet P10 irgendwo zwischen den 300-1100, meist um die 500-600 rumher.
Und der Speicher erst...

57668

Mangel76
2016-10-11, 09:08:11
Guten Morgen,

ich lese schon eine Weile hier im Forum mit. Da meine Sapphire Tri-X 290X 8GB vor kurzem leider den Dienst quittiert hat, musste ich mir eine RX 480 kaufen (Free-Sync Monitor). Eigentlich hatte ich ja vor auf Vega zu warten, da Polaris keinen Performance-Vorteil bietet. Wenigstens heizt der PC beim spielen jetzt mein Schlafzimmer nicht mehr so auf :smile:

Es ist eine Red Devil von PowerColor geworden und ich bin eigentlich auch ganz zufrieden damit. Sie läuft bei mir auf 1,05V mit festen 1300 MHz. Mir sind 2-3 FPS mehr oder weniger egal, Hauptsache es ist nicht so laut (und sie ist deutlich leiser als die 290X).

Beim Testen der Einstellungen sind mir jedoch große Probleme mit GPU-Z aufgefallen. Zum einen beschweren sich hier ja viele, dass der Takt vor allem im Idle so stark schwankt und legen dann Screenshots von GPU-Z als Beweis vor. Nun habe ich festgestellt, dass bei mir GPU-Z diese Schwankungen selbst hervorruft. Bei der Gegenkontrolle mit Wattman sehe ich diese Schwankungen auch solange GPU-Z läuft. Ohne GPU-Z gibt es jedoch deutlich weniger Schwankungen, die GPU bleibt bei 300 MHz und nur der Speicher springt manchmal auf den vollen Takt.

Weiterhin sind mir verschiedene Spiele abgestürzt bzw. konnten gar nicht gestartet werden solange GPU-Z lief. Teilweise blieb das Spiel im Hintergrund (laut Taskmanager lief das Spiel, aber auf dem Bildschirm war davon nichts zu sehen), teilweise flackerte der Bildschirm stark und dann färbte er sich ein und nichts ging mehr.

Kann es sein, dass viele Probleme, über die hier berichtet wird, einfach ein Problem des viel verwendeten GPU-Z und nicht der RX 480 sind?

Dino-Fossil
2016-10-11, 09:32:45
Ein paar Abstürze hatte ich mit den jüngeren GPUz-Versionen sogar auf meiner 7850, schon möglich, dass da aktuell irgendwas nicht ganz rund läuft.

von Richthofen
2016-10-11, 12:43:34
Kann es sein, dass viele Probleme, über die hier berichtet wird, einfach ein Problem des viel verwendeten GPU-Z und nicht der RX 480 sind?

Also GPU-Z hat hier noch nie Probleme gemacht. Der Afterburner hingegen schon.
Wenn man diverse Monitoring-Programme nebeneinander laufen lässt und die Diagramme vergleicht, so wird man immer zwei nicht deckungsgleiche Kurven sehen, da der Grafikprozessor viel schneller Taktanpassungen vornimmt als dass Tools diese auslesen und ansehnlich visualisieren könnten.

PacmanX100
2016-10-11, 13:28:52
So Leute, neues Problem! Hab leider einen sehr guten Preis für die doch sehr gute 390X Karte erhalten ;)
Jetzt fehlt es aber an Ersatz... wie schnell ist denn die neue Sapphire Karte mit 1342MHz Boost und gibt's dazu schon einen Test? Hält die den Takt dauerhaft? Bei der bisherigen 8pin Karte war das so.

Mangel76
2016-10-11, 13:41:47
Also GPU-Z hat hier noch nie Probleme gemacht. Der Afterburner hingegen schon.
Wenn man diverse Monitoring-Programme nebeneinander laufen lässt und die Diagramme vergleicht, so wird man immer zwei nicht deckungsgleiche Kurven sehen, da der Grafikprozessor viel schneller Taktanpassungen vornimmt als dass Tools diese auslesen und ansehnlich visualisieren könnten.


Ich meine nicht unterschiedliche Angaben in verschiedenen Tools! Die Taktverläufe in Wattman sind deutlich unruhiger wenn GPU-Z parallel läuft. Ohne verharrt meine GPU bei 300 MHz, lediglich der Speicher taktet dann und wann auf die volle Taktrfrequenz hoch.

Der_Korken
2016-10-11, 14:47:08
So Leute, neues Problem! Hab leider einen sehr guten Preis für die doch sehr gute 390X Karte erhalten ;)
Jetzt fehlt es aber an Ersatz... wie schnell ist denn die neue Sapphire Karte mit 1342MHz Boost und gibt's dazu schon einen Test? Hält die den Takt dauerhaft? Bei der bisherigen 8pin Karte war das so.

Der Takt schwankt je nach Spiel zwischen 1290 und 1345Mhz laut CB:

https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-oc-test/3/#abschnitt_taktraten_unter_last

Die Asus schafft (im OC-Modus) ähnliche Taktraten, die Powercolor leicht weniger (ebenfalls laut CB). Das Problem der Nitro ist aber, dass sie die lauteste Custom 480 ist. Wenn du keine Platzprobleme hast, wäre eine andere Karte vermutlich besser. Die MSI war afaik die leiseste bei stabilen 1300Mhz, dafür ist sie aber auch mit die teuerste.

von Richthofen
2016-10-11, 14:48:09
Die Taktverläufe in Wattman sind deutlich unruhiger wenn GPU-Z parallel läuft.

Genau umgekehrt. Wenn der Wattman läuft spikt hier in GPU-Z alle Sekunde (Wattman-Messung?) beide Werte. Sonst ist es ruhiger. Mglw. misst der Wattman seine eigens verursachte Last.

PacmanX100
2016-10-11, 15:01:33
Das Problem der Nitro ist aber, dass sie die lauteste Custom 480 ist.

Was heißt laut, die 390X Sapphire war auch nicht gerade ein Leisetreter. Ist die neue noch schlimmer oder eher gleichwertig? ;)

Der_Korken
2016-10-11, 15:41:07
Was heißt laut, die 390X Sapphire war auch nicht gerade ein Leisetreter. Ist die neue noch schlimmer oder eher gleichwertig? ;)

Ich weiß jetzt nicht genau, welches Modell du hast, aber CB hatte anscheinend mal eine 390X Tri-X im Test:

https://www.computerbase.de/2015-10/neun-radeon-r9-390-x-partnerkarten-test/4/

Die war mit 45,5 zu 44dB etwas lauter als die 480, allerdings ist das angesichts des geringeren Verbrauchs schon ziemlich mager. Man sieht auch im folgenden Link, dass der Kühler von Sapphire anscheinend nicht für allzugroße Verbräuche ausgelegt sind (etwas runterscrollen):

http://www.legitreviews.com/sapphire-nitro-radeon-rx-480-4gb-video-card-review_184553

Die Kühlrippen bedecken nicht mal die gesamte Fläche des ohnehin schon kleinen PCBs (im Vergleich zur Konkurrenz). Die Luft wird zwar nicht in alle Richtungen verwirbelt, sondern eher zu den Seiten und nach oben statt vorne raus, aber auf mich wirkt das ein bischen so, als wäre der Kühler für einen kleineren Verbrauch ausgelegt worden.

Das soll kein Hate gegen die Nitro sein, wem die Lautstärke nichts ausmacht und eine kompakte Karte haben will, wird damit glücklich. Ich würde an der Stelle aber auch auf die 470er Nitro verweisen, die auch 8GB VRAM mit 8Ghz hat, dafür nur 32 statt 36CUs und etwas weniger Takt. Spart 40€ und wenn man selbst Hand anlegt an den Taktraten dürfte die Karte kaum langsamer als die 480 sein.

Mangel76
2016-10-11, 15:42:51
Genau umgekehrt. Wenn der Wattman läuft spikt hier in GPU-Z alle Sekunde (Wattman-Messung?) beide Werte. Sonst ist es ruhiger. Mglw. misst der Wattman seine eigens verursachte Last.

Wie gesagt, bei mir ist es genau umgekehrt. GPU-Z zeigt oft wechselnde Taktraten, unabhängig davon ob Wattman nun geöffnet ist oder nicht. Und das sieht man ja immer wieder wenn jemand sich über das unruhige Taktverhalten beschwert. Du hast doch selbst deinen GPU-Z-Screenshot gepostet mit dem hüpfenden Takt. Was sagt denn Wattman ohne GPU-Z bei dir?

Wattman dagegen zeigt unterschiedliches Verhalten, je nachdem ob GPU-Z parallel läuft oder nicht. Solange es nicht läuft, bleibt der Takt im Idle bei 300 MHz! Erst wenn GPU-Z wieder geöffnet wird, zeigt auch Wattman wieder wechselnde Taktraten. Dazu kommen meine Probleme mit verschiedenen Spielen (u.a. Diablo 3 und Witcher 3), die reproduzierbar nur dann auftreten, wenn GPU-Z läuft. Ob Wattman dabei läuft spielt dagegen keine Rolle. Aus diesen Beobachtungen ergibt sich für mich eindeutig, dass bei mir GPU-Z die Problemstelle ist.

von Richthofen
2016-10-11, 15:59:12
Bei mir ist es der Wattman der für Last beim Auslesen sorgt. Dieser refresht scheinbar alle 2 Sekunden. Zumindest schieben sich dann immer die Kurven weiter nach links.

Die linke Hälfte des GPU-Z Screenshots zeigt das Verhalten wenn absolut nichts passiert. (300/300MHz). Rechts läuft der Wattman mit. Alle 2 Sekunden gibt es den Spike.
GPU-Z löst übrigens schon standardmäßig höher auf: Jede Sekunde in der Grundeinstellung. Verringerbar bis auf 0,1S.
57678

Edit: Das soll natürlich nicht heißen, dass bei dir nicht doch GPU-Z für diverse Probleme bei Spielen verantwortlich sein kann. Aber eher unwahrscheinlich mMn.

Mangel76
2016-10-11, 16:12:28
Bei mir ist es der Wattman der für Last beim Auslesen sorgt. Dieser refresht scheinbar alle 2 Sekunden. Zumindest schieben sich dann immer die Kurven weiter nach links.

Der linke Hälfte des GPU-Z Screenshots zeigt das Verhalten wenn absolut nichts passiert. (300/300MHz). Rechts läuft der Wattman mit. Alle 2 Sekunden gibt es den Spike.
GPU-Z löst übrigens schon standardmäßig höher auf: Jede Sekunde in der Grundeinstellung. Verringerbar bis auf 0,1S.
57678

Edit: Das soll natürlich nicht heißen, dass bei dir nicht doch GPU-Z für diverse Probleme bei Spielen verantwortlich sein kann. Aber eher unwahrcheinlich mMn.

Das ist ja sehr eigenartig :confused:. Solche Spikes kann ich bei mir gar nicht sehen. Und auf über 900 MHz taktet meine GPU nie hoch, eher so im Bereich 400-500 MHz, und dann eher für 2-3 Sekunden. Kann es leider im Moment nicht testen, da ich noch im Büro sitze :freak: Ist schon blöd, wenn die Tools, mit denen man Probleme nachweisen will, sie teilweise selbst verursachen. Und wenn dann noch nicht mal klar ist, welches wann wie und bei wem funktioniert und bei wem nicht, dann ist es umso blöder ;D

Screemer
2016-10-11, 16:22:11
das sieht fast wie ein mining trojaner aus.

Dino-Fossil
2016-10-11, 16:38:38
Klingt für mich zumindest mal nach einer Inkompatibilität zwischen WM und GPUz.

dildo4u
2016-10-13, 12:13:10
PCGH Nachtest mit neuem Treiber und mehr Boost.


http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/RX-480-Test-1199839/2/#a4

Kein Plan ob alle Karten nachgetestet wurden,Raff meinte vor Kurzem das sie z.b die Titan Pascal wieder abgeben mussten.

RitterRost
2016-10-13, 13:19:31
...und was ist aus dem HIS RX480 Test geworden, den pcgh nachliefern wollte?

dargo
2016-10-18, 09:56:41
Die PowerColor RX480 Red Dragons sind nun bei GH gelistet.
https://geizhals.de/powercolor-radeon-rx-480-red-dragon-axrx-480-4gbd5-3dhd-a1523979.html?hloc=at&hloc=de
https://geizhals.de/powercolor-radeon-rx-480-red-dragon-axrx-480-8gbd5-3dhd-a1523978.html?hloc=at&hloc=de

Die ersten non OC Customs. :D

Hübie
2016-10-18, 10:08:37
Red Dragon und dann in schwarz-weißem, todlangweiligen Design. Marketing at its best. X-D
Was ist an denen besonders?

dildo4u
2016-10-18, 10:10:50
Könnten weniger Saft brauchen als die 480 mit dem Standard Kühler.
Die meisten Custom's sind ja so eingestellt das sie über 200 Watt ziehen.

MadManniMan
2016-10-18, 10:15:13
Sie sind für höhere Preise langsamer?

dargo
2016-10-18, 10:39:42
Das Wort Verfügbarkeit ist dir geläufig?


Was ist an denen besonders?
Weniger Takt heißt womöglich weniger Spannung was weniger Verbrauch bedeutet. Mich würde mal interessieren ob die neueren GPUs jetzt immer öfter mit 1,05V laufen. Bei 1266Mhz sollten schon beinah 1,0V reichen. Und ich meine damit nicht UV.

dargo
2016-10-18, 10:41:18
doppelpost

Dino-Fossil
2016-10-18, 11:34:27
Wird auch Zeit, wobei die XFX ja auch nur ein relativ geringes OC haben.
Nur der Preis ist noch zu hoch.

Vielleicht findet sich ja mal ein Test.

aufkrawall
2016-10-19, 13:18:14
Mit Polaris kann man offenbar seit Anfang an kein H.264 interlaced abspielen:
https://community.amd.com/thread/203197
Und übrigens auch immer noch kein VP9.

Lurtz
2016-10-19, 14:20:34
Softwarefails vom Feinsten wieder. Bin mal gespannt ob VP9 mit Vega von Beginn an laufen wird :ugly:

dargo
2016-10-20, 15:06:55
Sie sind für höhere Preise langsamer?
Jetzt zufrieden?
http://geizhals.de/powercolor-radeon-rx-480-red-dragon-axrx-480-8gbd5-3dhd-a1523978.html?hloc=at&hloc=de

Sind gerade mal 2 Tage vergangen.

Dino-Fossil
2016-10-20, 15:11:16
Oh, das geht in der Tat schnell, vielleicht schlag ich die Tage zu.
Hätte gerne noch einen Test, aber wenn sich da nix tut, hole ich sie mir vielleicht so.

dargo
2016-10-20, 15:13:18
Falls du sie dir holst bitte unbedingt berichten wie die Spannungen sind.

Dino-Fossil
2016-10-20, 15:18:49
Werd ich machen, will auch auf jeden Fall bissl undervolten.
Kann aber noch paar Tage dauern.

Referenzdesign von Sapphire mit 8GB gibt's von Amazon gerade sogar für ca 243€
https://www.amazon.de/dp/B01H01E4CQ?smid=A3JWKAKR8XB7XF&linkCode=df0&creative=22502&creativeASIN=B01H01E4CQ&childASIN=B01H01E4CQ&tag=geizhalspre03-21

PacmanX100
2016-10-22, 19:21:26
Ganz fixe Frage zum Kauf... würdet ihr die Sapphire 1342 MHz nehmen oder die XFX 1338 MHz?

Bei Sapphire schreiben die Leute laute Kühlung, bei XFX dreht sie wohl ab 70° ordentlich auf. Was ist das bessere Übel? ;)

Schnoesel
2016-10-22, 19:30:04
Also mein Kumpel hat die MSI und ist sehr zufrieden damit, soll laut PCGH auch die leiseste sein. Die Devil soll aber auch sehr gut sein. Sapphire ist nach Tests etwas lauter als die beiden.

PS: Ich les da MSI aber du sprichst ja von XFX ;-) Würde die Sapphire nehmen, die ist auch grad im Angebot bei Mindfactory (nicht Nitro + sondern die normale).

Der_Korken
2016-10-22, 19:43:03
Kann jemand etwas zur Breite der MSI sagen? Ich würde mir die Tage gerne eine neue Karte kaufen und schwanke noch zwischen der Sapphire 470 und der MSI 480. Meine momentane 7950 hat eine PCB-Breite von 11cm, die MSI 480 ist angeblich 14cm breit. Da die Stromanschlüsse auch noch zur Seite rausgehen, befürchte ich, dass ich mein Gehäuse gar nicht mehr zu kriege, da so ein 8-pin-Stecker nicht gerade flexibel ist. Grob gemessen habe ich etwa 16,5cm zwischen PCB-Anfang (der wird ja gleich sein, da alle Karten im gleichen Slot stecken) und Seitenwand.

RitterRost
2016-10-22, 20:16:08
Kann jemand etwas zur Breite der MSI sagen? Ich würde mir die Tage gerne eine neue Karte kaufen und schwanke noch zwischen der Sapphire 470 und der MSI 480. Meine momentane 7950 hat eine PCB-Breite von 11cm, die MSI 480 ist angeblich 14cm breit. Da die Stromanschlüsse auch noch zur Seite rausgehen, befürchte ich, dass ich mein Gehäuse gar nicht mehr zu kriege, da so ein 8-pin-Stecker nicht gerade flexibel ist. Grob gemessen habe ich etwa 16,5cm zwischen PCB-Anfang (der wird ja gleich sein, da alle Karten im gleichen Slot stecken) und Seitenwand.

Vom Mainboard bis zur Oberkante des 8pin Stromsteckers sind es 14cm mit dem Zollstock. Heatpipes und Verkleidung sind weniger als nen weiteren cm breiter. Das sollte bei Dir also locker reichen.

von Richthofen
2016-10-25, 21:12:55
Hab die Strix heute mit Flüssigmetall versehen.

Batman: Arkham Knight
vorher: 65-67 Grad (mit angepasster [aggressiver] Lüfterkurve)
nachher: 56-58 Grad (")

Das Spiel lastet die 480 allerdings nicht so stark aus wie etwa Mirror's Edge Catalyst. Da gab es 3 oder 4 Grad mehr.

Bin alles in allem sehr zufrieden. Leider musste ich auf der Graka die "Plombe" in Form eines Schraubenaufklebers brechen.
Hier die Bilder des alten Kleisters.

http://abload.de/thumb/asusrx480pcbv8ulz.jpg (http://abload.de/image.php?img=asusrx480pcbv8ulz.jpg) http://abload.de/thumb/asusrx480kuehlerkmujm.jpg (http://abload.de/image.php?img=asusrx480kuehlerkmujm.jpg)

Das Zeug kriegt man vom Kühler praktisch nie vollständig runter. Bestimmt mehr als zehnmal mit Spiritus und Küchentuch geschrubbt. Daran kann man gut sehen wo ebenfalls oft Nachteile von "Direct Touch" bestehen. Die Oberfläche ist einfach nicht plan und zwischen den Heatpipes jeweils eine Rille.

drumnbass
2016-10-25, 21:58:23
Hab die Strix heute mit Flüssigmetall versehen.
[..]


gratulation,
da ich bis jetzt meine rechner alle selber zusammengebaut habe, kenne ich das nur von CPUs und ihren kühlern bzw. kühler-austauschen.

ich stell mal ein paar fragen..

welches flüssigmetall wurde verwendet?
das flüssigmetall wurde dann "einfach" auf die freigeputzten heatpipes komplett draufgestrichen (oder nur dort, wo sie runtergeputzt wurde?) und dann der kühler wieder draufgeschraubt?
war das quasi ein austausch der original-wärmeleitpaste, die wahrscheinlich gerade noch ausreichend ist?

danke für die anteilnahme.

von Richthofen
2016-10-25, 22:13:00
welches flüssigmetall wurde verwendet?
das flüssigmetall wurde dann "einfach" auf die freigeputzten heatpipes komplett draufgestrichen (oder nur dort, wo sie runtergeputzt wurde?) und dann der kühler wieder draufgeschraubt?
war das quasi ein austausch der original-wärmeleitpaste, die wahrscheinlich gerade noch ausreichend ist?


Bei der Paste handelt es sich um Thermal Grizzly Conductonaut.
Entgegen der Empfehlung des Herstellers sollte man die Paste bei Grafikkarten mMn (der Sicherheit halber) nur auf dem Die auftragen.

Habe versucht vor dem Säubern des Kühlers den Abdruck der GPU per Stift zu Markieren (um ihn anschließend ebenfalls mit neuer Paste zu versehen) - Fehlanzeige. Und einfach frei Schnauze kann man das auf gar keinen Fall machen. Man muss mit dem Kühler die GPU zu (nahe) 100% treffen. Ansonsten deckt man mit dem Flüssigmetall womöglich andere Bauteile auf dem Package ein, was im schlimmsten Fall zu einem Kurzschluss und dem Ableben der Karte führen würde.

Zur letzten Frage: Ja, die Originalpaste wurde entfernt und mit der Neuen ersetzt.

Achill
2016-10-25, 22:16:04
Hab die Strix heute mit Flüssigmetall versehen.

Batman: Arkham Knight
vorher: 65-67 Grad (mit angepasster [aggressiver] Lüfterkurve)
nachher: 56-58 Grad (")

Das Spiel lastet die 480 allerdings nicht so stark aus wie etwa Mirror's Edge Catalyst. Da gab es 3 oder 4 Grad mehr.

Bin alles in allem sehr zufrieden. Leider musste ich auf der Graka die "Plombe" in Form eines Schraubenaufklebers brechen.
Hier die Bilder des alten Kleisters.

http://abload.de/thumb/asusrx480pcbv8ulz.jpg (http://abload.de/image.php?img=asusrx480pcbv8ulz.jpg) http://abload.de/thumb/asusrx480kuehlerkmujm.jpg (http://abload.de/image.php?img=asusrx480kuehlerkmujm.jpg)

Das Zeug kriegt man vom Kühler praktisch nie vollständig runter. Bestimmt mehr als zehnmal mit Spiritus und Küchentuch geschrubbt. Daran kann man gut sehen wo ebenfalls oft Nachteile von "Direct Touch" bestehen. Die Oberfläche ist einfach nicht plan und zwischen den Heatpipes jeweils eine Rille.

Eigentlich sieht man hier wieder, dass nur 3 der 5 heat pipes wirklich Kontakt haben. Evtl. würde auch eine dünne Kupferplatte (noch) etwas bringen.

drumnbass
2016-10-25, 23:44:16
Zur letzten Frage: Ja, die Originalpaste wurde entfernt und mit der Neuen ersetzt.

lustig, dass das schon 10°C gutmacht..

paste auf heatpipes aufbringen, oder gleich auf den die streichen?