PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Nano: (P)Review-Thread


Seiten : 1 [2] 3 4

Menace
2015-09-12, 09:40:57
und ich weiß nicht warum sich die amd anhänger immer am höheren stromverbrauch der amd karten aufhängen, die nano bleibt doch recht kühl und leise selbst in dem format und dem verbrauch. die 20w mehrverbrauch gegenüber der 980 kann man doch unter der teppich kehren.

Das und zum Anderen kommt es auch auf den Idle-Verbrauch von Multimonitor-Betrieb auch bei unterschiedlichen Monitoren an (zumindest für mich). Und ist der größte Vorteil Fiji-Produkte.

(del)
2015-09-12, 12:42:37
Schade das du keinen aktuellen vergleich mit einer GTX 970 OC (GM204) mit selben Power Target gemacht hast mit ~1300 Mhz Boost aus deinem GTX970 Release test

Wäre irgendwie Cherry-Picking. Die GTX 970 Mini OC im Test läuft mit 1227 MHz Boost (unter Last), mehr war bei dem geringen Power Target nicht herauszubekommen - gemessen habe ich ja alles im geschlossenen Gehäuse mit erwärmter Karte. Die ganzen 970er OC-Karten hier im Archiv streuen aber ungemein, ich habe sogar eine handeselektierte 980 OC von GB (1 of 1000), die nimmt im Mittel nur 170 Watt auf - bei 1,4 GHz Boost! Das ist nichts zum Vergleichen. Wenn schon, dann im Gehäuse unter gleichen Bedingungen. Die 970 Mini war ein echtes Retail-Kärtchen, also wenigstens kein Presse-Sample ;) Ich kann Dir aber, das kannst Du meinem Effizientest zur 970er gern entnehmen, bestätigen, dass es mit einer "normalen" übertakteten 970er für AMDs Nano noch besser ausgesehen hätte. Der Sweet-Spot der 970er liegt nämlich bei 125 Watt. Alles darüber geht schon wieder nach unten.

Dass in den Charts immer Karten fehlen liegt einfach daran, dass ich keine 360++ Karten in die Charts auf einmal reintun kann, wird zu lang. So viele Daten habe ich nämlich in den letzten zwei Jahren gesammelt. Ich produziere ja auch noch Charts- und Rohdaten für unsere ganze Purch-Familie 'hüstel* ;)

Und das mit den Geräuschvideos... sicher kann man das machen, aber ich finde so ein Spektrum deutlich interessanter, da man sogar sieht, was man hört (wenn man nicht taub ist). Die erzwungene Umkodierung auf YT nimmt ja immer ein großes Stück an Klangqualität mit, leider.

-/\-CruNcher-/\-
2015-09-12, 13:01:02
Wäre irgendwie Cherry-Picking. Die GTX 970 Mini OC im Test läuft mit 1227 MHz Boost (unter Last), mehr war bei dem geringen Power Target nicht herauszubekommen - gemessen habe ich ja alles im geschlossenen Gehäuse mit erwärmter Karte. Die ganzen 970er OC-Karten hier im Archiv streuen aber ungemein, ich habe sogar eine handeselektierte 980 OC von GB (1 of 1000), die nimmt im Mittel nur 170 Watt auf - bei 1,4 GHz Boost! Das ist nichts zum Vergleichen. Wenn schon, dann im Gehäuse unter gleichen Bedingungen. Die 970 Mini war ein echtes Retail-Kärtchen, also wenigstens kein Presse-Sample ;) Ich kann Dir aber, das kannst Du meinem Effizientest zur 970er gern entnehmen, bestätigen, dass es mit einer "normalen" übertakteten 970er für AMDs Nano noch besser ausgesehen hätte. Der Sweet-Spot der 970er liegt nämlich bei 125 Watt. Alles darüber geht schon wieder nach unten.

Dass in den Charts immer Karten fehlen liegt einfach daran, dass ich keine 360++ Karten in die Charts auf einmal reintun kann, wird zu lang. So viele Daten habe ich nämlich in den letzten zwei Jahren gesammelt. Ich produziere ja auch noch Charts- und Rohdaten für unsere ganze Purch-Familie 'hüstel* ;)

Und das mit den Geräuschvideos... sicher kann man das machen, aber ich finde so ein Spektrum deutlich interessanter, da man sogar sieht, was man hört (wenn man nicht taub ist). Die erzwungene Umkodierung auf YT nimmt ja immer ein großes Stück an Klangqualität mit, leider.

Naja soviel kann man nicht entnehmen vor allem nicht für UHD da die Settings sich auch sehr unterscheiden zu dem Mini Setup und den bisherigen Daten von z.b Tomb Raider (Crystal Dynamics Engine)

http://www.tomshardware.de/charts/vga-charts-2014/13-Tomb-Raider-2160p,3605.html

Hier basierten die Daten noch auf dem Ultimate Preset

Zudem ja auch ein OS wechsel Stattgefunden hat und etliche Treiber Revisionen die vor allem bei AMD doch schon sehr interessant waren

Die Daten müssten in der Theorie alle erneut erfasst werden mit dem neuen Setup ;)

Bei Audio geb ich dir recht aber das könnte man lösen wenn man die Orginal Raw Audio daten einfach bereitstellt ;) die kann sich jeder dann selbst drunter mixen

Am besten das Video mit Graphen von der RPM Kurve + DB und dann halt mit dem Audio File darunter wie sich das ganze Real anhört und reagiert unter Lastwechseln beim Anfahren und runterdrehen. :)

samm
2015-09-12, 13:47:16
AMD hat nun bewiesen, dass Sie in Punkto Energieeffizienz mit Nvidia gleichziehen oder sogar in 4K überholen können.
Leider ist aber die Nano überteuert und der Mini-ITX-Formfaktor ein für die meisten potentiellen Käufer unwichtiges Argument, so dass man mit einer regulären Fury doch besser fährt. Das Power-Limit kann man auf Nano-Niveau absenken.
Der ambitionierte aber nicht enthusiastische Spieler kauft mangels gleichwertiger Alternativen weiterhin die GeForce GTX 970.Ich denke hingegen, für die meisten potentiellen Käufer einer Nano wird Mini-ITX das wichtigste Argument sein, denn wenn es das nicht wäre, hätten sie ja einen Haufen anderer Produkte im gleichen Leistungsbereich, die wesentlich günstiger wären.

-/\-CruNcher-/\-
2015-09-12, 13:57:14
Glaube nicht das sich das schnell genug amortesiert hat bis 16 nm vor der Tür steht aber nun gut jedem seine eigene Entscheidung für was er sein Geld letztendlich ausgibt.
Also bevor ich das ausgeben würde schalte ich lieber unnütze features ab um die Frametimes auszugleichen ;)

Loeschzwerg
2015-09-12, 14:05:52
http://abload.de/thumb/imgp55138iuav.jpg (http://abload.de/image.php?img=imgp55138iuav.jpg) http://abload.de/thumb/imgp5514gnuqn.jpg (http://abload.de/image.php?img=imgp5514gnuqn.jpg) http://abload.de/thumb/imgp55159yuk0.jpg (http://abload.de/image.php?img=imgp55159yuk0.jpg) http://abload.de/thumb/imgp5516ijunu.jpg (http://abload.de/image.php?img=imgp5516ijunu.jpg)

Meine Nano ist heute angekommen :) Den hässlichen VTX Sticker habe ich gleich entfernt.

Was ziemlich bescheiden bei einer 700€ Karte ist: Man öffnet die ESD Folie und es kommt einem eine Schraube entgegen... War vermutlich nicht richtig am Blech angeschraubt und hat sich dann durch den Transport gelöst.

Schnoesel
2015-09-12, 14:11:02
Du hast wenigstens Schutzstöppel für die Ausgänge bekommen, die waren bei meiner Fury X nicht dabei ;D Schönes kleines Ding. Bitte dann Bilder im eingebauten Zustand.

Loeschzwerg
2015-09-12, 14:45:37
Jup, mache ich, bin schon am Umbau.

Achja, ein DP auf DVI Adapter war nicht dabei :( Eigentlich schade bei so einem teuren Stück Hardware.

Von Caseking wurde ein Gratiscode für Dirty Rally beigelegt.

Unicous
2015-09-12, 15:00:43
Ich glaube der kam eher von AMD. Never Settle scheint ja wohl doch sesshaft geworden zu sein;) und jetzt gibt man nur noch Dirt Rally hinzu.

horn 12
2015-09-12, 15:01:14
Und schon eingebaut
In welches Gehäuse bitte verbaut und karte besser als deine Sapphire Fury OC @Fury X

Zudem fiept die Nano, oder wie sieht es mit der Fury aus
Auch jene Fury fiept ab 60+ fps ?

Loeschzwerg
2015-09-12, 15:10:05
Ich glaube der kam eher von AMD. Never Settle scheint ja wohl doch sesshaft geworden zu sein;) und jetzt gibt man nur noch Dirt Rally hinzu.

Der Code lag zumindest lose im Paket (Kein Ahnung wie das sonst läuft), aber wird ziemlich sicher über das AMD Programm gesponsert.

@horn: Gehäuse ist ein Silverstone FT03-Mini, mehr habe ich noch nicht zu berichten.

(del)
2015-09-12, 15:13:18
Naja soviel kann man nicht entnehmen vor allem nicht für UHD da die Settings sich auch sehr unterscheiden zu dem Mini Setup und den bisherigen Daten von z.b Tomb Raider (Crystal Dynamics Engine)
http://www.tomshardware.de/charts/vga-charts-2014/13-Tomb-Raider-2160p,3605.html....


Diese Charts meine ich gar nicht, die werden seit Ewigkeiten nicht mehr aktualisiert. Ich produziere hier, auch mit neuen Settings, jede Menge Benchmarkdaten (CPU, VGA) für den "internen" Hausgebrauch, auf denen dann auch Artikel anderer Redaktionen basieren, von denen man es so gar nicht dächte. Es ist halt alles eine große Familie und TH in DE nur eine kleine Facette des Ganzen ;)

eratte
2015-09-12, 15:31:17
Achja, ein DP auf DVI Adapter war nicht dabei

Bei der Sapphire Fury X war einer dabei, aber leider nur SingleLink wie ich feststellen durfte.
Und statt dem HDMI Kabel hätte ich mir ein DP gewünscht. Das durfte ich mir dann noch besorgen.

MfG

Loeschzwerg
2015-09-12, 15:33:46
Kabel lagen sonst auch keine dabei, aber das kann alles eine Sache von VTX sein.

Unicous
2015-09-12, 15:40:56
Afaik sind VTX3D eh Billigheimer. Du bekommst maximal ein leicht kosmetisch verändertes Referenzmodell und das wars. Zubehör: Fehlanzeige.

Aber gut, oft braucht man ja nicht das zigste Monitorkabel oder bekommt es vergleichsweise günstig.

horn 12
2015-09-12, 15:45:58
Verfügbarkeit bei Nano ist nicht mal soo schlecht, Powercolor und Sapphire erneut die Spitzenmreiter mit sofortiger Verfügbarkeit.
Um Einiges Besser als bei Fury X und Fury am 1-ten Tag!

Teilweise liegen echt 10 bis 20 Stück R9 Nano Karten auf Lager (Pro Shop)

Raff
2015-09-12, 15:56:40
VTX3D gehört zu Tul, die auch Powercolor und Club 3D beliefern. Die "Edelmarke" ist Powercolor, die anderen bekommen meist spartanische Beigaben, um besonders günstig zu sein. Daran ist nichts Verwerfliches, man sollte es nur wissen. :)

MfG,
Raff

Unicous
2015-09-12, 16:01:04
Sollte jetzt kein direkter Vorwurf sein, wollte es nur einordnen warum da kein Zubehör drin ist.

Andererseits macht es auch keinen Sinn, einen Euro zu sparen, wenn man dadurch nicht mal ein Kabel bekommt.;)

Loeschzwerg
2015-09-12, 16:03:17
Das fehlende Zubehör stört mich persönlich nicht, wollte es ebenfalls nur gesagt haben bevor sich jemand wundert.

War halt die einzige verfügbare bei Caseking am Launchtag.

Edit: Aber die Karte ist echt abartig winzig :D Das wirkt in der Hand noch eine ganze Ecke besser als auf den Bildern im Netz ^^

Edit2: So sieht das experimentelle System nun aus:
http://abload.de/thumb/imgp5517f6s2j.jpg (http://abload.de/image.php?img=imgp5517f6s2j.jpg) http://abload.de/thumb/imgp551822szy.jpg (http://abload.de/image.php?img=imgp551822szy.jpg)

Es fehlt noch das neue EPIA M920 mit 2.0GHz Quad.

Loeschzwerg
2015-09-12, 18:10:02
http://abload.de/thumb/nano_unigine_uhdg2ry8.jpg (http://abload.de/image.php?img=nano_unigine_uhdg2ry8.jpg) http://abload.de/thumb/via_nanohtrj9.jpg (http://abload.de/image.php?img=via_nanohtrj9.jpg)

Erste Erfahrung mit der Karte:
Im Idle sehr leise, wird vom SFX Netzteil minimal übertönt.

Unter Last (Unigine Valley @ UHD, Extreme Settings) erzeugt die Karte eine enorme Abwärme und das obwohl die CPU in meinem System die Karte nicht voll auslastet. Im Fortress FT03-Mini (Anschlüsse nach oben) heizt sich die Karte ordentlich auf, der Lüfter dreht auf 55% (2757rpm) hoch (deutlich hörbar!).
Der Nano zum Verhängnis wird bei diesem Turm-Gehäuse IMO nach das axiale Kühlkonzept. Die Spannungswandler werden sehr warm und durch den axialen Lüfter wird die warme Luft nach unten geschoben. Der primäre Gehäuselüfter im Boden treibt die ausgestoßene Luft aber wieder direkt nach oben zur Karte.

Optimal ist die Geschichte nicht, aber das war mir schon im Vorfeld klar.

Spulenfiepen ist auch bei niedrigen FPS deutlich hörbar, wird aber später durch den aufdrehenden Lüfter übertönt.

Screemer
2015-09-12, 18:13:10
Bau doch den Lüfter im Boden mal saugend ein. Das könnte bei dem Gehäuse durchaus helfen.

Das mit dem spulenfiepen ist sehr unschön.

Loeschzwerg
2015-09-12, 18:17:22
Kann ich mal versuchen, danke für den Tipp :)

Das Fiepen wundert mich ein wenig, die Sapphire (Fury X Ref Platine) macht hier bei weitem nicht so viel Lärm.

Raff
2015-09-12, 18:18:23
Setz mal das Powerlimit rauf, erst dann wird's wirklich schlimm. ;)

55 % sind etwa viereinhalb Sone, btw.

MfG,
Raff

horn 12
2015-09-12, 18:23:04
Aber fiept eben die Sapphire Fury auch welche du zur Furx X freigeschalten hast?
Nur bei hohen Frames, oder auch bei 60 bis 80 fps und wieviel weniger laut, oder Leise ist das Spulenfiepen der Fury gegenüber der R9 Nano Karte?
Dank!

@Raff
Und was hatte die R9 290 im Quiet Modus welche Sone: 4,4 oder doch mehr?
Mit 47% war der Lüfter dort schon eher laut, 49% noch mehr und deshalb suchte ich die R9 290 New Edition raus.

Loeschzwerg
2015-09-12, 18:28:28
Bei der Sapphire (zumindest bei meiner) ist es eher ein leises Zwitschern (und bei hohen FPS ein Fiepen), bei der Nano ein aufdringliches Knarzen.

Unterm Tisch ist es vermutlich für die meisten OK, auf dem Tisch kann es dann schon stören.

@Raff: Lieber nicht, ich will keinen Kollaps im System :D

BlacKi
2015-09-12, 19:46:30
Setz mal das Powerlimit rauf, erst dann wird's wirklich schlimm. ;)

made my day^^

btw meine 970 (die karte nicht das netzteil) hat ordentlich gefiept bei einem alten netzteil von mir, mit 3 anderen war sie dann komplett still.

hat vl schon jemand mal ein netzteil getauscht?

btw2 wieviel watt soll denn laut hersteller das netzteil haben?

-/\-CruNcher-/\-
2015-09-13, 08:02:45
Diese Charts meine ich gar nicht, die werden seit Ewigkeiten nicht mehr aktualisiert. Ich produziere hier, auch mit neuen Settings, jede Menge Benchmarkdaten (CPU, VGA) für den "internen" Hausgebrauch, auf denen dann auch Artikel anderer Redaktionen basieren, von denen man es so gar nicht dächte. Es ist halt alles eine große Familie und TH in DE nur eine kleine Facette des Ganzen ;)

Interessant das ist eine Recherche Wert das TH schon so ein großes Netzwerk ist wie du es andeutest wusst ich nicht ;)

horn 12
2015-09-13, 08:30:44
@Loeschzwerg

Wie zufrieden bist nun mit der Nano Karte
Inwieweit stört das Spulenfiepen und IDLE, oder dort nicht vorhanden?
Zudem beim Zocken, hört man das Fiepen ständig raus?

Bei der Sapphire Fury in Games nicht oder nur kaum wahrnehmbar?
Dank Dir

PS: Die Fury also gesamtbildlich die Bessere Karte?

(del)
2015-09-13, 09:12:48
Interessant das ist eine Recherche Wert das TH schon so ein großes Netzwerk ist wie du es andeutest wusst ich nicht ;)

Einfach hier mal bissl blättern: http://purch.com/ Wir sind nur ein Teil eines großen Ganzen. Hat Vor- und Nachteile. Shareholder machen selten Freude, dafür hat man halt mehr Budget.

-/\-CruNcher-/\-
2015-09-13, 09:46:39
Aber die user bekommen auch die qualität die wiederum dann zur kaufentscheidung beiträgt und das ohne relativ große hürden ;) WIN/WIN

horn 12
2015-09-13, 10:06:11
Zwecks der Lieferbarkeit und Verfügbarkeit von R9 Nano zeichnet sich bereits ein genaueres Bild ab:
Viele meiner Gegner werden wieder sagen, was ich will mit ital. Shop und Preisen, und und und aber will nur drauf hinweisen was Sache ist!


R9 NANO 4G HBM | dbprice.it (http://www.dbprice.it/pci-express_13/R9-NANO-4G_r9nano4ghbm)
R9 nano full retail - Scheda video Sapphire - Monclick - 21249-00-40G (http://www.monclick.it/product.aspx?Codice=R9-NANO-4G&HTTP_REFERER=http://Trovaprezzi&REFERER_CODE=R9-NANO-4G&utm_source=trovaprezzi&utm_medium=comparatori&utm_term=R9-NANO-4G&utm_campaign=schede%2520video)

15 Stpück auf Lager :-)
http://www.e-frog.it/default.asp?l=1&cmd=getProd&cmdID=124494&rr=Trovaprezzi&utm_source=Trovaprezzi&utm_medium=cpc

Solche Stückzahlen hat bis dato sicher kein Shop zum Launch der Fury Serie erhalten
Also lag das Augenmerkmal doch bei Nano!

dargo
2015-09-13, 10:36:05
Diesmal sind die Karten in DE einiges günstiger. ;)
http://www.mindfactory.de/product_info.php/4096MB-Sapphire-Radeon-R9-Nano-Aktiv-PCIe-3-0-x16--Retail-_1012873.html

Der Preis passt wieder zur UVP ohne den Deppenaufschlag. Ging ja schneller als ich erwartet hätte.

RoughNeck
2015-09-13, 10:37:36
Wem interessieren Shops in Italien.
Ob diese wirklich lagernd sind oder ob dies nur Kundenfang ist, weiß keiner. Die Lieferbarkeit mag zwar etwas besser sein als beim Fury / Fury X launch, ist aber immer noch lächerlich.
Zudem sind die Preise überzogen.

Schnoesel
2015-09-13, 10:48:19
Schon mal in die eigene Signatur gelinst?

@Horn

Bitte lass das mit den Übergrößen wir sind nicht im Seniorenheim! HT4U hat ja bereits einen Artikel geschrieben warum es so wenig Furies gibt:

http://ht4u.net/news/31439_vorerst_keine_weiteren_amd_radeon_fury-grafikkarten_von_boardpartnern_zu_erwarten/

Lowkey
2015-09-13, 13:26:20
645 Euro bei MF? Deutet sich eine Preissenkung an? Oder wurde sie vollzogen?

dargo
2015-09-13, 14:03:42
Ist doch der ganz normale Preis ohne Deppenaufschlag.

horn 12
2015-09-13, 14:09:58
Jupp. aber auch Fury X hatte 649 Dollar Listenpreis. Daraus folgten aber bedingt durch den Dollarkurs auch 700+ mehr Euro.
Da sieht man wohin die Reise hingeht :-)
In 2 bis 3 Wochen wohl um die 620+ Euro und Fury OC 540, Fury knapp/ maximal 500 Euro.
R9 Nano wird sich wohl zwischen 600 und 620 Euro einpendeln

FURY OC ist derzeit massiv! überteuert, nur magere 4% über der Sapphire Fury Karte.
Dies sollte die normale Fury locker schaffen, jene haben wohl mehr Spannung drauf also die OC Version.


http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-startet-ab-649-us-dollar-ab-24.-juni/

Botcruscher
2015-09-13, 14:14:55
Träumerei.

horn 12
2015-09-13, 14:15:34
Nix Träumerei!

Loeschzwerg
2015-09-13, 16:49:06
@Loeschzwerg

Wie zufrieden bist nun mit der Nano Karte
Inwieweit stört das Spulenfiepen und IDLE, oder dort nicht vorhanden?
Zudem beim Zocken, hört man das Fiepen ständig raus?

Bei der Sapphire Fury in Games nicht oder nur kaum wahrnehmbar?
Dank Dir

PS: Die Fury also gesamtbildlich die Bessere Karte?

Im Idle ist kein Spulenfiepen zu hören und unter Last übertönt, wie schon geschrieben, der Lüfter schnell die Spulen.

Bei meiner Fury ist das Spulenfiepen nicht störend, zumindest in meinen Ohren ;)

Nüchtern betrachtet ist die Sapphire Fury die wesentlich sinnvollere Karte, sofern man den Platz im Tower hat.

horn 12
2015-09-15, 05:42:05
Also die Verfügbarkeit (Ja, vor Allem zu dem stolzen Preis)
sieht mal alles andere als schlecht aus.
Sicherlich der Beste Fiji Launch von diesen 3 AMD Karten

http://geizhals.at/?fs=r9+nano&in=

Menace
2015-09-15, 06:47:19
Dein Link umfasst nur Österreich.

Europaweit: Kurzfristig und lagernd: http://geizhals.eu/?cat=gra16_512&asuch=&bpmax=&v=k&hloc=de&plz=&dist=&mail=&sort=bew&xf=1440_R9+Nano

StefanV
2015-09-15, 11:05:35
und unter Last übertönt, wie schon geschrieben, der Lüfter schnell die Spulen.
Sicher, dass das nicht die Keramikkondensatoren sind?!
KFCRB4d991E

(del)
2015-09-15, 11:10:19
Ok, ich spoilere mal ein wenig den nächste DIY-Artikel, auch wenn ich das Ersatz-Cover sicher noch im Finish etwas verbessern muss (Lüfter gerade drehen). Hier ging es erst mal um eine Machbarkeitsstudie, ob es sich überhaupt lohnt. Und wie...
Denn ich glaube, ich habe wirklich den idealen 92mm-PWM-Lüfter gefunden, der wie Arsch auf Eimer direkt in den Kühler passt. Die VGA-mini zu Molex-Fan-Adapter gibts bei Gelid :D

http://scontent-fra3-1.xx.fbcdn.net/hphotos-xpf1/v/t1.0-9/12032063_1081443371890326_5880967663348139816_n.jpg?oh=a24d9f3c147c6ae3bf917cf0a af6cdb0&oe=56A52407

Mit 74°C bei 50% Lüfterdrehzahlen ist man richtig gut dabei, eine eigene Lüfterkurve drückt es dann locker auch auf unter 70°C und die Fuhre bleibt selbst dann noch unter 35 dB(A).

Ich höre jetzt seit einer Stunde nur ab und an die Spannungswandler (Metro last Light UHD), den Lüfter übertönen die Spulen und die heruntergereglte Pumpe des CPU-Kühlers locker. So.Muss.Leise! AMD, bitte nachmachen :)

dargo
2015-09-15, 11:12:37
Auch nicht schlecht. :D

PS: be quiet! Silent Wings 2 92mm?

(del)
2015-09-15, 11:15:48
Auch nicht schlecht. :D
PS: be quiet! Silent Wings 2 92mm?

Genau die. Die trödeln so bei ca. 1200 U/min vor sich hin :)

dargo
2015-09-15, 11:17:37
Ich hätte den Lüfter über die Grakasteuerung laufen lassen. :naughty:

(del)
2015-09-15, 11:21:09
Ich hätte den Lüfter über die Grakasteuerung laufen lassen. :naughty:

Läuft er doch. Deshalb ja der PWM-Adapter von 4-polig auf den Mini-Anschluss :P
Die wollen aber unter Last nicht schneller. ;)

maguumo
2015-09-15, 11:23:06
Ist ja genial, hätte nicht gedacht das da ein normaler Lüfter rein passt :D Stört diese Umrandung vom Lüfter nicht den Luftfluss?

Warum macht man das bei AMD nicht direkt so? Zu teuer? Kosten die Lüfter im Einkauf wirklich zu viel?

dargo
2015-09-15, 11:25:51
Läuft er doch. Deshalb ja der PWM-Adapter von 4-polig auf den Mini-Anschluss :P
Die wollen aber unter Last nicht schneller. ;)
Achso... ich dachte du hättest die 1200RPM dauerhaft anliegen. Dann passt es ja. ;) Wie schnell dreht der Lüfter jetzt in Idle?


Warum macht man das bei AMD nicht direkt so? Zu teuer? Kosten die Lüfter im Einkauf wirklich zu viel?
Denk mal scharf nach. Weil du dann 3 Slots blockierst. ;)

maguumo
2015-09-15, 11:29:41
Wenn man sich die Plastikumrandung spart und den so einpasst wie den momentanen Stock Lüfter dürfte das doch kaum höher sein?

dargo
2015-09-15, 11:32:24
Not.

Kein Hersteller verbaut 25mm tiefe Lüfter bei den Grafikkarten. Aus gutem Grund.

(del)
2015-09-15, 11:39:48
Er dreht im Idle bei 19% - in real (mit Laser/IR gemessen) sind es knapp 350 U/min. Weniger geht auch nicht, denn dann ist er plötzlich aus. Ungewollter Semi-Passiv-Mode :D

Die Karte bleibt im Idle unter 30°C bei 22 °C Raumtemperatur. Open Benchtable spendiert mir sogar 26°C. Es ist jetzt eine echte 2,5-Slot-Karte. Man muss nur beachten, ob sie noch genügend Luft bekommt (Seitenwand), bzw. überhaupt noch ins Case passt.

Wenn man sich die Plastikumrandung spart und den so einpasst wie den momentanen Stock Lüfter dürfte das doch kaum höher sein?

Dann ist der Abstand zu klein und der Lüfter wird ineffizient. Man kann natürlich auch andere Lüftermodule nutzen, die gibt es vergleichbar mit allen möglichen Charteristika und der typischen Dreipunkt-Befestigung. dann entfällt das Basteln. Die von der Gigabyte Windforce passen auch, solange der Durchmesser stimmt.

dargo
2015-09-15, 11:54:19
Er dreht im Idle bei 19% - in real (mit Laser/IR gemessen) sind es knapp 350 U/min.

Perfekt, damit sollte sie unhörbar sein.

(del)
2015-09-15, 11:58:28
Perfekt, damit sollte sie unhörbar sein.
Ist sie auch. Ich bin mit mir wirklich zufrieden :P

horn 12
2015-09-15, 12:57:35
Bitte Foto ... und handelt es sich um eine umgebaute Fury X Karte ?

dargo
2015-09-15, 13:00:02
Bitte Foto ... und handelt es sich um eine umgebaute Fury X Karte ?
:uconf3:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10779819&postcount=294

M4xw0lf
2015-09-15, 13:22:46
Ok, ich spoilere mal ein wenig den nächste DIY-Artikel, auch wenn ich das Ersatz-Cover sicher noch im Finish etwas verbessern muss (Lüfter gerade drehen). Hier ging es erst mal um eine Machbarkeitsstudie, ob es sich überhaupt lohnt. Und wie...
Denn ich glaube, ich habe wirklich den idealen 92mm-PWM-Lüfter gefunden, der wie Arsch auf Eimer direkt in den Kühler passt. Die VGA-mini zu Molex-Fan-Adapter gibts bei Gelid :D

http://scontent-fra3-1.xx.fbcdn.net/hphotos-xpf1/v/t1.0-9/12032063_1081443371890326_5880967663348139816_n.jpg?oh=a24d9f3c147c6ae3bf917cf0a af6cdb0&oe=56A52407

Mit 74°C bei 50% Lüfterdrehzahlen ist man richtig gut dabei, eine eigene Lüfterkurve drückt es dann locker auch auf unter 70°C und die Fuhre bleibt selbst dann noch unter 35 dB(A).

Ich höre jetzt seit einer Stunde nur ab und an die Spannungswandler (Metro last Light UHD), den Lüfter übertönen die Spulen und die heruntergereglte Pumpe des CPU-Kühlers locker. So.Muss.Leise! AMD, bitte nachmachen :)
omnomnomnom :usweet:

StefanV
2015-09-15, 14:03:32
Not.

Kein Hersteller verbaut 25mm tiefe Lüfter bei den Grafikkarten. Aus gutem Grund.
hm?
Meine ASUS GTX 570 DCII hat 25mm Tiefe Lüfter...

Allerdings ist es, wie FormatC schon angemerkt hat, so, dass die Karte eigentlich sogar 4 Slots braucht...

HOT
2015-09-15, 14:11:51
Schon mal in die eigene Signatur gelinst?

@Horn

Bitte lass das mit den Übergrößen wir sind nicht im Seniorenheim! HT4U hat ja bereits einen Artikel geschrieben warum es so wenig Furies gibt:

http://ht4u.net/news/31439_vorerst_keine_weiteren_amd_radeon_fury-grafikkarten_von_boardpartnern_zu_erwarten/
Seltsam, ist der Yield von den Fijis wirklich so gut, dass man die beiden Partner nur selten mal mit teildeaktivierten bedenkt? Oder nimmt AMD für die Interposer generell nur 100% funktionierende Chips? Beides erklärt, warum man lieber keine Fiji Pro verkauft sondern Fiji XT für mehr Geld. Die Fiji Pro legt man dann besser einfach auf Halde, bis die Produktion der Packages höhere Kapazitäten erreicht.
Dass es generell nicht viele gibt, sollte auf der Hand liegen, die Produktionskapazitäten scheinen generell sehr vorsichtig kalkuliert zu sein. Wenn es mehr gibt sollte man die FuryX für die Hersteller für Custom-Designs ebenfalls freigeben.

dargo
2015-09-15, 14:12:08
Ok, scheint eine Ausnahme zu sein. Bei dem Klotz auch kein Wunder. :D
http://content.hwigroup.net/images/products_xl/116140/asus-engtx570-dcii2dis1280md5.jpg

horn 12
2015-09-15, 14:23:28
@Hot

Dann würdest die Sapphire/ Asus Fury´s (Fiji Pro) komplett meiden zu kaufen
Besonders die Sapphire Fury für ca. 525 Euro scheint äußerst attrakiv.

HOT
2015-09-15, 14:26:13
@Hot

Dann würdest die Sapphire/ Asus Fury´s (Fiji Pro) komplett meiden zu kaufen
Besonders die Sapphire Fury für ca. 525 Euro scheint äußerst attrakiv.
Solange es noch Fiji Pro gibt (in dem Preisbereich verkaufen die sich ja nicht unbedingt wie warme Semmeln) werden auch welche angeboten.
Vielleicht gibts ab und an ja noch mal ne kleine Ladung Fiji Pro um die Partner bei Laune zu halten.

Kartenlehrling
2015-09-15, 22:50:36
HWiNFO32/64 v5.05-2633 Beta available.

Changes:

Added recognition of AMD Radeon R9 Nano.
Fixed a possible crash on older Non-ACPI systems.
Removed thousands separator from CSV log..
http://www.hwinfo.com/forum/Thread-HWiNFO32-and-HWiNFO64-v5-05-2633-Beta-released?pid=9357#pid9357

Kann mal einer überprüfen was alles angezeigt wird, vielleicht mit einem Foto?

(del)
2015-09-16, 16:55:11
Sooooo. Mal meinen Umbau mit dem besseren Lüfter übertaktet. Mit vollem Power Limit (+ 50%) erreicht man interessante Taktraten. Im Mittel über 9 Benchmarks liegt man nur ganz knapp hinter der Fury X, aber die Leistungsaufnahme steigt auf barbarische 279 Watt, also fast 100 Watt mehr. Auch das läuft noch bei 74°C im Gehäuse, jedoch dreht dann der 92mm SilentWings 2 auf 1800 U/min. Mehr kann er nicht :P

http://media.bestofmicro.com/R/G/527164/original/01-Clock-Rate.png

Die Frameraten sehen ganz ok aus, jedenfalls nicht schlechter als die der nano und Fury X. Trotzdem ist ein so geringes Leistungsplus bei so viel mehr Leistungsaufnahme schwachsinnig.

Allerdings schnarren dann auch die Spulen wir bekloppt, obwohl die reichlich 37 dB(A) als Zahl noch ganz ok aussehen.

http://media.bestofmicro.com/R/9/527157/original/Performance-Mode.jpg

BlacKi
2015-09-16, 17:04:25
warum sinkt denn übertaktet die karte zwischendurch so arg beim takt? hat das frametime auswirkungen?

Butterfly
2015-09-16, 17:22:07
Ist sie auch. Ich bin mit mir wirklich zufrieden :P
Das darfst du auch! :D
Sehr schöner Mod, anhand deiner Einheiten und Messmittel gehe ich mal vom Voll-Pfosten äh Profi aus! :tongue:

Megamember
2015-09-16, 17:30:57
Heisst das die Nano liegt mit max. Powerlimit leistungsmäßig immernoch hinter Fury X bei höherem Stromverbrauch? Das wäre enttäuschend.

fondness
2015-09-16, 17:36:09
Heisst das die Nano liegt mit max. Powerlimit LEistungsmäßig immernoch hinter Fury X bei höherem Stromverbrauch? Das wäre enttäuschend.

Warum? Das wäre nur logisch. Selbst mit +50% PT liegt die TDP noch immer klar unter FuryX default. Höherer Stromverbrauch kann ich mir daher nicht vorstellen.

aufkrawall
2015-09-16, 17:42:08
Man bräuchte an die +100%. :D

(del)
2015-09-16, 17:42:32
Heisst das die Nano liegt mit max. Powerlimit LEistungsmäßig immernoch hinter Fury X bei höherem Stromverbrauch? Das wäre enttäuschend.

Die Spannungswandler sind wirklich am Limit. Mickrige vier Phasen für 280 Watt sind pervers.

warum sinkt denn übertaktet die karte zwischendurch so arg beim takt? hat das frametime auswirkungen?

Dazu schrieb ich doch:
Die Frameraten sehen ganz ok aus, jedenfalls nicht schlechter als die der nano und Fury X. Trotzdem ist ein so geringes Leistungsplus bei so viel mehr Leistungsaufnahme schwachsinnig.

Megamember
2015-09-16, 17:47:07
Warum? Das wäre nur logisch. Selbst mit +50% PT liegt die TDP noch immer klar unter FuryX default.

ABer 280W verbraucht die Fury X doch auch nur selten bis garnicht, dabei hält sie aber ihre 1050MHZ.
Die Spawas brechen ihr wohl echt das Genick.

(del)
2015-09-16, 17:51:03
Die Fury X rennt aber auch nicht ins Temperaturlimit und hat zudem die bessere Spannungregelung ;)
Ich hätte ja das Temperaturlimit höher setzen können, aber das ist Gaga in so einem kleinen Gehäuse.

Dafür ist die Karte OHNE Übertaktung deutlich leiser. Unter Last ist sie dann nämlich nicht lauter als das Original im Idle :P

horn 12
2015-09-16, 21:49:17
Zu geil um WAHR zu sein :-)

http://www.bpm-power.com/it/product/1529831/scheda_video_ait_sapphire_r9_nano_4gb_pci-e_hdmi_3xdp_21249-00-40g.html

Dann auch noch mein Online Shop
Wenn der Preis auch öfters und andere OnlineShops angeboten wird, könnte Fury X und Fury doch gar um Einiges im Preis fallen bei gegebener besserer Lieferbarkeit.

Kartenlehrling
2015-09-19, 15:10:22
Sehe ich jetzt erst ...
Techpowerup.com hat nun einen Nano Test "nachgereicht" sogar Crossfire.


http://www.techpowerup.com/images/recommended.gif

Value and Conclusion


The AMD Radeon R9 Nano is available online for $650.


POSITIV

Extremely compact
Power efficient
Dual BIOS
Support for AMD FreeSync
Supports AMD Virtual Super Resolution and Framerate Target Control


NEGATIV

Very expensive
No HDMI 2.0 support
Coil noise
Average clock speed well below advertised 1000 MHz
Fan doesn't turn off in idle
Complicated overclocking
No backplate

http://www.techpowerup.com/reviews/AMD/R9_Nano/
AMD Radeon R9 Nano 4 GB

dargo
2015-09-19, 15:36:24
No backplate
Bei einer 15cm langen Karte. :ulol: :ucrazy:

Botcruscher
2015-09-19, 16:09:43
Bling bling eben wie bei RAM.

Das die Platte nicht kühlt sondern nur die Platine gerade halten soll ist doch Nebensache. Aber die 4GB scheinen ja nicht negativ aufgefallen zu sein. :freak:

DerKleineCrisu
2015-09-19, 16:29:17
Fan doesn't turn off in idle
Complicated overclocking

:freak:

Oh ja das sind wirklich Dinge die wirklich, wirklich Negative sind.

Als nächstes kommt noch das die Verpackung nicht hübsch war. ;D

(del)
2015-09-19, 16:42:51
Und jetzt stellt mal erneut die Frage, warum TPU zum Launch nicht mit dabei war.

Keine Backplate? Ich werf mich echt weg, denn die Scheißdinger sind eher hinderlich beim Kühlen, solange keine Pads dazwischen liegen. Und "Complicated overclocking" bei einer Karte, die mit Absicht auf Effizienz getrimmt wurde und die eben genau keine OC-Karte sein will und soll. Man beschwert sich einerseits, dass die Karte die 1000 MHz nicht hält (ja warum wohl?) und möchte im Gegenzug gern noch hausfrauensicher übertakten. Tss... :P

M4xw0lf
2015-09-19, 17:17:21
Und jetzt stellt mal erneut die Frage, warum TPU zum Launch nicht mit dabei war.
Die Karte kommt ja trotzdem gut weg im Test. Wie gut das Review handwerklich ist, dürfte doch nur eine untergeordnete Rolle spielen für den Hersteller.

(del)
2015-09-19, 17:36:56
Die Karte kommt ja trotzdem gut weg im Test. Wie gut das Review handwerklich ist, dürfte doch nur eine untergeordnete Rolle spielen für den Hersteller.

Nein, genau das würde ich eher nicht so sehen. Die Hast und damit auch fehlende Qualität waren ja bei Fury X und Fury die Hauptkritikpunkte. Nun hat man die Zahl der Reviews reduziert und den Testern mehr Zeit gegeben. Ich denke nicht, dass es weniger Samples waren, als bei der Fury X.

Das Problem bei den TPU-Benchmarks ist, dass die ganzen Karten, Benchmarks und einzelnen Auflösungen nie im Leben komplett und einheitlich mit aktuellen Treibern gemacht worden sein können. Das ist in dieser Form reichlich wertlos. Für den Leser und den Hersteller.

HarryHirsch
2015-09-19, 17:56:10
sind denn schon custom modelle mit besseren spawas angekündigt?

(del)
2015-09-19, 18:00:28
Nein. Das Problem sind auch nicht die Spannngswandler, sondern das Design der Phasen und die Komponentenbestückung. Die aktuellen Spulen kosten z.B. im EK zwischen 20 und 28 Cent, je nach Abnahmemenge, und sind untere Mittelklasse. Außerdem werden sie knackeheiß :D

HarryHirsch
2015-09-19, 18:02:15
das war jetzt nicht auf deinen post bezogen sonder nur so in den raum geworfen.
die stock spawas sollen doch fiepen ohne ende...

Butterfly
2015-09-19, 18:09:22
Nein. Das Problem sind auch nicht die Spannngswandler, sondern das Design der Phasen und die Komponentenbestückung. Die aktuellen Spulen kosten z.B. im EK zwischen 20 und 28 Cent, je nach Abnahmemenge, und sind untere Mittelklasse. Außerdem werden sie knackeheiß :D
Aha, also doch Single Phase Pfade und kein SoC VRM´s ?

Was ist den bei TomdRaider los, das saugt mit DX11 ! fast soviel wie BF4 Mantle.
Gut TressFX und VSR tun ihr übriges. :biggrin:

(del)
2015-09-19, 18:38:28
das war jetzt nicht auf deinen post bezogen sonder nur so in den raum geworfen.
die stock spawas sollen doch fiepen ohne ende...

MOSFET fiepen eigentlich nicht. Das Problem sind passive Bauteile wie Spulen und Kondensatoren. Das Problem der lautlosen Spannungsregulierung ist nicht ganz ohne, bei den Strömen, die da fließen. Aktuelle Grafikkarten machen in einer EMI-Chamber so richtig Ballett. Nach der Visite würde wohl jeder freiwillig aufs Windows-Case verzichten. Naja, zumindest macht es nicht gleich impotent. :D

Butterfly
2015-09-19, 18:43:36
MOSFET fiepen eigentlich nicht. Das Problem sind passive Bauteile wie Spulen und Kondensatoren. Das Problem der lautlosen Spannungsregulierung ist nicht ganz ohne, bei den Strömen, die da fließen. Aktuelle Grafikkarten machen in einer EMI-Chamber so richtig Ballett. Nach der Visite würde wohl jeder freiwillig aufs Windows-Case verzichten. Naja, zumindest macht es nicht gleich impotent. :D
Besser hätte ich es nicht schreiben können, wobei es mir zu bunt vor kommt---:freak:

Der erste Durchlauf [FX-9590@Ausbalanciert, 2x XfX R7970@ stock, DDR3-2133 ECC, 2.6GHz HT-Link/CPU-NB]
http://abload.de/img/tombraider1440p_2015-aksmz.jpg
670W Peak, 5XXW avg. ohne fiepen ! :cool:

(del)
2015-09-19, 18:52:11
Der Joke mit der Potenz stammt von einem asiatischen Ingenieur, der freundlich aber bestimmt darauf aufgepasst hat, dass während der Messungen keiner in der Kammer ist, warum auch immer. Er selbst arbeitet dort seit Jahren und hat lustigerweise keine Kinder. War wohl zu oft im Kämmerchen :P

Butterfly
2015-09-19, 19:16:58
Der Joke mit der Potenz stammt von einem asiatischen Ingenieur, der freundlich aber bestimmt darauf aufgepasst hat, dass während der Messungen keiner in der Kammer ist, warum auch immer. Er selbst arbeitet dort seit Jahren und hat lustigerweise keine Kinder. War wohl zu oft im Kämmerchen :P
Ein Kammerjäger wäre wohl keine schlechte Idee. :freak:
Lass doch die Kinder aus dem Spiel, sowas ist unfair, da sie sich nicht wehren können. :wink:

-/\-CruNcher-/\-
2015-09-19, 19:34:19
Der Joke mit der Potenz stammt von einem asiatischen Ingenieur, der freundlich aber bestimmt darauf aufgepasst hat, dass während der Messungen keiner in der Kammer ist, warum auch immer. Er selbst arbeitet dort seit Jahren und hat lustigerweise keine Kinder. War wohl zu oft im Kämmerchen :P

Naja woher weist du das es ein Joke war, glaube eher die die bescheid wissen meinen das auch etwas ernster ;)

Währe auch mal ein interessantes Thema EMI tests von heutigen Grafikkarten die sollte ja eigentlich der TÜV oder dieser Elektroverband vorher hier durchführen oder gibt man sich mittlerweile mit einem Signed Test Report der AIB/IHVs heute zu frieden, so wie du es schilderst läuft es wohl so da werden auch keine Stichproben mehr gemacht ?

PS: Hat er euch auch allen ordentlich die Aluhüte aufsetzen lassen vor dem Test ;) ?

(del)
2015-09-19, 22:10:48
Wir standen draußen. :D Es wird ja nicht nur die Abstrahlung der Objekte gemessen, sondern auch die Einstrahlung, bzw. die Standfestigkeit der Objekte gegen Strahlung von außen. Lustig: die Werte direkt neben den billigen Spulen liegen über einem Tesla. :(

Raff
2015-09-19, 22:26:58
ABer 280W verbraucht die Fury X doch auch nur selten bis garnicht, dabei hält sie aber ihre 1050MHZ.
Die Spawas brechen ihr wohl echt das Genick.

In UHD verbraucht sie fast immer Energie in diesem Bereich.

MfG,
Raff

Mr. Krabs
2015-09-19, 23:40:36
jetzt muss das Kärtchen nur noch ein bissl günstiger werden und das Teil verkauft sich gut:)

(del)
2015-09-20, 06:33:41
@Megamember:
Wenn Du die Nano auf Fury-X-Niveau bringen willst, nimmt die kleine Karte wegen des ungünstigeren Layouts sogar noch ein wenig mehr Leistung auf. Die ist nun mal auf Effizienz getrimmt und nicht auf OC.

Bei mir stehen da in UHD (Metro LL) 162 Watt für die Fury X und knapp 180 Watt für die umgebaute und übertaktete Nano. Wobei der originale Nano-Lüfter sogar noch ca. 2 Watt mehr Leistung aufnimmt, als der Silent Wings 2 vom Umbau.

Beim Umbau der Fury X habe ich jetzt allerdings auch gemerkt, dass auch die Chipqualitäten offensichtlich sehr stark schwanken. Das Pressemuster schnappt sich die oben erwähnten 162 Watt und die Retail-Karte in der gleichen Sitation 171 Watt, also 9 Watt mehr.

-/\-CruNcher-/\-
2015-09-20, 10:51:28
Bei mir stehen da in UHD (Metro LL) 162 Watt für die Fury X und knapp 180 Watt für die umgebaute und übertaktete Nano.

Der gemesene Performance unterschied ?

bereitest du etwa genauere tests von Performance/Verbrauchs Ratio pro titel (Software) vor :D

Das ihr Reviewer mit die besten Samples bekommt ist ja nix wirklich neues ;)

(del)
2015-09-20, 11:39:18
Der gemesene Performance unterschied ?
bereitest du etwa genauere tests von Performance/Verbrauchs Ratio pro titel (Software) vor :D
Das ihr Reviewer mit die besten Samples bekommt ist ja nix wirklich neues ;)

Zwischen der Original-Nano und der umgebauten Karte besteht in Bezug auf die Leistungsaufnahme und die Gaming-Performance kein echter Unterschied, solange man das Power Limit samt Takt nicht mir Gewalt erhöht. Das OC-Experiment ist zudem in der Endkonsequenz schon ein wenig sinnfrei, weshalb ich auf diese aufwändige Messungen diesmal verzichtet habe. Es war nur eine kurze Studie, ob und wie weit der umgebaute Kühler mitspielt, aber eine breite Praxisrelevanz besitzt so etwas aus meiner Sicht nicht. Mir war es beim Umbau in erster Linie wichtig, die Karte leiser zu bekommen und nicht etwa heißer ;)

Das wäre dann am Ende fast schon so schwachsinnig wie ein Crossfire, das es aus technischen Gründen beim mini-ITX ja eh nicht geben kann. Wer so etwas Unsinniges testet, sollte echt mal den Arzt aufsuchen. Wenn man weiß, dass die Nano den Takt nicht halten kann, verschlimmere ich diesen Ist-Stand doch nicht noch zusätzlich, indem ich zwei solcher hibbeligen Karten in Abhängigkeiten zueinander bringe. Ein kurzer Test hat mir diesen Frametime-Käse auch sehr deutlich bestätigt, so dass ich meine Zeit nicht mit solchem praxisfernen Unfug vergeude. Da gibt es wirklich Wichtigeres. :)

Artikel kommt am Montag früh :)

horn 12
2015-09-20, 11:41:51
@Format_C

R9 Nano oder Sapphire Fury bei normalen Midi Tower Gehäuse
Wie störend ist der Lüfter beim Idlen/ Last der R9 Nano wirklich?
Spulenfiepen haben eben auch beide Karten so gut wie sicher :-(

521 Euro die Fury und 607 die Nano würde ich bekommen:
http://www.bpm-power.com/it/product/1529831/scheda_video_ait_sapphire_r9_nano_4gb_pci-e_hdmi_3xdp_21249-00-40g.html

Screemer
2015-09-20, 13:27:14
ne normale fury. was willst du mit ner nano. du fragst jetzt schon gefühlt seit monaten.

MartinRiggs
2015-09-20, 13:44:10
ne normale fury. was willst du mit ner nano. du fragst jetzt schon gefühlt seit monaten.

Ich verstehe es auch nicht....
Wenn man einen normalen Tower hat dann spricht doch alles für ne normale Fury, die Nano ist doch nur für ITX-Projekte interessant.

Kartenlehrling
2015-09-20, 14:05:38
Schon weil die Asus Fury (ohne X) 8x 12x Spannungsphasen hat,
wo sonst zb. 7x, 6x oder wie bei der Nano 5x Spannungeswandler.
Ich glaube nicht das die Asus-Fury singt.


Ich sehe gerade ist zähle anscheinen verkehrt ... Asus schreibt was von !! 12-phase Super Alloy Power II . (http://www.asus.com/Graphics-Cards/STRIXR9FURYDC34GGAMING/)

http://www.hardwareluxx.de/images/stories/galleries/reviews/2015/radeon-fury/asus-radeon-fury-strix-12-rs.jpg

(del)
2015-09-20, 14:45:55
10 Phasen fur die GPU und nicht nur alberne 4 wären echt ein Argument :)

Digidi
2015-09-20, 15:14:43
Die Phasenanzahl ist doch sowas von egal. Wenn man die richtig hochwertige Komponenten hat reicht auch eine Phase. Ich hätte eine differenzierte Antwort von dir erwartet Format_C!

(del)
2015-09-20, 15:35:45
Die Phasenanzahl ist doch sowas von egal. Wenn man die richtig hochwertige Komponenten hat reicht auch eine Phase. Ich hätte eine differenzierte Antwort von dir erwartet Format_C!

Gut, dann differenzierter:
Wenn Du nachrechnst, wie hoch die fließenden Ströme in der Summe sind, ist eine mehrphasige Lastenaufteilung in jedem Falle sinnvoll. Damit veringert man bei identischen Komponenten, die ja auch eine gewisse Einbaugröße und einen definierten Kostenpunkt nicht überschreiten dürfen, nicht nur das mechanische Mitschwingen und Vibrieren (Spulen, Kondesatoren, man kann ja nun weiß Gott nicht alles einbetonieren), sondern vor allem auch die Abwärmebündelung auf nur wenige Hotspots (Density) und verteilt das alles viel sinnvoller auf eine viel größere Fläche. Schaltungstechnisch ist alles theoretisch lösbar, in der Praxis ist das, auch kühltechnisch, wieder was völlig anderes. Genau dieses Gespräch hatte ich im Sommer auch im R&D eines Grafikkartenherstellers. :)

Kartenlehrling
2015-09-20, 15:53:06
@Digidi

"Unser" Elektronik-Guru anddill hatte mal vor gefühlten 100 Jahren dazu was geschrieben.
Zuviele Spannungsphasen kann man bei einer Grafikkarte die mit wechselten Lasten arbeite nie haben.
Und das mehr Spannungswandler auch mehr Strom kosten ist auch Quatsch.

http://www.3dcenter.org/artikel/geheimnis-spannungswandler
Geheimnis Spannungswandler

(del)
2015-09-20, 16:32:36
Das Platinenlayout ist echt eine Kunst und es gehört im Vorfeld neben den elektronischen Simulationsmöglichkeiten auch jede Menge Try'n'Error dazu. Wenn Ihr wüsstet, wie spät die Boardpartner manchmal die richtigen Chips bekommen.... Die meist auch teildeaktivierten Spielzeugsamples im Vorfeld geben zwar einen guten Anhaltspunkt, aber wirklich optimal ist es dann eben doch nicht. Und es gibt sogar Situationen, da gelangen solche Chips auf Enduser-Karten :D

Ich hatte auch mal so einen Klassiker:
http://www.tomshardware.de/Radeon-HD-7830-768-Shader-Pitcairn_LE-Engineering_Sample,testberichte-241015.html

horn 12
2015-09-20, 16:40:07
Kannst bitte auf meine obrige Frage nochmals antworten
müsste es dringend wissen,- da ich bei Bestellen bin.

Loeschzwerg
2015-09-20, 16:51:39
Die sinnvollere Entscheidung ist klar eine Fury und wenn du Glück hast lässt sich diese sogar freischalten.

Preis, Lautstärke, Spulenfiepen... alles besser als bei einer Nano ;)

Im normalen Gehäuse stört mich die Nano hinsichtlich der Lüfterlautstärke nicht, aber das Zirpen kann nerven.

Botcruscher
2015-09-20, 16:53:18
Natürlich kosten mehr Phasen mit geringerer Last mehr Strom. Der Wirkungsgrad der Schaltung geht unweigerlich zurück.

(del)
2015-09-20, 17:12:16
Natürlich kosten mehr Phasen mit geringerer Last mehr Strom. Der Wirkungsgrad der Schaltung geht unweigerlich zurück.

Das würde ich fast noch bezweifeln. Wenn ich eine normale MSI 980 Ti Gaming 6G und eine 980 Ti Lightning vergleiche, gehen die Unterschiede im Idle und Teillastbetrieb gegen Null, wenn man die unterschiedliche Leistungsaufnahme der Lüfter herausrechnet. Das kann vielleicht 1 bis 2 Watt ausmachen, aber sogar weniger sein, weil man zum Teil auch effizientere Komponenten einsetzen kann, die es für größere Ströme so gar nicht gibt. :) Bei höheren Lasten sind zudem die addierten Verlustleistungen der MOSFETs nicht zwingend höher. Alles, was näher am Grenzbereich agiert, ist stets inneffizienter ;)

Auch wenn Autovergleiche fast immer hinken - das Downsizing- und 3-Zylinder-Theater hat Gott sei Dank gezeigt, dass Theorie und Praxis weit auseinander klaffen. :)

Botcruscher
2015-09-20, 18:35:37
Die Sache ist doch bei den Stromsparrechnern lange praktisch bewiesen.

(del)
2015-09-20, 19:49:46
Was haben mehrere Phasen und Stromsparrechner gemeinsam? Ich komme gerade nicht ganz mit...

Butterfly
2015-09-20, 20:18:09
Schon weil die Asus Fury (ohne X) 8x 12x Spannungsphasen hat,
wo sonst zb. 7x, 6x oder wie bei der Nano 5x Spannungeswandler.
Ich glaube nicht das die Asus-Fury singt.


Ich sehe gerade ist zähle anscheinen verkehrt ... Asus schreibt was von !! 12-phase Super Alloy Power II . (http://www.asus.com/Graphics-Cards/STRIXR9FURYDC34GGAMING/)

http://www.hardwareluxx.de/images/stories/galleries/reviews/2015/radeon-fury/asus-radeon-fury-strix-12-rs.jpg
Die Strix ist aber bescheiden für CrossfireX, dafür sind die Karten zu lang.
Wenn man da keine 2 Slots Freiraum hat wird es auch nichts mit dem Midi-Tower. :freak:

Das Quantum Projekt scheint vom Design her recht viel verpsrechend, wären da nicht zwei Fury´s auf einem PCB... :D

anddill
2015-09-20, 20:41:26
Was haben mehrere Phasen und Stromsparrechner gemeinsam? Ich komme gerade nicht ganz mit...Weil die sparsamsten Mainboards generell wenig Phasen haben.
Die Sparsamkeit steckt aber nur zu einem kleinen Teil in der Phasenanzahl, sondern in der Auslegung des gesamten Boards, dem Verzicht auf OC-Reserven und vor allem dem BIOS.

y33H@
2015-09-20, 20:51:05
Intels Haswell-Referenz-Design zB hat knuffige vier.

(del)
2015-09-20, 21:08:14
Weil die sparsamsten Mainboards generell wenig Phasen haben.
Die Sparsamkeit steckt aber nur zu einem kleinen Teil in der Phasenanzahl, sondern in der Auslegung des gesamten Boards, dem Verzicht auf OC-Reserven und vor allem dem BIOS.

Genau das meinte ich ja. Die Anzahl allein sagt nicht zwingend etwas aus.

Knuddelbearli
2015-09-20, 21:27:25
WTF was veranstaltet CB da für einen Blödsinn?

http://www.computerbase.de/2015-09/dan-cases-a4-sfx-im-test-das-kleinste-gaming-gehaeuse-der-welt-kann-was/3/#diagramm-systemtemperaturen-gpu

lässt den Lüfter der Nano mit 100% laufen und stellen die dann einer Custom 980 TI gegenüber ...

Klar kein GPU Test aber so eine Grafik bleibt dann hängen ... und GPU Lüfter mit fixer Drehzahl ist ja so oder so Schwachsinn

(del)
2015-09-20, 21:42:44
WTF was veranstaltet CB da für einen Blödsinn?
http://www.computerbase.de/2015-09/dan-cases-a4-sfx-im-test-das-kleinste-gaming-gehaeuse-der-welt-kann-was/3/#diagramm-systemtemperaturen-gpu
lässt den Lüfter der Nano mit 100% laufen und stellen die dann einer Custom 980 TI gegenüber ...
Klar kein GPU Test aber so eine Grafik bleibt dann hängen ... und GPU Lüfter mit fixer Drehzahl ist ja so oder so Schwachsinn

Ich kommentiere selten Artikel von Kollegen, aber ich hab bei der Hälfte einfach weggeklickt. Mich würde natürlich interessieren, wie der Kollege das mit dem PWM-Lüfter der Nano und den 5 Volt gemacht hat und vor allem auch warum. Da der Lüfter der Nano noch nicht einmal mit Furmark auf die Palme zu bringen ist, sind solch abstrusen Werte mit 12 Volt ebenfalls glatter Unfug.

iuno
2015-09-21, 00:01:49
Cool bleiben :P Natürlich ist das Quatsch aber wer sich über die Nano informieren will schaut den Test dazu an, nicht den Test von einem Case.
Der Test hat ja mit der Nano eigentlich nichts zu tun, die wollten dort nur das Gehäuse "aus ihrer Community" gut dastehen lassen: kein Negativpunkt und eine Empfehlung? Mhm... und schaut mal wer da getestet hat, der hat mit der Hardware wohl sonst wenig zu tun ;)

Ich finde es aber wieder beeindruckend, die Nano dort drin zu sehen. Man könnte das NT so eigentlich noch drehen (Lüfter nach vorne) und das Teil nochmal ein ganzes Stück kürzer machen ;)

BlacKi
2015-09-21, 09:36:10
Cool bleiben :P Natürlich ist das Quatsch aber wer sich über die Nano informieren will schaut den Test dazu an, nicht den Test von einem Case.
Der Test hat ja mit der Nano eigentlich nichts zu tun, die wollten dort nur das Gehäuse "aus ihrer Community" gut dastehen lassen: kein Negativpunkt und eine Empfehlung? Mhm... und schaut mal wer da getestet hat, der hat mit der Hardware wohl sonst wenig zu tun ;)

Ich finde es aber wieder beeindruckend, die Nano dort drin zu sehen. Man könnte das NT so eigentlich noch drehen (Lüfter nach vorne) und das Teil nochmal ein ganzes Stück kürzer machen ;)
wenn ich mir tests zu cases ansehen will bringt mich der test auch nicht weiter, weil der test eigentlich kein test ist, es ist werbung.

(del)
2015-09-21, 10:39:42
Wenn man ehrliche Arbeit betreibt, schreibt man einfach redaktionelle Werbung oder Advertorial drüber. Wenn ich mein Zeug bei uns einfach so reinstellen würde, bekäme ich binnen 5 Minuten einen aufgesetzten Kopfschuss :P

StefanV
2015-09-21, 11:02:29
Die Phasenanzahl ist doch sowas von egal. Wenn man die richtig hochwertige Komponenten hat reicht auch eine Phase. Ich hätte eine differenzierte Antwort von dir erwartet Format_C!

Durch mehr Phasen reduzierst du ja den Strom, der durch jede Komponente fließt..

Das macht man auch 'nur', weil es schlicht nicht praktikabel ist, es mit weniger zu machen -> zu hohe Ströme/Lasten auf den Komponenten, zu hohe Leistungsabgabe...
Deswegen versucht man da mehrere zu benutzen...
Intels Haswell-Referenz-Design zB hat knuffige vier.
...bei 1.8V, oder? ;)

Exxtreme
2015-09-21, 12:19:49
Das Ding ist IMHO viel zu teuer. Scheint so eine Art Prestige-Produkt ala Iphone oder Titan zu sein. Die Frage ist ob sie genug Abnehmer finden.

y33H@
2015-09-21, 12:23:54
...bei 1.8V, oder? ;)CPU oder DRAM? ;D

Lowkey
2015-09-21, 12:24:59
Der Preis lag mal auf 645 Euro bei MF. Und woanders gibt es die Karten wohl ab 600 Euro. Der aktuelle Preis ist nicht der finale Preis. Schaut man die Verkaufszahlen an, dann müßte AMD irgendwann die Preise senken müssen. Ich überlege noch meine 980 Ti gegen die Nano zu ersetzen.

horn 12
2015-09-21, 13:04:40
Jupp, bei uns richtig bemerkt.
Italien preist die Nano in 4 bís 5 Shops um die mindestens 607 bis ca. 640 Euro an, obwohl die Mwst. gar 22% beträgt.
Fury liegt auch schon bei 521 Euro, mit Fury OC sind auch wir bei extrem hohen 615 bis 630 Euro!

Kartenlehrling
2015-09-21, 13:10:09
Erstmal muss die R9nanoX2 veröffentlich diese wollen sie bestimmt mit 1499€ verkaufen.
Solange wird hier kein Preisrutsch passieren.

Dural
2015-09-21, 14:24:31
WTF was veranstaltet CB da für einen Blödsinn?

http://www.computerbase.de/2015-09/dan-cases-a4-sfx-im-test-das-kleinste-gaming-gehaeuse-der-welt-kann-was/3/#diagramm-systemtemperaturen-gpu

lässt den Lüfter der Nano mit 100% laufen und stellen die dann einer Custom 980 TI gegenüber ...

Klar kein GPU Test aber so eine Grafik bleibt dann hängen ... und GPU Lüfter mit fixer Drehzahl ist ja so oder so Schwachsinn

Ich Fixiere den Lüfter auf der Grafikkarte fast immer auf einen bestimmten Wert wenn ich Übertakte. Ich mag automatische Lüftersteuerungen beim OC überhaupt nicht.

(del)
2015-09-21, 14:51:33
Ich Fixiere den Lüfter auf der Grafikkarte fast immer auf einen bestimmten Wert wenn ich Übertakte. Ich mag automatische Lüftersteuerungen beim OC überhaupt nicht.

Dafür hat man individuell variierbare Lüfterkurven. Außerdem ging es ja nicht ums OC ;)

(del)
2015-09-22, 07:54:17
So, der Bastel-Report ist mittlerweile online:
http://www.tomshardware.de/amd-radeon-r9-nano-modding-silent-umbau,testberichte-241932.html

Was lernen wir daraus? Luftkühlung muss AMD wirklich noch ein wenig üben und OC ist bei der Nano schlicht am Thema vorbei. Fürs OC sollte man die Fury vorziehen.

horn 12
2015-09-22, 08:06:45
Perfekt :-)
Wie hoch kommst mit der Fury bei Overclock
und wie sieht es mit Spulenfiepen bei Sapphire Fury aus.
Soll teilwiese so gut wie jedes Modell betreffen bei Sapphire Fury / Fury OC

Screemer
2015-09-22, 09:37:32
@format_c: In den Hinweis Kästen ist 2 mal das erste Wort falsch.

Flusher
2015-09-22, 09:43:22
Ich Fixiere den Lüfter auf der Grafikkarte fast immer auf einen bestimmten Wert wenn ich Übertakte. Ich mag automatische Lüftersteuerungen beim OC überhaupt nicht.

Zum Glück bist du nicht die Referenz für alle User.

(del)
2015-09-22, 09:49:33
@format_c: In den Hinweis Kästen ist 2 mal das erste Wort falsch.

Danke :D War zwar schon gefixt, hängt aber seit gefühlten Ewigkeiten noch bei Amazon im Cache. Irgendwann wird es wohl auch mal ankommen ;)

Perfekt :-)
Wie hoch kommst mit der Fury bei Overclock
und wie sieht es mit Spulenfiepen bei Sapphire Fury aus.
Soll teilwiese so gut wie jedes Modell betreffen bei Sapphire Fury / Fury OC

Ich habe sie auf 1050 MHz eingestellt, aber nur etwas über 1000 MHz bekommen. Die Karte limitiert halt, weil ich das Temperatur-Limit bei 74 °C belassen habe. mehr schafft der leise Lüfter nicht, wenn die Karte im Gehäuse steckt. Das Fiepen ist im Normal-Modus da, aber gerade so erträglich. Beim OC spielen die Zikaden verliebt Hasche. :P

Ansonsten zitiere ich mich mal selbst:
Was lernen wir daraus? Luftkühlung muss AMD wirklich noch ein wenig üben und OC ist bei der Nano schlicht am Thema vorbei. Fürs OC sollte man die Fury vorziehen.

horn 12
2015-09-22, 10:10:08
Sorry, Meinte aber die Fury, was dort an OC erreicht hast.

RoughNeck
2015-09-22, 12:08:15
Wir haben gestern mit der Sapphire non X Fury 1100 erreicht, wirklich mehr ist da nicht drin.
1125 geht auch noch aber ab 1150 wird es instabil.
Unter Last ist die Karte leise und bleibt unter 70° aber etwas fiepen ist vorhanden.

(del)
2015-09-22, 12:53:25
@Horn:
Das ist nun mal der Nano-Thread ;)

Screemer
2015-09-22, 12:54:59
@Igor: hast du auch noch ein bild vom lüfter, auf dem man die modifikation etwas besser erkennt. bei den "von-oben-bildern" sieht man das nicht wirklich gut.

könntest du auch noch mal den durchmesser der lüftereinfassung (rund) messen den runden teil? die bei mir verbauten lüfter haben ohne gehäuse 85mm (http://www.amazon.com/FirstD-FD7010H12S-0-35A-2Wire-Cooling/dp/B00JE0R70I) und da könnten die 95mm doch glatt passen.

(del)
2015-09-22, 15:00:13
Ich habe ca. 1 mm abgetragen, damit es perfekt "klemmt". Damit ist das Ganze in der Horizontalen ca. 91 mm breit, die Öffnung im Kühler etwas über 90 mm.

Screemer
2015-09-22, 15:01:38
super, danke für die info. werd heute abend mal die ausbuchtungen meiner 290 messen. könnten da auch passen.

fondness
2015-09-22, 20:25:49
Noch ein sexy Wakü-Block für die Nano:
http://www.fudzilla.com/news/graphics/38833-ek-water-blocks-releases-r9-nano-block

Menace
2015-10-19, 18:11:46
So langsam ziehe ich eine Nano doch in die engere Wahl meine 7850 zu ersetzen. Ich betreibe permanent 2 Monitor, wobei noch ein dritter hinzu kommen könnte.

Zweitmonitor: NEC EA232WMI-BK (http://www.necdisplay.com/p/desktop-monitors/ea232wmi-bk?type=support) (mit Display-Port, keine Schwierigkeiten)

Hauptmonitor: NEC Multisync LCD 2690 WUXi² (http://www.amazon.de/NEC-2690-WUXi-LCD-Monitor-Kontrast/dp/B000JJSRHA) Dieser hat leider nur einen DVI Anschluss.

Mit welchem Adapter-Kabel/Adapter kann ich trotzdem 1920x1200 @ 60 anzeigen lassen?

Weiß jemand, ob der Sapphire Nano ein Adapter-Kabel beiliegt?

horn 12
2015-10-19, 18:20:00
Japp, der Sapphire Fury liegt ein Displayport/ DVI Adapter bei!

Menace
2015-10-19, 19:00:33
Der Fury schon, aber auch der Nano?

Schnoesel
2015-10-19, 19:09:33
Der Sapphire Fury X lag auch einer bei, sollte mich schon sehr wundern wenn der Nano keiner beiliegen würde. Welche Nano hat eigentlich Loeschzwerg? Evtl kann der mehr sagen.

Frosty
2015-10-19, 19:20:51
wird es die nano in bälde auch also custom design geben, mit leiserem lüfter?
dann den preis noch um 150€ runter und ich überlegs mir:)

Menace
2015-10-19, 19:23:15
3 Monate nach AMDs Nano soll es auch wohl Custom-Varianten geben. Aber möchte ich eine OC-Variante? Meine Schmerzgrenze war ja ursprünglich knapp unter 600 €. Aber wird das noch was vor Weihnachten?

Wobei, wenn Alternate sogar eine mit 650 € anbietet, haben die bestimmt noch Spielraum.

Schnoesel
2015-10-19, 19:24:23
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Verfuegbarkeit-R9-Fury-X-Nano-2016-1174904/

Bessere Verfügbarkeit, besserer Preis ... vielleicht ;-)

Frosty
2015-10-19, 19:28:06
3 Monate nach AMDs Nano soll es auch wohl Custom-Varianten geben. Aber möchte ich eine OC-Variante? Meine Schmerzgrenze war ja ursprünglich knapp unter 600 €. Aber wird das noch was vor Weihnachten?

Wobei, wenn Alternate sogar eine mit 650 € anbietet, haben die bestimmt noch Spielraum.


die nano wäre ein kracher im vergleich zur gtx 980, wenn die um die 500€ über den ladentisch ginge:(
ist meiner meinung nach das beste amd produkt seit tahiti/gcn 1.0.

das referenzdesign ist nicht schlecht, vor allem im vergleich zu den bisherigen launches der letzten jahre, aber mir persönlich immer noch zu laut.:usad:
daher bin ich gespannt: was kann msi aus der nano machen? das pcb können die gerne bis auf 22-24 cm verlängern und einen dualslotkühler mit 2 lüftern drauf schnallen...

Menace
2015-10-19, 20:10:28
das referenzdesign ist nicht schlecht, vor allem im vergleich zu den bisherigen launches der letzten jahre, aber mir persönlich immer noch zu laut.:usad:
daher bin ich gespannt: was kann msi aus der nano machen? das pcb können die gerne bis auf 22-24 cm verlängern und einen dualslotkühler mit 2 lüftern drauf schnallen...

Hast Du sie schon live gehört?

Längere pcb würde mich nicht stören, allerdings würde ich mich über Ankündigungen freuen. :rolleyes:

Menace
2015-10-19, 20:19:05
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Verfuegbarkeit-R9-Fury-X-Nano-2016-1174904/

Bessere Verfügbarkeit, besserer Preis ... vielleicht ;-)

Ich bin sowieso verwirrt, was die Preispolitik angeht. Ich fürchte Mindfactory ist da mit entscheidend. Für "lagernde" Nanos sind die Preis zwischen 700 und 816 € (!) (http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+R9+Serie/R9+NANO.html), sind sie nur verfügbar konkurriert Mindfactory mit dem Preis mit seinen Mitbewerbern und senkt die Preise teilweise im Minutentakt um "Cent"-Beträge, nur um bei geizhals ganz vorne zu stehen. Das drückt die Preise.

Logische Konsequenz wäre aber, dass sobald die Nano wieder lagernd ist, dass der Preis zunächst bei Mindfactory und dann auch bei den anderen hochgeht.

Frosty
2015-10-19, 20:28:34
Ich bin sowieso verwirrt, was die Preispolitik angeht. Ich fürchte Mindfactory ist da mit entscheidend. Für "lagernde" Nanos sind die Preis zwischen 700 und 816 € (!) (http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+R9+Serie/R9+NANO.html), sind sie nur verfügbar konkurriert Mindfactory mit dem Preis mit seinen Mitbewerbern und senkt die Preise teilweise im Minutentakt um "Cent"-Beträge, nur um bei geizhals ganz vorne zu stehen. Das drückt die Preise.

Logische Konsequenz wäre aber, dass sobald die Nano wieder lagernd ist, dass der Preis zunächst bei Mindfactory und dann auch bei den anderen hochgeht.


nein leider hab ich die nano noch nicht live hören dürfen:(

aber seitdem ich die palit 980 jetstream habe ist alles oberhalb deren lautstärke fast schon inakzeptabel:)

und was mindfactory und deren preisgestaltung angeht:

wir sollten eigentlich froh sein dass der laden so dermaßen die preise für hardware aller kategorien ständig drückt, sodass die konkurrenz nachziehen muss.....
das macht zwar die kleineren bzw. finanzschwächeren shops auf dauer kaputt, aber das ist dann eben der kollateralschaden wenn die leute alle nur beim billigsten anbieter kaufen wollen:(

Palpatin
2015-10-20, 10:02:14
die nano wäre ein kracher im vergleich zur gtx 980, wenn die um die 500€ über den ladentisch ginge:(
ist meiner meinung nach das beste amd produkt seit tahiti/gcn 1.0.

Hmm, wenn das PCB egal ist und es sehr leise und relativ günstig sein soll würde ich mal Richtung Sapphire Radeon R9 Fury Tri-X schielen.
Dürfte imo so ziemlich die leiseste Karte auf dem Markt sein: http://ht4u.net/reviews/2015/amd_radeon_r9_fury_-_mangelware_im_test/index15.php

Menace
2015-10-20, 10:06:21
Sapphire Radeon R9 Fury Tri-X wäre sofort meine Karte, hätte sie den Stromverbrauch einer Nano.

Lowkey
2015-10-20, 10:17:37
Kann man da nicht einfach das Bios der Nano ein wenig modifizieren und flashen?

fondness
2015-10-20, 10:24:29
Sapphire Radeon R9 Fury Tri-X wäre sofort meine Karte, hätte sie den Stromverbrauch einer Nano.

Naja, die Sapphire Fury benötigt ~225W und ist dabei die leiseste High-End-Karte überhaupt. Ob jetzt wirklich die 50W mehr wie die Nano unter Last ein Problem sind....

dildo4u
2015-10-20, 10:31:20
Naja, die Sapphire Fury benötigt ~225W und ist dabei die leiseste High-End-Karte überhaupt. Ob jetzt wirklich die 50W mehr wie die Nano unter Last ein Problem sind....
Die Palit 980 TI Super Jetstream ist leiser laut PCGH.

Raff
2015-10-20, 11:00:30
Jo, aber nur ein bisschen, da sie bei ~250 Watt abgeriegelt ist. Die Fury Tri-X OC liegt mitnichten bei ~225 Watt, unter Volllast kann die bis zu 320 ziehen.

MfG,
Raff

tm0975
2015-10-20, 11:22:25
von der sapphire fury tri-x oc war nciht die rede. oc macht da keinen sinn und verschlechtert nur die effizienz. und eine leisere high end karte als die sapphire fury tri-x gibt es nicht. dann hat sich pcgh vermessen... dagegen sind die karten mit gddr5 triebwerke...

http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/7/

http://ht4u.net/reviews/2015/amd_radeon_r9_fury_-_mangelware_im_test/index14.php

Raff
2015-10-20, 11:26:54
Keineswegs vermessen, wir reden von einer Sone-Differenz im Bereich 0,3, also "nix". ;)

MfG,
Raff

Mr. Lolman
2015-10-20, 11:34:57
Na was jetzt, ist sie leiser oder lauter?

tm0975
2015-10-20, 11:36:06
dann habt ihr die lüfterkurve manuell nachbearbeitet oder ein modell mit einem "vorserien"-bios oder sonstwas. ;-)
der lüfter dreht bei mir unwesentlich über 20%, gelegentlich 30%. Temps sind bei 60 bis 70 °C. durch das kurze pcb ist die lüftung deutlich effizienter. der effekt ist enorm. vielleicht macht ihr ja nochmal aus neugierde einen kleine kontrollmessung :-)

Kartenlehrling
2015-10-20, 11:46:08
CB hat einen schönen Test mit der Temperatur gemacht, demnach sollte die Kühlung unter 70C° am besten sogar 65C° gehalten werden,
kleiner nebeneffekt man kann damit ca 15-20w Strom einsparen.

LOL zu langam ...

Menace
2015-10-20, 11:48:19
Kann man da nicht einfach das Bios der Nano ein wenig modifizieren und flashen?

Kennt sich da jemand aus? Format_C hat doch in der Richtung etwas versucht (oder war das nur mittels Catalyst).

Und kann niemand dazu etwas sagen?


Hauptmonitor: NEC Multisync LCD 2690 WUXi² (http://www.amazon.de/NEC-2690-WUXi-LCD-Monitor-Kontrast/dp/B000JJSRHA) Dieser hat leider nur einen DVI Anschluss.

Mit welchem Adapter-Kabel/Adapter kann ich trotzdem 1920x1200 @ 60 anzeigen lassen?

fondness
2015-10-20, 11:49:08
Die Fury Tri-X OC liegt mitnichten bei ~225 Watt, unter Volllast kann die bis zu 320 ziehen.


Man muss ja nicht immer nur worst case Werte angeben, um Nvidia möglichst gut dastehen zu lassen. Gerade da jede Seite andere Werte liefert. Hier werden durchschnittlich 218W und max 258W gemessen: http://ht4u.net/reviews/2015/amd_radeon_r9_fury_-_mangelware_im_test/index18.php

Die 320W werden vielleicht in irgend einem ausgesuchte Spezialszenario erreicht, entsprechen aber wohl kaum der Regel. Der avg Wert von 218W ist da wesentlich aussagekräftiger.

Raff
2015-10-20, 11:52:43
Man muss ja nicht immer nur worst case Werte angeben, um Nvidia möglichst gut dastehen zu lassen. Gerade da jede Seite andere Werte liefert. Hier werden durchschnittlich 218W und max 258W gemessen: http://ht4u.net/reviews/2015/amd_radeon_r9_fury_-_mangelware_im_test/index18.php

Die 320W werden vielleicht in irgend einem ausgesuchte Spezialszenario erreicht, entsprechen aber wohl kaum der Regel. Der avg Wert von 218W ist da wesentlich aussagekräftiger.

Sorry, aber "jede andere Seite" zählt nicht, wenn 90 % davon Heaven oder ähnlichen Unsinn testen. Fakt ist: Die Leistungsaufnahme kann beim Spielen bis zu 320 Watt betragen (im Mittel klar weniger als 300W) und dafür muss der Kühler ausgelegt sein – und das ist es bei der Tri-X auf jeden Fall, also warum die Aufregung? :) Dieses krampfhafte Schönreden einzelner Produkte empfinde ich als hochgradig nervig – ich will wissen, was wirklich besser ist, egal ob AMD oder Nvidia.

Na was jetzt, ist sie leiser oder lauter?

Bei voller Auslastung, d. h. UHD in einem Heizspiel wie Anno 2070, Risen 3, Witcher 3 oder Far Cry 4, ist die Tri-X OC minimal lauter als die Super Jetstream, da sie dort bei 300-320 Watt rangiert (und die Geforce bei ~250). Hätte die Jetstream die große Oberfläche des Tri-X-Kühlers könnte man sie wohl fast lautlos kühlen. Wer mehr über das Heizpotenzial einzelner Spiele erfahren will, liest den Artikel "20 Spiele im Verbrauchstest" mit vier Grafikkartenmodellen in der PCGH 10/2015 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-10-2015-Magazin-DVD-Download-PDF-1169472/). :)

MfG,
Raff

dildo4u
2015-10-20, 12:09:42
Jup die meisten testen den Verbrauch/Lautstärke in 1080p was natürlich komplett sinnlos ist,da der Treiber bei AMD dort massiv bremst.

fondness
2015-10-20, 12:15:48
Sorry, aber "jede andere Seite" zählt nicht, wenn 90 % davon Heaven oder ähnlichen Unsinn testen. Fakt ist: Die Leistungsaufnahme kann beim Spielen bis zu 320 Watt betragen (im Mittel klar weniger als 300W) und dafür muss der Kühler ausgelegt sein – und das ist es bei der Tri-X auf jeden Fall, also warum die Aufregung? :) Dieses krampfhafte Schönreden einzelner Produkte empfinde ich als hochgradig nervig – ich will wissen, was wirklich besser ist, egal ob AMD oder Nvidia.


Das hat nichts mit schönreden zu tun, die Aussagen bis zu 320W ist aber meiner bescheidenen Meinung nach eine unzureichende Verkürzung, der Durchschnittswert ist da mindestens ebenso wichtig und insgesamt wesentlich Aussagekräftiger. Immerhin hast du mich korrigiert, als ich von ~225W sprach, aber das ist eben eine Frage ob man einen Peak-Wert will oder einen Durchschnittswert.

Raff
2015-10-20, 12:23:47
Das hat nichts mit schönreden zu tun, die Aussagen bis zu 320W ist aber meiner bescheidenen Meinung nach eine unzureichende Verkürzung, der Durchschnittswert ist da mindestens ebenso wichtig und insgesamt wesentlich Aussagekräftiger. Immerhin hast du mich korrigiert, als ich von ~225W sprach, aber das ist eben eine Frage ob man einen Peak-Wert will oder einen Durchschnittswert.

Durchschnittswerte sind vor allem bei Radeons ungenau und irreführend. Bei Geforce-Karten funktioniert das ganz gut, da die immer zusehen, leicht unterhalb ihres Verbrauchslimits zu operieren. Bei Radeons kriegt man aber spiel- und auflösungsabhängig gigantische Unterschiede heraus, teilweise 150 Watt zwischen einzelnen Spielen! Man müsste 50 Spiele in drei Auflösungen testen, es kämen bei der Fury (X) drei Werte heraus, die im Bereich von

220 Watt (1080p)
250 Watt (1440p)
280 Watt (2160p)

rangieren. Deswegen pauschal zu sagen, dass die Karte bei 220 Watt liegt, ist einfach falsch. Wer kauft eine Fury denn für Full HD? ;)

MfG,
Raff

akuji13
2015-10-20, 12:24:59
Jup die meisten testen den Verbrauch/Lautstärke in 1080p was natürlich komplett sinnlos ist,da der Treiber bei AMD dort massiv bremst.

1080p ist auch bei NV eine völlig andere Welt als UHD.

Raff
2015-10-20, 12:25:29
1080p ist auch bei NV eine völlig andere Welt als UHD.

Die Auflösung macht aber weniger aus als bei AMD, da Radeons erst mit mehr Pixeln ausgelastet werden.

MfG,
Raff

Troyan
2015-10-20, 12:26:31
Das sollte auch klar sein, da AMD ein viel offenes Power-Limit hat und nicht mit einem aggressiven Temperatur-Limit arbeitet.

Die einzige Karte, die genauso arbeitet wie nVidia, ist die Nano. Und die liegt wohl fast vollständig immer bei 185W.

Birdman
2015-10-20, 12:29:28
Man muss ja nicht immer nur worst case Werte angeben, um Nvidia möglichst gut dastehen zu lassen. Gerade da jede Seite andere Werte liefert. Hier werden durchschnittlich 218W und max 258W gemessen: http://ht4u.net/reviews/2015/amd_radeon_r9_fury_-_mangelware_im_test/index18.php
Absolut lächerliche Schönrederei von Dir - mal wieder! Aber andere genau dieses Vergehens wegen bezichtigen...
Diese 218W sind von einer Karte mit geringerer Performance als eine GTX780!!!
http://dexter.birdman.ch/screens/misc/metroredux.png

WENN Du schon extra eine Messung raussuchst, wo deine AMD gut dasteht, dann darf man nicht unterschlagen, dass die genau gleiche AMD Karte beim selben Test quasi nur knapp mehr als die halbe Performance einer vergleichbaren nVidia Karte liefert.

Zeigt einmal mehr dass nur watt/fps Messungen etwas taugen, alles andere wird von Fanboys einfach in bester manipluativer Art für gezielte Falschwerbung missbraucht.

fondness
2015-10-20, 12:31:41
Das sollte auch klar sein, da AMD ein viel offenes Power-Limit hat und nicht mit einem aggressiven Temperatur-Limit arbeitet.

Die einzige Karte, die genauso arbeitet wie nVidia, ist die Nano. Und die liegt wohl fast vollständig immer bei 185W.

Mehr wollte ich nicht sagen. Peak-Werte sind deshalb nur bedingt vergleichbar.

Durchschnittswerte sind vor allem bei Radeons ungenau und irreführend. Bei Geforce-Karten funktioniert das ganz gut, da die immer zusehen, leicht unterhalb ihres Verbrauchslimits zu operieren. Bei Radeons kriegt man aber spiel- und auflösungsabhängig gigantische Unterschiede heraus, teilweise 150 Watt zwischen einzelnen Spielen! Man müsste 50 Spiele in drei Auflösungen testen, es kämen bei der Fury (X) drei Werte heraus, die im Bereich von

220 Watt (1080p)
250 Watt (1440p)
280 Watt (2160p)

rangieren. Deswegen pauschal zu sagen, dass die Karte bei 220 Watt liegt, ist einfach falsch. Wer kauft eine Fury denn für Full HD? ;)

MfG,
Raff

Und genau diese Unterschiede sollte man auch entsprechend Abbilden und nicht pauschal mit bis zu 320W titulieren. :)
Typische Geforce-Karten kleben eben wie die Nano die meiste Zeit am TDP-Limit, im Schnitt muss deshalb noch lange nicht weniger verbraucht werden als bei einer Karte mit größeren Schwankungen.

akuji13
2015-10-20, 12:38:13
Das sollte auch klar sein, da AMD ein viel offenes Power-Limit hat und nicht mit einem aggressiven Temperatur-Limit arbeitet.

Irrelevant.
Mir ist egal wie man auf fps x kommt.

Wichtig ist nur das man sie erreicht und das gleichzeitig noch leise und möglichst gut kühlen kann.

dildo4u
2015-10-20, 12:42:28
Der durchschnittliche Verbrauch der AMD's wird in Zukunft auch in kleinern Auflösungen nur ansteigen wenn DX12 endlich die Treiberbremse löst,schätze mal NV wird dort weniger zulegen.

(del)
2015-10-20, 12:42:41
Sorry, aber "jede andere Seite" zählt nicht, wenn 90 % davon Heaven oder ähnlichen Unsinn testen...

http://media.bestofmicro.com/3/Y/510766/gallery/12-UHD-Power-Consumption-Default_r_600x450.png

Du solltest fair bleiben, ich dachte eigentlich, das Thema sei endlich mal durch. Aber bitte...
Wenn 10 Seiten in DE die Karte zum Launch testen, hast Du also als einziger das wahre Setup? 90% und so...

Anno 2070 und Risen 3 (an dieser gewissen Stelle) sind Extremfälle, die genauso wenig den Durchschnitt repräsentieren, wie Heaven. Messt doch einfach mal ein paar Spiele mehr und das bei einem repräsentativen Spieleverlauf mal mindestens 2-3 Minuten und nicht nur ein paar Sekunden an der fiesesten Stelle. Um den Maximalwert für die Netzteilempfehlung zu ermitteln, kann man auch einen Stresstest oder Compute-Apps nehmen.

dargo
2015-10-20, 12:42:47
Wer kauft eine Fury denn für Full HD? ;)

Der, der auf hohe FPS steht. ;)

fondness
2015-10-20, 12:50:46
http://media.bestofmicro.com/3/Y/510766/gallery/12-UHD-Power-Consumption-Default_r_600x450.png

Du solltest fair bleiben, ich dachte eigentlich, das Thema sei endlich mal durch. Aber bitte...

Anno 2070 und Risen 3 (an dieser gewissen Stelle) sind Extremfälle, die genauso wenig den Durchschnitt repräsentieren, wie Heaven. Messt doch einfach mal ein paar Spiele mehr und das bei einem repräsentativen Spieleverlauf mal mindestens 2-3 Minuten und nicht nur ein paar Sekunden an der fiesesten Stelle. Um den Maximalwert für die Netzteilempfehlung zu ermitteln, kann man auch einen Stresstest oder Compute-Apps nehmen.

Danke, so sollte ein vernünftiger Test der Leistungsaufnahme aussehen. Die Messmethode von PCGH begünstigt massiv Karten die abriegeln, aber leider redet man da gegen eine Wand.

akuji13
2015-10-20, 13:03:01
Du solltest fair bleiben, ich dachte eigentlich, das Thema sei endlich mal durch. Aber bitte...

Die Zahlen sind andere, das Ergebnis identisch:
Ein satter Schlag in die Fresse (für AMD).

fondness
2015-10-20, 13:05:38
Die Zahlen sind andere, das Ergebnis identisch:
Ein satter Schlag in die Fresse (für AMD).

Naja, das ist auch nur eine Referenz-GTX980, die liegt gerade in UHD auch ein Stück hinter der Fury.

(del)
2015-10-20, 13:06:40
Die Zahlen sind andere, das Ergebnis identisch:
Ein satter Schlag in die Fresse (für AMD).

Jain. man muss es natürlich bei UHD noch ins Verhältnis zur Performance setzen, das vergessen die meisten leider dabei (ich oben allerdings auch).

Ideal ist das auch noch nicht, aber nicht ganz so extrem wie reine Watt-Zahlen (UHD und FHD):
http://media.bestofmicro.com/4/1/510769/gallery/01-UHD-Efficiency_r_600x450.png

http://media.bestofmicro.com/4/4/510772/gallery/21-FHD-Efficiency_r_600x450.png

akuji13
2015-10-20, 13:09:03
Stimmt schon.

Allerdings war mir die Leistungsaufnahme bei AMD (bzw. generell bei hardware) auch immer egal wenn sie gut gekühlt wird.
Ich spiele zwischen 0-8 Stunden die Woche, da will ich Spaß und kein Geld sparen. :D

Menace
2015-10-20, 13:20:31
Jaein. Wichtig ist der Stromverbrauch bei Multimonitor-Betrieb (da hat sich AMD bei Fiji sehr gebessert) und der Stromverbrauch sollte auch beim Spielen im Rahmen meiner (!) Netzteilangaben sich bewegen. Ich finde schon, dass sie bei Nano es am besten Lösen.

(del)
2015-10-20, 14:07:16
Ich finde schon, dass sie bei Nano es am besten Lösen.

Die Nano liegt auf einem ähnlichen Effizienzlevel wie die GTX 970 mit wenig OC :)

http://media.bestofmicro.com/Y/1/524809/original/03-Power-Consumption-UHD-Efficiency.png
Review und weiterführende Daten (http://www.tomshardware.de/amd-radeon-r9-nano-grafikkarte-gpu,testberichte-241924-9.html)

Menace
2015-10-20, 14:22:08
Auch wegen Deines Tests möchte ich ja die Nano kaufen. Bleibt die Frage bzgl. Adapter von Display-Port --> DVI (welchen Adapter um 1920x1200 @ 60 Hz ohne Probleme darstellen zu können).

Ich meinte natürlich, dass AMD die Effizenz bei der Nano am besten löst (nicht allgemein die beste Lösung ist).

Dural
2015-10-20, 14:27:45
krass das eine Fury zum teil über das doppelte (!!!) aus der Steckdose zieht als eine GTX980, da muss AMD noch gewaltig was an der Leitungsaufnahme Schraube drehen bis NV auch HBM hat.

horn 12
2015-10-20, 14:41:13
ist auch gute 10% über der GTX 980 ,sprich gleich schnell als OC-te GTX 980 zu 1300/1400 Mhz.
OC GTX 980 sind auch nicht mehr allzuweit von Fury weg vom Verbrauch.

Troyan
2015-10-20, 14:49:01
Danke, so sollte ein vernünftiger Test der Leistungsaufnahme aussehen. Die Messmethode von PCGH begünstigt massiv Karten die abriegeln, aber leider redet man da gegen eine Wand.

In Anno2070 ist eine GTX980TI im Referenzdesign trotz 70W geringerem Verbrauch immer noch deutlich schneller als die Fury X.

Gegenüber der Nano ist die GTX980TI 33% schneller bei einer 21% höheren Stromaufnahme.

Würde AMD die Fury X "massiv abriegeln", wäre die GTX980TI 20-30% schneller beim selben Verkaufspreis.

Deine Aussagen basieren rein darauf, den Leuten einzureden, dass eine Fury X nur 250W verbraucht (BF4) und in Anno2070 die selbe Leistung (bei 300W) erreicht. :rolleyes:

BlacKi
2015-10-20, 14:49:22
Die Nano liegt auf einem ähnlichen Effizienzlevel wie die GTX 970 mit wenig OC :)

http://media.bestofmicro.com/Y/1/524809/original/03-Power-Consumption-UHD-Efficiency.png
Review und weiterführende Daten (http://www.tomshardware.de/amd-radeon-r9-nano-grafikkarte-gpu,testberichte-241924-9.html)
für die effizienz diagramme hätte ich nicht gerade einen salvage chip zum gegentesten genommen.

bei selbem verbrauch wäre eine 980 noch etwas besser dagestanden. selbst eine 185w titan x ist besser im p/w verhältniss als die nano trotz hbm.

naja, vl dreht sich bald der wind dank dx12, dann wird die hardware für mich etwas günstiger.

Lowkey
2015-10-20, 14:57:21
Auch wegen Deines Tests möchte ich ja die Nano kaufen. Bleibt die Frage bzgl. Adapter von Display-Port --> DVI (welchen Adapter um 1920x1200 @ 60 Hz ohne Probleme darstellen zu können).

Ich meinte natürlich, dass AMD die Effizenz bei der Nano am besten löst (nicht allgemein die beste Lösung ist).


1080p bei 60hz schafft jeder Adapter, aber alles andere wie 120hz oder 1440p klappt nicht mit jedem Adapter.

Menace
2015-10-20, 14:57:58
selbst eine 185w titan x ist besser im p/w verhältniss als die nano trotz hbm.


Und mit 900 € auch gleich teuer. :rolleyes: Und Titan X braucht laut Test von Tom Hardware mehr als eine Nano. Was soll das also hier? Danke für die nvidia-Werbung.

Schnoesel
2015-10-20, 15:01:14
Streitet ihr euch gerade ernsthaft über die paar Watt Unterschied bei Vollast bei 500-1000€ Karten?

PS:Um überhaupt was zum Thema beizutragen auch wenns nur ne Frage ist: Hat sich AMD geäußert wann mit Custom Nanos zu rechnen ist?

Menace
2015-10-20, 15:02:41
1080p bei 60hz schafft jeder Adapter, aber alles andere wie 120hz oder 1440p klappt nicht mit jedem Adapter.

Danke, aber wie sieht es 1200p bei 60hz aus? Gibt es vielleicht entsprechend gute Adapter, die das dann sicher gewährleisten?

Menace
2015-10-20, 15:03:39
PS:Um überhaupt was zum Thema beizutragen auch wenns nur ne Frage ist: Hat sich AMD geäußert wann mit Custom Nanos zu rechnen ist?

War nicht die Rede von 3 Monate nach AMDs Nano?

BlacKi
2015-10-20, 15:04:43
und ne 980ti ist genauso teuer wie ne nano und eigentlich genauso schnell wie ne titanx

http://www.hardware.fr/articles/942-23/fiji-vs-gm200-185w.html

fakten sind halt fakten. alles andere ist nur schönreden der amd boys

Lowkey
2015-10-20, 15:07:29
Danke, aber wie sieht es 1200p bei 60hz aus? Gibt es vielleicht entsprechend gute Adapter, die das dann sicher gewährleisten?

Garantieren kann es nur ein Neukauf eines bekannten Adapter und die fangen irgendwo zwischen 70 und 150 Euro an. Die gebrauchten Adapter auf Ebay haben zum Teil eine alte Firmware.



Bei Allyouneed gibt es über Alternate die Nano für unter 600 Euro (Gutschein + Qipu).

Menace
2015-10-20, 15:17:24
Garantieren kann es nur ein Neukauf eines bekannten Adapter und die fangen irgendwo zwischen 70 und 150 Euro an. Die gebrauchten Adapter auf Ebay haben zum Teil eine alte Firmware.
Bei Allyouneed gibt es über Alternate die Nano für unter 600 Euro (Gutschein + Qipu).

Danke für die Hinweise. Allyouneed + Qipu kenne ich gar nicht. Hört sich kompliziert an; da muss ich mich erst einmal schlau machen.

@BlacKi: Die Ti hat jetzt hier im Thread genau was zu suchen? :confused:

Megamember
2015-10-20, 15:37:21
Auch wegen Deines Tests möchte ich ja die Nano kaufen. Bleibt die Frage bzgl. Adapter von Display-Port --> DVI (welchen Adapter um 1920x1200 @ 60 Hz ohne Probleme darstellen zu können).

Ich meinte natürlich, dass AMD die Effizenz bei der Nano am besten löst (nicht allgemein die beste Lösung ist).

Dir ist aber schon klar das du bei Fury bzw. Fury X nur das Powerlimit senken musst um auf annähernd Nano Niveau und Leistung zu kommen? Hast dann aber das bessere PCB und Kühler. Zaubern können die bei AMD auch net.

Schnoesel
2015-10-20, 15:43:29
Und genau das ist falsch! Nachzulesen auf tomshardware:

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html

BlacKi
2015-10-20, 15:52:43
Und genau das ist falsch! Nachzulesen auf tomshardware:

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html
aber ich verstehe nicht warum das so ist. warum gehts bei der nano und bei der fury nicht so gut?

(del)
2015-10-20, 16:23:05
Weil man es bei der Nano so wollte und bei der Fury nicht. Effizienz vs. Schwanzlänge.
In der Firmware kann man die Wichtung für die einzelnen Telemetrieparameter sehr schön verschieben, der Catalyst kann leider gar nichts. Die Nano hat ein restriktives Power Limit, die Fury eine Art Gummiband-KI ;)

Megamember
2015-10-20, 16:23:10
Und genau das ist falsch! Nachzulesen auf tomshardware:

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html

Versteh ich nicht -50% Powerlimit bei der Fury X dürfte sie auf ca 140W beschränken. Was hat das mit der Nano zu tun?

Hier reduziert man das PL der Fury X z.B. auf 225W und hat kaum Performanceeinbußen:

http://linustechtips.com/main/topic/405259-fury-x-and-the-r9-nano-experiment/

(del)
2015-10-20, 16:28:34
Die Min-FPS brechen aber ein und die Frametimes gehen in den Kongo zum Gefressenwerden. Das Average ist doch voll für den Popo... :D
Den Schmarrn habe ich auch getestet, bringt nichts außer Hoppser und Hänger.

Noch einmal: das Power Limit von Power Tune kann man mit dem Power Target von Boost NICHT vergleichen!
Die Telemetrie reagiert komplett anders. Begeife, wie AMDs Arbitrator funktioniert, dann verstehst Du auch, warum das in dieser Art einfach schiefgehen muss.
Das ist ein sorgsam ausbalanciertes Gleichgewicht, bei dem man nicht mal einfach so eine Komponente ohne Folgen so extrem verschieben kann.

akuji13
2015-10-20, 16:38:33
Wie beim Auto, da glauben auch immer wieder welche die Ingenieure mit einem Bruchteil des Wissens, Aufwands und Geldes foppen zu können. :D

Loeschzwerg
2015-10-20, 16:38:38
Was ist eigentlich wenn man gleichzeitig den Takt z.B. auf 950 oder sogar 900MHz reduziert? Müsste die Angelegenheit doch eigentlich "stabilisieren".

Menace
2015-10-20, 16:41:06
@ Format_C, Raff, ...: Könntet Ihr nicht einmal Displayport -> DVI-Adapter-Kabel testen oder ist dafür der Markt zu klein bzw. zu speziell?

BlacKi
2015-10-20, 16:41:55
könnte man den verbrauch über das temperatur target regeln? klar, am anfang taktet er hoch, aber wenn der chip mal warm ist, dürfte das gehen.

(del)
2015-10-20, 16:50:29
Wenn Du Power Limit und Takt in einem ähnlichen Verhältnis senkst, bleibt es recht stabil.
Ich schrieb ja nicht umsonst Gummiband. Senkst Du den Takt, spuckt auch die Power Estimation Engine entsprechend niedrigere Werte aus und - tada - jetzt fluppt auch wieder das Power Limit und die Min-FPS haben keinen Schluckauf mehr, weil der Arbitrator weiß, was er machen muss. Das ist leider nicht so fein abgestuft wie bei NV, da muss man echt testen (try and error) :tongue:

@ Format_C, Raff, ...: Könntet Ihr nicht einmal Displayport -> DVI-Adapter-Kabel testen oder ist dafür der Markt zu klein bzw. zu speziell?

Ich muss mal in meine Workstation-Krimskramskiste gucken. Ich habe unzählige DP zu DVI, aktiv und passiv. Und DP zu HDMI, HDMI zu DP und.... Gebammel halt :)
Zeitfrage und wirklich sehr speziell. Ich habe auch noch aktive Splitter von Sapphire von DP auf 2x DVI, damit habe ich mal rumgefrickelt, um Eyefinityx6 hinzubasteln.
Club3D macht aktuell auch in Kabeln, ich frag dort mal, was es aktuell Neues gibt bzw. ob.

Palpatin
2015-10-20, 16:55:34
Am Schluß hat man dann vermutlich niedrigeren Takt und niedrigere Performance wie die Nano bei gleichem Verbrauch, also schlechtere Effizienz. Wenn man auf den Verbrauch der Nano runter will ohne Schluckauf. Richtig?

(del)
2015-10-20, 17:01:21
Richtig. Wobei man durchaus deutliche Fortschritte erzielen könnte. das muss gar nicht so viel weniger Takt sein. Man muss halt mal die Workstation-Karten angucken, wo die takten (bei Hawaii). Dann kann man auch den Sweet-Spot besser abschätzen.

Der Unterschied liegt einfach darin, dass man bei der Nano die Firmware endlich mal in Richtung Effizienz getreten und eben nicht auf das letzte FPS getrimmt hat. Man muss es einfach in der Firmware ordentlich abstimmen, dann klappt das schon. Das würde auch mit allen anderen aktuellen AMD-Karten funktionieren, nur wäre man dann eben langsamer. Und da hat AMD sicher keine Lust drauf. Der Catalyst ist diesbezüglich eine olle Krücke, die nicht fürs Sparen funktioniert, sondern beim OC helfen soll. Draufpacken geht immer, wegnehmen nimmer. :D

Menace
2015-10-20, 17:21:59
@ Format_C: Danke Dir. :)

tm0975
2015-10-20, 17:42:34
**

Raff
2015-10-20, 21:45:50
Danke, so sollte ein vernünftiger Test der Leistungsaufnahme aussehen. Die Messmethode von PCGH begünstigt massiv Karten die abriegeln, aber leider redet man da gegen eine Wand.

Keine Wand, PCGH hat längst auf derartige Meinungen reagiert und besagten "20 Spiele im Test" veröffentlicht. Da das aber nicht im Netz steht, gilt's als "nicht geliefert", ist klar. ;) Abgesehen davon steht nun standardmäßig auch Crysis 3 in Full HD als durchschnittlich heizendes Spiel in den neueren Tests. Ich persönlich, ein Enthusiast, bleibe aber dabei: Die Qualität eines Kühlsystems zeigt sich unter Voll- und nicht bei Teillast.

MfG,
Raff

tm0975
2015-10-22, 09:39:36
KIch persönlich, ein Enthusiast, bleibe aber dabei: Die Qualität eines Kühlsystems zeigt sich unter Voll- und nicht bei Teillast.

sowas nennt man schwarz-weiß-denken ;-)

das große problem bei den ganzen tests sind ja die mangelde praxistauglichkeit. da suggeriert man mit vga benchs, dass jeder am besten einen i7 kauft, der spielen will und bei den gpu-tests gibts auch jede menge unsinn...

akuji13
2015-10-22, 10:13:49
sowas nennt man schwarz-weiß-denken ;-)

Man geht bei anderen Produkten auch vom schlimmst möglichen Fall aus, also sollte man das auch hier tun.
Wer unter Vollast gut kühlt, tut das auch im Durchschnitt.

Lediglich die idle Variante ist eine gesonderte Betrachtung wert.

Allerdings gehören für aussagekräftige Tests die Karten auch in Gehäuse gesteckt.
Das ist aufgrund der vielen möglichen Kombinationen auch nicht der Weisheit letzter Schluss aber näher an der Realität als ein benchtable.

Der PCGH Test zur Nano war da sehr aufschlussreich.

Menace
2015-10-22, 10:33:58
Möglichst viele Anwendungen bei möglichst vielen Kombinationen ist schon wichtig. Allerdings kommt es darauf an, welchen Schwerpunkt dann man setzt.

Vom schlimmsten Fall sollte man nur ausgehen, wenn er Praxisrelevant ist und um die nötige Leistung des Netzteils angeben zu können. Danach würde ich mir schon selber an Hand ein paar Beispielen die für mich relevanten Daten raussuchen (z.B. 2-3 Monitor: Idle; OpenCl für die Arbeit; durchschnittl. Energieverbrauch bei ein paar wichtigen Spielen und Max.Stress Test).

Nur auf den Worst Case zu schielen verzerrt aber die Relevanz für den Alltag. Mich interessiert es, wie eine Grafikkarte zu 95% der genutzten Zeit arbeitet.

Palpatin
2015-10-22, 10:44:43
, ein Enthusiast, bleibe aber dabei: Die Qualität eines Kühlsystems zeigt sich unter Voll- und nicht bei Teillast.

da bin ich bei dir. Beim Verbrauch sollte man aber in erster Line auf den Durchschnitt schauen. Wenn die Karte im Schnitt bei mir beim zocken 250 Watt zieht, ist es mir egal ob der Wert zusande kommt weil die Karte in Spiel A 245 und in Spiel B 255 Watt braucht oder in Spiel A 200W und in Spiel B 300W.

BlacKi
2015-10-22, 10:56:32
da bin ich bei dir. Beim Verbrauch sollte man aber in erster Line auf den Durchschnitt schauen. Wenn die Karte im Schnitt bei mir beim zocken 250 Watt zieht, ist es mir egal ob der Wert zusande kommt weil die Karte in Spiel A 245 und in Spiel B 255 Watt braucht oder in Spiel A 200W und in Spiel B 300W.
ein durchschnittswert ist zwar grundsätzlich nicht verkehrt, aber peakwerte interessieren die käufer ebenfalls.

genauso wie man die geräuschmessungen zb. nicht unter halblast machen sollte. sowas sollte man im höchsten realistischsten szenario veranschaulichen.

ein kompromiss könnte sein das man einen durchschnittswert angibt, aber die "höchstwerte" nicht verschweigt. alles andere wäre täuschung der leser.

akuji13
2015-10-22, 11:15:56
Nur auf den Worst Case zu schielen verzerrt aber die Relevanz für den Alltag. Mich interessiert es, wie eine Grafikkarte zu 95% der genutzten Zeit arbeitet.

Mein Alltag ist Vollast. ;)

Ich erinnere mich noch zu gut an die 7950 PCS+ die ich hatte.
In den Tests wunderbar leise...dann kam Alan Wake und plötzlich wurde aus der einst leisen Karte ein Nervtöter.

Menace
2015-10-22, 14:01:54
Deswegen sage ich ja, alles angeben. Ich suche mir dann mein Szenario dann gerne raus. :biggrin:

Dass Durchschnittswerte angegeben werden ist ja ein neuer Zug, den ich sehr begrüße.

Kartenlehrling
2015-10-22, 14:31:19
http://pics.computerbase.de/6/8/5/6/5/7-1260.143485694.jpg
http://www.computerbase.de/2015-10/asus-r9-nano-white-amds-mini-grafikkarte-erhaelt-ein-neues-kleid/

Menace
2015-10-22, 15:01:43
Wenn das alles ist, was sich bei Custom-Versionen ändert, kann ich ja auch gleich zugreifen. ;)

captain_drink
2015-10-22, 15:52:20
Peak-Werte (oder besser: relatives Maximum) sind schon deshalb unverzichtbar, weil nur so methodologisch der unterschiedliche Ansatz der IHVs erkennbar gemacht werden kann.
Gäbe man nur die Durchschnittswerte an, so wäre das real vorhandene unterschiedliche Verhalten von Boost bzw. Powertune erst gar nicht bekannt, mithin diese Diskussion erst gar nicht geführt worden.
Eine entsprechende Gleichmacherei aber kann nicht im Interesse eines Käufers sein, der ein möglichst vollständiges Bild der Wirklichkeit erhalten will.

Loeschzwerg
2015-10-22, 16:31:45
White-Edition... Die sollen das PCB ebenfalls weiß machen, so ist die Aktion ja langweilig.

(del)
2015-10-22, 16:38:57
White-Edition... Die sollen das PCB ebenfalls weiß machen, so ist die Aktion ja langweilig.
Das leere PCB wird mit Sicherheit von PC-Partner kommen. Asus darf dann selbst bestücken, tolle schöpferische Leistung ;)

Peak-Werte (oder besser: relatives Maximum) sind schon deshalb unverzichtbar, weil nur so methodologisch der unterschiedliche Ansatz der IHVs erkennbar gemacht werden kann.
Gäbe man nur die Durchschnittswerte an, so wäre das real vorhandene unterschiedliche Verhalten von Boost bzw. Powertune erst gar nicht bekannt, mithin diese Diskussion erst gar nicht geführt worden.
Eine entsprechende Gleichmacherei aber kann nicht im Interesse eines Käufers sein, der ein möglichst vollständiges Bild der Wirklichkeit erhalten will.

Da gebe ich Dir erst einmal uneingeschränkt Recht. Allerdings muss man zwei Dinge differenzieren.

Man sieht einerseits anhand der Lastverteilung zwischen den einzelnen Rails sehr schön, welches Konzept verfolgt wird (manche verzichten bereits auf den PEG und ziehen alles über die externen Anschlüsse) und wie gut die Qualität der Glättung funktioniert. Ausreichend bemessene Solids können nämlich den ärgsten Müll durchaus puffern, so dass die kurzzeitigen Peaks arg beschnitten werden können.

Andererseits kann man bei Volllast (und das sind Spiele eher nicht geeignet) sehen, wo das jeweilige Limit der Karte seitens des Herstellers gesetzt wurde. Es ist aus meiner Sicht am sinnvollsten, verschiedene Gaming-Situationen realitätsnah abzubilden (für die typische Last) und parallel dazu die Maximalbelastung bei Stresstests. Dann liegt der Rest nicht nur in dieser Range, sondern man hat auch die Entscheidungshilfen für die Netzteilbemessung (Maximum) und die zu erwartenden durchschnittlichen Leistungsaufnahmen (Idle, Normallast).

Cherry-Picking ist immer Sch..sse.

Loeschzwerg
2015-10-22, 16:58:56
Zumindest bleibt noch die Hoffnung auf hochwertigere Komponenten (*Zirp Zirp*) :D Aber ich bezweifle es.

Menace
2015-10-22, 17:12:42
Ich hoffe, dass das bei 60 Hz nicht so wild ist. :freak:

Knuddelbearli
2015-10-22, 17:14:42
Wieso die Nano hat doch nicht nennenswert gezirpt vor allem wenn man sie mit anderen Grafikkarten in der Verbrauchsklasse wie die 970 Vergleicht

Ex3cut3r
2015-10-22, 17:18:36
Ne, mir sind die Fury's alle zu teuer, bin Azubi und da wurde mein ganzes Monats Gehalt flöten gehen, und dann hätte ich ende 2015 auch nur 4GB Speicher, ist mir zu wenig.

Verstehe ehrlich gesagt nicht, warum da mal nicht eine kräftige Preissenkung stattfindet. So gut verkaufen die sich laut Mindfactory ja nicht grade.

Naja muss die GTX 770 ebend bis ans Maximum gehen. :biggrin:

(del)
2015-10-22, 18:07:07
Wieso die Nano hat doch nicht nennenswert gezirpt vor allem wenn man sie mit anderen Grafikkarten in der Verbrauchsklasse wie die 970 Vergleicht

Meine ist relativ leise. Die Grillen habe ich erst wahrgenommen, als ich den anderen Lüfter draufgepackt hatte. Vorher ist das Propellergeräusch lauter :)

Knuddelbearli
2015-10-22, 19:11:27
Sagte ich ja

meine 970 fiept dagegen ohne Eingriffe richtig eins ab

Loeschzwerg
2015-10-22, 20:07:34
Ich höre es auch wenn der Lüfter ordentlich Schwung hat.

Abgesehen davon erwarte ich von einer so teuren Karte einfach mehr als von einer GTX 970.

Menace
2015-10-22, 20:17:05
@Loeschzwerg: Du hast eine? War bei Dir der DVI-Adapter dabei?

-/\-CruNcher-/\-
2015-10-22, 22:01:18
Ich höre es auch wenn der Lüfter ordentlich Schwung hat.

Abgesehen davon erwarte ich von einer so teuren Karte einfach mehr als von einer GTX 970.

Das ist Physik und kosten nutzen relation wenn du soviel energie auf so einem kleinen platz staust werden die komponenten bei der höchsten FPS belastung und den super schnellen switch times nunmal extreme unter "druck" gesetzt.
Wir werden sehen wer dieses Problem überhaupt versucht anzugehen Format_C hat ja schon ziemlich deutlich gemacht das man sich in den Asiatischen AIB Internen R&D (Produkt Design) Abteilung vollstens darüber bewusst ist, bei sich selbst durch die große herschende geräuschkullise innerhalb des heimischen marktes aber anscheinend das ganze noch als vernchlässigbar ansieht.
Könnte mir vorstellen wenn da jemand Lösungen erarbeiten wird sehen wir bald auf den Packungen extra hinweise so wie (lowest mosfet noise edition) das wird dann so vermarktet wie die Japanischen Kondensatoren und Millitary Grade komponents ;)

Den Aufpreis wird man natürlich zahlen müssen, vor allem wenn die Konkurenz hier nicht groß sein sollte unter den AIBs die dieses Problem auch wirklich versuchen anzugehen und auch erstmal überhaupt das ganze als vermaktungsfähig ansehen in den Kosten.

Als user reicht aber doch meistens ein einfacher FPS lock (Begradigung der Frametimes) aus um das Problem Manuel aus der Welt zu schaffen und das ganze ohne extra kosten, einfach den druck verringern ;)

Bei 30 oder 60 FPS selbst mit großer Belastung darf es einfach nicht fiepen bei VR darf es auch nicht bei 95 FPS passieren (Wobei bei VR ist es nochmal eine andere Konfiguration die ins Spiel kommt, das Fiepen muss nur gut von den Kopfhörern abgeschotet werden) aber da kommt ja noch Compute immer mehr ins Spiel.

Nur diese enstehenden hohen Schwingungsfrequenzen komplett von unserem ohr zu isolieren scheint auch garnicht so einfach bis ziemlich unmöglich ;)

Am besten beraten ist man wohl das ganze im kompletten Design und der Produkt Abstimmung nie passieren zu lassen das erfordert eben auch Speziele Funktionstests und QC und eventuel auch max Performance einbusen (durch auf effizienz getrimmte Biose).

Loeschzwerg
2015-10-23, 11:19:10
@Loeschzwerg: Du hast eine? War bei Dir der DVI-Adapter dabei?

Bei meiner VTX lag keiner bei, aber das ist auch einer der billigeren Partner. Bei Sapphire liegt bestimmt einer im Karton.

@-/\-CruNcher-/\-: Das warum und weshalb ist mir vollkommen klar. Bei einer 700€ teuren Karte darf man aber ein entsprechendes Design und Komponenten erwarten. So schafft man sich, neben der hohen Idle Lüfterdrehzahl, wieder unnötige Kritikpunkte.
Eine Begrenzung der FPS bringt leider nichts, die Nano zirpt/knattert auch bei geringen Framerates. Das Problem ist die ständige Anpassung des Taktes und der Spannungen.

Kartenlehrling
2015-10-23, 13:30:16
Jetzt hat mich das Nanofieber doch gepackt ... bei mindfactory.de gibts die Asus Nano (SW) (http://www.mindfactory.de/Highlights/MindStar/main/true) im Mindstar, momentan bei 570€ (+versand ca. 590€) das sie noch weiter sinkt wollte ich nicht warten.

(del)
2015-10-23, 14:53:08
Na dann :)
Viel Spaß damit und berichte...

Menace
2015-10-23, 16:10:19
:eek: 593 € auch bei mir. @Kartenlehrling: Vielen Dank für den Tipp. Jetzt habe ich auch zugeschlagen. Das "Mindstar" kannte ich bisher gar nicht. :biggrin:

horn 12
2015-10-23, 17:23:06
Nun, Italien ist schon lange bei 535 bis 560 Euro angekommen :-)

Lowkey
2015-10-23, 17:24:58
Das ist aber nun nicht wirklich günstiger als wie bei Alternate über Meinpaket.

Die Karte hatte ich nämlich vorhin auch im Auge im Mindstar.

Menace
2015-10-23, 17:25:31
Für die Nano? Jetzt mach mir kein schlechtes Gewissen. ;)

Menace
2015-10-23, 17:26:23
Das ist aber nun nicht wirklich günstiger als wie bei Alternate über Meinpaket.

Die Karte hatte ich nämlich vorhin auch im Auge im Mindstar.

Aber einfacher. :biggrin: Edit: Gibt noch 2 Stück.

Lowkey
2015-10-23, 17:28:40
588 Euro mit Qipu und 8% Gutschein

Frosty
2015-10-23, 17:31:20
kommt leider 2 monate zu spät.:usad:
zu den konditionen hätte ich wohl dann die nano genommen.

Unicous
2015-10-23, 17:32:34
:eek: 593 € auch bei mir. @Kartenlehrling: Vielen Dank für den Tipp. Jetzt habe ich auch zugeschlagen. Das "Mindstar" kannte ich bisher gar nicht. :biggrin:

Ist wahrscheinlich B-Ware/Rückläufer. Kannst dich also schon mal auf Spulenfiepen einstellen.:tongue:

Frosty
2015-10-23, 17:34:15
Kannst dich also schon mal auf Spulenfiepen einstellen.:tongue:


und wenn schon, so schlimm wie bei den meisten gtx 970ern wird es niemals sein.

Menace
2015-10-23, 17:35:13
Ist wahrscheinlich B-Ware/Rückläufer. Kannst dich also schon mal auf Spulenfiepen einstellen.:tongue:

:eek: Müsste das nicht dran stehen: http://www.mindfactory.de/product_info.php/4096MB-Asus-Radeon-R9-Nano-Aktiv-PCIe-3-0-x16--Retail-_1012938.html

Und solange er nicht versucht meinen Monitor zu übertönen. :tongue:

Unicous
2015-10-23, 17:38:27
Ist eben das Gleiche wie z.B. bei ZackZack. Ist ja kein Zufall, dass die da ständig die hässlichen Acer G-Sync Monitore verschachern.:freak:

Menace
2015-10-23, 17:41:48
Ist eben das Gleiche wie z.B. bei ZackZack. Ist ja kein Zufall, dass die da ständig die hässlichen Acer G-Sync Monitore verschachern.:freak:

Ach, die Karte wird bei mir nur deshalb für 573 € im Direktzugang angeboten, weil der Cookie entsprechend gesetzt wurde. :eek: Na, hoffentlich wird das nicht zu schlimm.

Kartenlehrling
2015-10-23, 17:42:47
Ist wahrscheinlich B-Ware/Rückläufer. Kannst dich also schon mal auf Spulenfiepen einstellen.:tongue:

Für B-Ware hat Mindfactory den Schnäppchenmarkt.

http://www.mindfactory.de/SchnaeppShop.html/main/true

Und selbst da haben ich ein samsung galaxy4mini für 105€ gekauft und das war auch ungebraucht, bzw. nicht beschädigt.



.............. fu ... "Starpreis:€ 516,17" , zu früh zugeschlagen.