PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14

Sven77
2015-06-24, 17:04:24
Man muss halt auch mal AMD-Karten kaufen wenn man kein Monopol will^^

Genau, Almosen verteile ich an Bedürftige, nicht an Konzerne

Kartenlehrling
2015-06-24, 17:05:04
Brutal wie stark der "Driver Overhead Test" umschlägt,
frag ist nur wie stark sich dieses für die kommenden DX12 Spiele auswirkt.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=22
Driver Overhead Test

DrFreaK666
2015-06-24, 17:05:33
Die Fury ist in etwa genauso schnell wie eine 980TI und kostet ungefähr genauso viel. Wo ist das Problem?? oO

Ex3cut3r
2015-06-24, 17:05:46
Selbst Schuld leider AMD, ich hatte mir einfach mehr erwartet ganz ehrlich, ich hoffe wenigstens das der Preis in ein Paar Wochen gesenkt wird, dann könnte ich von einer GTX 770 aufrüsten.

Mich erinnert die Fury fast schon an die 2900XT.

http://techreport.com/r.x/radeon-hd-2900xt/card-full.jpg

Korvaun
2015-06-24, 17:06:32
Also für 600-630€ wäre es aktuell ein gutes Angebot (im Vergleich zu stock 980ti bei 680€). Was mich am meisten wundert ist die praktisch nicht vorhandene Übertaktbarkeit. Das ist schon sehr komisch, vor allem mit Wakü? Da stimmt doch was mit dem Treiber nicht?

Ravenhearth
2015-06-24, 17:07:40
Also für 600-630€ wäre es aktuell ein gutes Angebot (im Vergleich zu stock 980ti bei 680€). Was mich am meisten wundert ist die praktisch nicht vorhandene Übertaktbarkeit. Das ist schon sehr komisch, vor allem mit Wakü? Da stimmt doch was mit dem Treiber nicht?

Die Spannung lässt sich noch nicht anheben.

Menace
2015-06-24, 17:08:41
Die Fury ist in etwa genauso schnell wie eine 980TI und kostet ungefähr genauso viel. Wo ist das Problem?? oO

Kein Problem, Tradition hier. :rolleyes:

Knuddelbearli
2015-06-24, 17:10:20
Da passt alles, denn nur PCGH hat mit Risen 3 den Verbrauch an einer fordernden Stelle getestet.
Ich sage es schon seit Langem: Es gibt power virus-artige Spiele, weshalb eine Durchschnittsbrei-Angabe wie "typischer Spieleverbrauch" wenig Aussagekraft besitzt, so lange er nicht wirklich über alle gebenchmarkten Spiele gemittelt ist.
Deswegen ist der Ansatz von PCGH, wirklich fressende Spiele dafür heranzuziehen, goldrichtig.

Fakt ist, Default Fiji kann extrem fressen. Drei Mal darf man raten, wie die Performance in Risen 3 wäre, würde man das Powertune-Limit auf die 250W von GM200 setzen.


sagen wir jetzt mal extrem in 99% der spiele verbraucht fury 250W in 1% 350W. NV braucht, dank Hartem PT Limit, immer 250W. Ist es also richtig zu behaupten Fury braucht 100W mehr? Ich sehe das nicht so.

Also für mich ist das so wie man sagen würde Titan ist 130% schneller als Fury X weill sie eben bei PCars soviel schneller ist

derguru
2015-06-24, 17:11:43
Die Fury ist in etwa genauso schnell wie eine 980TI und kostet ungefähr genauso viel. Wo ist das Problem?? oO

aber kein hdmi 2.0, kein gameworks (physX), 2gb weniger ram, vsr ist bisher nicht ebenbürtig, oc potenzial kaum vorhanden.

wer mit klaren verstand kauft dann noch die fury bei gleichem preis?

Raff
2015-06-24, 17:12:42
Anno 2070 und Risen 3 nutzt PCGH übrigens nicht nur für diese Referenztests, sondern auch zur Ermittlung der Leistungsaufnahme und Lautheit jedes im Heft getesteten Custom-Designs. Auch dort führen diese Spiele zu konstant hohen, "wurstkäsigen" (Worstcase ;)) Verbräuchen, sowohl bei Radeon als auch bei Geforce (sonst kämen die Spiele nicht zum Einsatz). Das passt also alles. Wen interessiert, was eine Karte in Tetris verbraucht und dass sie dort flüsterleise ist?

MfG,
Raff

fondness
2015-06-24, 17:14:04
Anno 2070 und Risen 3 nutzt PCGH übrigens nicht nur für diese Referenztests, sondern auch zur Ermittlung der Leistungsaufnahme und Lautheit jedes im Heft getesteten Custom-Designs. Auch dort führen diese Spiele zu konstant hohen Verbräuchen. Das passt also alles. Wen interessiert, was eine Karte in Tetris verbraucht und dass sie dort flüsterleise ist?

MfG,
Raff

Der Punkt ist das unterschiedliche Boostverhalten der beiden Hersteller, sollte doch nicht so schwer zu begreifen sein. Maxwell klebt auch bei Tetris in seinem Powertune-Limit bei 250W, GCN nicht - übertrieben formuliert.

Da Fury den Takt hält erzielt man natürlich höhere Max Verbrauchswerte, aber nicht unbedingt höhere Durchschnittswerte. Wenn du nur Max-Werte suchst bevorzugt das natürlich das Powertune-Verhalten von NV-Karten.

Grestorn
2015-06-24, 17:14:15
Nochmal hier, da zuerst im falschen, da toten Thread geschrieben:

Hm. Schade, ich fürchte, durch die Fury X wird sich leider auf dem Markt nicht all zu viel bewegen. nVidia wird weiterhin Premium-Preise abrufen, AMD kann nur über den Preis konkurrieren.

Der von mir erhoffte Knaller, der AMD wieder nennenswert Marktanteile bringen kann, ist leider ausgeblieben.

Das Problem ist: nVidia wird zu bequem. Das merkt man an allen Stellen. Der Support für die eigenen Techniken lahmt (3DV, PhysX), die Treiberentwicklung war auch schon besser (insbesondere das lahme Control Panel nervt langsam wirklich, von den Bugs in allen 35Xer Treibern mal abgesehen). Selbst wenn sich AMD durch herausragenden Kunden- und Treibersupport und gute Produkte empfehlen würde, müsste man wohl trotzdem Jahre warten, bis sie sich wirklich wieder eine gute Position erkämpft hätten. Leider läuft die Zeit gegen AMD und damit gegen uns Kunden.

Unicous
2015-06-24, 17:14:33
Brutal wie stark der "Driver Overhead Test" umschlägt,
frag ist nur wie stark sich dieses für die kommenden DX12 Spiele auswirkt.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=22
Driver Overhead Test

Wann lernt ihr eigentlich mal, dass der "Test" nicht dafür ausgelegt ist IHVs, geschweige denn Architekturen und SKUs zu vergleichen. Allein die Schwankungen durch verschiedene Treiberversionen sollte doch stutzig machen, oder nicht?:rolleyes:

Wie AMD und Nvidia in DX12 am Ende abschneiden, werden wir noch sehen. Und ob der Overhead-Test eine Aussage über die Leistung in Spielen treffen kann wird sich auch noch zeigen.

Menace
2015-06-24, 17:19:37
aber kein hdmi 2.0, kein gameworks (physX), 2gb weniger ram, vsr ist bisher nicht ebenbürtig, oc potenzial kaum vorhanden.

wer mit klaren verstand kauft dann noch die fury bei gleichem preis?

Brauche kein HDMI
Brauche kein Gameworks/PhysX
Brauche Mantle, da Ashes o. t. Singularity schon gekauft (PräAlpha) wurde und gespielte wird;
Mache kein OC
Benötige vor allem OpenCl-Leistung.

Wer bei klarem Verstand kauft da noch eine nvidia? Nicht immer von sich auf andere schließen. :rolleyes:

dildo4u
2015-06-24, 17:21:17
Brutal wie stark der "Driver Overhead Test" umschlägt,
frag ist nur wie stark sich dieses für die kommenden DX12 Spiele auswirkt.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=22
Driver Overhead Test
Das fluktuiert zur Zeit noch,liegt vermutlich daran das der Treiber und das OS nicht final sind,hier wurden schon 16Mio mit einer 970 gemessen.

http://abload.de/img/drawcalls9aujh.png

http://www.eurogamer.net/articles/digitalfoundry-2015-why-directx-12-is-a-gamechanger

DrFreaK666
2015-06-24, 17:21:31
aber kein hdmi 2.0, kein gameworks (physX), 2gb weniger ram, vsr ist bisher nicht ebenbürtig, oc potenzial kaum vorhanden.

wer mit klaren verstand kauft dann noch die fury bei gleichem preis?

HDMI??? ;D
Gameworks nutze ich nicht
4k reichen mir, alles darüber wird ruckeliger
oce nicht

Menace
2015-06-24, 17:22:21
Gibt es eigentlich Mantle-Benchmarks?

r3ptil3
2015-06-24, 17:28:13
Das fluktuiert zur Zeit noch,liegt vermutlich daran das der Treiber und das OS nicht final sind,hier wurden schon 16Mio mit einer 970 gemessen.

Nicht böse gemeint, aber ich muss jetzt einfach :usad:

Das fluktuiert zur Zeit noch. Liegt vermutlich daran, dass der Treiber und das OS nicht final sind. Hier wurden schon 16 Mio. mit einer 970 gemessen.

mironicus
2015-06-24, 17:34:42
Schon allein der deutlich geringere Stromverbrauch bei Multimonitor/BluRay sollte euch 700 Euro wert sein!!! :D

Das war eine riesige Baustelle bei AMD. Eine R290x verbraucht mal locker 100 Watt wenn man nur ein Youtube-Video abgespielt hat.

Damit wäre die Karte durchaus HTPC-tauglich - für Full HD-Fernseher.

Dawn on Titan
2015-06-24, 17:41:18
Imho wird im täglichen Verkauf das Pumpensummen im Idle das Killerargument sein. Wir tauschen Karten, wenn Sie unter Last Spulenfiepen haben, das deutlich leiser ist.

Da haue ich doch jedem Kunden lieber ne 980ti rein mit Zerofan Mode. Die mag unter Last zwar lauter sein, aber im Idle ist da Ruhe.

Wenn man da ne EVGA 980ti SC gegen stellt, sieht die Fury nur arm aus.

Nicht schneller
nur 4GB
kein HDMI 2.0
kein DVI
Pumpensummen im Idle
unter Last auch nur Gleichstand
nimmt mehr Strom
muss Platz für eine Radiator im Gehäuse finden

Was man da empfiehlt, wenn man nicht in Rückläufern schwimmen will, dürfte klar sein.

Nakai
2015-06-24, 17:46:58
Selbst Schuld leider AMD, ich hatte mir einfach mehr erwartet ganz ehrlich, ich hoffe wenigstens das der Preis in ein Paar Wochen gesenkt wird, dann könnte ich von einer GTX 770 aufrüsten.

Mich erinnert die Fury fast schon an die 2900XT.

http://techreport.com/r.x/radeon-hd-2900xt/card-full.jpg

Wenn ich manche Kommentare lese, kommt mir das kotzen, so wie diesen hier. Lies die HD2900XT Reviews und vergleichs mit Fury.
:facepalm:

Ich weiß ehrlich nicht, welche Erwartungshaltung manche Leute gegenüber Fiji hatten. Ihr seid ja lustig.:freak:

Flusher
2015-06-24, 17:53:07
Der Punkt ist das unterschiedliche Boostverhalten der beiden Hersteller, sollte doch nicht so schwer zu begreifen sein. Maxwell klebt auch bei Tetris in seinem Powertune-Limit bei 250W, GCN nicht - übertrieben formuliert.

Da Fury den Takt hält erzielt man natürlich höhere Max Verbrauchswerte, aber nicht unbedingt höhere Durchschnittswerte. Wenn du nur Max-Werte suchst bevorzugt das natürlich das Powertune-Verhalten von NV-Karten.

So gerne ich jetzt da ein Argument pro Fury sehen würde: das ist doch der springende Punkt.

Titan X /980Ti werden durch ihr PT-Limit gedrosselt und sind trotzdem ungefähr gleichschnell als Fury X mit durchschnittlich 50W mehr Verbrauch.

Ich war ja auch schon ziemlich scharf auf Fury, hatte aber auch eine Performance von 980TI +10% bei Fury X erwartet. Wie soll denn jetzt die Fury nonX aussehen? 390x Niveau? :freak: Nö da brauch ich von einer 290X umzusteigen - nicht für den Preis.

fondness
2015-06-24, 17:59:26
Titan X /980Ti werden durch ihr PT-Limit gedrosselt und sind trotzdem ungefähr gleichschnell als Fury X mit durchschnittlich 50W mehr Verbrauch.


Genau das ist das Problem der Max-Messungen wie bei PCGH. Leute glauben dann Fury verbraucht immer so viel, das ist aber nicht der Fall. 980Ti und TITAN X kleben praktisch immer an den 250W, Fury X dürfte sich irgendwo in der Bandbreite 225W-325W bewegen, je nach dem wie gut der Chip bei den konstant anliegenden 1050Mhz ausgelastet wird. Deshalb bräuchte es avg-Verbrauchswerte über die Zeit gemessen für einen fairen Vergleich des Verbrauches, wenn man nicht nur Peak-Werte will.

Pirx
2015-06-24, 18:00:30
Mal abwarten, wie sich die Sache noch mit Treibern, DX12 usw entwickelt.
Die 290X hat auch die ehemals schnellere 780Ti abgehängt.

aufkrawall
2015-06-24, 18:01:02
Es lässt jedenfalls nichts gutes über das Chip-Design erahnen, wenn bei bestimmten Lastszenarien der Verbrauch so hoch sein muss für eine vergleichbare Leistung.
Mit Luftkühlung kann man den Chip einfach knicken, vollaktiviert mit dem Takt.

fondness
2015-06-24, 18:02:45
Es lässt jedenfalls nichts gutes über das Chip-Design erahnen, wenn bei bestimmten Lastszenarien der Verbrauch so hoch sein muss für eine vergleichbare Leistung.


Du tust so als ob man bei einer Testszene die halbe Leistung verlieren würde, wenn man bei Lastspitzen heruntertaktet.

Loeschzwerg
2015-06-24, 18:04:04
Die Erwartungshaltung hat teilweise die AMD Fanbase selbst verursacht und jetzt dürfen diejenigen, die darauf reingefallen sind nicht enttäuscht sein? ;D

Um ehrlich zu sein haben die rein theoretischen Daten schon auf etwas mehr Leistung hoffen lassen, aber jetzt sind es halt doch ein paar komische Einbrüche hier und da. Nicht schlimm, aber halt irgendwie... nix besonderes.

Die Lautstärke ist super, auch wenn ich persönlich mit der AiO auf Kriegsfuß stehe.
Für die Leistung der Karte (verglichen zur Konkurrenz) hätte theoretisch auch eine, zugegebenermaßen lautere, Luftkühlung ausgereicht. Aber vermutlich hätte sich durch die höhere Temperatur auch die Leistungsaufnahme zu sehr hochgeschaukelt...

Kein R600 Fail, aber "Fail" genug um in meine Sammlung einzugehen, denn letztendlich ist das Teil technisch betrachtet recht interessant. Edit: Ich suche also ab sofort nach einem Engineering Sample einer Fiji Karte ^^

aufkrawall
2015-06-24, 18:04:39
Du tust so als ob man bei einer Testszene die halbe Leistung verlieren würde, wenn man bei Lastspitzen heruntertaktet.
Natürlich tut man das, wo sollen denn auf einmal 80W Einsparung herkommen?
Da muss massiv der Takt gesenkt werden...

Und du scheinst nicht kapieren zu wollen, dass Risen3/Anno 2070 diesen hohen Verbrauch nicht bei "Lastspitzen" haben...

Flusher
2015-06-24, 18:05:59
Genau das ist das Problem der Max-Messungen wie bei PCGH. Leute glauben dann Fury verbraucht immer so viel, das ist aber nicht der Fall. 980Ti und TITAN X kleben praktisch immer an den 250W, Fury X dürfte sich irgendwo in der Bandbreite 225W-325W bewegen, je nach dem wie gut der Chip bei den konstant anliegenden 1050Mhz ausgelastet wird. Deshalb bräuchte es avg-Verbrauchswerte über die Zeit gemessen für einen fairen Vergleich des Verbrauches, wenn man nicht nur Peak-Werte will.

Die Techpowerup Tests sprechen da eine andere Sprache

http://tpucdn.com/reviews/AMD/R9_Fury_X/images/power_average.gif

Im Durchschnitt ist FuryX um 40 W hungriger und das in einer realen Anwendung

Average: Metro: Last Light at 1920x1080, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen). In order to heat up the card, we run the benchmark once without measuring power consumption.

Und man ist dabei sogar einen Hauch langsamer.

http://tpucdn.com/reviews/AMD/R9_Fury_X/images/metro_lastlight_1920_1080.gif

DrFreaK666
2015-06-24, 18:08:03
Und wenn man keine 100FPS benötigt, dann limitiert man eben die FPS auf 60 und freut sich über einen geringeren Lastverbrauch und eine geringere Lautstärke

€: Wurde das feature von NV eigentlich mal freigeschaltet??

Troyan
2015-06-24, 18:08:57
Richtig, Hardware.fr misst nach dem Einlaufen der Karten. Dann nämlich, wenn die nVidia- und AMD-Karten ihre "Benchmarktaktung" erreichen.

Das ist nicht Peak, das ist auch nicht "Lastspitzen". Das ist der Verbrauch, der beim Spielen anfällt.

Und da verbraucht Fury X bei Hardware.fr in Anno2070 mit 284W und 304W erheblich mehr als die eVGA GTX980TI Superclocked mit 249W (Wohl TDP Limit), die gleichzeitig 25% schneller ist...

aufkrawall
2015-06-24, 18:09:30
fps-Limit ist ein Krüppel-Argument, weil man es nicht bei jedem Spiel sinnvoll nutzen kann und eher niedrige fps-Bereiche energiekritisch sind.

dildo4u
2015-06-24, 18:10:09
Anandtech Benches.

http://cdn.overclock.net/0/0c/0c1df67e_18495707354_5ea2ae6f2f_o.png

-/\-CruNcher-/\-
2015-06-24, 18:10:16
220 W sieht gut aus jetzt kann man Nano kalkulieren ;)

http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

maguumo
2015-06-24, 18:10:33
Die Techpowerup Tests sprechen da eine andere Sprache

http://tpucdn.com/reviews/AMD/R9_Fury_X/images/power_average.gif

Im Durchschnitt ist FuryX um 40 W hungriger und das in einer realen Anwendung



Und man ist dabei sogar einen Hauch langsamer.

http://tpucdn.com/reviews/AMD/R9_Fury_X/images/metro_lastlight_1920_1080.gif

Wo sprechen diese Ergebnisse eine andere Sprache? Das sind ~30W Differenz, eine enorme Abweichung zu den Messergebnissen von PCGH.

Ich verstehe auch diese Diskussion nicht. fondness spricht nicht von "Peaks" im Sinne von Lastspitzen die nur für Mikrosekunden anliegen sondern von Lastszenarien unter denen die Karte deutlich mehr schluckt, die aber eben nicht den durchschnittlichen Verbrauch repräsentieren.

Dawn on Titan
2015-06-24, 18:10:49
Genau das ist das Problem der Max-Messungen wie bei PCGH. Leute glauben dann Fury verbraucht immer so viel, das ist aber nicht der Fall. 980Ti und TITAN X kleben praktisch immer an den 250W, Fury X dürfte sich irgendwo in der Bandbreite 225W-325W bewegen, je nach dem wie gut der Chip bei den konstant anliegenden 1050Mhz ausgelastet wird. Deshalb bräuchte es avg-Verbrauchswerte über die Zeit gemessen für einen fairen Vergleich des Verbrauches, wenn man nicht nur Peak-Werte will.

Leider hängt auch die 980ti eben nicht am Power Tagret wenn sie nicht zu 100% ausgelastet ist.

246W Fury vs. 211W 980ti. Das halbiert den Abstand.

http://www.techpowerup.com/reviews/AMD/R9_Fury_X/29.html

Tom´s sieht aber z.B. die Fury X bei 220W und die 980ti bei 240W. Das sind natürlich gute Werte und Tom´s ist bei dieser MEssung sicher Referenz.

DrFreaK666
2015-06-24, 18:12:16
fps-Limit ist ein Krüppel-Argument, weil man es nicht bei jedem Spiel sinnvoll nutzen kann und eher niedrige fps-Bereiche energiekritisch sind.

Ich nutz es bei meiner GTX780 auch schon ;p

dargo
2015-06-24, 18:12:51
Die Techpowerup Tests sprechen da eine andere Sprache

http://tpucdn.com/reviews/AMD/R9_Fury_X/images/power_average.gif

Im Durchschnitt ist FuryX um 40 W hungriger und das in einer realen Anwendung



Und man ist dabei sogar einen Hauch langsamer.

http://tpucdn.com/reviews/AMD/R9_Fury_X/images/metro_lastlight_1920_1080.gif
Tja... in Redux siehts wieder anders aus. ;)
52356

Und lernt endlich, dass ein kurzer Benchmark nur ein Bruchteil der Spielzeit ist und je nach Szene mal der eine, mal der andere vorne liegen kann.

aufkrawall
2015-06-24, 18:14:17
Mit geeignetem NT/Gehäuse spricht ja zum Glück wenig gegen den hohen Verbrauch bei bestimmten Szenarien, dank der WK.
Aber man muss halt sehen, dass HBM GCN nicht auf einmal in die Nähe von Maxwell-Effizienz schiebt, auch ohne DP nicht.

MadManniMan
2015-06-24, 18:14:20
Puh, die Verbrauchsfrage ist aber auch kompliziert diesmal. Die Werte von THG widersprechen so ziemlich allem anderen - aber warum sollten die gerade mit diesem Setup völlig daneben liegen?

Langlay
2015-06-24, 18:14:39
Ich verstehe auch diese Diskussion nicht. fondness spricht nicht von "Peaks" im Sinne von Lastspitzen die nur für Mikrosekunden anliegen sondern von Lastszenarien unter denen die Karte deutlich mehr schluckt, die aber eben nicht den durchschnittlichen Verbrauch repräsentieren.

Eigentlich müsste man beides angeben. Den typischen Verbrauch und den Maximalverbrauch wenn man wissenschaftlich arbeitet.

DrFreaK666
2015-06-24, 18:15:08
Da die Performance doch nicht so schlecht ist wie erwartet, so hat man doch einen Grund gefunden zu haten :uclap:
Wer so viel geld für eine Grafikkarte ausgibt, schaut bestimmt jede Stunde auf den Stromverbrauch...:freak:

joe kongo
2015-06-24, 18:16:22
Imho wird im täglichen Verkauf das Pumpensummen im Idle das Killerargument sein. Wir tauschen Karten, wenn Sie unter Last Spulenfiepen haben, das deutlich leiser ist.

Leider muss ich da total enttäuscht voll zustimmen, die bei AMD haben
es noch immer nicht begriffen.

maguumo
2015-06-24, 18:18:11
Eigentlich müsste man beides angeben. Den typischen Verbrauch und den Maximalverbrauch wenn man wissenschaftlich arbeitet.
Ja. Nur den Verbrauch in Worst Case Szenarien anzugeben halte ich jedenfalls für irreführend. Ist eben nichts womit man kalkulieren kann was die Karte im Betrieb später verschleudern würde. Falls das überhaupt wer tut der in diesem Preisbereich einkauft.

Troyan
2015-06-24, 18:19:04
Ich verstehe auch diese Diskussion nicht. fondness spricht nicht von "Peaks" im Sinne von Lastspitzen die nur für Mikrosekunden anliegen sondern von Lastszenarien unter denen die Karte deutlich mehr schluckt, die aber eben nicht den durchschnittlichen Verbrauch repräsentieren.

Und wie erklärt man sich die 300W in Anno2070?!
Der Verbrauch von Fiji hängt wohl auch damit zusammen, ob die ganzen Recheneinheiten ausgelastet werden können.

In Battefield 4 z.B. liegt der verbrauch bei 230-250W - also nur leicht über GTX980TI Niveau. Jedoch ist die Leistung meilenweit von diesen Karten entfernt.

Toms' Messungen stimmen, die haben ein Anwendungsfall gefunden, wo die AMD Karte nicht ausgelastet wird.

Ravenhearth
2015-06-24, 18:20:26
Anandtech Benches.

http://cdn.overclock.net/0/0c/0c1df67e_18495707354_5ea2ae6f2f_o.png

Nur 20W mehr als die 980 Ti, aber in den meisten Spielen langsamer, teilweise deutlich. Bei den meisten Seiten ist die Fury X entweder viel langsamer oder viel hungriger, selten beides oder keines.

maguumo
2015-06-24, 18:23:37
Ich verstehe deinen Einwand nicht? Die ~300W in Anno erklärt man sich damit das der Chip in eben diesem Szenario erstaunlich gut ausgelastet werden kann. Das stellt aber keinen repräsentativen Verbrauch für dein allgemeines Gaming Szenario dar weil der Chip eben normalerweise nicht derart ausgelastet wird und weniger schluckt. Hat auch nur eingeschränkt was mit der Performance zutun mit der man dann rechnen kann, das sollte getrennt betrachtet werden.

Flusher
2015-06-24, 18:23:55
Tja... in Redux siehts wieder anders aus. ;)
52356

Und lernt endlich, dass ein kurzer Benchmark nur ein Bruchteil der Spielzeit ist und je nach Szene mal der eine, mal der andere vorne liegen kann.

Und was hat das mit der Tatsache zu tun, dass Anandtech Stromverbrauchsmessungen mit Last Light zeigt, in denen im Durchschnitt die Fury mehr verbraucht, während die Leistung unter der 980Ti liegt? Und das ist schon eine sehr wohlwollende Messung - andere Reviews berichten da von deutlich größeren Unterschieden.

ilibilly
2015-06-24, 18:26:57
Also die fury sHader skalieren mehr schlecht als recht,eigentlich sollte man um die 40% vor der 390x liegen,teilweise sind Steigerungen nur um die 15-20% ,nun liegst an den Experten rauszufinden wo der Flaschenhals sich verbirgt.
Da bringt hbm auch nicht den Vorteil wie erhofft,dann hätte es gddr5 auch getan aber eben mit 8gb ,dann hätte man auch wohl nochmal 50 Watt mehr benötigt.
Wird Zeit für gcn 2.0. ....."

DrFreaK666
2015-06-24, 18:30:51
Frage mich auch gerade ob sich die "normale" fury überhaupt lohnt...

Langlay
2015-06-24, 18:32:17
Und wie erklärt man sich die 300W in Anno2070?!
Der Verbrauch von Fiji hängt wohl auch damit zusammen, ob die ganzen Recheneinheiten ausgelastet werden können.



Das ist wie beim Auto. Es ist nunmal nicht optimal nur den Verbrauch bei maximaler Leistungsabgabe anzugeben. Wenn der typische Verbrauch deutlich darunter liegt.

Also mein Auto braucht bei Vmax ca 14l Diesel. Im Durchschnitt verbrauche ich aber nur knapp 6l.

maguumo
2015-06-24, 18:35:44
Frage mich auch gerade ob sich die "normale" fury überhaupt lohnt...
Wer weiß wie die letztendlich aussieht. Vielleicht skaliert die besser weil sie nicht am Front/Backend rumschnibbeln sondern nur ein paar CUs deaktivieren...

aufkrawall
2015-06-24, 18:40:42
Ich verstehe deinen Einwand nicht? Die ~300W in Anno erklärt man sich damit das der Chip in eben diesem Szenario erstaunlich gut ausgelastet werden kann. Das stellt aber keinen repräsentativen Verbrauch für dein allgemeines Gaming Szenario dar weil der Chip eben normalerweise nicht derart ausgelastet wird und weniger schluckt.

Was ist denn normalerweise bzw. wer definiert das?
Ich seh mit Trine 3 schon den nächsten Griller kommen...

The_Invisible
2015-06-24, 18:45:31
und schon wieder wird es keine AMD bei mir, schade. blöd nur das dadurch auch die 980ti preise nicht sinken werden und bis nächstes jahr wird auch nichts großartiges mehr kommen an neuen grafikkarten.

maguumo
2015-06-24, 18:46:45
Was ist denn normalerweise bzw. wer definiert das?
Ich seh mit Trine 3 schon den nächsten Griller kommen...

Die Definition ist schwierig, zumal man das Equipment ja auch nicht beim kompletten Benchmark Testrun laufen lassen kann. Aber nur das schlimmste was man finden kann als Verbrauch angeben ist irgendwo irreführend. Man merkt doch das selbst hier das viele Leute das für den durchschnittlichen Verbrauch gehalten haben.

aufkrawall
2015-06-24, 18:48:18
Man muss halt immer damit rechnen, dass es eine Szene geben kann, wo die GPU dann viel mehr verbrät als sonst.
Ich kann verstehen, dass manche das nicht haben wollen.

dargo
2015-06-24, 18:48:37
Und was hat das mit der Tatsache zu tun, dass Anandtech Stromverbrauchsmessungen mit Last Light zeigt, in denen im Durchschnitt die Fury mehr verbraucht, während die Leistung unter der 980Ti liegt? Und das ist schon eine sehr wohlwollende Messung - andere Reviews berichten da von deutlich größeren Unterschieden.
Mir gings da erstmal um die Spieleleistung. Was den Stromverbrauch angeht vertraue ich da im Augenblick mehr Tomshardware als allen anderen Seiten. Es macht keinen Sinn sich immer den Peak rauszufischen. TH macht das schon richtig, die messen eine Minute lang und ermitteln den min, max. und avg. Wert. Schließlich bezahlst du den avg. Wert mit deiner Stromrechnung. Das einzige was ich nicht weiß... wie repräsentativ sind die 221W avg. für andere Spiele. Man müsste da ein paar mehr nehmen um einen verlässlichen Schnitt zu bekommen.

dildo4u
2015-06-24, 18:50:34
Vermutlich wird die Auslastung der GPU unter DX12 deutlich besser,zur Zeit verhindert das der AMD Treiber bei vielen Games unter DX11,daher schwankt der Verbrauch so heftig von Game zu Game.Das alles wird wesentlich kritischer wird wenn man vor hat das günstige Fury Modell mit Luftkühlung zu kaufen,dort muss man vermutlich wie bei der 390X ein massiven Kühler auffahren wenn mans leise haben will.

yamo
2015-06-24, 18:51:30
Brauche kein HDMI
Brauche kein Gameworks/PhysX
Brauche Mantle, da Ashes o. t. Singularity schon gekauft (PräAlpha) wurde und gespielte wird;
Mache kein OC
Benötige vor allem OpenCl-Leistung.

Wer bei klarem Verstand kauft da noch eine nvidia? Nicht immer von sich auf andere schließen. :rolleyes:

Aähm, ich brauche auch nicht diese und jenes. Aber wenn AMD für 4GB FiDSCHI 1000 Ocken ohne Steuern abgreifen will, sehe ich da den Erfolg nicht.
Das kann mann nicht absetzen.
Die 980 TI hat AMD schon frühzeitig gekontert.
Jetzt gehts über den Preis.

maguumo
2015-06-24, 18:51:56
Man muss halt immer damit rechnen, dass es eine Szene geben kann, wo die GPU dann viel mehr verbrät als sonst.
Ich kann verstehen, dass manche das nicht haben wollen.
Was hat das mit "nicht haben wollen" zutun? Das die Karte unter bestimmten Umständen so viel schlucken kann zweifelt doch keiner an, nur den durchschnittlichen Verbrauch unter Gaming Last stellt's nicht dar.

EDIT:Mir gings da erstmal um die Spieleleistung. Was den Stromverbrauch angeht vertraue ich da im Augenblick mehr Tomshardware als allen anderen Seiten. Es macht keinen Sinn sich immer den Peak rauszufischen. TH macht das schon richtig, die messen eine Minute lang und ermitteln den min, max. und avg. Wert. Schließlich bezahlst du den avg. Wert mit deiner Stromrechnung. Das einzige was ich nicht weiß... wie repräsentativ sind die 221W avg. für andere Spiele. Man müsste da ein paar mehr nehmen um einen verlässlichen Schnitt zu bekommen.

Was PCGH misst sind nicht die "Peaks" die du zum Beispiel bei tomshardware in den Leistungsaufnahme Diagrammen finden kannst. Das stellt da schon den durchschnittlichen Verbrauch der Karte dar, das schluckt die dauerhaft. Es scheint aber eben nur relativ wenige derartige Szenarien zu geben (in Risen 3 müssen sie dazu zum Beispiel an einer bestimmten, besonders fordernden Szene stehen bleiben), weswegen der durchschnittliche Verbrauch unter Gaming Last aber niedriger liegen sollte.

aufkrawall
2015-06-24, 18:53:01
Vermutlich wird die Auslastung der GPU unter DX12 deutlich besser,zur Zeit verhindert das der AMD Treiber bei vielen Games unter DX11,daher schwankt der Verbauch so heftig.
In 4k kann das auch noch genau so aussehen wie schon jetzt.
Aber mit async Compute steigt der Durchschnittsverbrauch sicherlich. Würde mich nicht wundern, wenn dann durchgängig +300W gezogen würden.
The Tomorrow Childen soll die PS4 ja auch zum Glühen bringen.

Was hat das mit "nicht haben wollen" zutun? Das die Karte unter bestimmten Umständen so viel schlucken kann zweifelt doch keiner an, nur den durchschnittlichen Verbrauch unter Gaming Last stellt's nicht dar.
Wenn ich viele Stunden Anno spiele, kann sich das schon auf der Stromrechnung bemerkbar machen.

DrFreaK666
2015-06-24, 18:53:12
Blödsinn geschrieben

dargo
2015-06-24, 18:54:54
Aähm, ich brauche auch nicht diese und jenes. Aber wenn AMD für 4GB FiDSCHI 1000 Ocken ohne Steuern abgreifen will, sehe ich da den Erfolg nicht.

Könnte mal vielleicht mit den Überteibungen mal langsam aufhören? Die UVP heißt 649$, was einem Straßenpreis nach wenigen Wochen von 600-650€ entsprechen dürfte. Momentan siehts so nach wenigen Stunden bereits aus.
http://www.computeruniverse.net/products/90608893/sapphire-radeon-r9-fury-x.asp

Keine Frage, diesen Preis finde ich auch noch zu hoch. Es ist aber wie immer... zuerst gibts einen X Deppenaufschlag.

Loeschzwerg
2015-06-24, 18:55:52
Das einzige was ich nicht weiß... wie repräsentativ sind die 221W avg. für andere Spiele. Man müsste da ein paar mehr nehmen um einen verlässlichen Schnitt zu bekommen.

Eigentlich alle getesteten Spiele, aber sonst bin ich da bei dir.

AtTheDriveIn
2015-06-24, 18:55:54
Wer glaubt, dass das Pumpensummen lange ein Thema seien wird irrt sich. Es ist eigentlich irrelevant. Laut computerbase verschwindet es beim Druck auf die Pumpe und soll dem Zulieferer bekannt sein. Es wird so schnell behoben sein, dass es in spätestens in der zweiten Charge ad acta gelegt seien wird.

Stromverbrauch ist ein weiteres Kriterium das ich nie zulassen werde, wenn denn für gute/leise Kühlung gesorgt wird. Ich schaue beim Zocken nur auf einen Messwert und der hat nicht Watt als Einheit.

Schnoesel
2015-06-24, 18:56:28
Wenn ich viele Stunden Anno spiele, kann sich das schon auf der Stromrechnung bemerkbar machen.

Die paar Cent interessieren dich bei ner 700€ Karte? SRSLY? Ich lasse mir das Argument eingehen Stromverbrauch --> Lautstärke/Kühlung, aber beides ist doch in Ordnung. Für mich wieder mal ne Scheindiskussion.

Elite_Warrior
2015-06-24, 18:57:54
Joa, die Reviews lesen sich eher durchwachsen, immerhin ist die Fury eine Evolution und man kann sich endlich zu den TopDogs von Nvidia gesellen. Auf 30 Watt kommts da auch nicht an.

Viel interessanter fände ich eigentlich die Nano, wäre cool wenn mal ein Tester die Fury X auf 175 TDP limitieren könnte. Besonders preislich könnte AMD hier eine sehr gute Alternative zur 980 liefern.

aufkrawall
2015-06-24, 18:57:59
Die paar Cent interessieren dich bei ner 700€ Karte? SRSLY? Ich lasse mir das Argument eingehen Stromverbrauch --> Lautstärke/Kühlung, aber beides ist doch in Ordnung. Für mich wieder mal ne Scheindiskussion.
Ich habe längst geschrieben, dass es mir hauptsächlich um die Effizienz GCN HBM vs. Maxwell geht.
Wieder mal nicht richtig gelesen.

Schnoesel
2015-06-24, 18:58:50
Und die Effizienz wurde verbessert sogar sehr stark verbessert. Keiner hat aber damit gerechnet dass Fury effizienter als Maxwell wird also was soll das ganze?

PS: Und du selbst hast den Kostenfaktor eingebracht.

PPS: Im Gegenteil wurde sogar vermutet dass Fury eine Wakü zwingend braucht damit sie überhaupt zu betreiben ist. Mit dem Verbrauch unter einer R9 390X wäre auch eine Lukü locker drin gewesen. Dann eben in laut und heiß. Ihr macht die Karte schlechter als sie ist. Hawaii war wesntlich übler dran beim Launch. Ich sehe hier eine positive Entwicklung keine negative.

DrFreaK666
2015-06-24, 19:00:45
Ich habe längst geschrieben, dass es mir hauptsächlich um die Effizienz GCN HBM vs. Maxwell geht.
Wieder mal nicht richtig gelesen.

"Wenn ich viele Stunden Anno spiele, kann sich das schon auf der Stromrechnung bemerkbar machen." liest sich für mich aber anders...

Dann hast mal wieder nicht richtig geschrieben :D

Menace
2015-06-24, 19:02:06
Aähm, ich brauche auch nicht diese und jenes. Aber wenn AMD für 4GB FiDSCHI 1000 Ocken ohne Steuern abgreifen will, sehe ich da den Erfolg nicht.


1000 Ocken sind welche Einheit? Falls Du die Umrechnung hast 1 Ocke = 1 €, dann irrst Du Dich etwas. Zumal Du auch noch glaubst, dass die Steuern dazu kämen. :confused:

aufkrawall
2015-06-24, 19:03:02
"Wenn ich viele Stunden Anno spiele, kann sich das schon auf der Stromrechnung bemerkbar machen." liest sich für mich aber anders...

Dann hast mal wieder nicht richtig geschrieben :D
Man darf ja wohl noch darauf hinweisen, dass es nicht völlig ohne reale Relevanz ist...

Viel wichtiger ist aber, dass schlechtere Effizienz für Komplettsystem-Anbieter sehr abturnend ist.

maguumo
2015-06-24, 19:03:30
Wenn ich viele Stunden Anno spiele, kann sich das schon auf der Stromrechnung bemerkbar machen.
Und wenn ich viele Stunden irgendwas Spiele das den Chip nicht fast so auslastet wie ein Powervirus ebenfalls, aber in die andere Richtung. Falls man die paar Cent denn bemerkt.

Troyan
2015-06-24, 19:03:32
Soviel besser ist die Effzienz aber auch nicht geworden.
In Anno2070 nicht mal 20% gegenüber der 290X Tri-OC Version und in Battlefield 4 auch nur zwischen 30-40%.

Irgendwie komisch: Hawaii stand in Anno2070 gegenüber Kepler und Maxwell viel besser dar als in Battlefield 4. Mit Fiji ist es genau umgedreht.

aufkrawall
2015-06-24, 19:04:44
Nicht, was die Effizienz angeht. Da kam auch Hawaii bei Anno nicht gut weg im Vergleich zu GM204. Bei BF4 war dafür der Verbrauch nicht so extrem hoch.

AtTheDriveIn
2015-06-24, 19:05:04
Bei 30watt unterschied kostet es nach 33,3 stunden satte 0,3€ mehr eine Fury X zu betreiben. Ist das wirklich relevant? NEIN

DrFreaK666
2015-06-24, 19:06:04
Bei 30watt unterschied kostet es nach 33,3 stunden satte 0,3€ mehr eine Fury X zu betreiben. Ist das wirklich relevant? NEIN

Für Komplett-PC-Anbieter schon ^^

Captain Future
2015-06-24, 19:06:36
Ja. Nur den Verbrauch in Worst Case Szenarien anzugeben halte ich jedenfalls für irreführend. Ist eben nichts womit man kalkulieren kann was die Karte im Betrieb später verschleudern würde. Falls das überhaupt wer tut der in diesem Preisbereich einkauft.

Komisch, hat keinen gestört, als Fermi zum Thermi wurde.

aufkrawall
2015-06-24, 19:07:29
Bei 30watt unterschied kostet es nach 33,3 stunden satte 0,3€ mehr eine Fury X zu betreiben. Ist das wirklich relevant? NEIN
Es sind bei Anno und Risen aber nicht 30W mehr, sondern 50-80. Außerdem wird mehr aus der Steckdose gezogen als das Messgerät direkt an der Karte misst.

Aber gut, es ist nicht die Welt. Hat AMD aber Glück, dass die EU noch keine Energiegütesiegel für Grafikkarten aufzwingt. ;)

AtTheDriveIn
2015-06-24, 19:09:14
Für Komplett-PC-Anbieter schon ^^

Ich warte dann mal gespannt auf den Tag an dem mein Dell Rechner in der Firma eine effiziente 980Ti OC für Excel bekommt.

DrFreaK666
2015-06-24, 19:11:37
Es ist sicherlich nicht die beste GPU AMDs, aber sie können es mit NV aufnehmen. Performance <=980TI, höherer Verbrauch, niedrigere Lautstärke. Und genau solche Produkte sin auch nötig um aus der Versenkung aufzusteigen. Vielleicht kitzelt AMD in den nächsten Monaten noch etwas mehr FPS aus dem Treiber, oder sind in DX12 besonders stark. Man wirds sehn, oder nicht :)


Ich warte dann mal gespannt auf den Tag an dem mein Dell Rechner in der Firma eine effiziente 980Ti OC für Excel bekommt.

Ich hoffe du hast es genauso ironisch gemeint wie ich

AtTheDriveIn
2015-06-24, 19:12:26
Es sind bei Anno und Risen aber nicht 30W mehr, sondern 50-80. Außerdem wird mehr aus der Steckdose gezogen als das Messgerät direkt an der Karte misst.

Aber gut, es ist nicht die Welt. Hat AMD aber Glück, dass die EU noch keine Energiegütesiegel für Grafikkarten aufzwingt. ;)

Wird keinen der sich eine HighEnd Karte kauft auch nur eine Sekunde tangieren. Außer es ist Fury X Review Tag und ... Naja

MadManniMan
2015-06-24, 19:13:55
Wie zur Hölle kommt ihr eigentlich immer darauf, dass es eine absolute Antwort auf die Frage "Wie sehr interessiert die Leistungsaufnahme potentielle Käufer?" gibt!?

DrFreaK666
2015-06-24, 19:13:57
Wird keinen der sich eine HighEnd Karte kauft auch nur eine Sekunde tangieren. Außer es ist Fury X Review Tag und ... Naja

Waschmaschine und Trockner benötigen ja zum Glück keinen Strom...

AtTheDriveIn
2015-06-24, 19:15:04
Es ist sicherlich nicht die beste GPU AMDs, aber sie können es mit NV aufnehmen. Performance <=980TI, höherer Verbrauch, niedrigere Lautstärke. Und genau solche Produkte sin auch nötig um aus der Versenkung aufzusteigen. Vielleicht kitzelt AMD in den nächsten Monaten noch etwas mehr FPS aus dem Treiber, oder sind in DX12 besonders stark. Man wirds sehn, oder nicht :)




Ich hoffe du hast es genauso ironisch gemeint wie ich

Ich bin sicher das die Fury X bald deutlich vor der 980ti seien wird. Ist ja alle Jahre wieder dasselbe. Spätestens wenn Nvidia ihre neuen Chipa pushen will *eg*

Schnoesel
2015-06-24, 19:17:43
"Wie sehr interessiert die Leistungsaufnahme potentielle Käufer?"

Nun ich sehe hier keine potentielle Käufer den der Mehrverbrauch stört. Es sind imme die gleichen die sich beschweren ... Nvidia Besitzer. Schon komisch.

Und ja die Karte ist sicherlich keine eierlegende Wollmichsau aber das beste was AMD seit langer Zeit gebracht hat. Freut euch doch alle. Die GTX 980ti fällt auch schon im Preis.

Loeschzwerg
2015-06-24, 19:20:21
Nun ich sehe hier keine potentielle Käufer den der Mehrverbrauch stört. Es sind imme die gleichen die sich beschweren ... Nvidia Besitzer. Schon komisch.

Buuuhhhh, du hast die Fermi Zeit nicht mitbekommen, oder? ;D

Die Stromkosten kratzen mich zwar nicht, aber eine genauere Betrachtung der Effizienz durchaus. Wie sieht z.B. die Leistungsaufnahme mit GM200 unter Wakü aus im Vergleich zu Fury X?

Dorn
2015-06-24, 19:21:09
So und jetzt bin ich gespannt wie nächsten Monat die Fury non X ankommt. Auf jeden fall ist die Lauter^^. Bitte ein Monat vor spulen!

AtTheDriveIn
2015-06-24, 19:22:54
Wie zur Hölle kommt ihr eigentlich immer darauf, dass es eine absolute Antwort auf die Frage "Wie sehr interessiert die Leistungsaufnahme potentielle Käufer?" gibt!?
Gibt es nicht, aber eine Gaußsche Verteilung und ich maße mir ganz dreist an den Mittelwert zu kennen und die Standardabweichung als sehr gering einzuschätzen.

DrFreaK666
2015-06-24, 19:23:57
So und jetzt bin ich gespannt wie nächsten Monat die Fury non X ankommt. Auf jeden fall ist die Lauter^^. Bitte ein Monat vor spulen!

Das bekommt Sapphire schon noch in den Griff ;)

aufkrawall
2015-06-24, 19:24:31
Ich bin sicher das die Fury X bald deutlich vor der 980ti seien wird.
Mit der VRAM-Ausstattung einer Performance-GPU wird das aber schwierig.
Erst recht, wenn man wie mit der 970 immer Optimierungen braucht. Das Treiberteam bei AMD hat ja sonst nichts zu tun.

DrFreaK666
2015-06-24, 19:26:22
Mit der VRAM-Ausstattung einer Performance-GPU wird das aber schwierig.
Erst recht, wenn man wie mit der 970 immer Optimierungen braucht. Das Treiberteam bei AMD hat ja sonst nichts zu tun.

Durch den neuen Treiber sind die 290X auch schneller geworden. NV sind nicht die einzigen, die bessere Treiber veröffentlichen

dargo
2015-06-24, 19:27:20
Erst recht, wenn man wie mit der 970 immer Optimierungen braucht. Das Treiberteam bei AMD hat ja sonst nichts zu tun.
Ich bin schon auf deine Argumente gespannt wenn Nvidia zum ersten Mal HBM2 verwendet. ;) Ich denke in Fury ist noch einiges Potential, man muss nur erstmal genug Erfahrungen mit HBM sammeln.

soLofox
2015-06-24, 19:28:25
Laut AMD braucht's ne extra Anpassung an jedes Game damit es ohne Probs mit den 4GB HBM läuft.



http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-Fury-X-4GB-Review-Fiji-Finally-Tested/Overclocking-Pricing-and-


das hatte ich ja schon einige beiträge vorher geschrieben, die treiber müssen doch erstmal optimiert werden. klar, nvidia ist da besser aufgestellt, aber ich würde Fury X nun noch nicht als 08/15 abhaken. da geht doch noch was :)

bleibe aber trotzdem erstmal bei meiner R9 290X, wahrscheinlich bis Fury X2 kommt.

Flusher
2015-06-24, 19:29:16
Mir gings da erstmal um die Spieleleistung. Was den Stromverbrauch angeht vertraue ich da im Augenblick mehr Tomshardware als allen anderen Seiten. Es macht keinen Sinn sich immer den Peak rauszufischen. TH macht das schon richtig, die messen eine Minute lang und ermitteln den min, max. und avg. Wert. Schließlich bezahlst du den avg. Wert mit deiner Stromrechnung. Das einzige was ich nicht weiß... wie repräsentativ sind die 221W avg. für andere Spiele. Man müsste da ein paar mehr nehmen um einen verlässlichen Schnitt zu bekommen.

Hast du überhaupt mein Posting gelesen und dir die Benchmarks von TechPowerUp angeschaut? Genau das selbe Vorgehen wurde dort auch gewählt - durchschnittlicher Verbrauch über eine Spielszene hinweg. Das sind keine Peak-Werte!

maguumo
2015-06-24, 19:30:04
Ich möchte mich über AMDs Interpretation der Verlustleistung durch deren PR auf den Folien echt nicht mehr auslassen, weil es noch nie wirklich gestimmt hat. Wie ich es im Launchartikel schrieb, hat es AMD schlicht und ergreifend vergessen, ein restriktiveres Limit einzubauen, das einfach mal den Hahn dicht macht, wenn es dunkelrot wird. Bisher haben alle Karten in exakt diesem Loop vergleichsweise hohe Leistungsaufnahmewerte verursacht. Wenn es sich mit Fiji nun ändert, muss man die Ursachen hinterfragen und ggf. komplett neue Szenarien entwickeln, in denen alle Karten wieder vergleichbare Werte erzeugen. Da ich Software, Benchmark-Run und Messung automatisch starte, hatte ich bisher auch eine identische Time-Line bei den Messungen. Ich glaube aber, dass Fiji statistisch gesehen in vielen Spielen über einen langen Zeitintervall hin gemessen wieder dort landen wird, was ich gemessen habe. Immerhin messe ich ja schon eine Minute und werde das in Zukunft auch verlängern, wenn ich die Auswertungssoftware umgeschrieben habe. Halbiere ich die Messdauer, steigt meine Fehlerquote erstaunlich hoch an, verdoppele ich sie, sind die Unterschiede wesentlich kleiner. Wenn ich nur 10 Sekunden messe, kommt totale Grütze raus.

Um Fiji wirklich zu verstehen und um der Technologie gerecht zu werden, braucht man definitiv mehr Zeit. Ich würde gern mal eine längere Reihe messen, bei der ich selbst verschiedene DX-Lasten erzeuge und sehe, wie Treiber und Telemetrie wirklich reagieren. Ich habe gestern Fiji mal eine Stunde auf Batman losgelassen (Ruckelorgie, aber das liegt eher am Spiel), die geloggte Leistungsaufnahme lag sogar bei nur reichlich 200 Watt im Mittel über die gesamte Zeit. Gemessen habe ich diesmal mit einem Logger den Spannungsabfall an der betreffenden 12V-Schiene des Netzteils über dem Shunt. Die Spitzen gehen schon mal gern hoch bis 450 Watt, um dann aber gleich wieder abzusegeln. Wie gesagt - eine sehr viel differenzierte Messung und die Analyse, wo der Sweet-Spot liegt, wären die objektivste Antwort auf die Frage nach Fijis Qualitäten
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-44.html

ChaosTM
2015-06-24, 19:32:49
Sehr leise und schnelle Karte aber leider nicht schnell genug, um den Umstieg von Hawaii zu rechtfertigen. Habe mir da zu viel erwartet..

aufkrawall
2015-06-24, 19:34:17
Ich bin schon auf deine Argumente gespannt wenn Nvidia zum ersten Mal HBM2 verwendet. ;) Ich denke in Fury ist noch einiges Potential, man muss nur erstmal genug Erfahrungen mit HBM sammeln.
Wenn Nvidia HBM2 verwendet, gehe ich von einer 8GB Bestückung aus, wo man nicht dafür kämpfen muss, jedes letzte MB reinzuquetschen.
Abgesehen davon ist dann DX12 Standard, womit die Anwendung das Speichermanagement zum Großteil selbst machen muss und der Treiber hoffentlich nicht mehr tief rumpfuscht.

Loeschzwerg
2015-06-24, 19:39:26
Es kommt ja immer das Treiber-Argument... aber wie viel ist da denn abseits der normalen Optimierungen für Games denn drin? GCN ist für AMD nicht mehr neu und HBM... was will man da optimieren wenn der Speicher nicht limitiert?

aufkrawall
2015-06-24, 19:42:18
Es hieß doch, dass HBM beim Speicherbedarf vorteilhaft gegenüber GDDR sei, man dafür aber jedes Spiel treiberseitig tunen müsse.
Nicht so schlimm wie bei der 970, wo die Performance komplett den Bach runtergeht, wenn der Treiber nicht mitspielt, aber gegenüber mehr Speicher ist es halt auch nur eine mittelprächtige Behelfslösung.

MadManniMan
2015-06-24, 19:42:41
Nun ich sehe hier keine potentielle Käufer den der Mehrverbrauch stört. Es sind imme die gleichen die sich beschweren ... Nvidia Besitzer. Schon komisch.

Derlei Äußerungen sind nicht sonderlich hilfreich, wenn man vernünftig diskutieren möchte. Das ist Dir schon klar, oder? Und komm bitte nicht mit "aber die anderen haben angefangen".


Und ja die Karte ist sicherlich keine eierlegende Wollmichsau aber das beste was AMD seit langer Zeit gebracht hat. Freut euch doch alle. Die GTX 980ti fällt auch schon im Preis.

Anhand Deines "sicherlich das Beste" sehe ich, dass die Karte nach Deinen Kriterien als gut zu bewerten ist. Spekulativ: jemand, der sich nur für die Lastlautstärke interessiert, wird Dir gewiss zustimmen können. Wer einfach nur daran interessiert ist, technischen Fortschritt auf dem Gebiet der Effizienz zu erleben, könnte einerseits erfreut sein, weil gegenüber Hawaii ne Menge passiert ist - oder aber enttäuscht, weil Maxwell nicht erreicht wird.


Gibt es nicht, aber eine Gaußsche Verteilung und ich maße mir ganz dreist an den Mittelwert zu kennen und die Standardabweichung als sehr gering einzuschätzen.

... weil Du darüber Statistiken führst, die Du sicher gern mit uns teilst?

DrFreaK666
2015-06-24, 19:43:58
Die Entwickler sollten mal vernünftig programmieren, siehe Batman. Zum Glück können es manche...

dildo4u
2015-06-24, 19:44:17
Es kommt ja immer das Treiber-Argument... aber wie viel ist da denn abseits der normalen Optimierungen für Games denn drin? GCN ist für AMD nicht mehr neu und HBM... was will man da optimieren wenn der Speicher nicht limitiert?
Der Treiber erzeugt zu viel CPU Last da ist massiv Potenzial guck dir mal die Grid Benches an.


http://cdn.overclock.net/0/0c/0c1df67e_18495707354_5ea2ae6f2f_o.png

aufkrawall
2015-06-24, 19:45:35
Wen noch das 1080p Fliegengitter-Bild interessiert, tut mir leid. Er oder sie weiß einfach nicht, wie viel besser höhere Auflösungen aussehen.

DrFreaK666
2015-06-24, 19:46:35
@MadManniMan: es ist keine vernünftige Diskussion möglich, da jeder da andere Ansichten hat. Ist so als würde man mit jemandem über Gott reden, der anders denkt. Das führt zu nichts

aufkrawall
2015-06-24, 19:47:35
@MadManniMan: es ist keine vernünftige Diskussion möglich, da jeder da andere Ansichten hat. Ist so als würde man mit jemandem über Gott reden, der anders denkt. Das führt zu nichts
Die persönlichen Angriffe kann man aber weg lassen.
Einfach mal fett Punkte verteilen, liebe Mods...

Menace
2015-06-24, 19:48:32
Wer einfach nur daran interessiert ist, technischen Fortschritt auf dem Gebiet der Effizienz zu erleben, könnte einerseits erfreut sein, weil gegenüber Hawaii ne Menge passiert ist - oder aber enttäuscht, weil Maxwell nicht erreicht wird.


Könnte das an der GPU-Compute-Leistung liebgen? :confused:

dildo4u
2015-06-24, 19:48:44
Wen noch das 1080p Fliegengitter-Bild interessiert, tut mir leid. Er oder sie weiß einfach nicht, wie viel besser höhere Auflösungen aussehen.
Das zeigt es nur sher gut das Selbe haste bei Watch_dogs in 1440p.

http://abload.de/img/wetachuxz.png

DrFreaK666
2015-06-24, 19:49:28
Der Treiber erzeugt zu viel CPU Last da ist massiv Potenzial guck dir mal die Grid Benches an.


http://cdn.overclock.net/0/0c/0c1df67e_18495707354_5ea2ae6f2f_o.png

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=18

Loeschzwerg
2015-06-24, 19:51:15
Der Treiber erzeugt zu viel CPU Last da ist massiv Potenzial guck dir mal die Grid Benches an.


http://cdn.overclock.net/0/0c/0c1df67e_18495707354_5ea2ae6f2f_o.png

Schon, aber Grid Autosport ist eigentlich ein alter Hut... da muss die Optimierung doch schon längst eingeflossen sein?

aufkrawall
2015-06-24, 19:52:52
Das zeigt es nur sher gut das Selbe haste bei Watch_dogs in 1440p.

http://abload.de/img/wetachuxz.png
Ja, das ist interessant. PCGH hatte ja damals bei WD auch herausgefunden, dass NV auch von HTT bei dem Spiel profitiert, AMD nicht. Da kommt schon einiges zusammen, sodass das Problem auch in WQHD sichtbar wird.

MadManniMan
2015-06-24, 19:52:58
Könnte das an der GPU-Compute-Leistung lieben? :confused:

Was konkret meinst Du?

Menace
2015-06-24, 19:55:07
Das die GPU noch viel "Ballast" (für mich persönlich natürlich gut, da ich vor allem OpenCl nutze) für andere Sachen jenseits von Spielen mit trägt?

Errata: lieben sollte übrigens liegen heißen :rolleyes: :redface:

aufkrawall
2015-06-24, 19:55:58
Menace meint, GCN sei Maxwell generell sehr überlegen bei GPGPU.
Er ist dabei aber ziemlich auf seinen Anwendungsfall fixiert und blendet aus, dass es seit Maxwell auch vermehrt Benchmarks gibt, die darauf wesentlich schneller als auf GCN laufen...

Thunder99
2015-06-24, 19:56:58
Schon, aber Grid Autosport ist eigentlich ein alter Hut... da muss die Optimierung doch schon längst eingeflossen sein?
Aber wahrscheinlich nicht wenn es um CPU Overhead geht.

Finde die Karte dennoch gelungen und wie CB schon schreibt eine ernsthafte Alternative :)

Relaunch der Serie inkl Fury non X mit Win10 und noch besseren Treibern? :D

Menace
2015-06-24, 19:58:16
Maxwell schlägt sich nicht schlecht, richtig. Aber in manchen (ich vermute für mich wichtigen Fällen) ist Fury schon noch etwas vorne. Vielleicht sind das ja Bereiche in der GPU, die für Spiele nichts bringen, aber Strom verbrauchen.

AtTheDriveIn
2015-06-24, 19:59:38
... weil Du darüber Statistiken führst, die Du sicher gern mit uns teilst?
Lebenserfahrung. Wer solche Produkte (muss keine graka sein) erwirbt handelt in erster Linie enthusiastisch, leidenschaftlich, wenig rational. Etwas wie Stromverbrauch, der sich zudem kostentechnsich kaum auswirkt, ist da einfach viel zu weit weg und spricht andere Hirnregionen an. ;)

Loeschzwerg
2015-06-24, 20:00:14
Finde die Karte dennoch gelungen und wie CB schon schreibt eine ernsthafte Alternative :)

Jup, definitiv :)

Auf die normale Fury bin ich echt gespannt bzw. den Vergleich zwischen Lukü und AiO (soll ja beides kommen).

Schaffe89
2015-06-24, 20:04:55
Es sind bei Anno und Risen aber nicht 30W mehr, sondern 50-80. Außerdem wird mehr aus der Steckdose gezogen als das Messgerät direkt an der Karte misst.

Aber gut, es ist nicht die Welt. Hat AMD aber Glück, dass die EU noch keine Energiegütesiegel für Grafikkarten aufzwingt. ;)

Irgendwie ist es bei dir skurril.
Du nimmst Peak Performancewerte um den langfristigen Kostenfaktor zu berechnen, ja ne is klar.
Im Mittel der Tests sind es etwa 30 bis 40 Watt mehr.:rolleyes:

Sinn ergeben nur Loop Tests. Das heißt Game starten, Verbrauch über 5 Minuten messen und dann wieder das Game abschalten und zurück in den Desktop.

MadManniMan
2015-06-24, 20:05:17
Lebenserfahrung. Wer solche Produkte (muss keine graka sein) erwirbt handelt in erster Linie enthusiastisch, leidenschaftlich, wenig rational. Etwas wie Stromverbrauch, der sich zudem kostentechnsich kaum auswirkt, ist da einfach viel zu weit weg und spricht andere Hirnregionen an. ;)

Versteh' den Stromverbrauch als Kostenfaktor bitte nicht als alleinig relevante Repräsentation der Leistungsaufnahme - es gibt sicherlich verschiedene Gründe, aber mir z.B. würde es schon aus Prinzip etwas bedeuten, ein Stück Technik zu benutzen, was einen hohen Wirkungsgrad aufweist.

Sage ich mit meinem 45-nm-Prozessor und meiner 40-nm-Grafikkarte :D

AtTheDriveIn
2015-06-24, 20:06:22
Versteh' den Stromverbrauch als Kostenfaktor bitte nicht als alleinig relevante Repräsentation der Leistungsaufnahme - es gibt sicherlich verschiedene Gründe, aber mir z.B. würde es schon aus Prinzip etwas bedeuten, ein Stück Technik zu benutzen, was einen hohen Wirkungsgrad aufweist.

Sage ich mit meinem 45-nm-Prozessor und meiner 40-nm-Grafikkarte :D

Vergleiche das gerne mit HiFI. Dort kommt auch niemand der Maniacs auf den Gedanken, das der tolle Sound jetzt 30Cent mehr kosten könnte. Soll sogar Leute geben die sich freiwillig Röhrenverstärker hinstellen ;)

Lowkey
2015-06-24, 20:06:24
aufkrawall ist vermutlich nur etwas enttäuscht über die Karte und versucht auf der Position des Pessimisten ein oder mehrere Argumente für die Karte zu finden.

Timbaloo
2015-06-24, 20:07:49
Sage ich mit meinem 45-nm-Prozessor und meiner 40-nm-Grafikkarte :D
Hinsichtlich Umwandlung von elektrischer Energie in Wärme ist der Wirkungsgrad von 40/45nm auch nicht schlechter als 28nm :freak:

M4xw0lf
2015-06-24, 20:12:23
Ich wünsche mir einen Test Tonga gegen Fiji bei gleicher Rechenleistung und Bandbreite. Würde gerne sehen, wie viel Leistung der Chip verschenkt, weil das Frontend nicht hochskaliert wurde.

aufkrawall
2015-06-24, 20:14:00
aufkrawall ist vermutlich nur etwas enttäuscht über die Karte und versucht auf der Position des Pessimisten ein oder mehrere Argumente für die Karte zu finden.
Ich bin mir ehrlich gesagt nicht mal sicher, ob ich meine 980 gratis gegen Fury tauschen würde.
Es geht schon wieder kein Mantle bei BF4 vernünftig und mit D3D hat man dann die absolut grützige CPU-Performance. Was soll den so etwas...

Und den Verbrauch-Verteidigern hier sollte klar sein, dass AMD den Effizienzgewinn, den sie jetzt nicht schaffen, mit AI aufholen müssen. NV hat bestimmt nicht 1,5 Jahre nach Maxwell nur Däumchen gedreht und packt nur eben ein paar mehr DP-Transistoren in 16nm dazu...

N0Thing
2015-06-24, 20:36:02
Schon erstaunlich, dass nach dem ganzen Computerbase gehate gerade deren Redaktion der Fury mit das beste Zeugnis ausstellt und auch in den Benchmarks eher besser als schlechter abschneidet, wenn man die Reviews vergleicht.
Ab sofort muss dann wohl PCGH als Sündenbock herhalten. :rolleyes:


Vor dem Fury Launch
Nvidia Chef: Eine gute Karte braucht keine Wasserkühlung!

Und die ganze Welt vor dem Launch: Eine schlechte Grafikkarte braucht auch keine Wasserkühlung.


Je nachdem, welchen Ausgang von Messungen derjenige erwartet, den man fragt, wird sich das u.U. sogar von Setting zu Setting unterscheiden. Daher halte ich es persönlich für am klügsten, sich gar nicht erst darauf einzulassen, sondern einfach zu versuchen abzubilden, was da draußen™ gespielt wird - und wie es gespielt wird. Und selbst wenn man damit mal daneben greift: wenn die Daten transparent erhoben werden, können andere daraus vielleicht Schlussfolgerungen ziehen, warum für sie genau die eine oder andere Sache eben doch oder eben nicht relevant ist.

Das kann ich nur unterstreichen. Jeder transparent dargestellte Benchmark zeigt einen Teil der Realität und trägt zur Wissensvermehrung bei. Durch die Kombination vieler Tests kann man ein genaueres objektives Bild bekommen und sich für die eigenen Vorlieben und Bedürfnisse das aus den Ergebnissen heraus suchen, was für einen persönlich wichtig ist.

Anno 2070 und Risen 3 nutzt PCGH übrigens nicht nur für diese Referenztests, sondern auch zur Ermittlung der Leistungsaufnahme und Lautheit jedes im Heft getesteten Custom-Designs. Auch dort führen diese Spiele zu konstant hohen, "wurstkäsigen" (Worstcase ;)) Verbräuchen, sowohl bei Radeon als auch bei Geforce (sonst kämen die Spiele nicht zum Einsatz). Das passt also alles. Wen interessiert, was eine Karte in Tetris verbraucht und dass sie dort flüsterleise ist?

MfG,
Raff

Wäre es eigentlich viel Arbeit, wenn man bei den Benchmarksequenzen den Stromverbrauch des gesamten System protokolliert und zu den Ergebnissen der einzelnen Anwendungen hinzufügt? Vielleicht nicht für einen Launch-Test, wo eh für alles zu wenig Zeit vorhanden ist, aber bei einem späteren Roundup-Test?
Dann könnte man den Diskussionen über den Verbrauch pro fps eine sinnvolle Basis geben.


Puh, die Verbrauchsfrage ist aber auch kompliziert diesmal. Die Werte von THG widersprechen so ziemlich allem anderen - aber warum sollten die gerade mit diesem Setup völlig daneben liegen?

Wo findet man eigentlich die Angabe, in welchem Szenario THG den Stromverbrauch misst?

aufkrawall
2015-06-24, 20:43:14
So wie es aussieht, gar nicht. Sehr, sehr schwach.

MartinRiggs
2015-06-24, 20:45:10
Warum diskutieren hier soviele Honks mit die sowieso immer Nvidia-Karten kaufen und maximal hoffen das ne AMD-Karte die Preise drückt.:rolleyes:

Davon ab sind das Geheule über ein paar Watt mehr nur noch grotesk, wenn euch Stromverbrauch und Lautheit über alles geht dann muss eure Wahl eine Xbox One sein, flüsterleise und der Stromverbrauch bleibt auch im Rahmen.


Ab sofort muss dann wohl PCGH als Sündenbock herhalten. :rolleyes:


Die PCGH bencht schon länger suboptimal nicht nur beim Fury Launch

Timbaloo
2015-06-24, 20:52:03
Warum diskutieren hier soviele Honks mit die sowieso immer Nvidia-Karten kaufen und maximal hoffen das ne AMD-Karte die Preise drückt.:rolleyes:
Ich finde das Beobachten der Rückzugsgefechte so unglaublich faszinierend. Deine Taktik ist auch aus dem Leerbuch der Kriegskunst. Respekt.

Schaffe89
2015-06-24, 20:55:10
Ich bin mir ehrlich gesagt nicht mal sicher, ob ich meine 980 gratis gegen Fury tauschen würde.
Es geht schon wieder kein Mantle bei BF4 vernünftig und mit D3D hat man dann die absolut grützige CPU-Performance. Was soll den so etwas...

Und wieder endet es in sinnloses Bashing.:rolleyes:
Eine unglaublich grützige CPU Performance, ja, wahnsinn.
Man verliert mit einem minimal höheren Overhead bei einem 2500k non OC gegen einen 4790k @ 4,4ghz magere 5%.:freak:
Schau halt mal bei CB vorbei.

maguumo
2015-06-24, 20:55:21
Schon erstaunlich, dass nach dem ganzen Computerbase gehate gerade deren Redaktion der Fury mit das beste Zeugnis ausstellt und auch in den Benchmarks eher besser als schlechter abschneidet, wenn man die Reviews vergleicht.
Ab sofort muss dann wohl PCGH als Sündenbock herhalten. :rolleyes:

Wechselt doch sowieso mit jedem Launch...

Wo findet man eigentlich die Angabe, in welchem Szenario THG den Stromverbrauch misst?

In Forenposts oder früheren Artikeln. Seit Maxwellv2 mit Ungine Heaven @FHD (genaue Settings weiß ich nicht mehr), davor mit Thief, davor mit Metro LL.

Igor Wallossek hat einige interessante Kommentare unterm PCGH Artikel geschrieben...

Dawn on Titan
2015-06-24, 20:58:29
Wer glaubt, dass das Pumpensummen lange ein Thema seien wird irrt sich. Es ist eigentlich irrelevant. Laut computerbase verschwindet es beim Druck auf die Pumpe und soll dem Zulieferer bekannt sein. Es wird so schnell behoben sein, dass es in spätestens in der zweiten Charge ad acta gelegt seien wird.

Stromverbrauch ist ein weiteres Kriterium das ich nie zulassen werde, wenn denn für gute/leise Kühlung gesorgt wird. Ich schaue beim Zocken nur auf einen Messwert und der hat nicht Watt als Einheit.

Dann sage ich es mal direkt, aber ich bin es verdammt Leid bei jedem AMD Launch als beste Antwort "warte bis..." zu bekommen.

Bei Hawaii

warte bis die Partnerkarten kommen
warte bis das neue Stepping kommt

jetzt wieder
warte auf die zweite Charge
warte auf den Wundertreiber
warte auf DX12

Wenn man mit einer 28nm Karte so spät raus kommt wie AMD, dann sollte man gefälligst Dinge wie die summende Pumpe der AiO lange eliminiert haben.

aufkrawall
2015-06-24, 20:59:30
Seit Maxwellv2 mit Ungine Heaven @FHD (genaue Settings weiß ich nicht mehr)
Test-Bashen ist ja immer einfach, aber man muss echt keine Ahnung von den realen Lastszenarien bei Spielen haben, wenn man diesen dösigen Heaven-Test als repräsentativ heranzieht. X-D

dargo
2015-06-24, 21:00:37
Wenn Nvidia HBM2 verwendet, gehe ich von einer 8GB Bestückung aus, wo man nicht dafür kämpfen muss, jedes letzte MB reinzuquetschen.

Ich rede nicht von der Menge sondern der neuen Technik.

maguumo
2015-06-24, 21:02:03
Test-Bashen ist ja immer einfach, aber man muss echt keine Ahnung von den realen Lastszenarien bei Spielen haben, wenn man diesen dösigen Heaven-Test als repräsentativ heranzieht. X-D
Was den Stromverbrauch betrifft? Wäre ich mir nicht so sicher... Lies' mal was ich auf der letzten Seite zitiert habe... Nicht das ich selbst Ahnung davon hätte, aber der Herr Wallossek wirkt wie jemand der recht gut weiß was er da tut...

aufkrawall
2015-06-24, 21:05:46
Ich rede nicht von der Menge sondern der neuen Technik.
Und was soll ich am Einsatz von HBM kritisiert haben? Gar nichts.
Bei einigen Frametime-Messungen schneiden 4GB HBM sogar jetzt schon besser ab als 4GB GDDR5. Was hältst du mir also vor? Ist mir nicht ganz klar.

Was den Stromverbrauch betrifft? Wäre ich mir nicht so sicher... Lies' mal was ich auf der letzten Seite zitiert habe... Nicht das ich selbst Ahnung davon hätte, aber der Herr Wallossek wirkt wie jemand der recht gut weiß was er da tut...
Ich habe das noch nicht gelesen. Hättest du einen Link parat?

Pirx
2015-06-24, 21:07:16
Wenn Nvidia HBM2 verwendet, gehe ich von einer 8GB Bestückung aus, wo man nicht dafür kämpfen muss, jedes letzte MB reinzuquetschen....
... und bei der Salvage-Karte von 7+1;D

gedi
2015-06-24, 21:07:49
Ernüchternd - bis dato :frown:
In 4k lediglich ti-, tx- Performance (und damit viel zu langsam) darunter eher schwächer. Für Fury spricht derzeit nicht viel: Das Aussehen (bringt allerdings nichts, wenn die Alte im Bett nix taugt) und die Hoffnung auf DX-Next und damit verbessertem CPU-Overhead.

Interessant wären noch BQ-Vergleiche zwischen DSR und VSR. Evtl. kann Fury ja hier punkten.

maguumo
2015-06-24, 21:13:27
Ich habe das noch nicht gelesen. Hättest du einen Link parat?

Seite 18 Post 6

Weiß wer wie ich in der mobilen Version zu einzelnen Posts verlinken kann?

Kriton
2015-06-24, 21:13:32
Natürlich tut man das, wo sollen denn auf einmal 80W Einsparung herkommen?
Da muss massiv der Takt gesenkt werden...

Und du scheinst nicht kapieren zu wollen, dass Risen3/Anno 2070 diesen hohen Verbrauch nicht bei "Lastspitzen" haben...

Ich bin aber soweit bei fondness, dass eine Übereinstimmung der Benchszenen hinsichtlich Leistung und Verbrauch gegeben sein sollte. Ansonsten habe ich nämlich keine saubere Darstellung der jeweiligen Abhängigkeiten.

aufkrawall
2015-06-24, 21:13:55
DSR ist bei Faktoren > 2x jüngst etwas besser geworden (< 2x allerdings dafür relativ unbrauchbar nun).

aufkrawall
2015-06-24, 21:19:21
Ich bin aber soweit bei fondness, dass eine Übereinstimmung der Benchszenen hinsichtlich Leistung und Verbrauch gegeben sein sollte. Ansonsten habe ich nämlich keine saubere Darstellung der jeweiligen Abhängigkeiten.
Das sage ich im Grunde auch: ideal ist nur über alle Benchszenen den Verbrauch zu ermitteln.
Ansonsten hat man aber ein Anrecht darauf, zu erfahren, wie die Karte sich bei Grillern schlägt.
Aber ich komme euch entgegen und sage, es wäre gut, wenn auch ein "typischeres" Spiel angegeben wäre. Etwas mit der populären Frostbite-Engine etwa.

Ansonsten spricht es Bände, dass AMD mindestens ein 750W Netzteil empfiehlt, trotz angeblicher 275W TDP, für die 980 Ti aber nur mindestens 600W empfohlen werden.

Raff
2015-06-24, 21:22:52
Ansonsten spricht es Bände, dass AMD mindestens ein 750W Netzteil empfiehlt, trotz angeblicher 275W TDP, für die 980 Ti aber nur mindestens 600W empfohlen werden.

Die TDP liegt nicht bei 275 Watt. Letzteres ist der typische Verbrauch gemäß AMD, was auch immer das genau heißen soll, es handelt sich wohl um einen Mittelwert. Unter UHD-Volllast, also etwas, das AMD bewirbt, kann daraus nun mal mehr werden.

Ab sofort muss dann wohl PCGH als Sündenbock herhalten. :rolleyes:

Och, das geht schon mindestens seit dem GTX-970-Speicherdebakel so. Manchen kann es einfach nicht genug Nvidia-Kritik sein.

Wäre es eigentlich viel Arbeit, wenn man bei den Benchmarksequenzen den Stromverbrauch des gesamten System protokolliert und zu den Ergebnissen der einzelnen Anwendungen hinzufügt? Vielleicht nicht für einen Launch-Test, wo eh für alles zu wenig Zeit vorhanden ist, aber bei einem späteren Roundup-Test?
Dann könnte man den Diskussionen über den Verbrauch pro fps eine sinnvolle Basis geben.

Das ginge schon, ein geeignetes Messgerät mit Protokollfunktion ist verfügbar. Mal sehen, was sich machen lässt. :)

MfG,
Raff

fondness
2015-06-24, 21:24:10
TDP hat ohnehin nichts mit Max-Verbrauch zu tun.

iuno
2015-06-24, 21:25:27
Hättest du einen Link parat?
Weiß wer wie ich in der mobilen Version zu einzelnen Posts verlinken kann?
Habe ich mich auch schonmal gefragt.
hier ist der Link: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10678817#post10678817

Die beiden fand ich auch recht interessant:
1 (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-12.html#post7496597), 2 (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-16.html#post7496672)

Auch sonst sind die Beiträge interessant, man kann sich weitere von ihm ja anzeigen lassen.

Test-Bashen ist ja immer einfach, aber man muss echt keine Ahnung von den realen Lastszenarien bei Spielen haben, wenn man diesen dösigen Heaven-Test als repräsentativ heranzieht. X-D
Es ist nichts anderes als Unigine Heaven (HD) auf Ultra, mit max. Tessellation und 2xAA. Der dort ermittelte Wert, die erste Minute mit komplett aufgeheizter Karte, entspricht fast exakt dem Mittel, dass wir unabhängig für Nvidia- und AMD-Karten jeweils als Kumulation aus Metro LL, Thief, Dirt3 (extrem hohe fps) und 3DMark FireStrike ermittelt haben. Um über das Jahr mit allen Karten untereinander vergleichbar zu bleiben, braucht man nun einmal eine Referenz und kann nicht ständig die Benchmarks wechseln.

Ich nehme deswegen Heaven, weil es sich sehr gut konfigurieren lässt, recht gut skaliert und reproduzierbar bleibt. In der einen Mess-Minute laufen ja auch verschiedene Szenen ab, die in der Summe nahezu perfekt das simulieren, was ich auch mal bei Spielen wie Dying Light und Metro Last Light über nahezu 3 Stunden mitprotokolliert habe - allerdings mit wesentlich niedrigerer Auflösung bei den Messintervallen. Je länger man spielt, um so mehr gleicht sich das alles an. Pure Statistik Genau aus diesem Grund testen wir ja auch noch Torture, um die maximale Leitsungsaufnahme zu erhalten.

maguumo
2015-06-24, 21:25:28
Ansonsten spricht es Bände, dass AMD mindestens ein 750W Netzteil empfiehlt, trotz angeblicher 275W TDP, für die 980 Ti aber nur mindestens 600W empfohlen werden.

Das sagt gar nichts, ist nur Vorbeugung gegen Leute die meinen ihre schicke neue High End Karte an ihr 15$ 600W Rasurbo Gaming Power XI zu hängen, und AMD war da immer etwas konservativer. Du kannst eine 295X2 an einem 500W Straight Power 10 betreiben...

Rente
2015-06-24, 21:27:20
[...] Du kannst eine 295X2 an einem 500W Straight Power 10 betreiben...
Das ist absolut korrekt, das 2. Netzteil für den Rest braucht dann nur noch ~150 Watt...

On Topic: Ich hatte mir ehrlich gesagt mehr erwartet, die 980 Ti ist aktuell aus meiner Sicht attraktiver (aber trotzdem lächerlich teuer...).

Trap
2015-06-24, 21:28:11
Ansonsten spricht es Bände, dass AMD mindestens ein 750W Netzteil empfiehlt, trotz angeblicher 275W TDP, für die 980 Ti aber nur mindestens 600W empfohlen werden.
Das ist damit der FX-9590 noch in Leistungsbudget passt ;D

maguumo
2015-06-24, 21:29:22
Habe ich mich auch schonmal gefragt.
hier ist der Link: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10678817#post10678817

Die beiden fand ich auch recht interessant:
1 (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-12.html#post7496597), 2 (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-16.html#post7496672)

Auch sonst sind die Beiträge interessant, man kann sich weitere von ihm ja anzeigen lassen.





Danke dafür.

MadManniMan
2015-06-24, 21:29:47
Seite 18 Post 6

Äh, welche Post-Nummer in dem Thread ist das?

Mayk-Freak
2015-06-24, 21:30:38
Also meine jetzige Karte ist kann bis 1KW(1,359 PS) ziehen, wieviel sie nun wirklich verbraucht weis ich nicht. :freak::biggrin:

This card features a 14+3 Phase Power Design that can deliver over 1000W of power

maguumo
2015-06-24, 21:32:55
Das ist absolut korrekt, das 2. Netzteil für den Rest braucht dann nur noch ~150 Watt...

On Topic: Ich hatte mir ehrlich gesagt mehr erwartet, die 980 Ti ist aktuell aus meiner Sicht attraktiver (aber trotzdem lächerlich teuer...).
Nein, geht an einem. Nicht unbedingt ratsam, aber es läuft.

http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622-5.html

EDIT:Äh, welche Post-Nummer in dem Thread ist das?

iuno hat's schon verlinkt.

DrFreaK666
2015-06-24, 21:40:59
Dann brauch ich wohl auch ein neues Netzteil. Mal die pcgh studieren...

Tarkin
2015-06-24, 21:41:36
http://www.ixbt.com/video3/fiji-part3.shtml

bei den Russen kommt sie sehr gut weg (4k mit max Quality). Meist gleichauf oder leicht schneller als Titan X.

ansonsten.... etwas lauwarm die übrigen Reviews (mal so, mal so). Hätten ein paar Prozent mehr sein können ... oder ein paar Monate früher ;). Trotzdem sehr konkurrenzfähiges Produkt!

aufkrawall
2015-06-24, 21:41:58
Habe ich mich auch schonmal gefragt.
hier ist der Link: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10678817#post10678817

Die beiden fand ich auch recht interessant:
1 (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-12.html#post7496597), 2 (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-16.html#post7496672)

Auch sonst sind die Beiträge interessant, man kann sich weitere von ihm ja anzeigen lassen.





Danke. Ich finde trotzdem, dass er sich irrt, und zwar in seiner Methodik.
Diese verschweigt völlig, dass es Spiele gibt, die durchweg einen viel höheren Verbrauch erzeugen können.

Dural
2015-06-24, 21:43:37
in den usa schon unter 600.- dollar.

fondness
2015-06-24, 21:46:24
http://www.ixbt.com/video3/fiji-part3.shtml

bei den Russen kommt sie sehr gut weg (4k mit max Quality). Meist gleichauf oder leicht schneller als Titan X.

ansonsten.... etwas lauwarm die übrigen Reviews (mal so, mal so). Hätten ein paar Prozent mehr sein können ... oder ein paar Monate früher ;). Trotzdem sehr konkurrenzfähiges Produkt!

Vor der 980 Ti wäre es ein sehr gutes Produkt gewesen, das NV natürlich seit kurzem TITAN X Leistung um 350$ billiger anbietet macht die Sache für AMD zum Problem.

M4xw0lf
2015-06-24, 21:47:51
Beim Idle gehen zwar jede Menge Spikes auf 21 Watt hoch (was mein altes Zangenamperemeter auch meint zu messen)
Das ist doch interessant. Denn womit messen die meisten Redaktionen, so auch PCGH? Genau.

maguumo
2015-06-24, 21:48:28
Danke. Ich finde trotzdem, dass er sich irrt, und zwar in seiner Methodik.
Diese verschweigt völlig, dass es Spiele gibt, die durchweg einen viel höheren Verbrauch erzeugen können.

Naja, so halb. Stromverbrauch unter Torture Load gibt er ja auch an. Ob man auf den jetzt mit OpenCL Workloads oder einer bestimmten Szene kommt ist ja recht egal. Ich denke mit der Leistungsaufnahme unter "Gaming Load" die er angibt kann man deutlich mehr anfangen als mit Worst Case Werten wenn man den Stromverbrauch durch kalkulieren will.

samm
2015-06-24, 21:50:15
Spannend, wie sich die Karte ziemlich uneinheitlich zwischen den verschiedenen Games zu verhalten scheint, über die Reviews hinweg betrachtet. Sehr attraktive Hardware :) Was ich allerdings schade finde, ist, dass kaum ein Review einen zweiten Blick auf neue Features geworfen hat, cb ist für mich unerwartet löbliche Ausnahme.

Da der Accelero Hybrid auf der 7970 letzte Woche das Zeitliche gesegnet hat und nun der (in Spielen) unsäglich Föhn-artige Referenzlüfter werkelt, spekulierte ich so halb auf einen Ersatz durch Fury X. Technologiesprünge bewirken hier immer einen "shut up and take my money" Reflex, der nun durch die noch oberflächlichen, doch klar durchwachsenen Reviews verringert wurde. Je nach Entwicklung in den kommenden Wochen (Treiber, vertiefte Tests) kommen wohl erst die geshrinkten "16"/"14"nm GPUs als Tahiti-Ersatz in Frage. Käme auch der grösseren Auswahl an zur neuen Karte passenden Free/GSync-Displays bis dahin entgegen...

http://www.ixbt.com/video3/fiji-part3.shtml

bei den Russen kommt sie sehr gut weg (4k mit max Quality). Meist gleichauf oder leicht schneller als Titan X.Thx. Auch das Hexus (http://hexus.net/tech/reviews/graphics/84170-amd-radeon-r9-fury-x-4gb/) Review fehlt noch am Thread-Anfang.

Raff
2015-06-24, 21:50:18
Das ist doch interessant. Denn womit messen die meisten Redkationen, so auch PCGH? Genau.

Wir geben aber nicht pro Messschiene die Spikes an und addieren diese, das wäre Unfug; es handelt sich jeweils um Mittelwerte.

MfG,
Raff

aufkrawall
2015-06-24, 21:52:44
Naja, so halb. Stromverbrauch unter Torture Last gibt er ja auch an. Ob man auf den jetzt mit OpenCL Workloads oder einer bestimmten Szene kommt ist ja recht egal. Ich denke mit der Leistungsaufnahme unter "Gaming Load" die er angibt kann man deutlich mehr anfangen als mit Worst Case Werten wenn man den Stromverbrauch durch kalkulieren will.
Hier kommen wir nicht zu einer Meinung. Ich denke, dass beide ähnlich wichtig sind. :)

Das ist doch interessant. Denn womit messen die meisten Redkationen, so auch PCGH? Genau.
TH Stresstest deckt sich doch mit PCGH Risen 3.
Ich würde annehmen, dass so hoher Verbrauch einfacher genau zu messen ist. Aber ich lasse mir von einem versierten Elektriker gerne widersprechen.

Ansonsten könnte PCGH einfach Heaven testen.

Aber nochmal: imho ist Heaven viel zu harmlos. Probier es selber aus und lass dir das erreichte PT anzeigen. Dann vergleiche das mal mit Anno 2070 in 4k.

M4xw0lf
2015-06-24, 21:53:42
Wir geben aber nicht pro Messschiene die Spikes an und addieren diese, das wäre Unfug; es handelt sich jeweils um Mittelwerte.

MfG,
Raff
Wer garantiert, dass das Amperemeter nicht grundsätzlich Quatsch anzeigt, weil es mit den hochfrequenten Lastwechseln nicht klar kommt? Die große Diskrepanz die FormatC beschreibt, deutet ja auf sowas hin.

aufkrawall
2015-06-24, 21:55:57
Evtl. Gesamtsystemverbrauch als Gegencheck testen?

maguumo
2015-06-24, 21:57:30
Aber nochmal: imho ist Heaven viel zu harmlos. Probier es selber aus und lass dir das erreichte PT anzeigen. Dann vergleiche das mal mit Anno 2070 in 4k.

Ich habe kein Testequipment im Wert eines Kleinwagens hier rumstehen, aber wenn FormatC sagt das Heaven sich von der Leistungsaufnahme her mit den Spielen die vorher und nebenbei zum testen verwendet werden gut deckt sehe ich keinen Grund das anzuzweifeln...

Schau dir zum Beispiel mal die Werte aus dem Test zur 300er Serie an und vergleiche die mit den "alten" Hawaii Tests von Tomshardware wo mit Metro LL und Thief (glaube ich) gemessen wurde.

M4xw0lf
2015-06-24, 22:00:45
Evtl. Gesamtsystemverbrauch als Gegencheck testen?
Diese Tests hab ich ja schon angesprochen - da fallen die Unterschiede generell geringer aus. (Bei Spielelast. Im Idle dagegen liegen die Fury und die 295X2 beim Gesamtverbrauch allerdings recht hoch - da machen die Pumpe und der Radiatorlüfter sich bemerkbar, schätze ich.)

gedi
2015-06-24, 22:00:57
http://www.ixbt.com/video3/fiji-part3.shtml

bei den Russen kommt sie sehr gut weg (4k mit max Quality). Meist gleichauf oder leicht schneller als Titan X.

ansonsten.... etwas lauwarm die übrigen Reviews (mal so, mal so). Hätten ein paar Prozent mehr sein können ... oder ein paar Monate früher ;). Trotzdem sehr konkurrenzfähiges Produkt!

Das ist der bisher einzige Test, wo die Fury so abschneidet, wie erhofft. Erstaunlich dass sie sich in 4k mit AA von der tx distanzieren kann. Spielbar dürfte sich trotzdem anders definieren.

AtTheDriveIn
2015-06-24, 22:01:42
in den usa schon unter 600.- dollar.
link?

horn 12
2015-06-24, 22:02:05
http://www.pcstock.it/dettaglio-prodotto.asp?idProdotto=114117

Da würde gar die Konkurrenz Fraktion schwach werden

Kartenlehrling
2015-06-24, 22:03:31
http://ht4u.net/reviews/2014/amd_kaveri_apus_im_test/index13.php
Das richtige Netzteil wählen

anddill
2015-06-24, 22:04:00
Zangenamperemeter mit DC-Bereich ist generell Schätztechnik. Die reagieren stark auf äußere Magnetfelder, zB. das Erdmagnetfeld reicht da schon. Man muss die vor der Messung in der zu erwartenden Messposition erst mal auf Null setzen, und wehe man bewegt das während der Messung oder es gehen da noch irgendwelche Massekabel dran vorbei.

Und Heaven ist sehr dynamisch, das geht ständig rauf und runter, ist auf jeden Fall realistischer als zB. Furmark.

AtTheDriveIn
2015-06-24, 22:12:52
Das ist der bisher einzige Test, wo die Fury so abschneidet, wie erhofft. Erstaunlich dass sie sich in 4k mit AA von der tx distanzieren kann. Spielbar dürfte sich trotzdem anders definieren.


Wenn die Übersetzung (https://translate.google.com/translate?hl=en&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Ffiji-part3.shtml) richtig ist, haben die die Fury X auf 1120/600Mhz übertakten können. Also auch den HBM? Andere Reviews berichten das sich der Speicher nicht übertaken lässt...irgendwas ist faul.

aufkrawall
2015-06-24, 22:13:00
Diese Tests hab ich ja schon angesprochen - da fallen die Unterschiede generell geringer aus. (Bei Spielelast. Im Idle dagegen liegen die Fury und die 295X2 beim Gesamtverbrauch allerdings recht hoch - da machen die Pumpe und der Radiatorlüfter sich bemerkbar, schätze ich.)
Bei den Tests mit Gesamtsystemverbrauch wurde aber auch nicht Risen 3 getestet. ;)


Und Heaven ist sehr dynamisch, das geht ständig rauf und runter, ist auf jeden Fall realistischer als zB. Furmark.
Bei Witcher 3 hast du in WQHD ~100% der Zeit sehr hohe GPU-Auslastung und in den Bereichen mit viel Vegetation (in denen man oft stundenlang am Stück unterwegs ist), ist auch der Stromverbrauch sehr hoch.

Heaven ist viiieel harmloser als das. Es zieht nur mit DX9 viel Strom, wenn man SGSSAA per Nvidia-Treiber erzwingt.

MilesEdgeworth
2015-06-24, 22:20:23
Wenn die Übersetzung (https://translate.google.com/translate?hl=en&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Ffiji-part3.shtml) richtig ist, haben die die Fury X auf 1120/600Mhz übertakten können. Also auch den HBM? Andere Reviews berichten das sich der Speicher nicht übertaken lässt...irgendwas ist faul.

Was mich auch stutzig macht ist die Angabe, dass der Catalyst 15.5beta verwendet wurde.. :eek:

samm
2015-06-24, 22:24:09
Was mich auch stutzig macht ist die Angabe, dass der Catalyst 15.5beta verwendet wurde.. :eek:Vielleicht machen sie es ja gleich wie HT4u und nennen 15.15 "15.5 beta"? Oder es ist alles nur erfunden :D

Captain Future
2015-06-24, 22:24:21
Wer garantiert, dass das Amperemeter nicht grundsätzlich Quatsch anzeigt, weil es mit den hochfrequenten Lastwechseln nicht klar kommt? Die große Diskrepanz die FormatC beschreibt, deutet ja auf sowas hin.

Ich hab's - die einzig wahre Größe: An einen geeichten Stromzähler hängen und nach einem Jahr für alle repräsentativem Dauergamen den in Rechnung gestellten Stromverbrauch angeben.

Ach... shit. :(

StefanV
2015-06-24, 22:32:29
Ansonsten spricht es Bände, dass AMD mindestens ein 750W Netzteil empfiehlt, trotz angeblicher 275W TDP, für die 980 Ti aber nur mindestens 600W empfohlen werden.
Nein, tut es nicht.
Das hat rein gar nichts zu sagen!

Die Empfehlung bezieht sich auf den letzten Schrott. Zum Beispiel ein Dark Power Pro P6 mit 750W. Oder das P7.
Also irgendwelche stein alten Klopper, die einfach mal richtig grotten schlecht sind und nicht für die Lasten moderner Grafikkarten ausgelegt sind. Bei den ollen Schinken hast mal überhaupt keine nennenswerten Lastschwankungen!
Das Delta zwischen Idle und Last war vergleichsweise winzig (~100W, max). Man hatte bei einigen Kisten zum Teil 200W im Idle....
Wir sprechen hier von Netzteilen aus 2006/2007. Damals gab es gerade mal die letze Iteration der Direct X 9 Karten. Also Radeon x1950 und Geforce GTX 7900. Auch bei der ersten DX10 Generation (8800GTX und Radeon 2900 XT) hattest so gut wie gar keine Lastschwankungen...

Long Story Short:
ein GPU Hersteller kann/darf nicht sich auf bestimmte Dinge beziehen. Das muss allgemein und abgesichert sein.
Und da schreibt man dann halt etwas mehr hin. Das heißt aber ganz und gar nicht, dass man für EINE Grafikkarte auch ein 750W Netzteil benötigen würde. Das bedeutet nur, dass, wenn man 'nen alten Schinken nutzt, der dann bitte 750W haben sollte...

Und du glaubst gar nicht, mit was für einem Schrott manche Leute immer noch unterwegs sind!
Da gibts in manchen Foren immer noch Fragen ob 'nen Tagan U01 oder ein be quiet Blackline P4 oder P5 für 'nen Haswell nutzbar wäre. :ugly:
Also Netzteile, die ungefähr 10 Jahre alt sind...
Und das sind meist eben auch noch geplante i7 irgendws K Systeme mit Z-Serie Chipsatz.
Und dazu ein fast 10 Jahre altes Netzteil...

Daher schreiben die GPU Hersteller auch so viel mehr vor als not täte...

PS: Und die tollste Karte ever war ja wohl die GTX 280...
...die Peaks bis zu 40A gehabt haben soll...

yamo
2015-06-24, 22:41:43
Ohne jetzt nachgelesen zu haben, ist hier Fidschi implodiert? @ Captain Future: tolle Sig. I Love it.

(del676)
2015-06-24, 22:44:00
Ohne jetzt nachgelesen zu haben, ist hier Fidschi implodiert? @ Captain Future: tolle Sig. I Love it.

Sagen wirs so ....

Meanwhile at Nvidia HQ:
https://i.imgflip.com/7nte5.jpg

dargo
2015-06-24, 22:49:37
http://www.ixbt.com/video3/fiji-part3.shtml

bei den Russen kommt sie sehr gut weg (4k mit max Quality). Meist gleichauf oder leicht schneller als Titan X.

Ich finds langsam etwas seltsam wie unterschiedlich die Ergebnisse ausfallen. Selbst in Watch Dogs oder BF4 überholt hier die Fury X leicht die Titan X. Bei anderen Reviews soll sie da besonders schwächeln. Da blickt doch keine Sau mehr durch. :D

Edit:
Mordor schießt hier endgültig den Vogel ab. In 1440p @low Details ist die Fury X 83% schneller als die 290X @Übermode. Bei Ultra Details mit AA/AF sinds nur noch 29%. WTF!? :|

Edit 2:
Ok... scheint normal zu sein, GM200 verhält sich ähnlich.

AtTheDriveIn
2015-06-24, 22:51:16
Hier (https://translate.google.com/translate?hl=en&sl=nl&tl=en&u=http%3A%2F%2Fnl.hardware.info%2Freviews%2F6156%2F23%2Famd-radeon-r9-fury-x-review-amds-nieuwe-vlaggenship-overklokresultaten&sandbox=1) wurde der HBM auch übertaktet.

Menace
2015-06-24, 22:51:41
@yamo: Wolltest Du nicht Deine 1000 Ocken noch erklären.
@Ulukay: Das Bild stammt noch von der Zeit des Release zur 970. :biggrin:

Troyan
2015-06-24, 22:54:33
Hier (https://translate.google.com/translate?hl=en&sl=nl&tl=en&u=http%3A%2F%2Fnl.hardware.info%2Freviews%2F6156%2F23%2Famd-radeon-r9-fury-x-review-amds-nieuwe-vlaggenship-overklokresultaten&sandbox=1) wurde der HBM auch übertaktet.

Haha - "but perhaps due to a bug in the drivers, we saw every few reboots suddenly found ourselves a slider for memory clock frequency in CCC".

Beste vom ganzen Launch.

Blediator16
2015-06-24, 23:02:57
Meh. Die Nano ist das Produkt, auf das ich warte. Setzen sie es auch in den Sand, wirds wieder grün bei mir und sämtlichen PCs, die ich für Freunde und Familie erstellen werde.

AtTheDriveIn
2015-06-24, 23:05:29
Meh. Die Nano ist das Produkt, auf das ich warte. Setzen sie es auch in den Sand, wirds wieder grün bei mir und sämtlichen PCs, die ich für Freunde und Familie erstellen werde.

In den Sand? Ich verstehe die Welt nicht mehr... Sie sind nach 2 Jahren wieder auf Augenhöhe. Für den Markt kann das nur gut sein.

Ravenhearth
2015-06-24, 23:08:17
Wieso nach 2 Jahren? Imho waren sie mit Hawaii bis zum Launch der 980 im September grob auf Augenhöhe.

dargo
2015-06-24, 23:08:59
Das ist der bisher einzige Test, wo die Fury so abschneidet, wie erhofft.
Naja... bei CB schneidet die eigentlich auch ganz gut ab. Die einzigen Spiele die das Performancerating stark nach unten ziehen sind Assetto Corsa und CoD. Möchte zu gern wissen wo da der Flaschenhals liegt.

Kriton
2015-06-24, 23:14:47
Das sage ich im Grunde auch: ideal ist nur über alle Benchszenen den Verbrauch zu ermitteln.
Ansonsten hat man aber ein Anrecht darauf, zu erfahren, wie die Karte sich bei Grillern schlägt.

Ich verstehe Deinen Ansatz und teile ihn bzgl. des 1. Satzes. Aber das Problem beim 2. ist halt, dass eine (im Vergleich zu der Performance) falsche Angabe zur Leistungsaufnahme getroffen wird. Denn die Benchmarkszene limitiert vielleicht nicht durch das Powertarget, so dass die frames nicht einbrechen. Hinsichtlich der Auslastung verschiedener Einheiten der Karte können vermutlich noch andere Effekte auftreten (die die Ingenieure hier sicher besser beschreiben und deren Bedeutung (oder deren Nichtvorhandensein) besser einschätzen können als ich). Aber die grundsätzlich unterschiedliche Nutzung von Leistungs- und Verbrauchsszenen ist ein total falscher Ansatz.

Aber ich komme euch entgegen und sage, es wäre gut, wenn auch ein "typischeres" Spiel angegeben wäre. Etwas mit der populären Frostbite-Engine etwa.

Ansonsten spricht es Bände, dass AMD mindestens ein 750W Netzteil empfiehlt, trotz angeblicher 275W TDP, für die 980 Ti aber nur mindestens 600W empfohlen werden.

Ich zitiere in diesem Zusammenhang mal THG:

Leistungsaufnahme im Idle
Da sind die gemessenen 4.8 Watt geradezu ein paradiesischer Wert, der auch dann bestehen bleibt, wenn mehr als nur ein Monitor angeschlossen ist. Endlich ist dieser längst überfällige Anachronismus einmal beseitigt worden und man liegt deutlich unter den Werten der GeForce GTX 980 Ti im Referenzdesign.

Leistungsaufnahme beim Gaming-Loop
Mit knapp 221 Watt bei der erwärmten Karte (kalt 216 Watt) liegt man sogar deutlich unter den Werten, die wir noch für eine GeForce GTX 980 Ti im Referenzdesign gemessen haben!

Maximale Leistungsaufnahme beim Stresstest
Lässt man nämlich einen sogenannten Power-Virus auf die Karte los oder lässt sie im OpenCL-Szenario z.B. sehr gut parallelisierbare Aufgaben laufen wie z.B. ganzjährige Schatten- und Einstrahlungsberechnungen für Photovoltaik-Ertragsprognosen (Monte Carlo Methode), die zudem deutlich länger als nur einzelne synthetische Benchmarks laufen, dann wird es kuschelig warm, da immerhin fast 348 Watt Verlustleistung entstehen. AMD hat der Fury X im Gegensatz zu Nvidia mit der GeForce GTX 980 Ti somit ein sehr großzügiges Limit bei der Leistungsaufnahme mit auf den Weg gegeben. Die fast 100 Watt mehr gegenüber der GeForce GTX 980 Ti kann man gut finden oder nicht - im normalen Alltag wird man wohl eher weniger an diese Grenzen stoßen.


Gute Arbeit AMD, da gibt es erst einmal nichts zu bemängeln. Es ist erst einmal beruhigend, dass man sich auf Augenhöhe begegnet und auf Grund der besseren Kühlung und damit geringeren Leckströmen sogar die Leistungsaufnahme der GeForce GTX 980 Ti im Referenzdesign unterbieten kann. Man kann AMD nur wünschen, dass dies keine Eintagsfliege bleibt, sondern einen echten Vorgeschmack auf das gibt, was man nun in Folge noch erwarten darf.

http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

dabei ist zu beachten, dass die zitierten Werte den von THG angegebenem Durchschnitt entsprechen. Ohne jetzt auch nur ansatzweise ständig die Benchmarks gelesen zu haben finde ich den Vergleich mit der 980 Ti (Referenzdesign) schon deutlich.

Blediator16
2015-06-24, 23:20:33
In den Sand? Ich verstehe die Welt nicht mehr... Sie sind nach 2 Jahren wieder auf Augenhöhe. Für den Markt kann das nur gut sein.

Was bringt mir als Kunden das, wenn AMD so spät kommt und nirgends besser ist?

Troyan
2015-06-24, 23:20:57
Tomshardware gibt nicht an was "Gaming Loop" ist. Dagegen genehmigt sich die Karte im Computetest 350W und damit 130W mehr als beim "Gaming Loop". Ergo ist der "Gaming Loop" nicht repräsentativ für die Karte.

Spasstiger
2015-06-24, 23:22:50
Hier (https://translate.google.com/translate?hl=en&sl=nl&tl=en&u=http%3A%2F%2Fnl.hardware.info%2Freviews%2F6156%2F23%2Famd-radeon-r9-fury-x-review-amds-nieuwe-vlaggenship-overklokresultaten&sandbox=1) wurde der HBM auch übertaktet.
9% mehr Chiptakt, 20% mehr Speichertakt und 20% mehr Performance im 3DMark, wtf? :confused:
Zusammen mit dem Wissen, dass eine reine Chiptaktübertaktung Fijis in Höhe von 10% zu lediglich 3-4% Mehrperformance resultiert, könnte man den Eindruck gewinnen, dass Fiji vom Speichertakt limitiert ist. Latenzprobleme mit HBM? Eine höhere Bandbreite soll ja laut AMD Fiji kaum helfen und über die Speichertaktschraube dreht man neben der Speicherbandbreite auch an der Latenz.

maguumo
2015-06-24, 23:23:08
Tomshardware gibt nicht an was "Gaming Loop" ist. Dagegen genehmigt sich die Karte im Computetest 350W und damit 130W als beim "Gaming Loop".

Lies doch mal was hier vorher schon darüber geschrieben und gepostet wurde, dann erübrigt sich dein Einwand..

Kriton
2015-06-24, 23:25:26
Tomshardware gibt nicht an was "Gaming Loop" ist. Dagegen genehmigt sich die Karte im Computetest 350W und damit 130W mehr als beim "Gaming Loop". Ergo ist der "Gaming Loop" nicht repräsentativ für die Karte.

Liest Du eigentlich auch den Text oder trollst Du nur wieder gegen AMD?

Schaffe89
2015-06-24, 23:25:48
Scheinbar ist es wirklich so, dass THG als einzige deutsche Seite den Durschnitssverbrauch recht passabel misst.
Insofern sind diese Werte schlicht die Referenz und die anderen Werte wohl Kosmetik.
Schließlich sind die anderen Messwerte ja eigentlich konsistent.

Schaffe89
2015-06-24, 23:26:14
Tomshardware gibt nicht an was "Gaming Loop" ist. Dagegen genehmigt sich die Karte im Computetest 350W und damit 130W mehr als beim "Gaming Loop". Ergo ist der "Gaming Loop" nicht repräsentativ für die Karte.
Falsch, ein Gaming Loop ist des repräsentativste was man tun kann.

TheGood
2015-06-24, 23:27:03
Wenn man das hier liest, sieht man ganz klar in was fuer eigenen Welten manche Leute hier Leben. Ist schon erstaunlich wie gruen (Achtung eindeutig zweideutig ;) ) die geworden ist und wie man sich daran aufgeilen kann? Mir erschliesst sich sowas nicht.

Eigentlich sollte jeder froh sein einen zweiten Player am markt zu haben, ansonsten werden die Preise noch weiter explodieren, wie im Moment bereits schon ersichtlich. Das scheint aber keine Sau zu jucken, sich dann aber am Stromverbrauch aufgeilen!! So verrückt ist die Welt heute. Da kann ich echt nur noch den Kopf schütteln... Jungs wacht mal aus Eurer Blase auf!!!!

aufkrawall
2015-06-24, 23:29:12
Scheinbar ist es wirklich so, dass THG als einzige deutsche Seite den Durschnitssverbrauch recht passabel misst.
Insofern sind diese Werte schlicht die Referenz und die anderen Werte wohl Kosmetik.
lol!
TH misst einfach Heaven und dreht einem das ohne weitere Erklärungen im Artikel selbst als "Gaming Loop" an.
Ziemlich intransparent und auch nicht ganz ehrlich.
Wenn das für dich referenzverdächtig ist, ok. Ich finds eher referenzverdächtig respektlos gegenüber dem Leser.

Troyan
2015-06-24, 23:29:24
Liest Du eigentlich auch den Text oder trollst Du nur wieder gegen AMD?

Ist ziemlich simpel:
Was ist Gaming Loop. Was für ein Spiel?

Steht nirgendwo im Text. Das einzige, was ich sehe, sind 350W bei Auslastung der Karte. Ergo ist der "Gaming Loop" ein Szenarium, wo die Karte nicht ausgelastet wird.

Müsste ja ein leichtes sein den "Gaming Loop" hier zu erklären oder shillst du hier für AMD?

samm
2015-06-24, 23:30:08
Wieso nach 2 Jahren? Imho waren sie mit Hawaii bis zum Launch der 980 im September grob auf Augenhöhe.Stimmt schon, aber: Titan und danach 780Ti hielten die Kunden lange im fluffigen Gefühl, trotz 290X-Konkurrenz irgendwie weit voraus zu sein. Wie auch jetzt im unteren Segment mit der 960, wo kaum je eine Karte des 60er Segments so winzige Fortschritte (wenn überhaupt) gegenüber den Vorgängern machte (260-460-560-660-760). Glücklich derjenige mit solchen Kunden!
Solche subjektiven Gefühle färben halt auf die Wahrnehmung jeglichen GPU Käufers oder Reviewers und ihre Formulieren ab. Da scheints passend, dass man auch als prinzipiell AMD/Fury-X-Interessierter schonmal weniger als ein Jahr für mehr als zwei mit nVidia-Vorsprung hält.

Müsste ja ein leichtes sein den "Gaming Loop" hier zu erklären oder shillst du hier für AMD?Und dieser Troyan da, shillt der eigentlich in jedem AMD-Thread für nVidia?

fondness
2015-06-24, 23:32:16
Erste Wakü:

http://s29.postimg.org/l5uc7lonr/900x900px_LL_b5d7452f_FC_R9_Fury_X_1_1200.jpg (http://postimage.org/) http://s29.postimg.org/6y4niybyv/900x900px_LL_ba5334f2_FC_R9_Fury_X_2_1200.jpg (http://postimage.org/)


http://www.overclock.net/t/1561907/ek-fc-r9-fury-x-amd-radeon-r9-fury-x-full-cover-water-block#post_24085390

aufkrawall
2015-06-24, 23:32:42
Das muss man bei Troyan natürlich kritisieren, aber trotzdem ist nicht gleich automatisch jedes Argument falsch von ihm.
Ihr wollts euch aber auch einfach machen...

Flusher
2015-06-24, 23:34:42
So mal mein persönliches Fazit zu Fury: ich bin unterdurchschnittlich beeindruckt. Wenn man mal ein paar Reviews sichtet, bleibt unterm Strich eine Performance auf Augenhöhe mit der 980 Ti bei leicht höherem Verbrauch und offenbar durchschnittlichen Übertaktungspotential.

Dafür, dass sich AMD soviel Zeit gelassen hat, den Hype mit zahlreichen Teasern befeuert hat und von einer neuen HBM-Ära geschwaffelt hat, bleibt man letztendlich deutlich unter den Erwartungen eines Titan-Killers.

Ich wollte ja auch als AMD-Sympathisant noch die zuvor unbestätigten Fakten über HDMI 2.0, 4 GB, surrenden Pumpen & co wegdiskutieren und relativieren, aber zusammen mit der durchwachsenen Performance und der offenbar schlechten Übertaktbarkeit ist bei mir auch das Verständnis erschöpft.

Alleine schon die Tatsache, dass man eine Woche zuvor an der E3 behauptet hat man könne Fiji "übertakten als wenns kein Morgen gäbe" und dann zum Launch sich herausstellt, dass Speichertakt und Spannung (zumindest aktuell) gelockt sind ist einfach nur noch ein Schlag ins Gesicht.

Zusammen mit dem aktuellen Preispunkt bin ich persönlich von AMD enttäuscht. Ich bin müde geworden dauernd zu hoffen und zu argumentieren und zu warten. :frown:

Schnoesel
2015-06-24, 23:35:13
Erste Wakü:

http://s29.postimg.org/l5uc7lonr/900x900px_LL_b5d7452f_FC_R9_Fury_X_1_1200.jpg (http://postimage.org/)

:wave2: Hallo Hübsche :cool:

dargo
2015-06-24, 23:35:33
Tomshardware gibt nicht an was "Gaming Loop" ist. Dagegen genehmigt sich die Karte im Computetest 350W und damit 130W mehr als beim "Gaming Loop". Ergo ist der "Gaming Loop" nicht repräsentativ für die Karte.
Aha... die Messung von TH @Gaming Loop ist also nicht repräsentativ weil unser Trojaner das sagt. Dann sind wir ja beruhigt. :rolleyes: Im übrigen liegt die 980TI im Gaming Loop bei TH wenige Watt über der Fury X im Schnitt.
http://www.tomshardware.de/nvidia-geforce-gtx-980-ti-grafikkarte-gpu,testberichte-241827-7.html

Und das ist noch nicht mal ein Custom-Modell bei denen die GPU sich in der Regel noch stärker austoben darf.

Timbaloo
2015-06-24, 23:35:43
Erste Wakü:

http://s29.postimg.org/l5uc7lonr/900x900px_LL_b5d7452f_FC_R9_Fury_X_1_1200.jpg (http://postimage.org/) http://s29.postimg.org/6y4niybyv/900x900px_LL_ba5334f2_FC_R9_Fury_X_2_1200.jpg (http://postimage.org/)


http://www.overclock.net/t/1561907/ek-fc-r9-fury-x-amd-radeon-r9-fury-x-full-cover-water-block#post_24085390
EK enttäuscht nicht :)

Edit und OT: Wobei ich bei deren Jetplate-Design das sie seit einer Weile bei Grafikkartenblöcken verbauen irgendwie nicht so der Fan von bin.

aufkrawall
2015-06-24, 23:38:47
Aha... die Messung von TH @Gaming Loop ist also nicht repräsentativ weil unser Trojaner das sagt. Dann sind wir ja beruhigt. :rolleyes: Im übrigen liegt die 980TI im Gaming Loop bei TH wenige Watt über der Fury X im Schnitt.
http://www.tomshardware.de/nvidia-geforce-gtx-980-ti-grafikkarte-gpu,testberichte-241827-7.html

Und das ist noch nicht mal ein Custom-Modell bei denen die GPU sich in der Regel noch stärker austoben darf.
Dir ist jetzt langsam schon mal klar geworden, dass "Gaming Loop" bei TH nichts anderes ist als Unigine Heaven, also überhaupt kein echtes Spiel?
Wie schnell ist denn Fiji bei Heaven? ;)

maguumo
2015-06-24, 23:38:48
lol!
TH misst einfach Heaven und dreht einem das ohne weitere Erklärungen im Artikel selbst als "Gaming Loop" an.
Ziemlich intransparent und auch nicht ganz ehrlich.
Wenn das für dich referenzverdächtig ist, ok. Ich finds eher referenzverdächtig respektlos gegenüber dem Leser.
Wer die letzten Tests bei tomshardware gelesen hat weiß was sie da messen, das sie das nicht in jedem Artikel schreiben macht die Ergebnisse jetzt weniger seriös oder was?

Zur Messmethodik und den Erklärungen von FormatC wurde hier jetzt schon einiges gepostet. Auch das er angibt das Heaven vom Verbrauch recht gut dem entspricht was man bei den meisten Spielen so erwarten kann. Diese Aussage deckt sich (wie schon erwähnt) auch mit älteren Messungen von Tomshardware die mit Metro LL und Thief gemacht wurden.

Du hängst dich daran auf das das nicht alles feinsäuberlich im Artikel stand und Heaven angeblich weniger anspruchsvoll als die meisten Spiele ist? Warum schluckt GM 200 dann ähnlich viel in Heaven? Und warum decken sich so gut wie alle Verbrauchsmessungen von GM 200 (mit stock powertarget) mit den Heaven Ergebnissen von tomshardware?

Mit techpowerup, die ähnlich Präzise den Durchschnittsverbrauch in Games und nicht irgendwelche Worst Case Szenarien vermessen haben deckt sich das auch...

Troyan
2015-06-24, 23:41:56
Aha... die Messung von TH @Gaming Loop ist also nicht repräsentativ weil unser Trojaner das sagt. Dann sind wir ja beruhigt. :rolleyes: Im übrigen liegt die 980TI im Gaming Loop bei TH wenige Watt über der Fury X im Schnitt.
http://www.tomshardware.de/nvidia-geforce-gtx-980-ti-grafikkarte-gpu,testberichte-241827-7.html

Und das ist noch nicht mal ein Custom-Modell bei denen die GPU sich in der Regel noch stärker austoben darf.

Ach an dich gilt:
Was ist "Gaming Loop"?
Wenn man hier Werte anbringt, sollte man wenigsten in der Lage diese zu erklären. Oder geht es dir hier rein um die Zahlen? Also vollkommen losgelöst, woher diese stammen?

Irgendwie ist es unsinnig Werte zu posten, bei denen DU nichtmal weißt mit welcher Anwendung diese ermittelt wurden.

Ich sehe im Text keine Nennung der Anwendung bzw. der Anwendungen. Dort steht einzig "Gaming Loop" und irgendwelche Verbrauchswerte. Könnten auch vollkommen ausgedacht sein. :freak:

/edit: Heaven? Die Werte wurden in Heaven ermittelt? "Gaming" und Heaven - nunja :lol: In Heaven ist eine GTX980TI auch erheblich schneller als die Fury X, da bei Fiji das Front-End limitiert. Und das wiederum drückt den Verbrauch.
Und wie kann Heaven repräsentativ sein, wenn Hardware.fr mit realen "Gaming" andere, höhrere Werte ermittelt hat? Oder Computerbase mit Ryse? Oder PCGH mit Risen? Oder Techreport mit Crysis 3?

Damit hat sich dann auch die Diskussion um die Werte von Tomshardware erledigt. "Gaming Loop" - Ha.

aufkrawall
2015-06-24, 23:42:38
Die 980 Ti ist 19% schneller in Heaven:
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-Fury-X-4GB-Review-Fiji-Finally-Tested/3DMark-FireStrike-and-Uni

Wahrscheinlich langweilt sich Fiji ganz gut wegen Tess oder etwas anderem. Klar, dass es dann nicht viel Saft zieht.

Bei Risen 3 langweilen sich die ALUs garantiert nicht. Die sind immer noch genau so ineffizient wie mit GCN 1.0, weshalb Fury X da mieserabel gegen Maxwell aussieht.

dargo
2015-06-24, 23:44:51
Dir ist jetzt langsam schon mal klar geworden, dass "Gaming Loop" bei TH nichts anderes ist als Unigine Heaven, also überhaupt kein echtes Spiel?
Wie schnell ist denn Fiji bei Heaven? ;)
Und dir ist auch klar, dass GM200 dort über Fiji liegt und eine MSI 390X sogar recht deutlich über beiden?
http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836-11.html

maguumo
2015-06-24, 23:46:32
Die 980 Ti ist 19% schneller in Heaven:
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-Fury-X-4GB-Review-Fiji-Finally-Tested/3DMark-FireStrike-and-Uni

Wahrscheinlich langweilt sich Fiji ganz gut wegen Tess oder etwas anderem. Klar, dass es dann nicht viel Saft zieht.

Bei Risen 3 langweilen sich die ALUs garantiert nicht. Die sind immer noch genau so ineffizient wie mit GCN 1.0, weshalb Fury X da mieserabel gegen Maxwell aussieht.

Wenn ich auf die Ergebnisse 19% drauf rechne schließt sich die Lücke zu den Torture Werten immer noch nicht.

Und was PCGH misst ist nicht der Durchschnittsverbrauch in Risen 3. Die bleiben an der anspruchvollsten Szene stehen.

dildo4u
2015-06-24, 23:49:01
Heaven ist ein Witz vorallem wenn man Witcher 3 gezockt hat,das zieht bei mir den Takt mit Abstand am Meisten runter.(1350 mhz Heaven,Wichter 1316)Die vielen Berichte über Abstürze lagen imo nicht nur am instabilen NV Treiber,der lief bei mir z.b komplett stabil,das Game wird einfach viele nicht stabile OC's aufgedeckt haben.

AtTheDriveIn
2015-06-24, 23:49:38
Stimmt schon, aber: Titan und danach 780Ti hielten die Kunden lange im fluffigen Gefühl, trotz 290X-Konkurrenz irgendwie weit voraus zu sein.
Wieviele Wochen nach 290x kam die 780Ti? 4 wenn ich mich recht erinnere. Die war 10% schneller, dazu kühler, leiser. Zudem war die AMD Karte schwer zu bekommen.

aufkrawall
2015-06-24, 23:54:18
Wenn ich auf die Ergebnisse 19% drauf rechne schließt sich die Lücke zu den Torture Werten immer noch nicht.

Der ist ja auch noch höher als der Risen 3-Wert. Außerdem ist kein Spiel extra dafür designt, so viel Strom wie möglich zu verbrauchen. Welchen Sinn also macht dieser Vergleich?


Und was PCGH misst ist nicht der Durchschnittsverbrauch in Risen 3. Die bleiben an der anspruchvollsten Szene stehen.
Ich habe bereits argumentiert, dass in Risen 3 in bestimmten Levelabschnitten der Energiehunger konstant ziemlich hoch sein wird.
Geh mal etwa in die Höhle an der Krabbenküste. Massig PP und Partikeleffekte, das bringt die ALUs zum Glühen. Ähnlich der PCGH-Szene, das findest du mehrmals im Spiel.
Genau so hat Anno 2070 recht konstant einen hohen Verbrauch, weil sich am Spielgeschehen meist nicht viel ändert. Die 300W halte ich für einen recht realistischen Durchschnittswert in 4k bei dem Spiel. Wird mit Partikeleffekten höher sein, beim Aufrufen bestimmter Menü-Elemente niedriger etc.
Würde der arme Raff sicher bestätigen können, würde er das alles nochmal so testen.
Genau so wird Trine 2 mit 4xSSAA in WQHD durchgängig arg grillen. Frag Raff. ;)

redfirediablo
2015-06-24, 23:55:22
Wieviele Wochen nach 290x kam die 780Ti? 4 wenn ich mich recht erinnere. Die war 10% schneller, dazu kühler, leiser. Zudem war die AMD Karte schwer zu bekommen.

Und wie sieht es heute aus mit 290X (bzw. 390X die ja wie so oft betont wird die gleiche Karte sei) vs. 780TI? Tja, Nvidia halt...

Ravenhearth
2015-06-24, 23:55:45
Wieviele Wochen nach 290x kam die 780Ti? 4 wenn ich mich recht erinnere. Die war 10% schneller, dazu kühler, leiser. Zudem war die AMD Karte schwer zu bekommen.

Viele Custom-Karten konnten aber wieder zur 780 Ti aufschließen. Das kann man nun so weiter treiben :D

aufkrawall
2015-06-24, 23:56:50
Viele Custom-Karten konnten aber wieder zur 780 Ti aufschließen. Das kann man nun so weiter treiben :D
Die Hawaii Customs takten aber witzlos niedrig im Vergleich zu GK110 Customs und jetzt GM204/GM200 Customs.

AtTheDriveIn
2015-06-24, 23:58:49
Und wie sieht es heute aus mit 290X (bzw. 390X die ja wie so oft betont wird die gleiche Karte sei) vs. 780TI? Tja, Nvidia halt...



Absolut und auch nicht das erste Mal, das AMD mit der Zeit aufholt oder gar überholt.

Nightspider
2015-06-24, 23:59:49
Ich glaube unter DX11 wird sich Fury nie entfalten bei den Treibern. Da muss schleunigst was Besseres her. Omega war da nur ein Tropfen auf dem heißen Stein.

Da lag ich also mit meiner Einschätzung richtig ;)

Die GTX980 Ti ist schneller, sparsamer, bietet mehr OC und hat 2GB mehr Speicher.

Wow du hattest die gleiche Einschätzung wie 90% der Leute hier.

http://imgproxy.gamesports.net/43f1844b0284e3ee2334e25edecadb15ebf9568f/aHR0cDovL2Jsb2cuZ2lsbHkud3Mvd3AtY29udGVudC91cGxvYWRzLzIwMDgvMTAvYXBwbGF1cy5naWY

samm
2015-06-25, 00:02:02
Wieviele Wochen nach 290x kam die 780Ti? 4 wenn ich mich recht erinnere. Die war 10% schneller, dazu kühler, leiser. Zudem war die AMD Karte schwer zu bekommen.Da widerspreche ich nicht, und alle guten Gründe, weshalb das so war, klingen nach Ausrede (schneller ist sie heute auch nur noch stellenweise; kühler ist logisch, weil AMD die super Idee hatte, die Karte bis auf 94° einfach mal heizen zu lassen vorm Aufdrehen; leiser - als die AMD-Referenzkühler der grossen Karten vor der 295 war wirklich keine Kunst xD; Verfügbarkeit Bitcoin sei "Dank").

So oder so: Konkurrenz war bis zur 980 stets näher vorhanden, als es subjektiv wahrgenommen wurde - oder ist ein preislich attraktiveres Produkt, das 10% Abstand hat, der stetig abnimmt, objektiv betrachtet keine Konkurrenz? Ich begrüsse es, dass dieser Abstand mit Fury X vs. 980 Ti geringer ausfällt, aber es ist jetzt nicht der grosse Unterschied zur vorherigen Situation - später, kühler und leiser ist diesmal die AMD. Für mich ist es eine Kombination von der Hardware an sich, welche diesmal einfach wertiger ist, und der Zukunftsmusik, die durch die Speichertechnologie anklingt, was die Sache interessanter macht, als bloss Bolide A mit Performance X vs. Bolide B mit Performance Y ca.= X.

Ich glaube unter DX11 wird sich Fury nie entfalten bei den Treibern. Da muss schleunigst was Besseres her.Stimme zu und denke, dass das auch in sehr absehbarer Zukunft so sein wird. Mit Vulkan wird auch Linux wieder interessanter für Spiele, und Win 10 wird sich dank Gratis-Upgrades vermutlich wesentlich schneller und weiter verbreiten als Win 8(.1).

dargo
2015-06-25, 00:02:56
Die 980 Ti ist 19% schneller in Heaven:
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-Fury-X-4GB-Review-Fiji-Finally-Tested/3DMark-FireStrike-and-Uni

Wahrscheinlich langweilt sich Fiji ganz gut wegen Tess oder etwas anderem. Klar, dass es dann nicht viel Saft zieht.

Interessante Schlussfolgerung. Die 980TI ist hier in Heaven 4.0 @1440p 55% schneller als die MSI 390X.
http://www.tweaktown.com/reviews/7202/msi-radeon-r9-390x-gaming-8g-video-card-review/index5.html

Da sich nach deiner Schlussfolgerung die Fury schon langweilt... langweilt sich die 390X dank weniger Tessleistung noch stärker. Jetzt übertrage das mal auf die avg. Verbräuche von TH @MSI 390X und Fury X. Irgendwas passt da in deiner Rechnung nicht so ganz. ;)

Heaven ist ein Witz vorallem wenn man Witcher 3 gezockt hat,das zieht bei mir den Takt mit Abstand am Meisten runter.(1350 mhz Heaven,Wichter 1316)
Wir sind schockiert. Ganze 2,6%. :eek:

Kriton
2015-06-25, 00:04:44
Ist ziemlich simpel:
Was ist Gaming Loop. Was für ein Spiel?

Steht nirgendwo im Text. Das einzige, was ich sehe, sind 350W bei Auslastung der Karte. Ergo ist der "Gaming Loop" ein Szenarium, wo die Karte nicht ausgelastet wird.

Müsste ja ein leichtes sein den "Gaming Loop" hier zu erklären oder shillst du hier für AMD?

Ich bezog mich auf Deine Aussage:

Dagegen genehmigt sich die Karte im Computetest 350W und damit 130W mehr als beim "Gaming Loop". Ergo ist der "Gaming Loop" nicht repräsentativ für die Karte.

Lies mal was sie zum Computetest schreiben (nicht repräsentativ für gaming) und was ich am Anfang meines Posts geschrieben habe hinsichtlich der Abhängigkeiten von Benchmarkszenen.

Was ich zum "gaming loop" gefunden habe (das könnten sie tatsächlich besser darstellen):

For the gaming lop measurements we firstwarm up the graphics card for 20 minutes until a stable GPU temperature of 64 degrees Celsius has been reached. At this point we proceed to measure the card’s power consumption again. Our gaming loop is relatively challenging for the GPU, so we’re confident that the average 176 W we measured is a good representation of today’s demanding game engines. less demanding titles should draw between 165 to 170 Watts depending on the particular title, of course.

http://www.tomshardware.com/reviews/amd-radeon-r9-285-tonga,3925-11.html

Und ein Hinweis zu den Durchschnittswerten:

To illustrate, let’s take a look at how Maxwell behaves in the space of just 1 ms. Its power consumption jumps up and down repeatedly within this time frame, hitting a minimum of 100 W and a maximum of 290 W. Even though the average power consumption is only 176 W, the GPU draws almost 300 W when it's necessary. Above that, the GPU slows down.

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-11.html

Und zur generellen Vorgehensweise (hier steht leider nichts zu dem loop):

http://www.tomshardware.com/reviews/graphics-card-power-supply-balance,3979.html

Ich finde übrigens auch keine Aussage, dass sie das mit Heaven testen.

€dit:
Hier geben sie einmal "Metro Last Light Gaming Loop" an:

http://www.tomshardware.de/amd-radeon-r9-290-290x-test,testberichte-241458-8.html

maguumo
2015-06-25, 00:12:33
Ich finde übrigens auch keine Aussage, dass sie das mit Heaven testen.

Tests zu maxwellv2 oder die Zitate die iuno und ich hier gepostet haben.

Troyan
2015-06-25, 00:13:05
Der Computetest lastet die Karte aus. Es sollte keine Difference von 130W entstehen - also zwischen Gaming und Vollauslastung - wenn der "Gaming Loop" die Karten ebenfalls halbwegs ausnutzen würde. Hier wurde ein Testfall gewählt, der die AMD Karten in eine Limitierung treibt, die nur in wenigen Spielen auffällt (Crysis 2, The Witcher 3 mit Hairworks...).

Daher sind Toms' Messungen nicht Repräsentativ für Spiele, sondern nur für die Anwendung, die dort getestet wurde. Und das soll Heaven sein.

Jedoch erkennt man hier sehr gut, dass die Stromsparmechanismen gut arbeiten. Ungefähr ähnlich wie in Battlefield 4. Aber sobald die Karte stärker ausgelastet wird, zeigt sich, dass abseits dieser Sachen kaum eine Verbesserung neben HBM stattgefunden hat.

aufkrawall
2015-06-25, 00:14:54
Ich finde übrigens auch keine Aussage, dass sie das mit Heaven testen.

€dit:
Hier geben sie einmal "Metro Last Light Gaming Loop" an:

http://www.tomshardware.de/amd-radeon-r9-290-290x-test,testberichte-241458-8.html
Man, lest die letzten Seiten mal...
maguumo hatte schon längst klargestellt, dass mittlerweile mit Heaven getestet wird und ein anderer User hatte entsprechende Links eingestellt, die das anhand von Aussagen des Testers in Foren belegen!

maguumo
2015-06-25, 00:16:05
Der Computetest lastet die Karte aus. Es sollte keine Difference von 130W entstehen - also zwischen Gaming und Vollauslastung - wenn der "Gaming Loop" die Karten ebenfalls halbwegs ausnutzen würde. Hier wurde ein Testfall gewählt, der die AMD Karten in eine Limitierung treibt, die nur in wenigen Spielen auffällt (Crysis 2, The Witcher 3 mit Hairworks...).

Daher sind Toms' Messungen nicht Repräsentativ für Spiele, sondern nur für die Anwendung, die dort getestet wurde. Und das soll Heaven sein.

Jedoch erkennt man hier sehr gut, dass die Stromsparmechanismen gut arbeiten. Ungefähr ähnlich wie in Battlefield 4. Aber sobald die Karte stärker ausgelastet wird, zeigt sich, dass abseits dieser Sachen kaum eine Verbesserung neben HBM stattgefunden hat.
Du hast also noch nicht mal gelesen was Igor Wallossek dazu geschrieben hat... Fang nochmal auf Seite 18 an. Ist ja wie ne kaputte Schallplatte hier.

maguumo
2015-06-25, 00:23:36
Der ist ja auch noch höher als der Risen 3-Wert. Außerdem ist kein Spiel extra dafür designt, so viel Strom wie möglich zu verbrauchen. Welchen Sinn also macht dieser Vergleich?


Nicht wirklich viel höher als der Risen 3 Wert. Wenn du so rum anfängst kann man auch wieder fragen welchen Sinn es macht Szenen zu nehmen die bekanntermaßen ungewöhnlich belastend sind. So groß ist der Unterschied zu Powerviren da meiner Meinung nach nicht mehr. Die Workloads lasten die Karte da eben (fast) vollständig aus, sowas hat man momentan in Spielen eher selten.


Ich habe bereits argumentiert, dass in Risen 3 in bestimmten Levelabschnitten der Energiehunger konstant ziemlich hoch sein wird.
Geh mal etwa in die Höhle an der Krabbenküste. Massig PP und Partikeleffekte, das bringt die ALUs zum Glühen. Ähnlich der PCGH-Szene, das findest du mehrmals im Spiel.
Genau so hat Anno 2070 recht konstant einen hohen Verbrauch, weil sich am Spielgeschehen meist nicht viel ändert. Die 300W halte ich für einen recht realistischen Durchschnittswert in 4k bei dem Spiel. Wird mit Partikeleffekten höher sein, beim Aufrufen bestimmter Menü-Elemente niedriger etc.
Würde der arme Raff sicher bestätigen können, würde er das alles nochmal so testen.
Genau so wird Trine 2 mit 4xSSAA in WQHD durchgängig arg grillen. Frag Raff. ;)

Das mag ja sein, trotzdem sind das isolierte Szenarien. Wie oft kommt es denn vor das ein Spiel die Karte derart auslastet? Eher selten.

Kriton
2015-06-25, 00:23:38
Man, lest die letzten Seiten mal...
maguumo hatte schon längst klargestellt, dass mittlerweile mit Heaven getestet wird und ein anderer User hatte entsprechende Links eingestellt, die das anhand von Aussagen des Testers in Foren belegen!

Yo, die ersten Posts habe ich übersehen (danke noch mal für den Hinweis).

Aber wie er schreibt (Hervorhebung durch mich):

Der Gaming Loop wurde in vielen verlinkten Artikel oft genug beschrieben. Es ist nichts anderes als Unigine Heaven (HD) auf Ultra, mit max. Tessellation und 2xAA. Der dort ermittelte Wert, die erste Minute mit komplett aufgeheizter Karte, entspricht fast exakt dem Mittel, dass wir unabhängig für Nvidia- und AMD-Karten jeweils als Kumulation aus Metro LL, Thief, Dirt3 (extrem hohe fps) und 3DMark FireStrike ermittelt haben. Um über das Jahr mit allen Karten untereinander vergleichbar zu bleiben, braucht man nun einmal eine Referenz und kann nicht ständig die Benchmarks wechseln.

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-16.html#post7496672

In Anbetracht der Aussage finde ich es etwas einfach gehalten das mit "ist nur Heaven" abzutun.

Nicht wirklich viel höher als der Risen 3 Wert. Wenn du so rum anfängst kann man auch wieder fragen welchen Sinn es macht Szenen zu nehmen die bekanntermaßen ungewöhnlich belastend sind. So groß ist der Unterschied zu Powerviren da meiner Meinung nach nicht mehr. Die Workloads lasten die Karte da eben (fast) vollständig aus, sowas hat man momentan in Spielen eher selten.




Das mag ja sein, trotzdem sind das isolierte Szenarien. Wie oft kommt es denn vor das ein Spiel die Karte derart auslastet? Eher selten.


Und die vorgebliche Leistungsaufnahme passt nicht zu der angegebenen Leistung, weil die sich auf andere Szenarien bezieht.

Troyan
2015-06-25, 00:30:40
Habe ich. Meine GTX980TI mit 1401MHz und 1,13V verbraucht in Batman:AK zwischen 175W und 200W.

Ist auch logisch, da das Spiel meine Karte nur zu 6x% auslastet.
Er hat anscheinend nicht verstanden, dass Fiji gegenüber Hawaii in Sachen Stromsparmechanismen verbessert wurde. Und durch HBM spart man ebenfalls nochmal deutlich Strom.

Er misinterpretiert seine Ergenisse und versteht nicht, dass Architekturen Limitierungen haben können. In Heaven ist Fury X nur 29% schneller als die 290X, weniger als in Spielen. Darüber sollte man sich gedanken machen...

maguumo
2015-06-25, 00:38:11
Habe ich. Meine GTX980TI mit 1401MHz und 1,13V verbraucht in Batman:AK zwischen 175W und 200W.

Mit welchem hochwertigen Equipment misst du das denn? Oder redest du von den Trash Werten die Tools wie GPU-Z ausspucken?


Ist auch logisch, da das Spiel meine Karte nur zu 6x% auslastet.


Könnte hinkommen, Fiji frisst im neuen Batman laut FormatC knapp unter 200W. Richtig gemessen, wohlgemerkt.
Er misinterpretiert seine Ergenisse und versteht nicht, dass Architekturen Limitierungen haben können. In Heaven ist Fury X nur 29% schneller als die 290X, weniger als in Spielen. Darüber sollte man sich gedanken machen...
Das schreibt FormatC selbst, wurde hier jetzt schon zwei mal zitiert...

Kriton
2015-06-25, 00:38:14
Er hat anscheinend nicht verstanden, dass Fiji gegenüber Hawaii in Sachen Stromsparmechanismen verbessert wurde. Und durch HBM spart man ebenfalls nochmal deutlich Strom.


Klingt als hätte er es verstanden:

Wir waren gespannt, ob es AMD gelingt, die Leistungsaufnahme bei der R9 Fury X wirklich signifikant zu senken. Deshalb haben wir auch unseren Testaufbau zur Messung der Leistungsaufnahme noch einmal leicht modifiziert um vorab zu analysieren, wie gut es AMDs PowerTune nunmehr gelingt, die Stromversorgung der GPU möglichst zeitnah und in kürzesten Intervallen den tatsächlichen Erfordernissen anzupassen. Was leistet der Arbitrator im Zusammenspiel mit der Power Estimation Engine, den gelieferten Werten der Sensoren und der Spannungsregelung? Um dies zu hinterfragen, werten wir einen Zeitabschnitt von nur 100 Mikrosekunden aus, um auch wirklich jeden "Herzschlag" zu erfassen.

Und siehe da, Power Tune hat noch einmal bei der Auflösung und Abstufung deutlich zulegen können! Auch wenn wir nunmehr an die Grenzen unserer Messtechnik gestoßen sind und die Kurvem trotz Filterung (High Cut) nicht mehr ganz ideal aussehen, die Kernaussage ist eindeutig: AMD ist es gelungen, in Intervallen von 10 Mikrosekunden und weniger auf die anstehenden Aufgaben bestens zu reagieren. Die Grafik zeigt, was in einem Zeitraum von nur 100 Mikrosekunden alles passiert:

http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

ber wie es aussieht legt die Kombination aus HBM und dem überarbeiteten PowerTune dem Energiehunger der GCN-Architektur Zügel an

http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-9.html

aufkrawall
2015-06-25, 00:42:30
Er widerspricht sich dann aber ein Stück weit selber. Wo ist denn bei 350W beim Stresstest der Energiehunger von GCN gezügelt?
Die 980 Ti macht entsprechend dem PT-Limit bei 250W dicht.

Troyan
2015-06-25, 00:43:44
Dann hätte ihm auffallen müssen, dass DAS der Grund ist, wieso die Karte im Heaven so wenig Strom zieht.

Aber was soll's. Heaven ist nicht "Gaming", daher sind die Werte auch uninteressant.

Mit welchem hochwertigen Equipment misst du das denn? Oder redest du von den Trash Werten die Tools wie GPU-Z ausspucken?


Ich weiß mein TDP-Limit. Ergo weiß ich, wieviel die Karte an Strom aufnimmt.
Tolle Sache der Boost bei nVidia. :freak:

Kriton
2015-06-25, 00:44:24
Er widerspricht sich dann aber ein Stück weit selber. Wo ist denn bei 350W beim Stresstest der Energiehunger von GCN gezügelt?
Die 980 Ti macht entsprechend dem PT-Limit bei 250W dicht.

Ein wenig weiter im 2. Zitat:

zumindest bei durchschnittlichen Workloads [...]
Erst wenn man die Karte einem – wenig realitätsnahen – Stresstest unterzieht, explodiert die Energieaufnahme geradezu. Aber wenn man einfach nur Games spielt, wird man diesen Zustand mit ziemlicher Sicherheit nie erleben.


Wenn man den Stresstest vergleichen will, muss man auch die Leistung im Stresstest vergleichen.

Aber was soll's. Heaven ist nicht "Gaming", daher sind die Werte auch uninteressant.

Noch einmal nur für Dich (Hervorhebung durch mich):

Der Gaming Loop wurde in vielen verlinkten Artikel oft genug beschrieben. Es ist nichts anderes als Unigine Heaven (HD) auf Ultra, mit max. Tessellation und 2xAA. Der dort ermittelte Wert, die erste Minute mit komplett aufgeheizter Karte, entspricht fast exakt dem Mittel, dass wir unabhängig für Nvidia- und AMD-Karten jeweils als Kumulation aus Metro LL, Thief, Dirt3 (extrem hohe fps) und 3DMark FireStrike ermittelt haben. Um über das Jahr mit allen Karten untereinander vergleichbar zu bleiben, braucht man nun einmal eine Referenz und kann nicht ständig die Benchmarks wechseln.

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-16.html#post7496672

maguumo
2015-06-25, 00:45:49
Er widerspricht sich dann aber ein Stück weit selber. Wo ist denn bei 350W beim Stresstest der Energiehunger von GCN gezügelt?
Die 980 Ti macht entsprechend dem PT-Limit bei 250W dicht.
Schreibt er auch irgendwo. Die granulärere und schnellere Regelung bringt bei synchroner Shaderlast nichts. Was ähnlichrs hatte er schon vor fast einem Jahr geschrieben als die Gigabyte (?) GTX 980 in nem Compute Test über 250W gefressen hat.

F5.Nuh
2015-06-25, 00:50:10
Ich weiss gar nicht wieso hier manche so abdrehen wegen 50 Watt :freak:. Der PC ist doch nicht immer an um zu zocken. Die meiste Zeit verbringt man im Netz und Co.

Und wenn man mal die paar Stunden spielt, werden einem die 50 Watt nicht umbringen.

Vor einiger Zeit wurden die 500 Watt Netzteile abgesegnet und es ging immer höher mit den Watt Zahlen.

Aber inzwischen kann ich mich erfreuen, das mein System - I5-3570k @ 4,3 ghz, 16gb Ram, SSD und 2 Festplatten, Asus R290X usw. - locker mit meinem alten Enermax Liberty 500 Watt auskommt. :freak::)

Die 50 Watt würden mich nicht jucken. Die alte PS3 hat beim gucken von Filmen oder Musik hören um die ~200 Watt verbraucht und es hat auch keinen gejuckt :freak:

AffenJack
2015-06-25, 01:01:32
Jetzt hängt euch doch nicht so an etwas Stromverbrauch auf und legt nicht alles auf dei Goldwaage. THG hat im Vergleich die niedrigsten Werte, aber vielleicht hamse auch einfach nen gutes Sample erwischt. Am besten man guckt sich einfach alle Werte der verschiedenen Reviews an und zieht daraus nen Fazit:
THG: Fury 221W , 980TI 233W
PCGH: Fury 313-329W , 980TI 234-236W Anno/Risen
Heise: Fury 273W , 980TI 244W
Techpowerup: Fury 246W , 980TI 211W
Hardware.fr Fury 232-285W(sample 1) , 980TI 223W BF4/Anno
Fury 249-301W (Sample2)

So was sieht man nun daran? Fiji kann in bestimmten Spielen deutlich mehr fressen, da er nicht abgeriegelt wird. In der Regel dürfte der Unterschied aber eher bei ~30W Mehrverbrauch liegen, was in dieser Region eher egal ist.

aufkrawall
2015-06-25, 01:06:03
So groß ist der Unterschied zu Powerviren da meiner Meinung nach nicht mehr. Die Workloads lasten die Karte da eben (fast) vollständig aus, sowas hat man momentan in Spielen eher selten.
Man muss immer damit rechnen, dass ein neues Spiel sehr viel Energie verbrauchen kann.
Wie gesagt, ist das mit der WK für den Endkunden mit guter PSU nicht weiter tragisch.
Für AMDs Marktanteil ist die maximale Leistungsaufnahme aber wichtig, weil kein PC-Anbieter wegen der Folgekosten oder der Limitiertheit von Notebooks einen Schluckspecht einem sonsten vergleichbaren sparsameren Modell vorziehen würde. Ist ja nicht so, dass Tonga weniger als die 960 verbrauchen würde etc.
Wie gesagt, bei Trine 3 sprechen wir uns wieder. ;)

Ein wenig weiter im 2. Zitat:

Überzeugt, warum nicht gleich zitiert? ;)


Wenn man den Stresstest vergleichen will, muss man auch die Leistung im Stresstest vergleichen.

Exakt.
Das hat PCGH aber weitestgehend, weil die Stelle zur Energiebedarfsermittlung aus der Benchmark-Szene stammt.
Natürlich wär genau diese Stelle dann noch mal separat gebencht schöner, aber der Unterschied dürfte wohl nicht signifikant sein.
Es hat allen Anschein, dass Fiji im Risen 3 Benchmark durchweg viel mehr Strom als GM200 zieht, dabei aber langsamer ist.

@dargo:
1080p hat schon mal einen geringeren Stromverbrauch als WQHD. 2xMSAA senkt diesen Verbrauch dann i.d.R. noch weiter.
Schon sagt dieser Pseudo-Spieletest überhaupt nichts mehr über die realistische Verbrauchshöhe in sowohl anfordernden als auch vielleicht etwas weniger anfordernden Szenarien aus.
Völlig müßig, darüber zu diskutieren. Das muss jetzt her nicht vollends kleinkarierte Züge annehmen...
Es ist kein echter Spieleverbrauch. Wer ist denn immer so hypergenau, wenn es um das Ausschließen von CPU-Limits etc. geht, und jetzt auf einmal soll Heaven das Maß für Spieleverbrauch sein, nur weil der Stromverbrauch von (größtenteils veralteten) Spielen und einem Synthie in der Vergangenheit im Mittel zufällig gleich hoch gewesen sein soll?
:hammer:

N0Thing
2015-06-25, 01:14:01
In Forenposts oder früheren Artikeln. Seit Maxwellv2 mit Ungine Heaven @FHD (genaue Settings weiß ich nicht mehr), davor mit Thief, davor mit Metro LL.

Igor Wallossek hat einige interessante Kommentare unterm PCGH Artikel geschrieben...

Danke für den Hinweis!



Das ginge schon, ein geeignetes Messgerät mit Protokollfunktion ist verfügbar. Mal sehen, was sich machen lässt. :)

MfG,
Raff

Das wäre der Hammer! :)
Der sinnvollste Zugewinn an Information seit FCAT und Frametime-Messungen.
Da freut es mich um so mehr zu wissen, dass meine Taler für euer Heft gut angelegt sind.

Tomshardware gibt nicht an was "Gaming Loop" ist. Dagegen genehmigt sich die Karte im Computetest 350W und damit 130W mehr als beim "Gaming Loop". Ergo ist der "Gaming Loop" nicht repräsentativ für die Karte.

Die Zeiten, in denen Furmark&Co als repräsentativ erachtet wurden, sind nun mal erfreulicherweise vorbei. Heaven wäre mir jetzt auch nicht mein erster Gedanke als eine Referenz für den Stromverbrauch in den Sinn gekommen, wenn sich dessen Ergebnisse aber mit dem durchschnittlichen Gaming-Verbrauch decken sollten, so what?


Wer die letzten Tests bei tomshardware gelesen hat weiß was sie da messen, das sie das nicht in jedem Artikel schreiben macht die Ergebnisse jetzt weniger seriös oder was?

Nicht direkt, aber es würde weder dem Schreiberling noch dem Setzer ein Zacken aus der Krone fallen, wenn man die Testmethoden in jedem neuen Artikel zumindest verlinkt, wenn man sie schon nicht ausdrücklich erwähnt.
Das sollte, neben der Verwendung der aktuellsten Treiber für alle Testexemplare, eine Selbstverständlichkeit sein.

maguumo
2015-06-25, 01:15:49
Man muss immer damit rechnen, dass ein neues Spiel sehr viel Energie verbrauchen kann.
Wie gesagt, ist das mit der WK für den Endkunden mit guter PSU nicht weiter tragisch.
Für AMDs Marktanteil ist die maximale Leistungsaufnahme aber wichtig, weil kein PC-Anbieter wegen der Folgekosten oder der Limitiertheit von Notebooks einen Schluckspecht einem sonsten vergleichbaren sparsameren Modell vorziehen würde. Ist ja nicht so, dass Tonga weniger als die 960 verbrauchen würde etc.
Wie gesagt, bei Trine 3 sprechen wir uns wieder. ;)


Überzeugt, warum nicht gleich zitiert? ;)


Exakt.
Das hat PCGH aber weitestgehend, weil die Stelle zur Energiebedarfsermittlung aus der Benchmark-Szene stammt.
Natürlich wär genau diese Stelle dann noch mal separat gebencht schöner, aber der Unterschied dürfte wohl nicht signifikant sein.
Es hat allen Anschein, dass Fiji im Risen 3 Benchmark durchweg viel mehr Strom als GM200 zieht, dabei aber langsamer ist.

@dargo:
1080p hat schon mal einen geringeren Stromverbrauch als WQHD. 2xMSAA senkt diesen Verbrauch dann i.d.R. noch weiter.
Schon sagt dieser Pseudo-Spieletest überhaupt nichts mehr über die realistische Verbrauchshöhe in sowohl anfordernden als auch vielleicht etwas weniger anfordernden Szenarien aus.
Völlig müßig, darüber zu diskutieren. Das muss jetzt her nicht vollends kleinkarierte Züge annehmen...
Es ist kein echter Spieleverbrauch. Wer ist denn immer so hypergenau, wenn es um das Ausschließen von CPU-Limits etc. geht, und jetzt auf einmal soll Heaven das Maß für Spieleverbrauch sein, nur weil der Stromverbrauch von (größtenteils veralteten) Spielen und einem Synthie in der Vergangenheit im Mittel zufällig gleich hoch gewesen sein soll?
:hammer:

Es ging doch ursprünglich nur darum das manche meinen das man durchschnittlichen "Gaming" Verbrauch und Worst Case getrennt betrachten sollte (meiner Meinung nach muss...). Klar gibt es Szenarien in denen Fiji, unter anderem durch nicht vorhandenes oder sehr hohes Power Limit verursacht, über 300W schluckt. Das ist aber nunmal nicht der Normalfall.

Das Spiele ab jetzt die Hardware grundsätzlich besser auslasten werden will ich erstmal sehen. Schrott wie das neue Batman wirds weiterhin geben, und wirklich gut optimierten Kram wie den Witcher eher selten.

EDIT:
Nicht direkt, aber es würde weder dem Schreiberling noch dem Setzer ein Zacken aus der Krone fallen, wenn man die Testmethoden in jedem neuen Artikel zumindest verlinkt, wenn man sie schon nicht ausdrücklich erwähnt.
Das sollte, neben der Verwendung der aktuellsten Treiber für alle Testexemplare, eine Selbstverständlichkeit sein.

Klar, wäre nicht schlecht das drin zu haben, ist ja nur Copy&Paste. Aber die Ergebnisse sind deswegen ja nicht weniger verlässlich.

Troyan
2015-06-25, 01:22:19
Die Zeiten, in denen Furmark&Co als repräsentativ erachtet wurden, sind nun mal erfreulicherweise vorbei. Heaven wäre mir jetzt auch nicht mein erster Gedanke als eine Referenz für den Stromverbrauch in den Sinn gekommen, wenn sich dessen Ergebnisse aber mit dem durchschnittlichen Gaming-Verbrauch decken sollten, so what?


Tut es ja nicht. ;)
Heaven ist Heaven. Anno2070 ist Anno2070. Weder vom einem noch dem anderen kann man behaupten, dass man "dem durchschnittlichen Gaming-Verbrauch" darstellen könnte.

Jedoch ist Anno2070 ein Spiel und somit repräsentativer als Heaven...

maguumo
2015-06-25, 01:23:52
Tut es ja nicht. ;)
Heaven ist Heaven. Anno2070 ist Anno2070. Weder vom einem noch dem anderen kann man behaupten, dass man "dem durchschnittlichen Gaming-Verbrauch" darstellen könnte.

Jedoch ist Anno2070 ein Spiel und somit repräsentativer als Heaven...

Heaven schluckt wie Thief oder Metro LL, deswegen hat er's doch ausgewählt.

StefanV
2015-06-25, 01:28:42
Dir ist jetzt langsam schon mal klar geworden, dass "Gaming Loop" bei TH nichts anderes ist als Unigine Heaven, also überhaupt kein echtes Spiel?
Wie schnell ist denn Fiji bei Heaven? ;)
Spielt keine Rolle, wichtig ist hierbei, dass das ganze reproduzierbar ist!
Immer und überall.

Das ist da wichtiger als andere Dinge.

Und Heaven ist für Leistungsaufnahme Tests ziemlich gut geeignet, auch wenn du das abstreitest, ändert das nichts am Zustand, dass es auch mein Tool der Wahl ist, um die GPU möglichst gut auszulasten...

aufkrawall
2015-06-25, 01:31:46
Wenn Heaven von TH als Durchschnittsverbrauch herangezogen wird, muss mit genau den gleichen Settings dieser natürlich auch gebencht werden.
Wurd er aber nicht.
Warum seid ihr da nicht so streng?

maguumo
2015-06-25, 01:32:41
Wenn Heaven von TH als Durchschnittsverbrauch herangezogen wird, muss mit genau den gleichen Settings dieser natürlich auch gebencht werden.
Wurd er aber nicht.
Warum seid ihr da nicht so streng?

Wie meinen? Die Heaven Settings sind identisch.

Nightspider
2015-06-25, 01:34:24
Ich verstehe absolut nicht warum man mit dem Fiji Release nicht bis zum Omega 2 Treiber gewartet hat, der ja wohl am 7.7.15 zu kommen scheint.

aufkrawall
2015-06-25, 01:35:17
Wie meinen? Die Heaven Settings sind identisch.
TH hat Heaven gar nicht gebencht. Wo wurde Heaven mit 1080p max details 2xMSAA gebencht?

maguumo
2015-06-25, 01:38:38
TH hat Heaven gar nicht gebencht. Wo wurde Heaven mit 1080p max details 2xMSAA gebencht?
Ach du willst dir Ergebnisse und nicht nur den Stromverbrauch?...Die haben sie nicht. Ist aber auch nicht so besonders wichtig solange Fiji nicht voll in irgendein Limit läuft das es bei GM 200 nicht gibt. Das ist aber nicht der Fall. Ist Heaven eigentlich auch zu vielseitig für.

aufkrawall
2015-06-25, 01:55:16
Ist aber auch nicht so besonders wichtig solange Fiji nicht voll in irgendein Limit läuft das es bei GM 200 nicht gibt. Das ist aber nicht der Fall. Ist Heaven eigentlich auch zu vielseitig für.
Ganz so pauschal würd ich das nicht abtun, mit Extreme WQHD bricht Fiji stärker ein gegenüber Normal 1080p im Vergleich zur 980 Ti:
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-Fury-X-4GB-Review-Fiji-Finally-Tested/3DMark-FireStrike-and-Uni

Irgendwas schmeckt Fiji bei Heaven nicht. Im Schnitt bei Spielen ist die 980 Ti nur 6% schneller in WQHD mit AA:
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/
Bei Heaven sind es aber 19% (siehe Pcper oben, Extreme mit 8xMSAA in WQHD).
Es ist deshalb naheliegend, dass Fiji bei Heaven stärker ausgebremst ist (bestimmte Teile auf der GPU limitieren früher) und den Chip deshalb schlechter voll auslasten kann und so der Verbrauch geringer ist.
Dann erscheint die Effizienz natürlich gut, wenn man gleichzeitig die fps überhaupt nicht beachtet, wie bei TH geschehen.

Völlig irreführender Mist.

CompuJoe
2015-06-25, 02:25:20
So, nach vielen Stunden Fury testen habe ich herausgefunden wie man das hochfrequente rasseln und sirren der Pumpe beseitigen kann!
Der Radi muss höher befestigt sein als die Pumpe, scheinbar ist in dem Kreislauf Luft und wenn diese an der höchsten Stelle ist, was bei einem Einbau des Radis vorn oder unten tiefer als die Karte zwangsläufig der Fall ist zu merkwürdigen Geräuschen der Pumpe führt, weil die Luft dadurch genau in dem Bereich der Pumpe liegt.

PS. das Arbeitsgeräusch der Pumpe ist so aber aus dem Gehäuse nicht heraus zu hören! Define R4

Die Karte ist leiser als die Zotac GeForce GTX970 Amp Omega, und zwar deutlich!