PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14

DerKleineCrisu
2015-06-25, 02:48:27
Also ich verstehe dieser " Streit " nicht.
Da hat AMD ne Graka auf den Markt geschmissen die, wenn man den Brechmarks trauen kann
auf Augenhöhe einer 980TI / Titan ist und man geilt sich so richtig
auf weil die AMD Karte im schnitt um die 30 - 50 Watt mehr genemigt.
Seit doch mal froh das AMD so ne Graka veröffentlicht die im Vergleich zu den NVidia Graka´s
manchmal doch Billiger sind.

Grüße

DrFreaK666
2015-06-25, 02:51:31
So, nach vielen Stunden Fury testen habe ich herausgefunden wie man das hochfrequente rasseln und sirren der Pumpe beseitigen kann!
Der Radi muss höher befestigt sein als die Pumpe, scheinbar ist in dem Kreislauf Luft und wenn diese an der höchsten Stelle ist, was bei einem Einbau des Radis vorn oder unten tiefer als die Karte zwangsläufig der Fall ist zu merkwürdigen Geräuschen der Pumpe führt, weil die Luft dadurch genau in dem Bereich der Pumpe liegt.

PS. das Arbeitsgeräusch der Pumpe ist so aber aus dem Gehäuse nicht heraus zu hören! Define R4

Die Karte ist leiser als die Zotac GeForce GTX970 Amp Omega, und zwar deutlich!

Endlich mal wieder ein sinnvoller Post. Danke... :up:

aufkrawall
2015-06-25, 02:52:09
Ich sehe keinen Streit, sondern eine Diskussion. Es vergreifen sich halt nur die üblichen Verdächtigen, wie üblich, im Ton.
Aber schön, dass es wenigstens noch ein paar Leute hier gibt, die trotz abweichender Ansichten, noch einen respektvollen Umgangston wahren können. Könnten nur ein paar mehr sein...

DrFreaK666
2015-06-25, 02:54:02
Ich sehe keinen Streit, sondern eine Diskussion. Es vergreifen sich halt nur die üblichen Verdächtigen, wie üblich, im Ton.
Aber schön, dass es wenigstens noch ein paar Leute hier gibt, die trotz abweichender Ansichten, noch einen respektvollen Umgangston wahren können. Könnten nur ein paar mehr sein...

Könnte man die Diskussion in einem anderen Thread weiterführen? Für manche scheint es ja wichtig zu sein, aber sicherlich nicht für jeden. Das Fazit darf von mir aus wieder hier stehen :)

aufkrawall
2015-06-25, 03:00:10
Aber es geht doch um die Reviews, und das hier ist der Thread für diese? :confused:
Es ist wohl auch so ziemlich alles gesagt. Jetzt bleibt eigentlich nur noch abzuwarten, ob PCGH noch mal etwas nachtestet oder vielleicht ein anderer Test ihre Ergebnisse bestätigt (was eher unwahrscheinlich ist, einfach, weil sonst niemand etwa Risen 3 für den Verbrauch heranzieht :D ).
Ich denke aber, dass mehr Seiten mit Risen und Anno testen würden, wüssten sie über den hohen Verbrauch tatsächlich Bescheid.

CompuJoe
2015-06-25, 03:11:13
Wenn ich den Radi auf gleicher höhe der Karte Montiere habe ich ein leises gurgelndes oder blubbern Geräusch am AGB des Radis, aber nicht störend laut.

Max. Temp die ich habe liegt bei 51°c, saugend ins Gehäuse oben auf dem Deckel!

Für Silentfreaks die perfekte Karte!,
edit: hatte noch nie eine Karte die so leise war!

DrFreaK666
2015-06-25, 03:26:12
Aber es geht doch um die Reviews, und das hier ist der Thread für diese? :confused:...

Bei euch geht's um den Verbrauch und nicht um die Reviews. Vielleicht mal warten bis Leonidas alles ausgewertet hat. Mich persönlich stört es sehr. Die Fury X kann mehr als Strom aus der Steckdose zu ziehen, trotzdem ist das für euch mit großem Abstand Thema Nummer eins, und nicht die Reviews an sich... Ich hoffe dass es in den nächsten Wochen Langzeitwerte von Usern gibt (nicht nur Stromverbrauch) und da will ich mich eigentlich nicht erst durch 1000 Seiten wühlen, bis ich eine brauchbare Information finde. Die Abspaltung finde ich sinnvoll, das macht den Thread übersichtlicher

CompuJoe
2015-06-25, 03:31:06
Gebt der Karte noch ein paar Treibergenerationen Zeit, auch Dx12 und Win10 wird da noch etwas bringen, ich schätze das die karte in den kommenden Monaten noch 10-20% zulegen wird.
Ich werde sie behalten.

PS. Verkaufe eine Zotac GTX 970 Amp Omega, 280€ ^^

PPS. Habe die karte schon 3 Tage, habe neben der Arbeit schon einiges durchgetestet.

iuno
2015-06-25, 04:23:38
Danke. Ich finde trotzdem, dass er sich irrt, und zwar in seiner Methodik.
Diese verschweigt völlig, dass es Spiele gibt, die durchweg einen viel höheren Verbrauch erzeugen können.
Naja er hat im PCGH-Forum auch genauso gesagt, dass es Spiele gibt, die powervirus-ähnliche Szenarien erzeugen. Dennoch kann man natürlich nicht alle bisherigen Ergebnisse über Bord werfen und die Methodik bei jedem Release ändern. Dafür gibt es ja auch zusätzlich den Stress-Test.
Es ist auch wie Raff und y33h@ hier immer betonen so, dass Redakteure nur seher begrenzt Budget zum Testen haben. Da bin ich recht froh, dass es die Tests von THG gibt, die sich doch auch mal in der Methodik deutlich von den anderen unterscheiden. Die Ergebnisse sind ja höchst interessant und wenn man nicht nur den Test dort liest, sieht man ja auch, wie Maxwell 2 damals zum Releasezeitpunkt und Fiji nun eben dargestellt werden.
Ich denke mit next-Gen APIs wird es noch mehr Powervirus-artige Szenarien in Spielen geben als aktuell und dann könnte man evtl. darüber nachdenken, die Testmethodiken anzupassen (PCGH plant das ja mW. aktuell auch).

horn 12
2015-06-25, 06:55:56
@Nightspider

Dachte ich auch gerade zwecks des OMEGA Phase 2 Treibers
Hoffe AMD ist diesesmal so schlau und bringt zeitgleich die Fury Karte OHNE X dabei rasu, bzw. stellt jene Karte mit Omega Phase 2 vor.
Die Könnte dann in etwa mit dem Neuem Omega Treiber, vorausgesetzt bei geringem Beschnitt knapp an Fury X kommen, vorausgesetzt die Karte lässt sich luftgekühlt gut kühlen, bei dem ich jedoch meine Zweifel habe!
Also entweder LAUT und Kühl, oder Leise und extrem HEISS!

Omega Phase 2 Launch mit FURY X hätte weitaus besser gefruchtet:
Dies würde dann die Karte mit und Ohne X in eine ganz anderes Licht rücken.


@CompuJoe

Bitte ein Bild Deines Gehäuses mit verbauter Fury X Karte
Danke!

Dawn on Titan
2015-06-25, 06:57:15
Jetzt hängt euch doch nicht so an etwas Stromverbrauch auf und legt nicht alles auf dei Goldwaage. THG hat im Vergleich die niedrigsten Werte, aber vielleicht hamse auch einfach nen gutes Sample erwischt. Am besten man guckt sich einfach alle Werte der verschiedenen Reviews an und zieht daraus nen Fazit:
THG: Fury 221W , 980TI 233W
PCGH: Fury 313-329W , 980TI 234-236W Anno/Risen
Heise: Fury 273W , 980TI 244W
Techpowerup: Fury 246W , 980TI 211W
Hardware.fr Fury 232-285W(sample 1) , 980TI 223W BF4/Anno
Fury 249-301W (Sample2)

So was sieht man nun daran? Fiji kann in bestimmten Spielen deutlich mehr fressen, da er nicht abgeriegelt wird. In der Regel dürfte der Unterschied aber eher bei ~30W Mehrverbrauch liegen, was in dieser Region eher egal ist.

Und das ist gut so, denn sie hält den Tsakt konstant und eiert nicht rum wie die 980, die eben auch mal auf 750Mhz fällt und dann böse ruckelt.

Gute Nachricht mit dem Kühler. Damit wird sie natürlich gleich viel empfehlenswerter. Sieht man das DX12 Potential, das ohne Frage in ihr schlummert, dürfte sie Ende des Jahres 10-15% vor der titan liegen.

MartinRiggs
2015-06-25, 07:46:24
Warum wird eigentlich gar nicht angesprochen das Fury im Idle vor allem mit mehreren Displays(was ja heutzutage Usus ist) weniger Strom verbraucht?
Idle ist doch wesentlich wichtiger wie Last und selbst der Last-Verbrauch ist zumindest mir komplett Laterne weil die Abwärme schön leise abgeführt wird.:tongue:

Von der GTX980TI gibt es doch momentan fast nur das laute Referenzmodell, da sieht Fury doch blendend gegen aus.

RoughNeck
2015-06-25, 07:48:18
Von der GTX980TI gibt es doch momentan fast nur das laute Referenzmodell, da sieht Fury doch blendend gegen aus.

Welches im Idle aber leise ist, im Gegensatz zur Pumpe vom Fury X :wink:

MartinRiggs
2015-06-25, 07:54:15
Die Erfahrungswerte von Usern werden zeigen ob das Problem wirklich so weit verbreitet ist oder ob die Modelle im Handel wirklich besser sind, im Zweifel muss man halt leider das FAG in Anspruch nehmen.

anddill
2015-06-25, 07:56:11
Ist doch gut. Wir haben einen Durchschnittswert und haben dazu noch 3 weitere Informationen:
Die Karte kann deutlich mehr ziehen in bestimmten Szenarien, also NT entsprechend auslegen.
Die Karte kann deutlich weniger ziehen da das Powermanagement bei limitierten Fps gut funktioniert
Die Karte ist im Desktopbetrieb mit mehreren Displays extrem sparsam, dank HBM

Letzter Punkt würde für mich zB. bedeuten daß ich auf die HD5450 in meinem Rechner verzichten kann, die ich bisher für den sekundären Monitor nutze. Die Primäre Graka würde nämlich den Verbrauch des PCs im Desktop-Betrieb mit 2 Monitoren um 25W erhöhen, die separate Karte braucht nur 7W. Bräuchte nur einen HDMI zu DVI Adapter ;)

ilibilly
2015-06-25, 08:03:18
die fury hat 8,6 tflop ,die ti 5,6tflop
Und auch alle andern theoretischen Werte sind ca 40-50% sind höher als die ti,lediglich Rops 64 vs 96 ,kann es sein das dadurch die enorme theoretische Leistung nicht auf die straße gebracht wird?
Rechengruppen 64 CUs 22 SMM
Textureinheiten 256 176
Texeldurchsatz 268,8 176 GTex/s
Rasterendstufen 64 96
GPU-/Turbo-Takt 1050 MHz 1000 / 1075 MHz
Rechenleistung (SP) 8,6 TFlops 5,63 TFlops

(del)
2015-06-25, 08:30:10
Da hier eine Menge auch zu meiner Person oder den Methoden gepostet wurde, fasse ich einfach mal einige Dinge zusammen, die mir relevant erscheinen.

Was ist Gaming-Last und was will man damit überhaupt sagen?
Was will man eigentlich mit diesen Werten anfangen? Benötigt man einen Testaufbau, mit dem man (so wie ich im letzten Jahr) über 200 Grafikkarten messen muss und diese Ergebnisse von der kleinsten Karte wie einer GT 630 bis hin zur Fury X auch untereinander vergleichbar und zweckmäßig bleiben, oder versucht man für einen einzigen Artikel jede Karte in das für die Leistungsklasse mögliche Limit zu treiben? Mit dem vielzitierten Risen 3 Benchmark wird man die GT 630 nun mal nicht vernünftig messen können. Kann man dann aber solche Ergebnisse unterschiedlicher Lastszenarien überhaupt noch in Charts und ähnlichem gegenüber stellen?

Man kann auf Heaven herum hacken, wie man will, aber es ist bzw. war eines der wenigen Szenarien, bei denen kaum noch Treiberoptimierungen vorgenommen werden und der damit reproduzierbar bleibt, weil er schlichtweg über lange Zeit stabil ist. Bis zu Fiji haben auch alle Karten brav mitgespielt und niemand hat sich beschwert, denn es funktionierte von der kleinsten bis zu größten Karte immer zuverlässig. Die gewählten Settings waren so angepasst, dass keine der Karten abnormal weggedriftet ist. Immerhin schnappt sich ja die MSI R9 390X fast 300 Watt im selben Loop. Für die maximalen Lasten gibt es ja immer noch den Stresstest und die Range zwischen den beiden Werten sollte der eigentliche Anhaltspunkt für die Beurteilung sein, nicht die beiden voneinander losgelösten Einzelwerte als solche.

Warum Heaven?
Auf Heaven bin ich aus vielerlei Gründen gekommen, denn einerseits lässt er sich perfekt steuern, so dass man bei den Messungen auch immer mit dem gleichen Frame anfangen kann und andererseits findet man in einer Minute auch verschiedene Szenen, die die Vielseitigkeit eines Spieleverlaufs in der Summe ganz gut wiederspiegelt. Nur wenige Spiele fordern über die gesamte Zeit Höchstlast, nicht mal Metro Last Light. Ich habe alle Spiele unserer älteren Benchmarksuiten (bis einsschließlich 2014) mit insgesamt 20 Karten aus drei Generationen durchlaufen lassen und eine Art Mittelwert gebildet. Und genau da war für fast alle Karten der mit Heaven ermittelte Wert wie eine Punktlandung. Es steckt also auch jede Menge Statistik dahinter und keine vermeintliche Bequemlichkeit.

Und sonst?
Man kann mir ja vieles vorwerfen, aber manchen Schuh möchte ich mir dann doch nicht anziehen. Normalerweise lasse ich mir für die Messungen einer Karte sehr viel Zeit. Das fängt damit an, dass die Raumtemperaturen stimmen, der Messaufbau mit einer Referenzkarte noch einmal getestet wird, das Testsample bis zur Betriebstemperatur aufgewärmt wird und erst danach der Messdurchlauf gestartet wird. Immerhin fallen je nach Länge und Auflösung bis zu 640.000 Einzeldaten an, die ich zunächst mit einer eigenen Software auswerte. Gibt es keine augenfälligen Ausreißer, gibt es noch Testlauf Zwei und Drei. Das Gleiche passiert auf für den Stresstest. Die Idle-Werte werden mit er abgekühlten Karte am Schluss ermittelt. Inklusive Plausibilitätstest, Auswertung und dem Erzeugen der Grafiken dauert so etwas pro Karte bis zu 6 Stunden, je nachdem. Nur wenn ein Sample Mittags gegen 12 Uhr eintrifft und man vielleicht noch 5 Stunden bis zum Redaktionsschluss hat (immerhin muss ja auch noch übersetzt werden), dann wird es schon knapp und manche Frage bleibt dann logischerweise unbeantwortet. Ich habe ja noch nicht einmal die Möglichkeit Nachtests zu machen, weil AMD das Sample bereits am Launchtag wieder einkassiert hat.

Lösungsansatz
Am Ende wird es wohl darauf hinaus laufen, einen neuen, möglichst allgemeingültigen Testansatz zu entwickeln, der aber mehrschichtig ausfallen muss. DIE eindeutig definierte Gaming-Last gibt es nun mal nicht, so dass ich genau den Plan weiter verfolgen werde, den ich in der Vorbereitung für die neuen Grafikkartencharts ab Windows 10 im August bereits seit einigen Wochen in Arbeit habe. Ziel ist es, für jeweils drei oder vier Leistungsklassen repräsentative Benchmark-Szenarien zu optimieren und alle Karten auch über alle Durchläufe zu schicken. Die Wichtung der Einzelergebnisse orientiert sich dabei an der tatsächlichen Leistungskasse einer Karte in Bezug auf die „Spielbarkeit“ im jeweiligen Durchlauf. Somit wird es dann also zusätzlich auch mehrere Einzelergebnisse in den nächsten Artikeln geben, statt nur eines einzigen Wertes.

Fiji ist bemerkenswert, das muss man AMD lassen. Es fehlt nur noch ein wirklich restriktives Power Limit, dann hätte man die gleiche Qualität wie Nvidia erreicht. Dumm eben nur, wenn man versucht, auch noch den letzten Frame pro Sekunde rauszuquetschen, auch wenn man dafür dann schon auf der allerletzten Rille tanzen muss. Das ist beschissenes Marketing und zeugt von falschem Denken. Anstelle sich mit der eigenen Leistung anzufreunden und das Sinnvollste daraus zu machen, betrügt man sich am Ende selbst und hechelt vermeintlichen Performance-Kronen hinterher, für die man sich eh nichts kaufen kann. Fiji am Sweet-Spot betrieben hätte ich mir sicher auch persönlich gekauft, denn bei mir zählt Vernunft immer noch mehr, als die reinen Pimmellängenvergleiche pubertärer Benchmarkspieler.

Das musste einfach mal raus :D

MartinRiggs
2015-06-25, 08:36:57
Ich sehe keinen Streit, sondern eine Diskussion. Es vergreifen sich halt nur die üblichen Verdächtigen, wie üblich, im Ton.
Aber schön, dass es wenigstens noch ein paar Leute hier gibt, die trotz abweichender Ansichten, noch einen respektvollen Umgangston wahren können. Könnten nur ein paar mehr sein...

Ich sehe eine Schwachsinnige Diskussion die von Leuten geführt wird die an der Karte sowieso kein Interesse haben.
Wenn man sowieso kein Interesse an der Karte hat sind die Schwachpunkte doch völlig egal, man muss sich ja damit nicht rumschlagen.

Mr.Y
2015-06-25, 08:37:26
@Format_C

Danke dafuer un respekt fuer deinen Aufwand und deine Erlaeuterungen. Deinem letzten Satz muss ich zustimmen. Powerlimit von meinetwegen den 275 Watt reinballern und gut!

Zur Karte daher: In wieweit verliert die Karte, wenn man das Powerlimit im CCC runterregelt? HT4U hatte dazu mal einen sehr interessanten Test der GTX 980 und der 290X.

anddill
2015-06-25, 08:42:53
@Format_C

Danke dafuer un respekt fuer deinen Aufwand und deine Erlaeuterungen. Deinem letzten Satz muss ich zustimmen. Powerlimit von meinetwegen den 275 Watt reinballern und gut!

Zur Karte daher: In wieweit verliert die Karte, wenn man das Powerlimit im CCC runterregelt? HT4U hatte dazu mal einen sehr interessanten Test der GTX 980 und der 290X.

Gute Frage, hatte ich auch schon als Erwiderung auf der Zunge:
Wenn es so furchtbar ist daß die Karte Spitzen über 300W ziehen kann, dann stellt doch einfach das Powertarget im CCC runter und gut ist.
Wer hat denn noch ein Exemplar und kann das mal testen? Ob die Karte da überhaupt drauf reagiert und ob da merkliche Leistungseinbußen entstehen?

MadManniMan
2015-06-25, 08:43:32
Warum wird eigentlich gar nicht angesprochen das Fury im Idle vor allem mit mehreren Displays(was ja heutzutage Usus ist) weniger Strom verbraucht?

Dachte ich auch zuerst, ABER Format_C hat schließlich auch für idle bemerkenswert geringe Werte gemessen ...


Das musste einfach mal raus :D

... und ich danke Dir dafür! Schön zu lesen, dass wohl auch gerade Fiji eure Überlegungen noch weiter treibt. Vielleicht ist ein Problem, dass wir immer danach drängen, EINEN Zahlenwert als Antwort auf unsere Frage zu suchen. Vielleicht brauchen wir nicht nur Frameratenverläufe, vielleicht brauchen wir auch ein FCAT für die Leistungsaufnahme.

Monokausalitäten festzustellen ist immer nur so lange halbwegs befriedigend, bis sich die Indizien mehren, dass damit die Realität nicht ordentlich abgebildet wird. Bereits seit der 960 habe ich das Gefühl, dass das alles vorne und hinten nicht mehr passt.

(del)
2015-06-25, 08:44:29
@Format_C
Danke dafuer un respekt fuer deinen Aufwand und deine Erlaeuterungen. Deinem letzten Satz muss ich zustimmen. Powerlimit von meinetwegen den 275 Watt reinballern und gut!
Zur Karte daher: In wieweit verliert die Karte, wenn man das Powerlimit im CCC runterregelt? HT4U hatte dazu mal einen sehr interessanten Test der GTX 980 und der 290X.

Da mir leider im Moment die Karte fehlt, kann ich eingen interessanten Boebachtungen leider momentan nicht nachgehen. Lustig ist z.B., dass bei aktiviertem Frame-Limiter einzelne Frames gedropt werden, um ein bestimmtes Power Limit nicht zu übersteigen. In diesem Fall geht es nämlich dann doch mit der Restriktion und die Last geht in fast keinem Fall deutlich über die kolportiereten 275 Watt hinaus.

Wie gesagt, um etwas Belastbares zu veröffentlichen, benötigte man mehr zeit. Was die wenigsten Foristen sehen ist nämlich der Zeitdruck, unter dem die Reviews zusammengeschmiedet wurden. Hier hat sich AMD erneut selbst betrogen, denn anstelle den Dialog mit den Reviewern zu suchen, wurde eiskalt eingegrenzt und sehr strikt gehandelt. Da bin ich dann schon über das Entgegenkommen und die Abgeklärtheit vieler Kollegen erstaunt, denn der Shitstorm hätte bereits vor dem Launch beginnen können. Glücklich bin ich mit dieser Situation auch nicht, aber AMD verhält sich momentan merkwürdig. Ich würde es als panisch bezeichnen.

Das CCC ist albern, da kann man sonstwas regeln, aber es ist nicht transparent, was wirklich passiert.

MadManniMan
2015-06-25, 08:46:01
Die Karte kann deutlich mehr ziehen in bestimmten Szenarien, also NT entsprechend auslegen.

Ja, aber: wäre doch schade, wenn man den Sweetspot verpasst und durch ein für den größten Teil der Alltagslast überdimensioniertes NT Effizienz opfert. Dann haben wir - mutmaßlich - den besten Idle-Verbrauch aller Zeiten, der aber gleichzeitg durch unpassend ausgelegte Stromversorgung im negativen Sinne überkompensiert wird.

Lowkey
2015-06-25, 08:47:02
Wo liegt der Sweetspot?

anddill
2015-06-25, 08:49:23
Naja, ob nun 450W-NT oder 500W-NT macht jetzt nicht den riesen Unterschied bei 80W Idle, da sind die Streuungen innerhalb der selben Leistungsklasse deutlich höher.

(del)
2015-06-25, 08:50:20
Wo liegt der Sweetspot?Ich denke mal bei max. 220 bis 230 Watt. Das weiß man übrigens immer dann genau, wenn es so einen Chip auch als Workstation-Karte gibt... :D

Für die 970 und 960 habe ich ja solche Sweet-Spot-Messungen einschließlich der der Leistungsaufnahme/Performance-Kurven gemacht. Das gehen einem echt die Augen auf :D
(die Artikel lassen sich googeln)

http://media.bestofmicro.com/1/O/456252/original/21-Efficiency-Watts.png
Der Sweet-Spot der GTX 970 liegt bei ca. 130 Watt maximal zugelassener Verlustleistung (Messung ca. 125 Watt echte leistungsaufnahme). Bei der "Referenzkarte" waren es 145 Watt Power Target, wobei Thief dann immerhin noch knapp über 130 Watt benötigte.

Mr.Y
2015-06-25, 08:55:30
Ich denke mal bei max. 220 bis 230 Watt. Das weiß man übrigens immer dann genau, wenn es so einen Chip auch als Workstation-Karte gibt... :D
Und genau das waere dann fuer mich das was ich gerne irgendwo einstellen koennte und sei es per Offset im CCC. Ich verzichte gerne auf 5% FPS (das sich alle deswegen (5% Vorpsrung der Titan) einscheissen), habe dafuer aber mit 220Watt plus andere Komponenten deutlich unter 400 Watt Verbrauch und kann getrost ein 400 Watt NT einsetzen.

Edit: Hier noch der besagte Test von HT4U: http://ht4u.net/reviews/2015/watt_vs_frames_amd_r9_290x_und_nvidia_gtx_980_im_effizienztest/
Selbst in Anno sind etwa 50 Watt weniger bei der 290X quasi ohne Performanceverlust machbar... und DAS ist eine Schande fuer AMD. Selbst 90 Watt weniger *fast 1/3) kosten gerade mal knapp 10% Leistung. Dafuer ruesten manche auf, ich weiss...

Schaffe89
2015-06-25, 08:55:46
lol!
TH misst einfach Heaven und dreht einem das ohne weitere Erklärungen im Artikel selbst als "Gaming Loop" an.
Ziemlich intransparent und auch nicht ganz ehrlich.
Wenn das für dich referenzverdächtig ist, ok. Ich finds eher referenzverdächtig respektlos gegenüber dem Leser.

Respektlos gegenüber dem Leser ist es auch, wenn man lediglich den Maximalverbrauch "Peak" angibt, der weder für Kostenrechnung noch für den Dauerbetrieb irgendeine Aussage hergibt.:rolleyes:

Und ich sehe den Messwert von THG nicht als referenz an, sondern das Verfahren.
Mag sein, dass THG zu wenig misst, aber die anderen Tests messen definitiv zu viel.:redface:

Botcruscher
2015-06-25, 09:01:38
Warum wird eigentlich gar nicht angesprochen das Fury im Idle vor allem mit mehreren Displays(was ja heutzutage Usus ist) weniger Strom verbraucht?
Wo ist das normal? Einen zweiten Moni klemmt man aus Verbrauchsgründen lieber gleich an die iGPU.
Von der GTX980TI gibt es doch momentan fast nur das laute Referenzmodell, da sieht Fury doch blendend gegen aus.
In dem Punkt greifen die Vorlieben beim Gesamtprodukt. Eine ordentliche G1 kostet auch "nur" 709€. Bei 1300MHz sieht die FX kein Land. Wenn mich nur die Lautstärke stört dann bau ich eine vollwakü auf die Karte.

Edit: Hier noch der besagte Test von HT4U: http://ht4u.net/reviews/2015/watt_vs_frames_amd_r9_290x_und_nvidia_gtx_980_im_effizienztest/
Selbst in Anno sind etwa 50 Watt weniger bei der 290X quasi ohne Performanceverlust machbar... und DAS ist eine Schande fuer AMD. Selbst 90 Watt weniger *fast 1/3) kosten gerade mal knapp 10% Leistung. Dafuer ruesten manche auf, ich weiss...

Absolut richtig. AMD hätte eine 290X Eco bringen sollen. Damit wären dann auch richtig leise Karten möglich. Typischer marketingfail.

Lowkey
2015-06-25, 09:05:47
Ich denke mal bei max. 220 bis 230 Watt. Das weiß man übrigens immer dann genau, wenn es so einen Chip auch als Workstation-Karte gibt... :D

Für die 970 und 960 habe ich ja solche Sweet-Spot-Messungen einschließlich der der Leistungsaufnahme/Performance-Kurven gemacht. Das gehen einem echt die Augen auf :D
(die Artikel lassen sich googeln)

http://media.bestofmicro.com/1/O/456252/original/21-Efficiency-Watts.png
Der Sweet-Spot der GTX 970 liegt bei ca. 130 Watt maximal zugelassener Verlustleistung (Messung ca. 125 Watt echte leistungsaufnahme). Bei der "Referenzkarte" waren es 145 Watt Power Target, wobei Thief dann immerhin noch knapp über 130 Watt benötigte.

Die Artikel habe ich gelesen und mir daher eine Karte mit kleiner TDP zugelegt. :up:

Für die Baustelle Fury X fehlt noch so eine Messung, aber ich habe das Gefühl, dass die Karte in der Version noch nicht ganz final ist. Es besteht ja die Hoffnung, dass kommende Treiber und Tools einige Verbesserungen mit sich bringen.

Schaffe89
2015-06-25, 09:06:12
Tut es ja nicht. ;)
Heaven ist Heaven. Anno2070 ist Anno2070. Weder vom einem noch dem anderen kann man behaupten, dass man "dem durchschnittlichen Gaming-Verbrauch" darstellen könnte.

Jedoch ist Anno2070 ein Spiel und somit repräsentativer als Heaven...

Kann jemand diesen Troll mal bannen?:frown:
Was soll der Unsinn, sich die ganze Zeit doof zu stellen und auf Einwände niemals nicht einzugehen?

(del)
2015-06-25, 09:06:51
@MRY:
Ich finde es gut, wenn Kollegen Artikelideen aufgreifen. Das zeigt zumindest, dass man nicht so daneben liegt, wie einem oft unterstellt wird. :)

Der Ausgangspunkt für die ganze Oszillografenmessungen war übrigens mein privater Besuch im R&D eines großen Grafikkartenherstellers. Wir haben nämlich lange darüber diskutiert, wie man so etwas möglichst genau umsetzen kann. Die haben dann Ihre proprietäre Eigenplatinenlösung entwickelt, ich zusammen mit dem Oszi-Hersteller die externe Umsetzung mit separaten Geräten. Es ist ja nicht so, dass ich mir das allein aus den Fingern gesaugt hätte, nur weil ich gern an Knöpchen drehe. Da steckt über ein Jahr Arbeit drin. Und ich vergleiche heute noch meine Messungen mit denen der Kollegen in den Abteilungen einiger Grafikkartenhersteller. Es ist ja nicht so, dass man sich nach so vielen Jahren nicht auch persönlich kennen würde. ;)

Und ohne jetzt zu sehr ins Detail zu gehen, aber auch die R&D-Mitarbeiter arbeiten für die interne Bewertung und die Langzeittests mit Heaven und nicht irgendeinem lavageschwängerten Elfengeschwurbel. Man kann von der Industrie auch lernen, wenn man denn bereit ist zuzuhören. Die typischen Lastszenarien der Grafikkarten liegen im Gaming meist nur bei zwei Drittel der möglichen Verlustleistung. Und genau dafür war Heaven bis jetzt auch bestens brauchbar. Aber auch der liebgewonnene Hund stirbt einmal. :)

Dawn on Titan
2015-06-25, 09:36:18
Ist einfach eine andere Betrachtungsweise.

Heaven ist kontrollierbar und taugt imho durchaus als Abbildung durchschnittlicher Lastszenarien. Es gibt dann eben Spiele, die schlimmer sind oder weniger fordern.

Der PCGH Ansatz sucht sich eine bekannt fordernde Szene raus und misst dann etwas was näher an einem Worstcase ist.

Wenn man sich dann PCGH gegen das Stresstestszenario von Tom´s anschaut, dann stimmen da auch die Werte. Man liegt mit den PCGH Testszenen leicht unterhalb des Stresstest von Tom´s.

Beide Ansätze sind legitim und beide liefern im Endeffekt ähnliche Erkenntnisse.

kunibätt
2015-06-25, 09:37:37
Ziemlich freche Preise für ein AMD.

Lowkey
2015-06-25, 09:39:25
Ziemlich freche Preise für ein AMD.

Zu günstig weil ausverkauft?

samm
2015-06-25, 09:41:01
Fiji ist bemerkenswert, das muss man AMD lassen. Es fehlt nur noch ein wirklich restriktives Power Limit, dann hätte man die gleiche Qualität wie Nvidia erreicht. Dumm eben nur, wenn man versucht, auch noch den letzten Frame pro Sekunde rauszuquetschen, auch wenn man dafür dann schon auf der allerletzten Rille tanzen muss. Das ist beschissenes Marketing und zeugt von falschem Denken. Anstelle sich mit der eigenen Leistung anzufreunden und das Sinnvollste daraus zu machen, betrügt man sich am Ende selbst und hechelt vermeintlichen Performance-Kronen hinterher, für die man sich eh nichts kaufen kann. Fiji am Sweet-Spot betrieben hätte ich mir sicher auch persönlich gekauft, denn bei mir zählt Vernunft immer noch mehr, als die reinen Pimmellängenvergleiche pubertärer Benchmarkspieler.

Das musste einfach mal raus :DErstmal danke für die Erkärungen und natürlich die Messungen an sich! :)
Als Zweites: Ich denke, das was im zitierten Abschnitt steht, ist genau der Unterschied zwischen Fury X und Nano. Nano wird die sinnvolle Sweetspot-Karte, Fury X ist hingegen die Höchstleistungskarte. Bis zum Erscheinen der Nano kann AMD auch noch zusätzlich etwas Herumschrauben an Treiber und ggf. sogar Karten-Specs (Bauteile, nicht GPU), um da ein Paket zu schnüren für Leute, die eine andere Balance aus Leistung, Abwärme und Kartengrösse wünschen, als es die Fury X derzeit bietet.

Zu günstig weil ausverkauft?Ist auch cool, wie sich die Leute in Englissprachigen Foren an den Preisen bei OCUK aufgeilen, die für die erste Verkaufswoche sogar ganz explizit ihren "Markup" von irgendwas um die 100£ haben und es ja so frech teuer ist. Gleich wird es bei andern Händlern sein, da hat AMD nichts damit zu tun.

uweskw
2015-06-25, 09:42:19
... dass wir immer danach drängen, EINEN Zahlenwert als Antwort auf unsere Frage zu suchen. Vielleicht brauchen wir nicht nur Frameratenverläufe, vielleicht brauchen wir auch ein FCAT für die Leistungsaufnahme.

.....



wen interessiert es wirklich ob eine High-End GraKa wärend des Spielsens 10W mehr oder weniger braucht? Wichtig is ein halbwegs realistischer Durchschnittswert, damit ich Folgekosten abschätzen kann.
Auch finde ich die Messungen von CB höchst interessant. Ne 980Ti zieht mit Multimonitoring 50W mehr im Desktopbetrieb als eine FuryX:eek: Den ganzen Tag lang....

@Format_C
Du hast ja anscheinend schon wirklich viel Zeit und Hirnschmalz in die Verbrauchsmessung gesteckt. Wüsstest du eine Szene in einem Game in der Nvidia Karten mehr Strom verbrauchen als AMDs?
Kann das so sehr von der von der gewählten Szene abhängen?

greetz
US

Dawn on Titan
2015-06-25, 09:42:53
Wobei bei der Nano die Balance aus Leistung, Preis und Abwärme schwierig werden könnte. 175W AMD-TDP ist jetzt nichts was eine 980(GM204) nun gerade vor große Probleme stellt. Ob man diese dann schlagen kann, wird sich zeigen müssen.

samm
2015-06-25, 09:45:55
Ich weiss nicht, ob man sie schlagen muss mit der Nano - das Zielpublikum davon sind eigentlich derzeitige 960er Käufer: HTPC-Bauer oder sonstige, die an einer kleineren, effizienteren Karte interessiert sind. Obwohl man sie wohl schlagen können wird, wenn man die Fury X vs. 980 vergleicht - jedenfalls, falls die Nano nicht zu sehr abgespeckt ist.


Wüsstest du eine Szene in einem Game in der Nvidia Karten mehr Strom verbrauchen als AMDs?Generationen-Einschränkung ist bei dieser Frage nötig ;) (Ne, ist klar was eigentlich gemeint ist)

Mr.Y
2015-06-25, 09:46:40
Wobei bei der Nano die Balance aus Leistung, Preis und Abwärme schwierig werden könnte. 175W AMD-TDP ist jetzt nichts was eine 980(GM204) nun gerade vor große Probleme stellt. Ob man diese dann schlagen kann, wird sich zeigen müssen.
Nunja, es zeigt sich ja gerade, dass AMD mit Herabsetzen des Powerlimits nicht viel Leistung verliert - Wie Format_C schaetzt und wie bei der Radeon 290X gezeigt liegt er Sweetspot bei etwa 220Watt.
Wenn AMD den unwahrscheinlichen Weg gehen sollte und nicht zu viele Einheiten (oder gar keine) deaktiviert und dafuer den Takt und damit die Spannung etwas absenkt, sowie noch etwas beim PCB/den Bauteilen zaubert, bin ich mir sicher, dass man bei der 980 landen koennte.

(del)
2015-06-25, 09:47:26
Mich interessiert als nächstes die Fury Pro, weil dort die Boardpartner genau das machen werden, was sie sich als verkaufbar vorstellen. Sapphire wird wieder einen guten Kompromiss aus Performance und Lautstärke hinbiegen, Gigabyte auf hohe Frameraten schielen und ein extremes Power Limit, wobei der Lärm egal ist und MSI wird den ZeroFrozr draufpacken und überall mitspielen wollen. Es wird sicher viel interessanter ;)

PCGH_Carsten
2015-06-25, 09:49:03
Moin! Auch ich lese hier manchmal mit - meistens übernimmt es aber der Raff. :) Und ohne jetzt zu sehr ins Detail zu gehen, aber auch die R&D-Mitarbeiter arbeiten für die interne Bewertung und die Langzeittests mit Heaven und nicht irgendeinem lavageschwängerten Elfengeschwurbel. Man kann von der Industrie auch lernen, wenn man denn bereit ist zuzuhören. Die typischen Lastszenarien der Grafikkarten liegen im Gaming meist nur bei zwei Drittel der möglichen Verlustleistung. Und genau dafür war Heaven bis jetzt auch bestens brauchbar. Aber auch der liebgewonnene Hund stirbt einmal. [Meine Hervorhebung] Wir nutzen nicht ohne Grund zwei unterschiedliche Spiele zur Messung der Leistungsaufnahme und ebenfalls nicht ohne Grund haben wir uns dazu entschieden, hierfür überdurchschnittlich fordernde Spiele zu nehmen. Dein Ansatz mit Heaven mag ein anderer sein - das ist dein gutes Recht, das ist ebenso valide und es liefert einen wertvollen weiteren Datenpunkt. Das ist sicherlich allen bewusst und brauchst nicht verbal andere Ansätze schlechtzureden, um deine Position zu sichern.

MartinRiggs
2015-06-25, 09:49:42
Ich weiß ja nicht wie die menge im Handel ist, aber gestern waren welche Verfügbar, heute ist ja gar nix mehr da.

Naja mal gucken wie sich die Preise entwickeln.
Für die Kaufwilligen im High-End Bereich sieht es ja mau aus, von der GTXX980TI gibt es kaum Custom-Designs und die Fury ist direkt ausverkauft

Dawn on Titan
2015-06-25, 09:56:16
Nunja, es zeigt sich ja gerade, dass AMD mit Herabsetzen des Powerlimits nicht viel Leistung verliert - Wie Format_C schaetzt und wie bei der Radeon 290X gezeigt liegt er Sweetspot bei etwa 220Watt.
Wenn AMD den unwahrscheinlichen Weg gehen sollte und nicht zu viele Einheiten (oder gar keine) deaktiviert und dafuer den Takt und damit die Spannung etwas absenkt, sowie noch etwas beim PCB/den Bauteilen zaubert, bin ich mir sicher, dass man bei der 980 landen koennte.

Das sind 100W weniger nach AMD eigener Auslegung. Also rund 35% weniger Saft zur X. Selbst bei einem vollen Chip würde ich erwarten, dass man da wohl 15% Leistung verliert. (zuzüglich eines Faktors X für die höheren Leckströme durch die fehlende Wakü) Da wird es schon knapp gegen die 980, und preislich sicherlich auch.

MadManniMan
2015-06-25, 09:56:39
wen interessiert es wirklich ob eine High-End GraKa wärend des Spielsens 10W mehr oder weniger braucht? Wichtig is ein halbwegs realistischer Durchschnittswert, damit ich Folgekosten abschätzen kann.
Auch finde ich die Messungen von CB höchst interessant. Ne 980Ti zieht mit Multimonitoring 50W mehr im Desktopbetrieb als eine FuryX:eek: Den ganzen Tag lang....

Jup, das multi monitoring ist eine katastrophe. aber natürlich ist es wichtig, darüber nachzudenken, was jede Karte tatsächlich verbraucht. was ist denn bitte "das ist ein Porsche, da interessiert Benzin Verbrauch nicht" für Technik freaks für ein Argument?

Exxtreme
2015-06-25, 10:05:50
Die Dinger sind offenbar ausverkauft! Auf Geizhals ist nichts halbwegs kurzfristig lieferbar. :freak:

uweskw
2015-06-25, 10:07:13
@Porsche
ob der 10 oder 15 Liter auf 100km braucht macht schon einen Unterschied. Ob 12,2 oder 12,8 interresiert höchstens Autobildleser die sich nie so einen Wagen kaufen werden.

greetz
US

(del)
2015-06-25, 10:08:54
@Carsten
Das "lavageschwängerte Elfengeschwurbel" steht also für Risen 3? Wenn Du Dir diesen Schuh anziehen magst, gern. Allerdings muss ich zugeben, dass es nicht von mir ist, es aber durchaus hätte sein können. Ich fand nur diese Einlassung eines anderen Kollegen einfach zu köstlich, um es nicht mal loszuwerden. Ich kann mich allerdings nicht erinnern, auch nur einen Satz jemals über Eure Messung geschrieben zu haben, egal wo auch immer. Im Gegensatz zu anderen.

In diesem Zusammenhang nur so viel: Nachdem man mir auch in Eurem Forum von Voreingenommenheit bis hin zur kompletten Unfähigkeit so ziemlich alles unterstellt hat und es keinem Kollegen oder Mod auch nur ansatzweise eingefallen wäre, mal etwas Objektiveres dazu zu sagen, ist diese kleine Spitze dort oben geradezu harmlos :)

fondness
2015-06-25, 10:16:19
Jetzt hängt euch doch nicht so an etwas Stromverbrauch auf und legt nicht alles auf dei Goldwaage. THG hat im Vergleich die niedrigsten Werte, aber vielleicht hamse auch einfach nen gutes Sample erwischt. Am besten man guckt sich einfach alle Werte der verschiedenen Reviews an und zieht daraus nen Fazit:
THG: Fury 221W , 980TI 233W
PCGH: Fury 313-329W , 980TI 234-236W Anno/Risen
Heise: Fury 273W , 980TI 244W
Techpowerup: Fury 246W , 980TI 211W
Hardware.fr Fury 232-285W(sample 1) , 980TI 223W BF4/Anno
Fury 249-301W (Sample2)

So was sieht man nun daran? Fiji kann in bestimmten Spielen deutlich mehr fressen, da er nicht abgeriegelt wird. In der Regel dürfte der Unterschied aber eher bei ~30W Mehrverbrauch liegen, was in dieser Region eher egal ist.

Danke, viel mehr gibt es dazu auch nicht zu sagen. Wegen den 30W hier ein Fass auf zumachen finde ich ziemlich überzogen.
Früher hätte man sich gefreut das die Karte nicht wild herum boostet sondern ihren Takt hält, aber bekanntlich ist ja immer das besser was NV macht. :ugly:

Wer unbedingt will das die Karte bei 275W abriegelt der muss eben Powertune runter drehen, auch keine Hexerei.
Da der Kühler das ganze allerdings locker abführen kann ist das für mich bestenfalls eine Scheindiskussion der üblichen Verdächtigen, die ohnehin nie eine AMD-Karte ernsthaft in Erwägung ziehen.

PCGH_Carsten
2015-06-25, 10:16:20
@Carsten
Das "lavageschwängerte Elfengeschwurbel" steht also für Risen 3? Wenn Du Dir diesen Schuh anziehen magst, gern. […] Ich dachte wir könnten uns wie Erwachsene unterhalten und nicht mit halb-angedeuteten Spitzfindigkeiten um uns werfen. In diesem Zusammenhang nur so viel: Nachdem man mir auch in Eurem Forum von Voreingenommenheit bis hin zur kompletten Unfähigkeit so ziemlich alles unterstellt hat und es keinem Kollegen oder Mod auch nur ansatzweise eingefallen wäre, mal etwas Objektiveres dazu zu sagen, ist diese kleine Spitze dort oben geradezu harmlos :)
Ach daher weht der Wind. Ok, dann bin ich raus, back2lurkmode.

Timbaloo
2015-06-25, 10:20:15
Flame of the Titans!!! Ermmm, Furys, ... :D

(del)
2015-06-25, 10:21:24
[…]
Ach daher weht der Wind. Ok, dann bin ich raus, back2lurkmode.
Warum plötzlich so empfindlich? Es wäre keinem aufgefallen, wenn Du nicht prompt und völlig überzogen darauf eingestiegen wärst. Außer Dir hat es nämlich gar keiner verstanden :)

Vielleicht sollte man aber auch einmal unvoreingenomen darüber nachdenken, dass Kollegialität auch im eigenen Forum anfängt. :) Aber um das auszudiskutieren ist dieses Forum hier denkbar schlecht geeignet.

Troyan
2015-06-25, 10:23:44
Eine 1-Minutige Szene aus dem Heaven-Benchmark als "Gaming Loop" zu verkaufen ist schon faszinierend.

Welche Szene wird denn genau genommen?!

fondness
2015-06-25, 10:24:48
Nächste Fullcover-Wakü:
http://videocardz.com/56963/xspc-also-reveals-water-block-for-radeon-r9-fury-x

Schnoesel
2015-06-25, 10:30:17
Nächste Fullcover-Wakü:
http://videocardz.com/56963/xspc-also-reveals-water-block-for-radeon-r9-fury-x

Mehr davon :D Fehlt noch Aquacomputer aber die arbeiten auch schon dran. Mal ins Forum schaun.

Dural
2015-06-25, 10:31:18
Jede Fiji GPU hat übrigens seine eigene VID, macht Intel und NV ja schon lange und ist sicher was sinnvolles.

Gibt es irgend wo eine Angabe zur GPU Spannung? Würde mich sehr wunder nehmen wo die so liegt.

Disco_STFU
2015-06-25, 10:35:03
Führt ein externer FPS Limiter (Afterburner) eigentlich zu den gleichen Einsparungen? :)

Und wieso hast AMD da so blöd bis 95 FPS limitiert? Was soll diese Grenze?

Grestorn
2015-06-25, 10:35:49
Warum plötzlich so empfindlich? Es wäre keinem aufgefallen, wenn Du nicht prompt und völlig überzogen darauf eingestiegen wärst. Außer Dir hat es nämlich gar keiner verstanden :)

Vielleicht sollte man aber auch einmal unvoreingenomen darüber nachdenken, dass Kollegialität auch im eigenen Forum anfängt. :) Aber um das auszudiskutieren ist dieses Forum hier denkbar schlecht geeignet.

Nana. Du kannst die Redakteure doch nicht dafür verantwortlich machen, was die Leute in deren Forum schreiben. Die Redaktion hat weder auf die Forenmitglieder noch auf die Moderation Einfluss, und das ist auch gut so.

Du scheinst Dich aber offenbar durch das, was im Forum geschrieben wird, angegriffen zu fühlen. Das ist Dein gutes Recht und auch ich meide das PCGH Forum inzwischen, weil weder das Publikum noch die Moderation dem entspricht, was ich mir in meiner Freizeit antun will. Beides würde ich aber keinem PCGH Redakteur ankreiden.

Dein ursprüngliches Posting hier ist doch genau der richtige Weg mit Attacken und ungerechtfertigten Vorwürfen umzugehen!

(del)
2015-06-25, 10:44:25
@Grestorn:
Nana. Du kannst die Redakteure doch nicht dafür verantwortlich machen, was die Leute in deren Forum schreiben.Wenn dort im Thread 3 gleich Redakteure fleißig mitposten und genüsslich Popcorn kauen... bestimmte Sache lasse ich z.B. nie zu, des ist einfach eine Frage von Kollegialität und Abgeklärtheit. Es ging ja nicht nur gegen mich, sondern auch andere Seiten wie CB. Da ist man eigentlich verpflichet, schon mal etwas Wind rauszunehmen. Mag sein, dass ich noch aus einer anderen Generation stamme und vieles zu eng sehe. Ich hätte mir in den vielen Jahren in der Industrie solche Dinge nie angezogen. Auch wenn es im Marketing oft unappetitlich her ging - alle Kollegen, auch die der Mitbewerber hatten da einen ganz anderen Umgang miteinander. :)

Trotzdem wäre es nett, wenn wir dieses Thema jetzt beenden. Die betreffenden schreiben dazu nichts mehr, also bitte lassen wir es auch dabei bewenden :)

Flusher
2015-06-25, 10:46:37
Wo gibts die Fury X momentan in den USA am günstigsten? Bin nächste eh dort, vielleicht kann ich da ja ein Exemplar egattern

mironicus
2015-06-25, 10:50:04
Mal was Positives: Ausgehend von den Erfahrungen mit AMD werden sie den Abstand zur 980 Ti durch Treiberpflege wieder mehr als einholen. Sobald die entsprechenden Tools da sind und die Spannungen angepasst werden können, werden dann auch 1200+ für GPU und 600+ für HBM locker drin sein.

Raff
2015-06-25, 10:54:00
Mal was Positives: Ausgehend von den Erfahrungen mit AMD werden sie den Abstand zur 980 Ti durch Treiberpflege wieder mehr als einholen. Sobald die entsprechenden Tools da sind und die Spannungen angepasst werden können, werden dann auch 1200+ für GPU und 600+ für HBM locker drin sein.

Ja, da geht bestimmt noch was. Muss, wenn man sich ansieht, wie mies die Karte stellenweise gegenüber der 390X skaliert. An der grundsätzlichen, architekturbedingten Low-Res-Schwäche (ja, alles bis inklusive Full HD ist low-res und Mainstream) wird sich aber nichts ändern. Die Treiber können aber gewiss helfen, die Performance der Karte dort weiter zu steigern, wo sie gut (1440p) bis sehr gut (2160p) ist; das erste Ziel sollte es sein, die Speicheradressierung optimal einzustellen.

MfG,
Raff

StefanV
2015-06-25, 10:54:51
Warum wird eigentlich gar nicht angesprochen das Fury im Idle vor allem mit mehreren Displays(was ja heutzutage Usus ist) weniger Strom verbraucht?
Weil das ein gewaltiger Vorteil der AMD Karte wäre, bei dem nVidia sehr stark das Nachsehen hatte...

Siehst ja auch bei der GTX470 und 480, die ja auch ordentlich gekauft wurden, obwohl der Verbrauch im Idle verdammt hoch war...

Ist leider so, dass AMD immer klein geredet wird und nVidia sich schön geredet/gesoffen wird...

Aber Recht hast du, dass AMD hier sehr stark auf die Kritik reagiert hat und dann auch etwas besseres realisiert hat.
Wäre auch interessant zu wissen, wie es bei den anderen Karten der 300er Serie ausschaut...

PS: die UVD Takte hat man ja entsorgt, weil das z.T. für Probleme gesorgt hat, im Mehrschirm Betrieb...

Disco_STFU
2015-06-25, 11:02:09
Wo gibts die Fury X momentan in den USA am günstigsten? Bin nächste eh dort, vielleicht kann ich da ja ein Exemplar egattern

Da will doch nicht jemand was am Zoll verbeischaffen? :tongue:

mironicus
2015-06-25, 11:08:01
Ja, da geht bestimmt noch was. Muss, wenn man sich ansieht, wie mies die Karte stellenweise gegenüber der 390X skaliert. An der grundsätzlichen, architekturbedingten Low-Res-Schwäche (ja, alles bis inklusive Full HD ist low-res und Mainstream) wird sich aber nichts ändern. Die Treiber können aber gewiss helfen, die Performance der Karte dort weiter zu steigern, wo sie gut (1440p) bis sehr gut (2160p) ist; das erste Ziel sollte es sein, die Speicheradressierung optimal einzustellen.

Habt ihr eigentlich noch euer Testsample oder wartet ihr momentan auf eine reguläre Händlerkarte zum weiteren Testen? Die Karten im Handel sollen ja auch leiser sein... werden wir wohl heute noch sehen können, wenn die ersten hier beliefert werden. :cool:
Am besten macht ihr dann noch einen kleinen Guide wie man die Karte noch leiser bekommt... :D

fondness
2015-06-25, 11:09:51
CB hat hier IMO auch interessante Ergebnisse wie an durch Lüftertausch noch etwas leiser werden kann:
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/12/#abschnitt_wechsel_des_radiatorluefters

BlacKi
2015-06-25, 11:10:07
Mal was Positives: Ausgehend von den Erfahrungen mit AMD werden sie den Abstand zur 980 Ti durch Treiberpflege wieder mehr als einholen. Sobald die entsprechenden Tools da sind und die Spannungen angepasst werden können, werden dann auch 1200+ für GPU und 600+ für HBM locker drin sein.
selbst wenn du die taktraten erreichen könntest wirst du 10% mehr leistung nicht erreichen können.

bei den treibern sollte sicherlich noch was machbar sein, aber ich denke auch das das noch zeit brauchen wird.

leider ist aber 4k für die meisten noch nicht die alltägliche auflösung, da sollte man 1440p als vergleich ranziehen.

da sinds im schnitt 15% zur 980ti mit custom kühler und werks oc.

das wird die furyx nie schlagen können.
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/#diagramm-rating-2560-1440-normale-qualitaet

dargo
2015-06-25, 11:10:52
@dargo:
1080p hat schon mal einen geringeren Stromverbrauch als WQHD. 2xMSAA senkt diesen Verbrauch dann i.d.R. noch weiter.
Schon sagt dieser Pseudo-Spieletest überhaupt nichts mehr über die realistische Verbrauchshöhe in sowohl anfordernden als auch vielleicht etwas weniger anfordernden Szenarien aus.
Völlig müßig, darüber zu diskutieren. Das muss jetzt her nicht vollends kleinkarierte Züge annehmen...
Es ist kein echter Spieleverbrauch. Wer ist denn immer so hypergenau, wenn es um das Ausschließen von CPU-Limits etc. geht, und jetzt auf einmal soll Heaven das Maß für Spieleverbrauch sein, nur weil der Stromverbrauch von (größtenteils veralteten) Spielen und einem Synthie in der Vergangenheit im Mittel zufällig gleich hoch gewesen sein soll?
:hammer:
Mir ist es echt zu blöd mit dir darüber weiter zu diskutieren. Ich habe eh das Gefühl du suchst wieder das Haar in der Suppe. Es gibt an der Karte wenig zu kritisieren also wird der Stromverbrauch herhalten müssen. Mich wunderts mittlerweile, dass die 4GB nicht mehr herhalten. :D

robbitop
2015-06-25, 11:11:39
Wenn die Messung mit dem übertakteten HBM Speicher wirklich stimmt (Fijii also doch sehr stark mit dem Speichertakt skaliert) - liegt wirklich etwas im Argen. IMO sollte man dem nachgehen.
Könnte am Ende der geringe Speichertakt eher zu einem Latenzproblem werden? Nicht dass es doch noch einen bisher unbekannten Bottleneck bei Fijii zu geben scheint. :)

Botcruscher
2015-06-25, 11:12:28
Mal was Positives: Ausgehend von den Erfahrungen mit AMD werden sie den Abstand zur 980 Ti durch Treiberpflege wieder mehr als einholen. Sobald die entsprechenden Tools da sind und die Spannungen angepasst werden können, werden dann auch 1200+ für GPU und 600+ für HBM locker drin sein.

Dieses mal kann ich die Begeisterung nicht teilen. Der HBM(1) ist quasi schon DOA. AMD wird zwar optimieren aber mit HBM 2 ist dann damit schluss. Selbst der geringe Takt hat sich dann erledigt.
Speicherlimitierung und dauerhafter Softwaresupport wiegt schon sehr schwer.
Ob sich beim OC noch viel tut muss sich zeigen.

Wenn die Messung mit dem übertakteten HBM Speicher wirklich stimmt (Fijii also doch sehr stark mit dem Speichertakt skaliert) - liegt wirklich etwas im Argen. IMO sollte man dem nachgehen.
Hier wurde doch irgendwo ein Bandbreitentest verlinkt. Von den theoretischen Werten ist man Lichtjahre entfernt.

StefanV
2015-06-25, 11:12:34
Führt ein externer FPS Limiter (Afterburner) eigentlich zu den gleichen Einsparungen? :)

Alles, was die Framerate (stark) limitiert, senkt den Verbrauch, z.T. mehr als deutlich.

Kleines Beispiel von mir, Tahiti Crossfire:
VSync OFF: etwa 450W Last
VSync ON : etwa 250W Last

...womit man wieder beim Punkt der Limitierung der Framerate vs. Verbrauch sind.
Jemand, dem der Verbrauch wichtig ist, kann gar nicht ohne Frameratelimitierung unterwegs sein. Ist er es doch, ists geheuchelt...

Schnoesel
2015-06-25, 11:12:58
Kühler von Aquacomputer dauert noch etwas:

Kühler dauert noch ein paar Tage. Wir waren die letzte Zeit damit beschäftigt unsere Fertigung und Montage in ein anderes Gebäude umzuziehen. Da ist natürlich eine ganze Menge liegen geblieben.

http://forum.aquacomputer.de/wasserk-hlung/p1417088-k-hler-amd-fury-xt/#post1417088

mironicus
2015-06-25, 11:16:13
Wie lange dauert es wohl noch bis zur nächsten Grafikkarte von AMD, die schneller sein wird als die Fury XT? 12 Monate?

dildo4u
2015-06-25, 11:18:16
Mal was Positives: Ausgehend von den Erfahrungen mit AMD werden sie den Abstand zur 980 Ti durch Treiberpflege wieder mehr als einholen. Sobald die entsprechenden Tools da sind und die Spannungen angepasst werden können, werden dann auch 1200+ für GPU und 600+ für HBM locker drin sein.
Die Frage ist ob das immer machbar ist wenn man die GTA5 Benches sieht,das Game wird sher hoch auf der to do Liste gestanden haben und bekam von AMD ja schon ein extra Treiber.

http://www.pcper.com/image/view/58140?return=node%2F63271

Vermutlich werden einige Games für immer so bleiben,da sie nachträglich kein DX12 mher bekommen werden.

robbitop
2015-06-25, 11:19:47
Hier wurde doch irgendwo ein Bandbreitentest verlinkt. Von den theoretischen Werten ist man Lichtjahre entfernt.
Das ist ebenfalls merkwürdig. Wobei man deutlich vor Hawaii lag IIRC. Ist dieser B3D Test ein reiner Bandbreitentest ohne potenzielle andere Flaschenhälse?

Falls das der Fall sein sollte, sieht man, dass NV offenbar signifikant effizienter mit der Bandbreite (für den Framebuffer) umgeht.

Hinsichtlich HBM habe ich im Zusammenhang mit Fijii zwei Grundbedenken:

- geringer Grundtakt und damit einhergehende größere Latenz (wobei diese wohl aber bei diesem Speichertyp -in Takten gemessen - abgesenkt sein sollten)
- geringe Granularität der Anbindung. Ich hatte was von einer 8x unterteilten Granularität des MC gelesen. Sind also 512 bit pro Kanal. Vorher war man bei 64 bit. Ob man das durch Caches immer vollbekommt?

y33H@
2015-06-25, 11:23:28
Der HBM hat pro Stack acht 128 Bit-Leitungen, die gebündelt als 1.024 Bit raus laufen zum Fiji.

DrFreaK666
2015-06-25, 11:32:11
Ich hoffe bei VSR tut sich noch was eine Steigerung von 2560x1440 auf 3200x1800 finde ich etwas dürftig..
Bei AMD gibt es keine Möglichkeit Monitore zu übertakten, oder?

Schnoesel
2015-06-25, 11:34:35
Tonga und damit auch Fiji hat doch schon jetzt mehr VSR Optionen als z.B Hawaii?!

PS: nur bei Full HD. Bei 1440p hat sich noch nix getan.

http://www.computerbase.de/2014-12/amd-vsr-nvidia-dsr-downsampling-catalyst-omega-vergleich/

Ja damit sollten sie mal ausm A... kommen. Hoffentlich dannmal zum Omega 2 release.

robbitop
2015-06-25, 11:35:31
Der HBM hat pro Stack acht 128 Bit-Leitungen, die gebündelt als 1.024 Bit raus laufen zum Fiji.
Das sagt aber noch nichts über die Granularität des Memorycontrollers aus.

Wie man im B3D Bandwith Test sieht, hat NV insbesondere bei Maxwell nochmal richtig aufgedreht

------------------------------
http://techreport.com/r.x/radeon-r9-fury-x/b3d-bandwidth.gif

Die 780 ti erreicht ähnliche Werte wie Hawaii. Die 980 ti erreicht trotz nur geringerer Erhöhung der Bandbreite massiv mehr effektive Bandbreite.

Wäre mal interessant zu wissen, wie sie das machen. Ob da besser komprimiert werden kann und/oder besseres Caching die Lese/Schreibzugriffsmuster weniger fragmentiert ausprägt?

Hinsichtlich der DCC glaube ich, sofern NV mit der Aussage, dass sie DCC seit Fermi betreiben, nicht die Unwahrheit verbreitet haben, nicht daran dass so große Sprünge möglich sind - einfach weil man die niedrig hängenden Früchte zuerst abgreift und die Fortschritte durch Iteration eigentlich dem Gesetz des abnehmenden Grenzertrags folgen müssen.

Wenn ich mir anschaue, wie stark die Intel IGPs durch Caching profitierten (bspw. die Sandy IGP vom LLC - oder aber Haswells GT3e vom eDRAM - der als LLC ausgeführt ist) - kann ich mir für Maxwell vorstellen, dass Cache der Schlüssel war. Und damit meine ich nicht unbedingt nur die Größe, Bandbreite, Assoziativität oder Latenz - sondern die Algoritmen was, wie und wann gecacht wird.

edit:
Vieleicht doch nicht. :D
Wenn man auf die Differenz zwischen "All Black Textures" und "Random Textures" schaut, sieht man eigentlich die Güte der DCC. Bei Kepler ist die Schere sehr gering, bei Hawaii (keine DCC) ist keine Schere vorhanden, bei Fijii ist sie vergleichbar mit Kepler - und Maxwell schießt den Vogel ab. Dort ist sie sehr groß!

Offenbar hat man also hinsichtlich DCC erst bei Maxwell einen "Durchbruch" erzielt. GCN 1.2 hat offenbar da noch nicht so viel getan.

Gewinne an BB durch Kompression (bei Idealbedingungen!!):

Hawaii: 0 %
Kepler: 18 %
Fijii: 16 %
Maxwell: 59 %

Disco_STFU
2015-06-25, 11:37:03
Wie lange dauert es wohl noch bis zur nächsten Grafikkarte von AMD, die schneller sein wird als die Fury XT? 12 Monate?

Dual Fiji Herbst/Winter 2015?



Auch wenn es nur theoretischer Natur ist sieht der DX 12 Bench schonmal sehr gut aus.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=22

ilibilly
2015-06-25, 11:41:29
Das hbm 600mhz auch gleich 20% mehr Performance bei 3dmark bedeutet,zeigt doch das da was nicht stimmt,und es evtl doch ein bandbreitenlimitierung gibt.
Die nächsten Wochen werden zeigen,mit vmods und speicheroc was noch geht,warum hat Amd denn selbst behauptet,das man ein OC Beast erschaffen habe,und dann doch nur 60-90mhz.
Irgendwas ist da noch faul

Schnoesel
2015-06-25, 11:43:33
Das wäre auch eine interessante Frage, denn so braucht man kein 2x 8pin. Mal sehen was da noch kommt.

mironicus
2015-06-25, 11:45:57
Dual Fiji Herbst/Winter 2015?

Ah vergessen! Ich meine natürlich eine Single GPU-Karte. Also auch mit kleinerem Fertigungsprozess.

dargo
2015-06-25, 11:47:05
Danke dafuer un respekt fuer deinen Aufwand und deine Erlaeuterungen. Deinem letzten Satz muss ich zustimmen. Powerlimit von meinetwegen den 275 Watt reinballern und gut!

Ich kann mir gut vorstellen, dass das bei der luftgekühlten Fury non X oder spätestens bei der R9 Nano kommen wird. Also ein recht tiefes PT. Der Fury X lässt man quasi freie Bahn dank der Wakü. Ich denke deshalb auch kein Custom-Design bei der Fury X.

Botcruscher
2015-06-25, 11:47:39
Bei AMD gibt es keine Möglichkeit Monitore zu übertakten, oder?

Doch. Ist nicht viel anders als bei NV.

Disco_STFU
2015-06-25, 11:48:19
Ah vergessen! Ich meine natürlich eine Single GPU-Karte. Also auch mit kleinerem Fertigungsprozess.

Denke mal dass da vor Sommer/Herbst 2016 nichts kommt.

DrFreaK666
2015-06-25, 11:50:54
Doch. Ist nicht viel anders als bei NV.

Sehr gut :)

y33H@
2015-06-25, 11:52:41
Das sagt aber noch nichts über die Granularität des Memorycontrollers aus.Örks, hast Recht - habe was anderes gelesen als dastand. IMC muss ich fragen und hoffen ...

Digidi
2015-06-25, 11:52:52
Mal eine Frage? Welche Auswirkung hat dx12 auf die Auslastung des Frontend? Vielleicht wurde fiji ja darauf konzipiert!

Bei den Draw calls Test in dx12 sieht man ja das amd gut wegschaffen kann.

Disco_STFU
2015-06-25, 11:53:47
Jetzt hatte AMD doch soviel Zeit und sie schaffen es immer noch nicht den Omega 2 mit der Fury X zu launchen... -.-

Birdman
2015-06-25, 11:58:37
Auch finde ich die Messungen von CB höchst interessant. Ne 980Ti zieht mit Multimonitoring 50W mehr im Desktopbetrieb als eine FuryX:eek: Den ganzen Tag lang....
Bei 3+ Monitoren ja.
Doch bei 1 und 2 Displays zieht die Fury mehr als Maxwell, was wohl der Konstellation von 98%+ aller User entspricht.

Wieso aber die nVidia Karten beim zuschalten des dritten Monitors so extrem viel mehr Saft verbrät, möchte ich echt wissen....ist ja nicht mehr feierlich.

fondness
2015-06-25, 11:59:46
Es hat schnell mal jemand zwei Monitore und vielleicht noch einen TV am PC hängen, also so exotisch würde ich die config nicht bezeichnen.

dargo
2015-06-25, 12:02:44
An der grundsätzlichen, architekturbedingten Low-Res-Schwäche (ja, alles bis inklusive Full HD ist low-res und Mainstream) wird sich aber nichts ändern. Die Treiber können aber gewiss helfen, die Performance der Karte dort weiter zu steigern, wo sie gut (1440p) bis sehr gut (2160p) ist; das erste Ziel sollte es sein, die Speicheradressierung optimal einzustellen.

Bei der sogenannten Low-Res-Schwäche sollte man immer CPU-Limits im Auge behalten. Solange wir bei dem miesen DX11 bleiben solange wird NV immer beim nicht vollständigen GPU-Limit mal mehr, mal weniger vorne liegen. Es sei denn AMD verbessert den Treiberoverhead weiterhin. Schaut euch bitte diese angebliche Low-Res-Schwäche nochmal genauer mit DX12 Games später an. :)

robbitop
2015-06-25, 12:08:46
In den Synthies bei Tech Reports sieht man, wie viel mehr Geometrie- und Rasterleistung GM200 ggü Fijii hat. Das hat NV sicher nicht zum Spaß eingebaut. Es sollte zumindest ein Teilstück des Grundes für die "Low Res Schwäche" sein.

Flusher
2015-06-25, 12:18:22
Wo gibts die Fury X momentan in den USA am günstigsten? Bin nächste eh dort, vielleicht kann ich da ja ein Exemplar egattern

Anyone?

Bestbuy & Newegg haben sie zumindest nicht oder nicht mehr.

Birdman
2015-06-25, 12:21:37
Es hat schnell mal jemand zwei Monitore und vielleicht noch einen TV am PC hängen, also so exotisch würde ich die config nicht bezeichnen.
gleichzeitig, dauerhaft und im Desktop 2D Betrieb? Ja klar, genau....

Wenn, dann wird da maximal zum testen/spielen mal ein TV vor den PC gekarrt - in diesem Fall dann aber wohl die beiden PC-Monitore ausgeschaltet.

Ansonsten sehe ich das Triple-Display setup (mit drei PC Monitoren) nur im Hardcore-Fetisch Bereich von einigen Rennspiel oder Flugsim Fans.


Zudem stellt sich mir noch die Frage wie es mit dem Stromverbrauch aussieht, wenn die Displays NICHT mit der selben Auflösung und/oder Refreshrate betrieben werden.
Aus der Vergangeheit weiss man ja, dass dies grosse Unterschiede ausmachen kann.
Und gerade in deinem "nicht so exotischen" Setup von zwei Monitoren und einem TV, ist die Chance gross dass nicht die identischen Parameter verwendet werden können.

(del)
2015-06-25, 12:28:16
Zudem stellt sich mir noch die Frage wie es mit dem Stromverbrauch aussieht, wenn die Displays NICHT mit der selben Auflösung und/oder Refreshrate betrieben werden.
Aus der Vergangeheit weiss man ja, dass dies grosse Unterschiede ausmachen kann.Genau das hatte ich ja gemessen. Egal ob 4K + FHD, bzw. QHD + WQHD, die Leistungsaufnahme bleibt gleich. Zumindest bei Fury X :)

Raff
2015-06-25, 12:29:28
Habt ihr eigentlich noch euer Testsample oder wartet ihr momentan auf eine reguläre Händlerkarte zum weiteren Testen? Die Karten im Handel sollen ja auch leiser sein... werden wir wohl heute noch sehen können, wenn die ersten hier beliefert werden. :cool:
Am besten macht ihr dann noch einen kleinen Guide wie man die Karte noch leiser bekommt... :D

Wir haben noch eine Karte aus einem Alternate-PC, das AMD-Muster ging aber weiter. Natürlich zimmern wir da noch einen feinen Praxis-Artikel. =)

Genau das hatte ich ja gemessen. Egal ob 4K + FHD, bzw. QHD + WQHD, die Leistungsaufnahme bleibt gleich. Zumindest bei Fury X :)

Kann ich übrigens bestätigen. Kuhle Sache, dass AMD das endlich angegangen ist. :)

MfG,
Raff

samm
2015-06-25, 12:31:25
Anyone?

Bestbuy & Newegg haben sie zumindest nicht oder nicht mehr.Sowas käme vermutlich noch am nächsten zu geizhals: http://www.nextag.com/Video-Cards-Adapters--zz300249zB4z5---html
Allerdings ist auch das Teil so unübersichtlich, dass ich nicht mal "Fury" suchen kann... Vielleicht schaffst du's ja :)

Zudem stellt sich mir noch die Frage wie es mit dem Stromverbrauch aussieht, wenn die Displays NICHT mit der selben Auflösung und/oder Refreshrate betrieben werden.
Aus der Vergangeheit weiss man ja, dass dies grosse Unterschiede ausmachen kann.
Und gerade in deinem "nicht so exotischen" Setup von zwei Monitoren und einem TV, ist die Chance gross dass nicht die identischen Parameter verwendet werden können.Fury X kommt erfreulicherweise mit komplett verschiedenen Monitoren problemlos klar: cb-Review (http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/10/), auch THG erwähnt es, geht aber soweit ich mich grad erinnere im Vergleich mit cb nicht explizit darauf ein, ob die Monitore auch verschieden sein können.

[edit]vgl. Raff & Format_C :D

fondness
2015-06-25, 12:40:28
In den Synthies bei Tech Reports sieht man, wie viel mehr Geometrie- und Rasterleistung GM200 ggü Fijii hat. Das hat NV sicher nicht zum Spaß eingebaut. Es sollte zumindest ein Teilstück des Grundes für die "Low Res Schwäche" sein.

Richtig, das ist ganz klar eine Designentscheidung. Tonga hat die exakt selben Geometrie- und Rasterleistung wie Fiji bei der halben ALU-Anzahl. Fiji hat mehr ALU/-Texelfüllrate sowie mehr Bandbreite als GM200. Das Design wurde also auf High-Res ausgelegt. NV hat mehr Geometrie- und Rasterleistung welche unabhängig von der Auflösung ist, deshalb liegen die NV Karte bei niedrigen Auflösungen auch besser. Dazu kommen natürlich noch etweiige CPU-Limits welche das ganze verstärken können, aber grundsätzlich hat sich AMD schon was dabei gedacht was IMO auch Sinn macht, denn in niedrigen Auflösungen ist Fury ohnehin schnell genug.

Ätznatron
2015-06-25, 12:43:23
Ansonsten sehe ich das Triple-Display setup (mit drei PC Monitoren) nur im Hardcore-Fetisch Bereich von einigen Rennspiel oder Flugsim Fans.


Meine Wahrnehmung ist anders:

Entweder, die Leute begnügen sich mit einem Monitor, oder sie gehen gleich auf mindestens 3.

In meinem Bekanntenkreis jedenfalls sind Systeme mit nur 2 Monitoren weitaus seltener vertreten.

Wenn, dann wird da maximal zum testen/spielen mal ein TV vor den PC gekarrt - in diesem Fall dann aber wohl die beiden PC-Monitore ausgeschaltet.


Das ist sehr unbequem, jedesmal Monitore deaktivieren zu müssen, nur um nVidias Scheitern in der Angelegenheit wenigstens etwas zu minimieren. Mir jedenfalls - ich besitze eine nVidia-Karte - geht das gehörig auf den Senkel.

Birdman
2015-06-25, 12:44:12
Genau das hatte ich ja gemessen. Egal ob 4K + FHD, bzw. QHD + WQHD, die leistungsaufnahme bleibt gleich.
Ok, thx für die Info - in eurem Test habe ich diese Info nämlich so explitit nicht gefunden.
Gelesen habe ich nur dass die Verlustleistung quasi genau gleich bleibt beim anschliessen von mehr als einem Display (2 oder 3?)
Dies kann/konnte ich so dann aber irgendwie auch nicht glauben kann, denn bei andern Tests sieht man hier durchaus Unterschiede, auch wenn sich diese bei der Fury in einem sehr tiefen Bereich bewegen.

fondness
2015-06-25, 12:45:35
gleichzeitig, dauerhaft und im Desktop 2D Betrieb? Ja klar, genau....

Wenn, dann wird da maximal zum testen/spielen mal ein TV vor den PC gekarrt - in diesem Fall dann aber wohl die beiden PC-Monitore ausgeschaltet.

Ansonsten sehe ich das Triple-Display setup (mit drei PC Monitoren) nur im Hardcore-Fetisch Bereich von einigen Rennspiel oder Flugsim Fans.


Deaktivierst du echt jedes mal deinen Desktop-Bildschim wenn du am TV was schaust und umgekehrt? Also ich nicht, alleine schon weil es mir dann alle Desktopsymbole verschiebt. Mein TV hängt da natürlich dauerhaft dran und ist auch immer aktiv.


Zudem stellt sich mir noch die Frage wie es mit dem Stromverbrauch aussieht, wenn die Displays NICHT mit der selben Auflösung und/oder Refreshrate betrieben werden.
Aus der Vergangeheit weiss man ja, dass dies grosse Unterschiede ausmachen kann.
Und gerade in deinem "nicht so exotischen" Setup von zwei Monitoren und einem TV, ist die Chance gross dass nicht die identischen Parameter verwendet werden können.

Das gilt es natürlich zu untersuchen keine Frage. Aber das trifft ja dann nicht nur auf Fiji zu.

Okay sehe gerade das wurde eh schon beantwortet, Fury bleibt also in allen Konstellationen im idle-Betrieb.

N0Thing
2015-06-25, 12:52:49
Wenn Heaven von TH als Durchschnittsverbrauch herangezogen wird, muss mit genau den gleichen Settings dieser natürlich auch gebencht werden.
Wurd er aber nicht.
Warum seid ihr da nicht so streng?

Ja, es wäre gut diese Information zu haben, um den Verbrauch auch mit der Leistung in Relation setzen zu können. Aufwand dabei sollte ja relativ gering sein.



Das musste einfach mal raus :D

Vielen Dank für deine ausführlichen Erläuterungen und für die Mühe, dich hier extra im Forum zu melden. :)

__________

Die Fury X hinterlässt bei mir einen zwiespältigen Eindruck. Einerseits ist es schön zu sehen, dass AMD zu Nvidia aufschließen kann, ohne dabei mit dem Stromverbrauch durch die Decke gehen zu müssen. Auch der erste Einsatz von HBM macht die Karte zu einem interessanten Objekt und dass die 4GB bisher weniger negative Auswirkungen haben als befürchtet ist gut, muss aber im Auge behalten werden.

Auf der anderen Seite offenbaren sich dadurch aber auch die Punkte, bei denen AMD dringend aufholen muss. GCN in seiner aktuellen Form muss bei der nächsten Grafikkarte einen größeren Sprung machen. Die Skalierung der Einheiten muss endlich mal stimmen, der Stromverbrauch muss mit ähnlichen Maßnahmen wie bei Nvidia im Zaum gehalten werden und idealerweise volle DX12-Spec schaffen und dann dank HBM2 hoffentlich auch mit größerem Spielraum beim VRAM.

Die Radeon R9 Fury X ist eine interessante Alternative zu GTX 980Ti und GTX 980 und bringt AMD hoffentlich etwas Geld in die Kasse.

Raff
2015-06-25, 12:54:16
Richtig, das ist ganz klar eine Designentscheidung. Tonga hat die exakt selben Geometrie- und Rasterleistung wie Fiji bei der halben ALU-Anzahl. Fiji hat mehr ALU/-Texelfüllrate sowie mehr Bandbreite als GM200. Das Design wurde also auf High-Res ausgelegt. NV hat mehr Geometrie- und Rasterleistung welche unabhängig von der Auflösung ist, deshalb liegen die NV Karte bei niedrigen Auflösungen auch besser. Dazu kommen natürlich noch etweiige CPU-Limits welche das ganze verstärken können, aber grundsätzlich hat sich AMD schon was dabei gedacht was IMO auch Sinn macht, denn in niedrigen Auflösungen ist Fury ohnehin schnell genug.

Nur ist die Hi-Res-Auslegung angesichts der Limitierung auf 4 GiByte Speicher nicht zuende gedacht. Mit 8 GiB und etwas mehr Takt könnte man die Karte bedenkenlos jedem Hi-Res-Spieler empfehlen, im jetzigen Zustand fällt das "bedenkenlos" aber eindeutig weg.

MfG,
Raff

Screemer
2015-06-25, 12:57:28
Anyone?

Bestbuy & Newegg haben sie zumindest nicht oder nicht mehr.

Tigerdirect vielleicht.

fondness
2015-06-25, 12:57:35
Nur ist die Hi-Res-Auslegung angesichts der Limitierung auf 4 GiByte Speicher nicht zuende gedacht. Mit 8 GiB und etwas mehr Takt könnte man die Karte bedenkenlos jedem Hi-Res-Spieler empfehlen, im jetzigen Zustand fällt das "bedenkenlos" aber eindeutig weg.

MfG,
Raff

Naja, Auflösung ist jetzt nicht so der VRAM-Killer, da ist MSAA weit schlimmer, und MSAA ist unter 4K ohnehin Luxus. 4K ohne MSAA benötigt zB nicht mehr Speicher wie 1080p mit 4xMSAA (wenn man mal von irgend welchen Voodoo-Implementierungen absieht) . Aber klar das Einsatzgebiet wird natürlich durch die 4GB eingeschränkt, das war ja auch keine gewollte Designentscheidung sondern schlicht eine Notwendigkeit wegen HBM.

Aber grundsätzlich macht es nur begrenzt Sinn die 1080p Benchs zu gewinnen und dann dort wo die Leistung gebraucht wird zurück zu fallen.

Matrix316
2015-06-25, 12:59:14
Nur ist die Hi-Res-Auslegung angesichts der Limitierung auf 4 GiByte Speicher nicht zuende gedacht. Mit 8 GiB und etwas mehr Takt könnte man die Karte bedenkenlos jedem Hi-Res-Spieler empfehlen, im jetzigen Zustand fällt das "bedenkenlos" aber eindeutig weg.

MfG,
Raff
Wisst ihr [quasi die PCGH Redaktion] zufällig, warum es nur 4 GB sind? Ob man jetzt 4 oder 8 von diesen RAM Schichten stapelt, sollte doch eigentlich keine Rolle spielen, oder? Im OC3D Review https://www.youtube.com/watch?v=YZ3co5a-k1s heißt es, dass die Speichergröße keine Rolle spielen sollte, da die Daten schneller rein und raus können - zumindest laut AMD - aber das ist doch auch Blödsinn, oder? Wie viele Daten in den Framebuffer reinmüssen, hat ja nichts mit der Geschwindigkeit der Daten und der Bandbreite zu tun, oder? Sondern obs passt oder nicht. Oder haben die doch recht? Welche Daten kommen eigentlich in den VRAM? Nur das was man eben gerade sieht, oder eigentlich mehr? Wie kann man das am besten berechnen, wie viel VRAM gerade "jetzt" verbraucht wird?

stinki
2015-06-25, 13:06:57
Gewinne an BB durch Kompression (bei Idealbedingungen!!):

Hawaii: 0 %
Kepler: 18 %
Fijii: 16 %
Maxwell: 59 %

Tonga Werte wären auch interessant...AMD hatte doch beim Tonga Launch etwas von ca. 33% erzählt wenn ich mich nicht irre...

maguumo
2015-06-25, 13:07:08
Wisst ihr [quasi die PCGH Redaktion] zufällig, warum es nur 4 GB sind? Ob man jetzt 4 oder 8 von diesen RAM Schichten stapelt, sollte doch eigentlich keine Rolle spielen, oder

Womöglich schlechtere Yields und Temperaturprobleme, man bräuchte andere Slices die nur mit einem Channel angesteuert werden...

Hynix will womöglich auch einfach kein R&D für ein "zwischending" aus HBM "Gen 1" und "2" versenken. 2 steht ja demnächst eh an...

Exxtreme
2015-06-25, 13:07:57
Wisst ihr [quasi die PCGH Redaktion] zufällig, warum es nur 4 GB sind? Ob man jetzt 4 oder 8 von diesen RAM Schichten stapelt, sollte doch eigentlich keine Rolle spielen, oder? Im OC3D Review https://www.youtube.com/watch?v=YZ3co5a-k1s heißt es, dass die Speichergröße keine Rolle spielen sollte, da die Daten schneller rein und raus können - zumindest laut AMD - aber das ist doch auch Blödsinn, oder? Wie viele Daten in den Framebuffer reinmüssen, hat ja nichts mit der Geschwindigkeit der Daten und der Bandbreite zu tun, oder? Sondern obs passt oder nicht. Oder haben die doch recht? Welche Daten kommen eigentlich in den VRAM? Nur das was man eben gerade sieht, oder eigentlich mehr? Wie kann man das am besten berechnen, wie viel VRAM gerade "jetzt" verbraucht wird?
Das ist typisches Marketing-Blabla von AMD. Je weniger VRAM desto höher die Wahrscheinlichkeit, dass Daten über den PCIe-Bus müssen. Und PCIe ist beträchtlich langsamer als VRAM.

Disco_STFU
2015-06-25, 13:08:11
Es hieß doch immer mehr als 4GB sind aufgrund momentaner technischer Limitierungen schlicht nicht möglich.

dildo4u
2015-06-25, 13:11:53
Nur ist die Hi-Res-Auslegung angesichts der Limitierung auf 4 GiByte Speicher nicht zuende gedacht. Mit 8 GiB und etwas mehr Takt könnte man die Karte bedenkenlos jedem Hi-Res-Spieler empfehlen, im jetzigen Zustand fällt das "bedenkenlos" aber eindeutig weg.

MfG,
Raff
Nicht nur das AMD wirbt auch mit LiquidVR laut Oculus sind dort 90fps ideal,das erreicht man nicht in 4k sogar 1440p ist fraglich,wenn das Game nich grad super simpel ist.Ich schätze mal das VR Rennen wird Nvidia machen und zwar mit Abstand.

samm
2015-06-25, 13:13:59
Tonga Werte wären auch interessant...AMD hatte doch beim Tonga Launch etwas von ca. 33% erzählt wenn ich mich nicht irre...Es kann je nach Test eigentlich sogar mehr sein, vgl: http://techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed/2 . Ja, würde nicht schaden, die Fiji und Tonga mal im gleichen Szenario zu testen.

stinki
2015-06-25, 13:17:16
Es hieß doch immer mehr als 4GB sind aufgrund momentaner technischer Limitierungen schlicht nicht möglich.

Mann könnte 8Hi Stacks anstatt 4Hi Stacks herstellen, aber wie oben schon geschrieben wird dieses 8Hi Produkt momentan nicht hergestellt bzw. verkauft. Vielleicht wäre auch der Ausschuss wenn man 8 Dies stapelt zu hoch im Vergleich zu 4 Dies...

y33H@
2015-06-25, 13:18:42
@ dildo4u

Das kommt doch völlig auf's Spiel und die Engine und die Settings und die interne Render-Auflösungen an bei VR ... wenn man 90 fps will, kriegt man die idR auch.

dildo4u
2015-06-25, 13:21:49
Das kommt doch völlig auf's Spiel und die Engine und die Settings und die interne Render-Auflösungen an bei VR ... wenn man 90 fps will, kriegt man die idR auch.
Die ersten PC Headset's werden wohl mit zwei 1080 × 1200 Displays kommen,da muss die Optik super simpel sein Cryteks Projekt kann man da z.b vergessen.

Oculus-Technikchef Atman Binstock rechnete in einem Blog-Beitrag vor, dass in etwa die dreifache Grafikleistung wie für die Berechung eines Standard-PC-Spiels mit 1080p nötig sei

http://www.heise.de/newsticker/meldung/Teurer-Spass-und-Windows-only-Specs-fuer-Oculus-Rift-veroeffentlicht-2651579.html

Dawn on Titan
2015-06-25, 13:22:25
Imho muss man den Stromverbrauchsmessung definitiv sehr ALU-lastige Tests wählen, denn Fury schaltet diese halt sehr schnell ab und spart so Strom, allerdings nutzt man dann die Leistung auch nicht wirklich aus. Heaven z.B. ist ja doch eher geometrielimitiert.

maguumo
2015-06-25, 13:23:25
Die meisten PC Headset's werden wohl mit 1440 Displays kommen,da muss die Optik super simpel sein Cryteks Projekt kann man da z.b vergessen.
Dann gibts halt 2x Fiji... pro Auge...

Mal abwarten was daraus wird, jetzt kann man das wohl noch nicht so wirklich beurteilen...

Troyan
2015-06-25, 13:26:29
Hier ist Titan X 29% schneller als Fury X in Heaven 4.0:
http://653fb62b3a129d296422-3019ba142970aa3e5db9c4ca20cb2da4.r64.cf1.rackcdn.com/images/QajNx_yWrnEH.878x0.Z-Z96KYq.jpg
http://www.maximumpc.com/amd-radeon-fury-x-review/

Heaven 4.0 kann man einfach nicht für Verbrauchsmessungen heranziehen und das als "Gaming Loop" verkaufen. Ansonsten kann man auch einfach behaupten, dass die GTX980TI/Titan X 29% schneller als Fury X sind.

fondness
2015-06-25, 13:29:41
Hier ist Titan X 29% schneller als Fury X in Heaven 4.0:
http://653fb62b3a129d296422-3019ba142970aa3e5db9c4ca20cb2da4.r64.cf1.rackcdn.com/images/QajNx_yWrnEH.878x0.Z-Z96KYq.jpg
http://www.maximumpc.com/amd-radeon-fury-x-review/

Heaven 4.0 kann man einfach nicht für Verbrauchsmessungen heranziehen und das als "Gaming Loop" verkaufen. Ansonsten kann man auch einfach behaupten, dass die GTX980TI/Titan X 29% schneller als Fury X sind.

Ja ist ja gut, du hast es eh erst 29 mal erwähnt, inzwischen hat es wohl jeder nicht nur einmal gelesen das man Heaven laut dir nicht als Gaming Loop bezeichnen darf.

anddill
2015-06-25, 13:29:46
Mann könnte 8Hi Stacks anstatt 4Hi Stacks herstellen, aber wie oben schon geschrieben wird dieses 8Hi Produkt momentan nicht hergestellt bzw. verkauft. Vielleicht wäre auch der Ausschuss wenn man 8 Dies stapelt zu hoch im Vergleich zu 4 Dies...

Die Kapazität der Vias, der internen Verdrahtung und der angeschlossenen Eingänge ist auch zu beachten. Ein doppelt hoher Stack würde die Belastung der Treiberstufen fast verdoppeln. Die müssen dafür dann natürlich ausgelegt sein, da kann man sicher nicht mal schnell 4 Etagen aufstocken.

Ja ist ja gut, du hast es eh erst 29 mal erwähnt, inzwischen hat es wohl jeder nicht nur einmal gelesen das man Heaven laut dir nicht als Gaming Loop bezeichnen darf.

Warum antwortest Du denn überhaupt noch?

dildo4u
2015-06-25, 13:31:01
Dann gibts halt 2x Fiji... pro Auge...

Mal abwarten was daraus wird, jetzt kann man das wohl noch nicht so wirklich beurteilen...
Das löst aber nicht das das Problem mit der geringen Geometrie Leistung der Hardware plus der schlechten CPU Ausnutzung des Treibers.Bei Grid Autosport schafft Fury z.b nicht mal in 1080p 90fps weil's irgendwo gewaltig limitiert.


80 vs 140fps für die 980 TI.
http://cdn.overclock.net/0/0c/0c1df67e_18495707354_5ea2ae6f2f_o.png

fondness
2015-06-25, 13:31:37
Warum antwortest Du denn überhaupt noch?

Weil es mich nervt, sorry.

y33H@
2015-06-25, 13:32:13
http://www.heise.de/newsticker/meldung/Teurer-Spass-und-Windows-only-Specs-fuer-Oculus-Rift-veroeffentlicht-2651579.htmlDa wird rein die Pixelmenge rangezogen, die alleine hat aber nüscht zu sagen.

ndrs
2015-06-25, 13:34:40
Das hbm 600mhz auch gleich 20% mehr Performance bei 3dmark bedeutet,zeigt doch das da was nicht stimmt,und es evtl doch ein bandbreitenlimitierung gibt.
Vielleicht hängen auch noch andere wichtige Komponenten an der Taktdomäne des Speichers und werden dadurch mit übertaktet.

Grestorn
2015-06-25, 13:36:34
Meine Wahrnehmung ist anders:

Entweder, die Leute begnügen sich mit einem Monitor, oder sie gehen gleich auf mindestens 3.

In meinem Bekanntenkreis jedenfalls sind Systeme mit nur 2 Monitoren weitaus seltener vertreten.

Ich hab tatsächlich 3 Monitore, aber betreibe nur 2 am Haupt/Gaming PC, da mir der Stromverbrauch bei 3 Monitoren zu hoch ist (den 3. Monitor nutze ich fast ausschließlich zusammen mit dem Notebook, obwohl ich ihn auch am Haupt-PC angeschlossen habe).

Daran sollte nVidia also wirklich etwas drehen. Ich verstehe auch nicht, warum es bei 3 Monitoren nicht möglich sein sollte, runterzutakten, wenn das bei 2 Monitoren problemlos funktioniert.

fondness
2015-06-25, 13:40:44
Das Problem geht ja AFAIK schon los wenn zwei Monitore nicht exakt dieselbe Auflösung und Refreshrate haben, man korrigiere mich wenn ich falsch liegen....und das dürfte kein so exotisches Szenario sein.

Da ist es bei Fury sicher schon ein deutlicher Pluspunkt hier in allen Lebenslage im idle zu bleiben.

StefanV
2015-06-25, 13:40:54
gleichzeitig, dauerhaft und im Desktop 2D Betrieb? Ja klar, genau....

Wenn, dann wird da maximal zum testen/spielen mal ein TV vor den PC gekarrt - in diesem Fall dann aber wohl die beiden PC-Monitore ausgeschaltet.
Bei dir, aber deine Meinung muss hier nicht allgemein gültig sein...


Ansonsten sehe ich das Triple-Display setup (mit drei PC Monitoren) nur im Hardcore-Fetisch Bereich von einigen Rennspiel oder Flugsim Fans.
Oder du zockst auf einem Bildschirm, auf einem lässt dir die Temperaturen und andere Statuswerte vom System anzeigen und auf dem letzten lässt dir dann solche Sachen wie Teamspeak und Skype laufen.

Aber nur weil du etwas nicht nutzt und der Meinung bist, es nicht zu brauchen, heißt das nicht, dass nicht andere Leute das als Sinnvolles Feature empfinden.

Also nicht immer nur von dir auf andere schließen und auch mal andere Ansichten akzeptieren...

anddill
2015-06-25, 13:44:07
Daran sollte nVidia also wirklich etwas drehen. Ich verstehe auch nicht, warum es bei 3 Monitoren nicht möglich sein sollte, runterzutakten, wenn das bei 2 Monitoren problemlos funktioniert.

Wegen der Datenrate vom Framebuffer zu den Displays? Die müssen sich ja alle schön sortieren, sollen aber halbwegs gleichzeitig beschickt werden und dann braucht man ja nochmal die selbe Datenrate um zu schreiben.

Und ich hab auch 2 Monitore. Ein kleiner sekundärer reicht mir für Widgets, Statusfenster, Freundesliste etc.

ps: Mein dritter Monitor hängt dann an einem anderen PC :freak:

Dawn on Titan
2015-06-25, 13:50:07
Sorry, ich kenne kaum jemand der sich privat 3 Monitore für ein System hinstellt.

Flusher
2015-06-25, 13:53:04
Tigerdirect vielleicht.


Danke - da gibt es eine für 650 $

MadManniMan
2015-06-25, 13:55:12
Ziemlich freche Preise für ein AMD.

Ich mache mich jetzt mal nicht über die Grammatik lustig ... :D

Wie hoch sollte der Preis Deines Erachtens angesetzt werden?

Thunder99
2015-06-25, 14:04:20
Würden sie es für 400-500€ raus hauen könnte ernsthaft AMD in die Insolvenzgefahr gehen! Das Ding wird garantiert TEURER in der Fertigung sein als ein GM200, ganz geschweige von den davor investierten Entwicklungskosten

Grestorn
2015-06-25, 14:04:45
Das Problem geht ja AFAIK schon los wenn zwei Monitore nicht exakt dieselbe Auflösung und Refreshrate haben, man korrigiere mich wenn ich falsch liegen....und das dürfte kein so exotisches Szenario sein.

Ne, meine 2 Monitore könnten kaum verschiedener sein. Der Primäre ist ein 144 Hz GSync WQHD, der sekundäre ein 60Hz 1920x1200 Display. Das klappt einwandfrei mit dem Runtertakten.

Schnoesel
2015-06-25, 14:15:54
Würden sie es für 400-500€ raus hauen könnte ernsthaft AMD in die Insolvenzgefahr gehen! Das Ding wird garantiert TEURER in der Fertigung sein als ein GM200, ganz geschweige von den davor investierten Entwicklungskosten


Der Chip ist doch nur ein aufgeblasener Tonga keine neue Revision von GCN. Die höchsten Kosten hat sicherlich HBM verursacht und da denke ich hat man sich die Kosten mit Hynix geteilt bzw. weniger Kosten zu tragen als Hynix, dafür wird die Anschaffungskosten höhere sein. Ich sehe aber R&D für Fiji nicht ganz so kritisch. Man wird aus wenig Budget das Meiste rausgeholt haben und der Großteil der R&D wird derzeit doch in Zen gesteckt.

aufkrawall
2015-06-25, 14:19:24
Mit dem vielzitierten Risen 3 Benchmark wird man die GT 630 nun mal nicht vernünftig messen können.

Sicher? Warum nicht?


Man kann auf Heaven herum hacken, wie man will, aber es ist bzw. war eines der wenigen Szenarien, bei denen kaum noch Treiberoptimierungen vorgenommen werden und der damit reproduzierbar bleibt, weil er schlichtweg über lange Zeit stabil ist.

Das sind "fixe" Folterszenen aus Spielen aber auch.


Bis zu Fiji haben auch alle Karten brav mitgespielt und niemand hat sich beschwert, denn es funktionierte von der kleinsten bis zu größten Karte immer zuverlässig.

Ich finde die Methodik nicht ideal, völlig unabhängig von Fiji.
Dass ich bisher daran nicht Anstoß genommen hab, ist einfach der Tatsache geschuldet, dass wegen fehlender Informationen in eurem Test überhaupt nicht ersichtlich ist, wie getestet wurde.
Ich hab aber schon bei mindestens einem früheren Review hier im Forum angemerkt, dass ich die fehlenden Angaben zum "Spiele-Loop" bei TH fragwürdig finde.


Fiji ist bemerkenswert, das muss man AMD lassen. Es fehlt nur noch ein wirklich restriktives Power Limit, dann hätte man die gleiche Qualität wie Nvidia erreicht. Dumm eben nur, wenn man versucht, auch noch den letzten Frame pro Sekunde rauszuquetschen, auch wenn man dafür dann schon auf der allerletzten Rille tanzen muss.

Na ja, die Karte läuft schon mit WK. Da explodiert der Verbrauch schon mal nicht wegen der Leakage wie bei Hawaii REferenzdesign. Ist also schon beachtenswert, dass auch in Spielen so viel gezogen werden kann.
Wie gesagt, dürfte ein Limit bei 275W bei Risen 3 im PCGH-Benchrun schon messbar Leistung kosten und Fiji steht da eh schon nicht so gut gegenüber Maxwell da.

Ich sehe eine Schwachsinnige Diskussion die von Leuten geführt wird die an der Karte sowieso kein Interesse haben.
Wenn man sowieso kein Interesse an der Karte hat sind die Schwachpunkte doch völlig egal, man muss sich ja damit nicht rumschlagen.
Gut, dass du hier nichts zu sagen hast. Beigetragen hast du nämlich noch gar nichts und es soll auch Leute geben, die die Diskussion nicht völlig sinnfrei finden. Immerhin sind auch Redakteure beteiligt.
Abgesehen davon erinnern deine Umgangsformen ans McDonald's Personal. Muss dir ja sehr unangenehm sein, wenn nicht nur auf den positiven Aspekte (die es auch gibt, etwa der Idle-Verbrauch) Augenmerk liegt...

Moin! Auch ich lese hier manchmal mit - meistens übernimmt es aber der Raff. :) [Meine Hervorhebung] Wir nutzen nicht ohne Grund zwei unterschiedliche Spiele zur Messung der Leistungsaufnahme und ebenfalls nicht ohne Grund haben wir uns dazu entschieden, hierfür überdurchschnittlich fordernde Spiele zu nehmen. Dein Ansatz mit Heaven mag ein anderer sein - das ist dein gutes Recht, das ist ebenso valide und es liefert einen wertvollen weiteren Datenpunkt. Das ist sicherlich allen bewusst und brauchst nicht verbal andere Ansätze schlechtzureden, um deine Position zu sichern.
:up:

Naja, Auflösung ist jetzt nicht so der VRAM-Killer, da ist MSAA weit schlimmer, und MSAA ist unter 4K ohnehin Luxus. 4K ohne MSAA benötigt zB nicht mehr Speicher wie 1080p mit 4xMSAA (wenn man mal von irgend welchen Voodoo-Implementierungen absieht) .

Sorry, aber du erzählst grotesken Quatsch:
http://abload.de/thumb/heaven_2015_06_25_13_c9o8d.jpg (http://abload.de/image.php?img=heaven_2015_06_25_13_c9o8d.jpg) http://abload.de/thumb/heaven_2015_06_25_13_wqr3e.jpg (http://abload.de/image.php?img=heaven_2015_06_25_13_wqr3e.jpg)

z3ck3
2015-06-25, 14:20:56
kein Review aber ich hoffe ist hier trotzdem nicht falsch:

EK mit Fullcover Kühler. Sehr schön das gleich eine Single-Slot Blende mitgeliefert wird. Vermutlich die erste Highend Grafikkarte seit langem die nur noch einen Slot benötigt und zudem auch noch sehr kurz ist.

http://www.pcgameshardware.de/AMD-Radeon-R9-Fury-X-4G-Grafikkarte-260708/News/EK-Water-Blocks-Fullcover-Wasserkuehler-1163026/

Effe
2015-06-25, 14:21:33
Sorry, ich kenne kaum jemand der sich privat 3 Monitore für ein System hinstellt.Ich habe sogar 4. Und nun?
Ich kenne niemanden, der 700€ für eine Grafikkarte ausgibt. Was beweist das jetzt? :freak:

Dawn on Titan
2015-06-25, 14:29:27
Ich habe sogar 4. Und nun?
Ich kenne niemanden, der 700€ für eine Grafikkarte ausgibt. Was beweist das jetzt? :freak:

Nichts, aber ich stimme Dir zu ab jetzt sollte auch der Stromverbrauch mit mehr als 2 Monitoren in die Bewertung stärker einfließen.

dargo
2015-06-25, 14:30:33
Das löst aber nicht das das Problem mit der geringen Geometrie Leistung der Hardware plus der schlechten CPU Ausnutzung des Treibers.Bei Grid Autosport schafft Fury z.b nicht mal in 1080p 90fps weil's irgendwo gewaltig limitiert.


80 vs 140fps für die 980 TI.
http://cdn.overclock.net/0/0c/0c1df67e_18495707354_5ea2ae6f2f_o.png
Klar limitiert es gewaltig, nämlich bei der DX11 API. Das sieht man sogar bei GM200 ganz gut. Da limitiert in 1080p auch die CPU bzw. die API noch recht stark. Von 1080p auf 2160p bricht GM200 um ca. 50% ein. Er müsste aber eher auf 33-25% einbrechen. Das siehst du sehr gut bei Crysis 3. In der C3 Szene spielt die CPU nicht so die große Rolle in Full-HD wie bei GRID Autosport. Und schon bricht GM200 auf ca. 1/3 ein von 1080p auf 2160p.

aufkrawall
2015-06-25, 14:34:00
Nichts, aber ich stimme Dir zu ab jetzt sollte auch der Stromverbrauch mit mehr als 2 Monitoren in die Bewertung stärker einfließen.
Das sollte natürlich Erwähnung finden, aber letztlich ist Multi-Monitor halt eine Minderheit. Die schaut dann eben genauer darauf.
Ist aber schon eine sehr lobenswerte Entwicklung, Hawaii war mit dem 512 Bit Interface wirklich nicht tragbar.

blaidd
2015-06-25, 14:37:20
Ich hatte die Karte ein Wochenende daheim und finde Fury X schon ganz sexy, von der Leistung ist sie auch ganz okay. Eventuell ist da noch nicht das Ende der Fahnenstange erreicht, die Messungen sind schließlich noch ziemlich querbeet.

Das Ding macht auch optisch/haptisch echt was her, als ich meine R9 290X später wieder eingebaut habe und ein paar Tage später mal eine GTX 980 Ti, fühlten sich beide ein wenig wie altmodisches und ziemlich klobiges Plastikspielzeug an. Aber die 4 GiByte Speicher und der Preis passen mir nicht. Die Karte bringt mit gutem Willen vielleicht 40 % mehr Leistung als meine R9 290X auf die Straße, dafür soll ich aber 55 % mehr zahlen (wohlgemerkt: bezogen auf den Einkaufspreis meiner Sapphire R9 290X Tri-X kurz nach deren Launch).

Das passt mir gar nicht in den Kram. Ähnliches gilt allerdings für die GTX 980 Ti, da hat aus Preis/Leistungssicht tatsächlich mal Nvidia die Nase ein paar Meter vorn, dafür finde ich sie nach der Fury X ziemlich langweilig.

Ich behalte das Ganze noch ein Weilchen im Auge, aber mittlerweile habe ich mich halb damit abgefunden, dass es diese Generation nichts wirklich Interessantes mehr für mich gibt. Für 1440p hab ich noch genug Power, 4K funktioniert auch mit den aktuellen High-End-GPUs immer noch nicht befriedigend (zumindest aus meiner Sicht) und nochmal einen Wechsel vor DX12 zu vollziehen ohne die Auswirkungen der API zu kennen, erscheint mir auch nicht sonderlich einladend.

Ich fass es übrigens nicht, dass AMD es nicht gepackt hat, die Pumpengeräusche einzudämmen. Das sind zu allergrößten Teilen hochfrequente Schwingungen des Pumpengehäuses. Ohne Scheiss: Das nervige Fiepen würde ein einfacher Filzunterleger oder ein Moosgummi praktisch komplett eliminieren. Das ist so dämlich, das tut schon weh. :facepalm: Und ja, AMD hat gesagt, sie fixen das. Aber das hätte irgendein Azubi auch hinbekommen, der Fail war völlig und vollkommen unnötig.

robbitop
2015-06-25, 14:43:45
Tonga Werte wären auch interessant...AMD hatte doch beim Tonga Launch etwas von ca. 33% erzählt wenn ich mich nicht irre...
Ich gehe davon aus, dass die DCC bei Tonga und Fijii gleich ist. Man erfindet das Rad in so kurzer Zeit nicht unbedingt 2x. ;)

edit: alternativ kann es natürlich sein, dass der Wert bei "black textures" bspw durch andere Dinge wie z.B. ROPs limitiert wird. Dummerweise hat Tonga nur 32 ROPs. Andererseits hat er deutlich weniger als 1/2 der Bandbreite. Einen Versuch wäre es Wert, Tonga mal zu messen. :)

Palpatin
2015-06-25, 14:47:38
Das Problem geht ja AFAIK schon los wenn zwei Monitore nicht exakt dieselbe Auflösung und Refreshrate haben, man korrigiere mich wenn ich falsch liegen....und das dürfte kein so exotisches Szenario sein.

Da ist es bei Fury sicher schon ein deutlicher Pluspunkt hier in allen Lebenslage im idle zu bleiben.
Die meisten werden mittlerweile eine Intel CPU mit mit Grafikeinheit haben. Ich hatte mit Nvidia und MultiMonitorsetup auch immer meine Probleme und z.T. auch 3 Bildschirme dran, bis ich auf die geniale Idee gekommen bin nur den Gaming Montior an die NVidia Karte zu hängen und den Rest mit der Intel zu betreiben, müsst auch ein bischen VRam sparen. ;) Würde ich auch genau so machen wenn ich ne AMD Karte drinnen hätte.

Thunder99
2015-06-25, 14:47:43
Wegen dem Preis ist es bei nvidia nicht anders. Für die letzten % Mehrleistung darf man immer überproportional mehr zahlen.

Danke für dein Kurz-Review. Was mich interessieren würde wäre die Performance mit x16 Tess Faktor in Witcher 3 :D

Raff
2015-06-25, 14:57:01
Danke für dein Kurz-Review. Was mich interessieren würde wäre die Performance mit x16 Tess Faktor in Witcher 3 :D

Deutlich höher als ohne Limit. :uup:

MfG,
Raff

fondness
2015-06-25, 14:59:22
Die meisten werden mittlerweile eine Intel CPU mit mit Grafikeinheit haben. Ich hatte mit Nvidia und MultiMonitorsetup auch immer meine Probleme und z.T. auch 3 Bildschirme dran, bis ich auf die geniale Idee gekommen bin nur den Gaming Montior an die NVidia Karte zu hängen und den Rest mit der Intel zu betreiben, müsst auch ein bischen VRam sparen. ;) Würde ich auch genau so machen wenn ich ne AMD Karte drinnen hätte.

Das geht? :eek:
Auf die geniale Idee bin ich noch nicht gekommen, gleich mal testen^^

Leonidas
2015-06-25, 15:01:24
Die Erwartungshaltung hat teilweise die AMD Fanbase selbst verursacht und jetzt dürfen diejenigen, die darauf reingefallen sind nicht enttäuscht sein? ;D[/SIZE]


... AMD selber mit +9% unter 4K auf eine 980Ti. Da musste die Fanbase wirklich nichts beitragen, AMD hat selber hoch gepokert.

Aber einen Artikel von Marketing-Benches vs. Realität darf ich zu AMD nicht bringen, da werd ich gelyncht.

y33H@
2015-06-25, 15:01:49
Sorry, aber du erzählst grotesken Quatsch.Ich meine aber, dass es bei vielen Spielen so ist, dass UHD ohne MSAA ähnlich Speicher wie 1080p mit MSAA, da die Render-Targets in etwa die gleiche Größe haben.

aufkrawall
2015-06-25, 15:06:09
Ich würde das bei "toll" optimierten Ubisoft-Titeln vermuten. Von Frostbite hab ich das aber anders in Erinnerung.

Ist aber imho eh eine unnötige Diskussion, weil durch hohen VRAM-Verbrauch in 1080p 4xMSAA dieser in 4k 1xAA nicht geringer wird. ;)

fondness
2015-06-25, 15:08:43
Ich meine aber, dass es bei vielen Spielen so ist, dass UHD ohne MSAA ähnlich Speicher wie 1080p mit MSAA, da die Render-Targets in etwa die gleiche Größe haben.

Richtig, deshalb schrieb ich auch die Einschränkung in der Klammer. Es sollte vergleichbar sein, manche Spiele verwenden allerdings MSAA nur auf bestimmte Objekte, etc. sodass es natürlich von der Implementierung abhängt.

Da aufkrawall da wie üblich mit "grotesken Quatsch" draufhauen musste, vergeht mir da auch die Lust zu antworten.

Troyan
2015-06-25, 15:10:17
Das geht? :eek:
Auf die geniale Idee bin ich noch nicht gekommen, gleich mal testen^^

Seit Windows 7 können wieder mehr als ein aktiver Grafikkartentreiber vorhanden sein.
Ging sogar mit XP. :freak:

Ätznatron
2015-06-25, 15:13:09
Das geht? :eek:
Auf die geniale Idee bin ich noch nicht gekommen, gleich mal testen^^

Da geht schon, du sparst aber kein VRAM ein.

Und es ändert auch nichts an der grundsätzlichen nVidia-Problematik.

PS: Allerdings kann dadurch das HDMI 2.0 Problem der Fury umgangen werden.

aufkrawall
2015-06-25, 15:14:37
Da aufkrawall da wie üblich mit "grotesken Quatsch" draufhauen musste, vergeht mir da auch die Lust zu antworten.
Ich hätte ganz gerne einen Test dazu, wenn du schon eine pauschale Aussage tätigst.

Matrix316
2015-06-25, 15:17:55
[...]Die Karte bringt mit gutem Willen vielleicht 40 % mehr Leistung als meine R9 290X auf die Straße, dafür soll ich aber 55 % mehr zahlen (wohlgemerkt: bezogen auf den Einkaufspreis meiner Sapphire R9 290X Tri-X kurz nach deren Launch).[...]

40% mehr Leistung bei nur 55% mehr Kosten ist doch optimal. Besser geht es eigentlich kaum bei High End Hardware. Vergleich doch mal 980TI mit TitanX! 50% mehr Kosten für 2% mehr Leistung oder so.

Das Problem ist irgendwie immer noch die 970, denn die war so billig und so schnell, dass AMD sein damaliges High End drastisch vom Preis senken musste und Nvidia die Preise der 980 und Titan X und so quasi beliebig ansetzen konnte.

Wenn eine 290X 350 kostet, dürfte eine 390X nicht mehr als 400 und eine 980 nicht mehr als 450 kosten und die Fury X und 980TI so bei 550 rum.

Schnoesel
2015-06-25, 15:18:25
. AMD selber mit +9% unter 4K auf eine 980Ti. Da musste die Fanbase wirklich nichts beitragen, AMD hat selber hoch gepokert.

Hat denn einer mal mit exakt den Einstellungen gebencht und somit nachgewiesen dass AMD hier gelogen hat? Falls nicht würdest du mit einem solchen Artikel zurecht gelyncht. Dass man nicht die schlechtesten Benchszenen ausgewählt hat sollte klar sein und das macht die Konkurrenz nicht anders.

robbitop
2015-06-25, 15:20:22
Das geht? :eek:
Auf die geniale Idee bin ich noch nicht gekommen, gleich mal testen^^
Ja das geht. Habe ich zu GK110 Zeiten auch gemacht. Meine Titans hatten nur 1x DP und ich hatte 2x DP Monitore (kein HDMI und DVI wollte ich nicht).

Ist doch die älteste Sache der Welt. Als Grafikkarten nur 1x Output hatten, hat man den 2. Monitor schon zu XP Zeiten dann eben an eine 2. Grafikkarte oder die IGP gehängt.

Pirx
2015-06-25, 15:29:14
... AMD selber mit +9% unter 4K auf eine 980Ti. Da musste die Fanbase wirklich nichts beitragen, AMD hat selber hoch gepokert.

Aber einen Artikel von Marketing-Benches vs. Realität darf ich zu AMD nicht bringen, da werd ich gelyncht.
mal ein Jährchen ins Land gehen lassen, dann wirds schon hinhauen.

BlacKi
2015-06-25, 15:29:21
Vergleich doch mal 980TI mit TitanX! 50% mehr Kosten für 2% mehr Leistung oder so.
argh, mein kopf schmerzt bitte hör auf damit!:rolleyes:

Knuddelbearli
2015-06-25, 15:33:43
Moin! Auch ich lese hier manchmal mit - meistens übernimmt es aber der Raff. :) [Meine Hervorhebung] Wir nutzen nicht ohne Grund zwei unterschiedliche Spiele zur Messung der Leistungsaufnahme und ebenfalls nicht ohne Grund haben wir uns dazu entschieden, hierfür überdurchschnittlich fordernde Spiele zu nehmen. Dein Ansatz mit Heaven mag ein anderer sein - das ist dein gutes Recht, das ist ebenso valide und es liefert einen wertvollen weiteren Datenpunkt. Das ist sicherlich allen bewusst und brauchst nicht verbal andere Ansätze schlechtzureden, um deine Position zu sichern.


Wo gibt es in Risen den bitte Elfen?

][immy
2015-06-25, 15:36:04
Gibt es irgendwo auch Tests zu z.B. Battlefield mit Mantle?
Das würde ja zumindest das CPU-Limit ein wenig entschärfen.
Die Frage bei dieser Karte dürfte wohl eher sein, was sie unter DX12 Titeln kann. Die Übergangskarten waren noch nie so extrem gut in der älteren DX Generation.


Zudem mal die Frage, 500 MHz Speichertakt sind schon ziemlich extrem. Haben da die Timings nicht durchaus auch Probleme oder sind die gegenüber GDDR5 nicht so schlecht?

aufkrawall
2015-06-25, 15:39:33
[immy;10680102']Gibt es irgendwo auch Tests zu z.B. Battlefield mit Mantle?
Das würde ja zumindest das CPU-Limit ein wenig entschärfen.

Gibt es. Die Performance im GPU-Limit ist schlecht, weil die Mantle-Implementierung des Spiels GCN 1.2 nicht mehr richtig unterstützt:
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/11

Da darf man dann schön mit absolut grütziger Performance im CPU-Limit des AMD D3D-Treibers spielen.

dildo4u
2015-06-25, 15:42:30
Wird Zeit das jede Seite auf Frametimes umsteigt Fury scheint öfter Probleme zu haben das ist ohne! Hairworks.

http://abload.de/img/w3-99thdns2n.gif

http://abload.de/img/fc4-99thm1s2a.gif

http://abload.de/img/ai-99thbhs0d.gif

http://abload.de/img/c3-99th7uu5h.gif

http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/6

aufkrawall
2015-06-25, 15:47:35
Kein guter Vergleich, weil die 780 Ti auch unter miesesten Frametimes leidet. Da liegt ein app-Problem nahe.
Das man bei der 780 ti allerdings mit prerendered frames 1 per Treiber fixen kann, bei Radeons jedoch nicht. ;)

blaidd
2015-06-25, 16:03:16
40% mehr Leistung bei nur 55% mehr Kosten ist doch optimal. Besser geht es eigentlich kaum bei High End Hardware. Vergleich doch mal 980TI mit TitanX! 50% mehr Kosten für 2% mehr Leistung oder so.


55% Aufpreis gegenüber den ~450 Euro, die ich vor etwa anderhalb Jahren bezahlt habe für 40 % Mehrleistung jetzt? Finde ich nicht okay. Den Leistungszuwachs sollte es mehr oder weniger ohne zusätzlichen Aufpreis geben. Ein paar Euro wäre ich bereit, für die neue Technik und die Wasserkühlung zu investieren. 550 Euro wären wohl meine Schmerzgrenze für Fury X. Wenn sie das Preislevel erreicht, wäre sie eventuell interessant für mich (und das halte ich gar nicht mal für so unwahrscheinlich, in ein paar Shops in den USA ist sie schon für unter 600 $ zu bekommen). Aber es kann nicht sein, dass die Karten einfach immer teuerer werden, ohne dass es dafür einen entsprechenden Performance-Boost oder ein paar andere Extras gibt.

In der Hinsicht wäre der Wechsel von Titan auf Titan X beispielsweise deutlich lohnenswerter. Die neue Kostet ja auch nicht plötzlich 1500 Euro. Das sind tatsächlich nur ein paar Prozent extra - das mag daran liegen, dass der Preis schon vorher Banane war, aber hey. Für GTX 780 Ti vs GTX 980 Ti gilt prinzipiell das gleiche. Nvidia hat dafür die Generation davor ihre Kunden kräftig zur Kasse gebeten - fand ich auch ziemlich daneben. Womit wird das vernünftig gerechtfertigt?

Klar, R&D und mehr bzw. neuer Speicher und so... aber das ist eine ganz normale Entwicklung. Ein paar Preisspitzen kann ich auch ab, aber generell nach oben strebende Preise soll mir mal jemand vernünftig nahelegen - im Verhältnis zu Ausstattung, Technik und Geschwindigkeit sehe ich da jedenfalls nichts gravierendes, was früher nicht auch schon existiert hätte.

y33H@
2015-06-25, 16:03:38
Digital Foundry Review: http://www.eurogamer.net/articles/digitalfoundry-2015-radeon-r9-fury-x-review

In 4K sehr gut, in 1440p und 1080p wie andernorts auch eher mies.

MartinRiggs
2015-06-25, 16:09:08
55% Aufpreis gegenüber den ~450 Euro, die ich vor etwa anderhalb Jahren bezahlt habe für 40 % Mehrleistung jetzt? Finde ich nicht okay. Den Leistungszuwachs sollte es mehr oder weniger ohne zusätzlichen Aufpreis geben. Ein paar Euro wäre ich bereit, für die neue Technik und die Wasserkühlung zu investieren. 550 Euro wären wohl meine Schmerzgrenze für Fury X. Wenn sie das Preislevel erreicht, wäre sie interessant für mich (und das halte ich gar nicht mal für so unwahrscheinlich, in ein paar Shops in den USA ist sie schon für unter 600 $ zu bekommen). Aber es kann nicht sein, dass die Karten einfach immer teuerer werden, ohne dass es dafür einen entsprechenden Performance-Boost oder ein paar andere Extras gibt.

In der Hinsicht wäre der Wechsel von Titan auf Titan X beispielsweise deutlich lohnenswerter. Die neue Kostet ja auch nicht plötzlich 1500 Euro. Das sind tatsächlich nur ein paar Prozent extra - das mag daran liegen, dass der Preis schon vorher Banane war, aber hey. Für GTX 780 Ti vs GTX 980 Ti gilt prinzipiell das gleiche. Nvidia hat dafür die Generation davor ihre Kunden kräftig zur Kasse gebeten - fand ich auch ziemlich daneben. Womit wird das vernünftig gerechtfertigt?

Klar, R&D und mehr bzw. neuer Speicher und so... aber das ist eine ganz normale Entwicklung. Ein paar Preisspitzen kann ich auch ab, aber generell nach oben strebende Preise soll mir mal jemand vernünftig nahelegen - im Verhältnis zu Ausstattung, Technik und Geschwindigkeit sehe ich da jedenfalls nichts gravierendes, was früher nicht auch schon existiert hätte.

Sehr schön geschrieben, leider wird es halt bezahlt und wenn es geht nehmen es die Unternehmen auch.
Fury X würde ich gerne testen, aber zum aktuellen Preis nicht, die GTX980TI ist erstmal komplett uninteressant und ich denke auch nicht das die Preise stark genug fallen um interessant zu werden, Custom-Designs kosten Richtung 800€:eek:, das ist einfach nur behindert und der Stock-Kühler kommt mir nicht in den Rechner.

Daher muss man zwangsweise erstmal etwas Zeit verstreichen lassen und dann weitersehen.

Knuddelbearli
2015-06-25, 16:10:05
Nur ist die Hi-Res-Auslegung angesichts der Limitierung auf 4 GiByte Speicher nicht zuende gedacht. Mit 8 GiB und etwas mehr Takt könnte man die Karte bedenkenlos jedem Hi-Res-Spieler empfehlen, im jetzigen Zustand fällt das "bedenkenlos" aber eindeutig weg.

MfG,
Raff

das liegt aber leider nunmal nicht in AMDs macht

aufkrawall
2015-06-25, 16:13:14
Einen 384 Bit Chip mit DCC zu bringen schon.

Sunrise
2015-06-25, 16:14:09
Sehr schön geschrieben, leider wird es halt bezahlt und wenn es geht nehmen es die Unternehmen auch.
Fury X würde ich gerne testen, aber zum aktuellen Preis nicht, die GTX980TI ist erstmal komplett uninteressant und ich denke auch nicht das die Preise stark genug fallen um interessant zu werden, Custom-Designs kosten Richtung 800€:eek:, das ist einfach nur behindert und der Stock-Kühler kommt mir nicht in den Rechner.

Daher muss man zwangsweise erstmal etwas Zeit verstreichen lassen und dann weitersehen.
Zeit verstreichen zu lassen wird die Situation der höheren Grafikkartenpreise nicht lösen. AMD war bisher gewillt, bzw. auch gezwungen, die Preise zu senken, jedoch sieht es aktuell nicht danach aus, dass hier irgendein IHV noch klein beigibt.

NV hat gigantische Margen, die Leute kaufen trotzdem, warum sollte man die Preise senken? AMD hat mit ziemlicher Sicherheit deutlich geringere Margen und kann dadurch auch nicht mehr viel billiger verkaufen.

600 EUR waren für High-End eigentlich immer "angemessen", auch wenn wir Zeiten hatten, wo mir persönlich um die 500 EUR schon zuviel waren. Der Rest ist diskussionswürdig und zum Teil einfach nur um sich genug Budget anhäufen zu können, um dieses wieder anderswo reinzubuttern. Die Käufer finden sich trotzdem (weil viele einfach nicht genug Leistung haben können).

Das ist ein Kreislauf, der wohl nichtmehr enden wird, weil zuwenig Konkurrenzdruck. Es gibt keinen Grund, warum man die Dinger billiger verkaufen sollte (bei min. identischer Leistung).

MartinRiggs
2015-06-25, 16:18:39
Tja dann bleibt es halt so, ich gehöre zu denen die dann halt verzichten, schon die Titan 1 wäre mir nie in den PC gekommen und zum aktuellen Preis verzichte ich auch bei Fury X und 980TI.
Gaming und Hobby gut und schön, aber irgendwo ist eine Grenze, aber das muss auch jeder für sich individuell entscheiden:wink:

uweskw
2015-06-25, 16:22:34
Das hbm 600mhz auch gleich 20% mehr Performance bei 3dmark bedeutet,zeigt doch das da was nicht stimmt,und es evtl doch ein bandbreitenlimitierung gibt.
Die nächsten Wochen werden zeigen,mit vmods und speicheroc was noch geht,warum hat Amd denn selbst behauptet,das man ein OC Beast erschaffen habe,und dann doch nur 60-90mhz.
Irgendwas ist da noch faul

Haben da unsere Herren HW-Redakteure mal bei AMD nachgehakt? Die wissen doch sicher was los ist. Und warum Speicher OC nicht freigegeben ist.

greetz
US

Knuddelbearli
2015-06-25, 16:22:40
Einen 384 Bit Chip mit DCC zu bringen schon.

du hast die pads des chips gesehen? selbst wenn da einige reserven sind ist da niemals genug platz für weitere 512 Bit

Dawn on Titan
2015-06-25, 16:28:47
du hast die pads des chips gesehen? selbst wenn da einige reserven sind ist da niemals genug platz für weitere 512 Bit

Er meinte GDDR5 und imho wäre es schon möglich gewesen dass 512 Bit Speicherinterface von Hawaii mit bandbreitenschonenden Techniken zu kombinieren und so HBM1 zu umgehen.

Was macht man, wenn z.B. NV im Q1/16 einen GP104 bringt, der 6GB GDDR5 @ 384bit bringt, mit 6GB angeboten wird und bei GM200+10% liegt, während HBM2 evtl. erst H2/2016 hinreichend verfügbar wird.

Sunrise
2015-06-25, 16:29:01
Tja dann bleibt es halt so, ich gehöre zu denen die dann halt verzichten, schon die Titan 1 wäre mir nie in den PC gekommen und zum aktuellen Preis verzichte ich auch bei Fury X und 980TI.
Gaming und Hobby gut und schön, aber irgendwo ist eine Grenze, aber das muss auch jeder für sich individuell entscheiden:wink:
Richtig, und das ist auch gut so.

Theoretisch könnte AMD die nano bald etwas günstiger anbieten (keine AiO, kleineres PCB, weniger Bauteile, etc.) und das würde dann (bis auf das fehlende HDCP 2.2 und natives HDMI 2.0 über die Displayengine, was derzeit beides nur GM206 unterstützt) wie eine Bombe einschlagen. Nur muss AMD da derzeit vorsichtig sein, denn das killt ihnen das restliche LineUp. Daher kommt das Ding auch später. Ansonsten würde man damit NV ziemlich wegbomben, denn die Masse zählt.

Wenn die nano zu teuer wird, ist das Produkt trotz aller extrem guten Eigenschaften leider auch fast wertlos. Wenn der Preis gut jedoch ist, wäre das dann evtl. die richtige Karte für dich und etliche Tausend andere Benutzer. Müssen wir abwarten.

Mr. Lolman
2015-06-25, 16:29:58
Wird Zeit das jede Seite auf Frametimes umsteigt Fury scheint öfter Probleme zu haben das ist ohne! Hairworks.

http://techreport.com/r.x/radeon-r9-fury-x/w3-99th.gif

http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/6


Also zumindest mit FRAPS würd ich keine Frametimes auslesen. RadeonPro ist da definitiv genauer. Und FCAT ist ja sowieso viel besser: http://www.guru3d.com/articles-pages/fcat-benchmarking-review,1.html

Raff
2015-06-25, 16:41:49
PCGH- und THG-Leistungsaufnahmewerte passen zusammen: http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-25.html#post7500380 (Posting #965)

Also zumindest mit FRAPS würd ich keine Frametimes auslesen. RadeonPro ist da definitiv genauer. Und FCAT ist ja sowieso viel besser: http://www.guru3d.com/articles-pages/fcat-benchmarking-review,1.html

Ich mach's mittlerweile bevorzugt mit dem Popobörner – diesen Satzteil bitte nicht out-of-context zitieren ;D –, dort kann man auch die Polling Rate nach Gusto anpassen.

MfG,
Raff

Dawn on Titan
2015-06-25, 16:52:12
Was auch Sinn macht. GM204 hat massig Geometrieleistung und im Vergleich weniger ALU Leistung, Fiji ist ziemlich limitiert wenn es um Geometrieleistung geht (eigentlich nicht mehr als Hawaii). Heaven sollte als die ALUs von Fiji nicht vollständig auslasten und da der Chip ja inaktive Teile nun schnell abschaltet, wird der Verbrauch bei Heaven niedriger sein als bei Anno und dem Elfentanz.

Loeschzwerg
2015-06-25, 16:59:21
52365

@Raff: Die 100°C sind an der Oberseite des Kupferröhrchens von den Spannungswandlern? Oder sind das die Spulen die dort so warm werden?

MadManniMan
2015-06-25, 17:02:06
PCGH- und THG-Leistungsaufnahmewerte passen zusammen: http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-25.html#post7500380 (Posting #965)

Nehmt mal lieber diesen Link hier, der wirft immerhin auf die richtige Seite: http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-97.html

y33H@
2015-06-25, 17:02:16
Haben da unsere Herren HW-Redakteure mal bei AMD nachgehakt? Die Herren HW-Redakteure speisen dieser Tage lieber bei Nvidia :P

Palpatin
2015-06-25, 17:06:11
Richtig, und das ist auch gut so.

Theoretisch könnte AMD die nano bald etwas günstiger anbieten (keine AiO, kleineres PCB, weniger Bauteile, etc.) und das würde dann (bis auf das fehlende HDCP 2.2 und natives HDMI 2.0 über die Displayengine, was derzeit beides nur GM206 unterstützt) wie eine Bombe einschlagen. Nur muss AMD da derzeit vorsichtig sein, denn das killt ihnen das restliche LineUp. Daher kommt das Ding auch später. Ansonsten würde man damit NV ziemlich wegbomben, denn die Masse zählt.

Wenn die nano zu teuer wird, ist das Produkt trotz aller extrem guten Eigenschaften leider auch fast wertlos. Wenn der Preis gut jedoch ist, wäre das dann evtl. die richtige Karte für dich und etliche Tausend andere Benutzer. Müssen wir abwarten.
Was erwartet ihr den von der Nano? Die wird am Ende langsamer sein als ne 980 und mehr Strom verbrauchen, mehr als 4gb hat sie auch nicht. Das Teil wäre doch nur intressant zum Preis einer 970!

Timbaloo
2015-06-25, 17:08:57
Ich denke schon, dass man eine 980 hinsichtlich Effizienz einholen kann. Ob man dann auf 980er oder 970er Niveau landet ist nicht so dramatisch. Preislich wird man sich so oder so dazwischen positionieren in dem Fall.

Birdman
2015-06-25, 17:11:03
Wenn die nano zu teuer wird, ist das Produkt trotz aller extrem guten Eigenschaften leider auch fast wertlos. Wenn der Preis gut jedoch ist, wäre das dann evtl. die richtige Karte für dich und etliche Tausend andere Benutzer. Müssen wir abwarten.
GTX970 Performance, Stromverbrauch sowie Preis und das Ding würde einschlagen ohne Ende.

In einer andern Nische sehe ich die Karte nicht.
Mit 175W TDP wird man eine GTX980 nicht gefährden können, zumal die Nano auch nicht wirklich für 4k Gaming ausgelegt werden kann.

Die Frage ist halt, ob AMD die Karte für so einen Preis raushauen kann/will.
Nebst geringer oder keiner Marge würde sowas die halbe R9 3xx Reihe torpedieren. (ausser für die RAM Käuferschicht)

maguumo
2015-06-25, 17:12:29
Die Nano soll schneller als Hawaii werden, ne 980@Stock wird die schon hinter sich lassen. Alles andere wäre aber auch wirklich ernüchternd bei dem Materialeinsatz.

dildo4u
2015-06-25, 17:12:58
GTX970 Performance, Stromverbrauch sowie Preis und das Ding würde einschlagen ohne Ende.

Diese Bauform bekommste auch als 970 und wie du sagst eine HBM Karte wirste dieses Jahr nicht für 300€ bekommen.

https://geizhals.de/gigabyte-geforce-gtx-970-mini-gv-n970ixoc-4gd-a1185383.html?hloc=at&hloc=de&hloc=uk

Die Nano soll schneller als Hawaii werden, ne 980@Stock wird die schon hinter sich lassen. Alles andere wäre aber auch wirklich ernüchternd bei dem Materialeinsatz.
Fury X ist nicht wirklich besser als eine 980,da wird sich die Nano im Bereich der 970 bewegen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10680109&postcount=664

Troyan
2015-06-25, 17:15:08
Die Nano soll schneller als Hawaii werden, ne 980@Stock wird die schon hinter sich lassen. Alles andere wäre aber auch wirklich ernüchternd bei dem Materialeinsatz.

Fury X ist in 1440p gerade mal zwischen 15 und 20% schneller als die GTX980.

Die Nano soll maximal 175W an Strom aufnehmen, die Fury X kommt auf ~300W in Anno2070 und 250W+ in anderen Spielen.

Das sind 75W bis 125W an Einsparungen, die nicht mehr als ~15% an Leistung kosten dürfen und das ohne Wasserkühlung und mit Minimallüfter bei 80°C oder so...

Palpatin
2015-06-25, 17:17:39
Die Nano soll schneller als Hawaii werden, ne 980@Stock wird die schon hinter sich lassen. Alles andere wäre aber auch wirklich ernüchternd bei dem Materialeinsatz.
Fury ist imo 20% schneller als 980 Stock und verbrät doppelt soviel Saft.
Bin gespannt aber laße mich gern postiv überraschen.

I

dargo
2015-06-25, 17:18:18
Gibt es. Die Performance im GPU-Limit ist schlecht, weil die Mantle-Implementierung des Spiels GCN 1.2 nicht mehr richtig unterstützt:
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/11

Da darf man dann schön mit absolut grütziger Performance im CPU-Limit des AMD D3D-Treibers spielen.
Hier sieht man mal wieder wie unterschiedlich die Benchmarks ausfallen. :freak:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=14

PCGH_Carsten
2015-06-25, 17:21:48
Die Nano soll maximal 175W an Strom aufnehmen, die Fury X kommt auf ~300W in Anno2070 und 250W+ in anderen Spielen AMD gibt, anders als auch Leonidas in seiner Launch-Zusammenfassung schreibt, nicht die TDP sondern die Typical Board Power an. Einzelne Anwendungen als auch Programme, die fälschlicherweise gern als Power-Viren bezeichnet werden, können (undefiniert) weit darüber hinausgehen. Erinnert sich noch jemand an die GTX 590…? Es kommt auch sicherlich nicht von ungefährt, dass AMD bei einem OC-Potenzial von optimistischen ~100 MHz eine Typical Board Power von 275 angibt, der Karte zwei Achtpin-Buchsen spendiert, die Stromversorgung auf 400 Ampere auslegt und die Kühlung auf 500 Watt. Andererseits sagte AMD auch, dass Fiji eine sehr vorteilhafte Verbrauchs-Skalierung mit Temperatur, Spannung und Takt aufweise. Da könnten – und ab hier beginnt meine Spekulation – ~800 MHz bei passend geringer Spannung und selektierten, aber voll ausgebauten Chips für die Fury Nano schon spannend werden (und die Salvage-Parts wie gehabt wohl in der Fury Pro landen).

maguumo
2015-06-25, 17:23:07
Fury X ist nicht wirklich besser als eine 980,da wird sich die Nano im Bereich der 970 bewegen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10680109&postcount=664

Was soll mir der verlinkte Post sagen? Und natürlich ist die Fury X besser als eine 980, spar' dir das Cherrypicking.

Fury X ist in 1440p gerade mal zwischen 15 und 20% schneller als die GTX980.

Die Nano soll maximal 175W an Strom aufnehmen, die Fury X kommt auf ~300W in Anno2070 und 250W+ in anderen Spielen.

Das sind 75W bis 125W an Einsparungen, die nicht mehr als ~15% an Leistung kosten dürfen und das ohne Wasserkühlung und mit Minimallüfter bei 80°C oder so...

Sweetspot soll irgendwo bei 220W liegen, wir wissen nicht wie sich eventuell beschnittene Shader auf Performance und Stromverbrauch auswirken. Und selbst die Fury X liegt in etlichen Spieleszenarien gut unter 250W.

Menace
2015-06-25, 17:24:19
Soll ich jetzt in nvidia-Threads anfangen rumzumäkeln, dass nvidia-Karten mehr Strom im alltäglichen Multimonitor-Betrieb benötigen? :rolleyes:

@format_c: Vielen Dank für Deine Infos und Tests. Allein, dass man endlich Multimonitor-Betrieb mit unterschiedlichen Auflösungen, etc. bei gleichem Stromverbrauch übertrifft meine Erwartungen weit. Dieses Verhalten wird sich mit der Nano nicht ändern. Das war bisher der Punkt, den mich am meisten an AMD-Karten gestört hat, da in der Summe im Stromverbrauch wohl störender als hoher Spielverbrauch (bei mir).

Knuddelbearli
2015-06-25, 17:25:01
Also ich würde die Nano so bauen:

PCB möglichst energiesparend. 1ghz Takt und nur über tdp begrenzen, voller Chip, keinerlei OC Möglichkeiten, Preis einer 980, 2tes Modell mit AIO

eratte
2015-06-25, 17:27:50
Fury X ist nicht wirklich besser als eine 980,da wird sich die Nano im Bereich der 970 bewegen.

:facepalm:

HTB|Bladerunner
2015-06-25, 17:28:12
Was spricht denn dagegen einfach mal das Power-Target bei der Fury X zu senken und sich so dem Sweetspot zu nähern? Das wär doch mal ein sinnvoller Test. Da muss man doch nicht auf die Nano warten!

ilibilly
2015-06-25, 17:30:35
Er meinte GDDR5 und imho wäre es schon möglich gewesen dass 512 Bit Speicherinterface von Hawaii mit bandbreitenschonenden Techniken zu kombinieren und so HBM1 zu umgehen.

Was macht man, wenn z.B. NV im Q1/16 einen GP104 bringt, der 6GB GDDR5 @ 384bit bringt, mit 6GB angeboten wird und bei GM200+10% liegt, während HBM2 evtl. erst H2/2016 hinreichend verfügbar wird.

Wird nicht passieren,wenn nv was hat dann ist es Zeit,Pascal denk ich werden wir vor Juni/Juli nicht sehen,dazu müsste es ja Konkurrenz geben.
Bei amd ist Mann die nächsten Monate mit Fijis beschäftigt,da wird vor q2 auch nix kommen,

dildo4u
2015-06-25, 17:33:20
:facepalm:
Wie wär's mal damit den Tech Report Test zu lesen die Frametimes sind im Bereich der 980.

Speaking of which, if you dig deeper using our frame-time-focused performance metrics—or just flip over to the 99th-percentile scatter plot above—you'll find that the Fury X struggles to live up to its considerable potential. Unfortunate slowdowns in games like The Witcher 3 and Far Cry 4 drag the Fury X's overall score below that of the less expensive GeForce GTX 980. What's important to note in this context is that these scores aren't just numbers. They mean that you'll generally experience smoother gameplay in 4K with a $499 GeForce GTX 980 than with a $649 Fury X. Our seat-of-the-pants impressions while play-testing confirm it.

eratte
2015-06-25, 17:40:55
Wie wäre es dann mal die Launchanalyse zu lesen, Reviews zu verstehen und nicht sich einen Fall rauszunehmen.

Deine Behauptung ist nicht haltbar.

DrFreaK666
2015-06-25, 17:43:05
Wie wär's mal Tech Report Test zu lesen die Frametimes sind im Bereich der 980.

Also eine Quelle. Oder hast noch andere gefunden?? Wir alle wissen, dass sich die Ergebnisse von Seite zu Seite unterscheiden...

dildo4u
2015-06-25, 17:43:29
Wie wäre es dann mal die Launchanalyse zu lesen, Reviews zu verstehen und nicht sich einen Fall rauszunehmen.

Deine Behauptung ist nicht haltbar.

Die Masse testet reine fps wenns danach geht ist die 295X2 ne super Karte in Wahreit ist die Spielbarkeit damit oft ne Katastrophe.

DrFreaK666
2015-06-25, 17:45:23
Die Masse testet reine fps wenns danach geht ist die 295X2 ne super Karte in Wahreit ist die Spielbarkeit damit oft ne Katastrophe.

*Hust*
http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-4.html

http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/7/

Spasstiger
2015-06-25, 17:45:49
Imo muss die Fury und Fiji noch etwas reifen.
8 GiB VRAM sollten es sein.
Resonanzgeräusche der Pumpe, wie sehr trifft das auch die Einzelhandelsmodelle?
Kann AMD den Frontend-Flaschenhals treiberseitig entschärfen?
Warum bringt OC der Speichertaktdomäne 20% Mehrperformance, OC der Chiptaktdomäne dagegen nur 3-5%? Hier scheint Potential für viel Mehrperformance über den Speichertakt zu liegen, das dem Nutzer unnötig vorenthalten wird.

Wenn AMD an den richtigen Stellschrauben dreht, könnte Fiji durchaus interessant für mich sein.

Unicous
2015-06-25, 17:58:21
Ich hoffe auch auf Nachtests. Anfang Juli soll ein weiterer Omega-Treiber (Phase 2) kommen. Es ist aber fraglich in wieweit der Fiji auf die Sprünge hilft.
Dass es noch Potential in dem ein oder anderen Spiel gibt, zeigen ja auch die peinlichen Totalausfälle.:freak:

Die Größe des framebuffers ist mMn zuerst zweitrangig. Sie müssen die Speicherallokation bei HBM auf DX10/11 zuschneiden, bei DX12 dürfte es da deutlich weniger Probleme geben.

Ob überhaupt noch 8GB kommen wage ich langsam zu bezweifeln. Vllt. sitzt man es bis zur nächsten Gen aus bzw. wartet ob Fiji einigermaßen erfolgreich ist um den Schritt auf 8 GB zu wagen.

Dawn on Titan
2015-06-25, 18:04:13
52365

@Raff: Die 100°C sind an der Oberseite des Kupferröhrchens von den Spannungswandlern? Oder sind das die Spulen die dort so warm werden?

Das sieht übel aus für ne AiO

mironicus
2015-06-25, 18:04:58
Resonanzgeräusche der Pumpe, wie sehr trifft das auch die Einzelhandelsmodelle?

Trinitus. Kein Unterschied zu den Testmustern. Meine Powercolor ging heute schon wieder zurück. OC ging nur bis 1110 MHz. Ich hatte in einigen Games deutliche Mikroruckler/stottern die ich mit der R290x nicht habe, auch bei ganz anspruchslosen Games. Wahrscheinlich muss da noch einiges am Treiber geschraubt werden.

Das Pfeifen der Wasserkühlung halte ich über längere Zeit nicht aus. Das ging mir nach einer Stunde voll auf die Nerven. Aber gut das ich die Karte ca. 2 Stunden testen konnte, denn jetzt bin erst mal davon geheilt. Vor 16/14 nm kaufe ich keine neue Karte mehr.

blaidd
2015-06-25, 18:10:10
AMD gibt, anders als auch Leonidas in seiner Launch-Zusammenfassung schreibt, nicht die TDP sondern die Typical Board Power an. Einzelne Anwendungen als auch Programme, die fälschlicherweise gern als Power-Viren bezeichnet werden, können (undefiniert) weit darüber hinausgehen. Erinnert sich noch jemand an die GTX 590…? Es kommt auch sicherlich nicht von ungefährt, dass AMD bei einem OC-Potenzial von optimistischen ~100 MHz eine Typical Board Power von 275 angibt, der Karte zwei Achtpin-Buchsen spendiert, die Stromversorgung auf 400 Ampere auslegt und die Kühlung auf 500 Watt. Andererseits sagte AMD auch, dass Fiji eine sehr vorteilhafte Verbrauchs-Skalierung mit Temperatur, Spannung und Takt aufweise. Da könnten – und ab hier beginnt meine Spekulation – ~800 MHz bei passend geringer Spannung und selektierten, aber voll ausgebauten Chips für die Fury Nano schon spannend werden (und die Salvage-Parts wie gehabt wohl in der Fury Pro landen).

Man müsste mal einen anderen Standard als die bloße Leistungsaufnahme entwickeln, die sagt meiner Meinung nach eh recht wenig aus und wer sich eine High-End-GPU holt, den interessiert wahrscheinlich auch die Stromrechnung nicht so sehr (ich mag Hifi, meine Anlage verbrät über 750 Watt wenn ich sie nur einschalte, da braucht nicht mal Musik laufen ;))

Vielleicht ungefähr so: Spieleleistung/(Abwärme + Geräuschpegel).
Viel einfacher zu kommunizieren und auch aussagekräftiger und beinhaltet meiner Meinung nach alle relevanten Informationen. Und rumfuddeln ist dann auch viel schwieriger. ;)

Spasstiger
2015-06-25, 18:11:13
@mironicus: Danke für diesen ersten Erfahrungsbericht. Für 700€ würde ich auch keine Kompromisse bei der Lautstärke oder der Performance in Einzelfällen eingehen zu wollen. Fiji ist für Technikfans schon spannend und schreibt ein Stück weit Geschichte (größte AMD-GPU, erster Einsatz von HBM), aber für einen ernsthaften Kauf haperts an den Details.

aufkrawall
2015-06-25, 18:12:30
@mironicus: Danke für diesen ersten Erfahrungsbericht. Für 700€ würde ich auch keine Kompromisse bei der Lautstärke oder der Performance in Einzelfällen eingehen zu wollen. Fiji ist für Technikfans schon spannend und schreibt ein Stück weit Geschichte (größte AMD-GPU, erster Einsatz von HBM), aber für einen ernsthaften Kauf haperts an den Details.
Dies. :(

N0Thing
2015-06-25, 18:16:37
[immy;10680102']Gibt es irgendwo auch Tests zu z.B. Battlefield mit Mantle?
Das würde ja zumindest das CPU-Limit ein wenig entschärfen.
Die Frage bei dieser Karte dürfte wohl eher sein, was sie unter DX12 Titeln kann. Die Übergangskarten waren noch nie so extrem gut in der älteren DX Generation.


Bisher war immer das Gegenteil der Fall, die ersten Karten für eine neue DX-Generation waren vor allem bei der alten DX-Version sehr gut. Fiji könnte eine Ausnahme sein, das ist aber aus der Vergangenheit nicht ableitbar.


Wird Zeit das jede Seite auf Frametimes umsteigt Fury scheint öfter Probleme zu haben das ist ohne! Hairworks.

http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/6

Für mich sieht das nicht nach öfters aus, sondern als Ausnahmen.

Sieht Techreport übrigens auch so:

Unfortunate slowdowns in games like The Witcher 3 and Far Cry 4 drag the Fury X's overall score below that of the less expensive GeForce GTX 980

Und sieht dabei auch nicht die Hardware als Ursache:

In our "badness" metric, both the Fury X and the R9 290X spend about the same amount of time beyond the 50-ms threshold—not a ton, but enough that one can feel it. The fact that these two cards perform similarly here suggests the problem may be a software issue gated by CPU execution speed.


Wenn du schon Cherry picking betreibst, dann bleib bei den Anwendungen in denen Fury x/AMD schlecht abschneidet und übertrage diese Ergebnisse nicht auf mehrere (öfters) Anwendungen.

uweskw
2015-06-25, 18:23:36
Fury ist imo 20% schneller als 980 Stock und verbrät doppelt soviel Saft.
......



@PCGH
Seht ihr, das ist was bei der Masse hängen bleibt wenn ihr den Focus auf ein worst-case-szenario legt, dass gerade mal in 2-3% der Spielzeit auftritt.
Ich nehme zu eurem Besten an, dass ihr das nicht absichtlich macht. Aber genauso wird das schlechte Image von AMD zementiert.

Greetz
US

aufkrawall
2015-06-25, 18:31:05
Was kann PCGH dafür?
Bei hardware.fr wurde sowohl die Perf/W für BF4, als auch Anno 2070 errechnet.
Besser gehts kaum, und da siehts nun mal auch für Fiji nicht rosig aus im Vergleich zu Maxwell:
http://www.hardware.fr/articles/937-7/consommation-efficacite-energetique.html

DrFreaK666
2015-06-25, 18:36:38
Die hater hier sollten mal zocken gehn. Nervt nur noch

aufkrawall
2015-06-25, 18:38:42
Dito.

Unicous
2015-06-25, 18:39:49
Die Zocker sollen haten? Warum?:confused:

M4xw0lf
2015-06-25, 18:40:22
Was kann PCGH dafür?
Bei hardware.fr wurde sowohl die Perf/W für BF4, als auch Anno 2070 errechnet.
Besser gehts kaum, und da siehts nun mal auch für Fiji nicht rosig aus im Vergleich zu Maxwell:
http://www.hardware.fr/articles/937-7/consommation-efficacite-energetique.html
Rechne doch mal die Effizienz bei den PCGH-Werten aus (ich würde es tun, hab aber keine Zeit... noch ät wörk :usad: ), ich glaube dass Fiji da deutlich schlechter wegkommt.
Es wäre wirklich angebracht, nur noch den Verbrauch bei den zur Performancebestimmung verwendeten Benchmarkszenen (bei jeder(!) einzelnen(!!)) anzugeben, alles andere führt nur zu BS.

fondness
2015-06-25, 18:41:22
Man müsste mal einen anderen Standard als die bloße Leistungsaufnahme entwickeln, die sagt meiner Meinung nach eh recht wenig aus und wer sich eine High-End-GPU holt, den interessiert wahrscheinlich auch die Stromrechnung nicht so sehr (ich mag Hifi, meine Anlage verbrät über 750 Watt wenn ich sie nur einschalte, da braucht nicht mal Musik laufen ;))

Vielleicht ungefähr so: Spieleleistung/(Abwärme + Geräuschpegel).
Viel einfacher zu kommunizieren und auch aussagekräftiger und beinhaltet meiner Meinung nach alle relevanten Informationen. Und rumfuddeln ist dann auch viel schwieriger. ;)

Man sollte zumindest die tatsächliche Leistungsaufnahme angeben und nicht worst case und dann auch noch so tun als wäre das üblich. Gerade bei unterschiedlichen Boostverhalten der beiden Hersteller erzeugt das eine Verzerrung.

Was kann PCGH dafür?
Bei hardware.fr wurde sowohl die Perf/W für BF4, als auch Anno 2070 errechnet.
Besser gehts kaum, und da siehts nun mal auch für Fiji nicht rosig aus im Vergleich zu Maxwell:
http://www.hardware.fr/articles/937-7/consommation-efficacite-energetique.html

Hardware.fr gibt den avg Verbrauch an? Wenn nicht dann verstehe ich nicht was du damit erreichen willst.

aufkrawall
2015-06-25, 18:42:52
Rechne doch mal die Effizienz bei den PCGH-Werten aus (ich würde es tun, hab aber keine Zeit... noch ät wörk :usad: ), ich glaube dass Fiji da deutlich schlechter wegkommt.
Es wäre wirklich angebracht, nur noch den Verbrauch bei den zur Performancebestimmung verwendeten Benchmarkszenen (bei jeder(!) einzelnen(!!)) anzugeben, alles andere führt nur zu BS.
Nicht nur, aber PCGH hätten schon auch BF4 testen können/sollen, ja.

DrFreaK666
2015-06-25, 18:44:21
Immer noch die leistungsdiskussion. Als ob sich dann etwas daran ändern würde. Wir wissen dass einige hier das Thema nur aufgreifen um hier chaos zu stiften. Jede seite sagt dass Fury X mehr verbraucht. Wieso muss man das immer wieder aufgreifen? Das ist so und das bleibt auch so. Was will man erreichen wenn man immer wieder mit anderen links kommt?

-/\-CruNcher-/\-
2015-06-25, 18:44:26
Wird Zeit das jede Seite auf Frametimes umsteigt Fury scheint öfter Probleme zu haben das ist ohne! Hairworks.

http://abload.de/img/w3-99thdns2n.gif

http://abload.de/img/fc4-99thm1s2a.gif

http://abload.de/img/ai-99thbhs0d.gif

http://abload.de/img/c3-99th7uu5h.gif

http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/6

Nvidia optimierte die Shader für Maxwell und sie haben Engineers direkt am Multithreading part gehabt was erwartest du das ding ist für ihren Treiber und Maxwell optimiert bis in die hehe "spitzen".

Schaffe89
2015-06-25, 18:45:18
Die Masse testet reine fps wenns danach geht ist die 295X2 ne super Karte in Wahreit ist die Spielbarkeit damit oft ne Katastrophe.

Bei dir ist gefühlt jeder Beitrag ein Schlechterstellen von AMD Karten, als sie sind.
Jetzt soll es laut dir angeblich auch Probleme mit Frametimes geben.
Dort wo die Fury bessere Frametimes hat wie Maxwell, die Werte werden unterschlagen, man könnte bei deiner Selektivität, genauso von sehr schlechten Frametimes bei NV reden, denn mit cherrypicking lässt sich schließlich alles belegen.:rolleyes:

Aber du darfst gern alle Percentilwerte eines Tests hier auflisten.
Imho alles völlig normale Ausnahmen die es bei NV genauso gibt.

fondness
2015-06-25, 18:45:36
Das einzige was AMD aus dieser Diskussion lernen kann und muss ist, dass man leider einen dummen Boost implementieren muss weil man sonst von den Review-Seiten und Usern zerrissen wird mangels vernünftigen Messequipment oder Willen den Verbrauch über die Zeit zu messen, ganz großes Kino.

Unicous
2015-06-25, 18:48:54
Eine dämliche Zahl die etwas so Zeitkritisches und Dynamisches wie die Leistungsaufnahme wiedergibt ist einfach nicht mehr zeitgemäß.

THG verfolgt an sich einen netten Ansatz, hat ihn aber nicht zu Ende gedacht.

Mir wäre auch am liebsten wenn man diese Messungen nicht nur über ein paar Minuten loggt sondern mehrere Stunden. Und ja, das wäre natürlich ein hoher Zeitaufwand. Aber die aktuelle Methodik ist es eben nicht mehr wirklich aussagekräftig.

dildo4u
2015-06-25, 18:49:53
Bei dir ist gefühlt jeder Beitrag ein Schlechterstellen von AMD Karten, als sie sind.
Jetzt soll es laut dir angeblich auch Probleme mit Frametimes geben.
Dort wo die Fury bessere Frametimes hat wie Maxwell, die Werte werden unterschlagen, man könnte bei deiner Selektivität, genauso von sehr schlechten Frametimes bei NV reden, denn mit cherrypicking lässt sich schließlich alles belegen.:rolleyes:

Aber du darfst gern alle Percentilwerte eines Tests hier auflisten.
Imho alles völlig normale Ausnahmen die es bei NV genauso gibt.
Ein Test mit verschiedenen Games ist kein Cherry Picking.Ich hab noch keine Frametime Messung gesehen wo die 980 TI versagt.

Ex3cut3r
2015-06-25, 18:50:03
Sagt mal gibts die Fury X eigentlich auch später mit Luftkühlung? Hab kein bock auf Kompakt Wakü :freak: eigentlich bin nicht begeistert aber von einer 770 ist alles ab GTX 980 ein großer Sprung imo.

Unicous
2015-06-25, 18:53:45
Sagt mal gibts die Fury X eigentlich auch später mit Luftkühlung? Hab kein bock auf Kompakt Wakü :freak: eigentlich bin nicht begeistert aber von einer 770 ist alles ab GTX 980 ein großer Sprung imo.

Hat AMD bislang ausgeschlossen. Aber was nicht ist kann theoretisch noch werden. Bislang ist laut AMD nur die Fury ohne X freigegeben. (Und auf der Nano ist ja eh schon ein Lüfter zu finden)

DrFreaK666
2015-06-25, 18:54:14
Ein Test mit verschiedenen Games ist kein Cherry picking....

Was ist mit den Websites, die ich weiter oben verlinkt habe? Sind sie kein Kommentar wert? Wen wunderts...

tdon
2015-06-25, 18:54:34
Hat jemand AF Tests gesichtet oder wird das wie schon seit Jahren unter den Tisch gekehrt?

captain_drink
2015-06-25, 18:55:16
Mir wäre auch am liebsten wenn man diese Messungen nicht nur über ein paar Minuten loggt sondern mehrere Stunden. Und ja, das wäre natürlich ein hoher Zeitaufwand. Aber die aktuelle Methodik ist es eben nicht mehr wirklich aussagekräftig.

Dein Wort in Gottes Ohr. Wenn AMD jedoch Redaktionen die Testobjekte noch am selben Tag wegnimmt, an dem sie sie erhalten haben, dann muss sich niemand wundern, dass für solche Maßnahmen keine Zeit übrig bleibt.

DrFreaK666
2015-06-25, 18:55:35
Hat jemand AF Tests gesichtet oder wird das wie schon seit Jahren unter den Tisch gekehrt?

Sollte identisch zu Hawaii und co sein, aber genaueres weiss ich nicht

dargo
2015-06-25, 19:01:11
Ein Test mit verschiedenen Games ist kein Cherry Picking.Ich hab noch keine Frametime Messung gesehen wo die 980 TI versagt.
Ich schon.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35470-nvidia-legt-nach-geforce-gtx-980-ti-im-test.html?start=26

Flusher
2015-06-25, 19:01:34
Irgendwas ist momentan krumm mit Fury - abartig viel Rohleistung die einfach nicht auf die Straße gebracht werden. Ich kann die Tonga-Front-End-Theorie aktuell nicht glauben.

Ihr glaubt doch nicht, dass das in AMDs R&D Abteilung so abgelaufen ist:

"Customer Requirement: mind. 50% Performance im Vergleich zu Hawaii bei vergleichbarem Stromverbrauch"

"Ah, geniale Idee - lasst uns doch Tonga verdoppeln aber das Front End gleich lassen"

Zeit vergeht bis zu den Systemtests

"Oh hoppla das Front-End begrenzt ja" :freak:


Sorry - aber für so blöd hält nicht mal der Duplex AMDs Entwicklungsabteilung.

blaidd
2015-06-25, 19:02:15
Ein Test mit verschiedenen Games ist kein Cherry Picking.Ich hab noch keine Frametime Messung gesehen wo die 980 TI versagt.

Ich hätte eine, wenn du magst ;) In dem Spiel sind aber alle Karten mies.

-/\-CruNcher-/\-
2015-06-25, 19:09:02
Hat jemand mal eine Aufzählung welche GPU Raytracer alle getestet worden sind ?

Loeschzwerg
2015-06-25, 19:20:44
Das sieht übel aus für ne AiO

Ja, ich hätte da ebenfalls etwas niedrigere Temperaturen erwartet, aber es ist noch ok. Ob damit allerdings viel Luft für mehr Spannung bleibt... ich weiß nicht, müsste man testen sobald es möglich ist.

M4xw0lf
2015-06-25, 19:22:21
Ich hätte eine, wenn du magst ;) In dem Spiel sind aber alle Karten mies.
Hey Phil, hast du nicht Zeit (:freak:) und Lust, mal einen Tonga-vs-Fiji Shootout mit gleicher Rechenleistung und Bandbreite zu machen? (Ok, Bandbreite könnte schwierig werden ohne Zugriff auf die HBM-Taktrate.)

dildo4u
2015-06-25, 19:39:59
Ich schon.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35470-nvidia-legt-nach-geforce-gtx-980-ti-im-test.html?start=26
Ohne Vergleich kann man das nicht einordnen.

http://www.hardwareluxx.de/images/stories/galleries/reviews/2015/amd-furyx/Frameverlauf-GTA5-2160p.png

http://www.hardwareluxx.de/images/stories/galleries/reviews/2015/amd-furyx/Frameverlauf-Shadow-of-Mordor-2160p.png

http://www.hardwareluxx.de/images/stories/galleries/reviews/2015/amd-furyx/Frameverlauf-Project-CARS-2160p.png

Das ist noch das beste für AMD trotzdem bleiben die extremen Spike's auf Fury X.
http://www.hardwareluxx.de/images/stories/galleries/reviews/2015/amd-furyx/Frameverlauf-Witcher-2160p.png

Captain Future
2015-06-25, 19:42:20
@PCGH
Seht ihr, das ist was bei der Masse hängen bleibt wenn ihr den Focus auf ein worst-case-szenario legt, dass gerade mal in 2-3% der Spielzeit auftritt.
Ich nehme zu eurem Besten an, dass ihr das nicht absichtlich macht. Aber genauso wird das schlechte Image von AMD zementiert.

Greetz
US

*huch* Bin zwar nicht PCGH aber hier gibt's nun genug Leute, die rumrennen und sagen Fiji wär sparsamer als ne 980 Ti, weil TomsTeures2xOszi im Unigine-Teslation Limit die gebremste Fiji gemessen hat. Und nu? Sind alle so schlau wie zuvor. Review taugen alle nix, wenn man nur eins liest.

Ich erwarte Gegenbeispiele.

uweskw
2015-06-25, 19:47:23
Er meinte GDDR5 und imho wäre es schon möglich gewesen dass 512 Bit Speicherinterface von Hawaii mit bandbreitenschonenden Techniken zu kombinieren und so HBM1 zu umgehen.......



Glaubst du wirklich Nvidia hätte ohne große Not eine solche neue Technologie eingeführt? Ohne AMD kein HBM1 und dementsprechend kein HBM2.
Oder wird das in irgendwelchen anderen Bereichen eingesetzt?

Greetz
US

(del676)
2015-06-25, 19:48:32
Kleines Beispiel von mir, Tahiti Crossfire:
VSync OFF: etwa 450W Last
VSync ON : etwa 250W Last

So aehnlich hab ich mein 7950 Crossfire auch benutzt.
Uebertaktet ohne Ende, aber mit 60Hz Vsync.
Also waren sie 95% der Zeit nicht ausgelastet und blieben dadurch kuehl und leise. Aber wenn eine intensive Szene kommt, hatten beide Karten viel Leistungsreserve.
Lauter wurden sie deshalb auch schon nicht mehr, weil solche Szenen ja meist eher kurz sind.

Gaebs nicht den erhoehten Inputlag, wuerde ich mein GPU Setup sofort wieder so waehlen.

dargo
2015-06-25, 19:52:05
Ohne Vergleich kann man das nicht einordnen.

Du bist schon echt ein komischer Vogel. Nur weil die Konkurrenz bei einer absolut neuen GPU (Thema HBM) aktuell schlechter abschneidet als NV ist NV plötzlich in Ordnung, trotz der massiven Spikes. :uup:

BlacKi
2015-06-25, 20:15:41
52365

@Raff: Die 100°C sind an der Oberseite des Kupferröhrchens von den Spannungswandlern? Oder sind das die Spulen die dort so warm werden?
vl ist das der grund warum die ti und titanx hybridkühlungen auf einen leisen lüfter setzten...

oder das board ist zu kurz um mehr spannungswandler zu verbauen, so müssen die wenigen vorhandenen doppelt so stark arbeiten.

aber jetzt mal ganz konkret: 100°C? irgendwie kaum vorstellbar.wenn durch das röhrchen wasser fließt.

zumal das die oberseite des kupferröhrchen ist. die unterseite müsste nochmals heißer sein.

da kocht das wasser doch schon an der rohrwand!

DrFreaK666
2015-06-25, 20:18:24
Du bist schon echt ein komischer Vogel. Nur weil die Konkurrenz bei einer absolut neuen GPU (Thema HBM) aktuell schlechter abschneidet als NV ist NV plötzlich in Ordnung, trotz der massiven Spikes. :uup:

NV ist für dildo doch immer in Ordnung, und das schon seit einer gefühlten Ewigkeit.
Ob er mit seiner PS4 überhaupt Spaß hat... ^^

Dawn on Titan
2015-06-25, 20:20:53
Glaubst du wirklich Nvidia hätte ohne große Not eine solche neue Technologie eingeführt? Ohne AMD kein HBM1 und dementsprechend kein HBM2.
Oder wird das in irgendwelchen anderen Bereichen eingesetzt?

Greetz
US

Man ist von Anfang an dabei und HBM ist für SOCs noch viel geiler als für GPUs.

www.cs.utah.edu/thememoryforum/mike.pdf

dildo4u
2015-06-25, 20:31:30
Du bist schon echt ein komischer Vogel. Nur weil die Konkurrenz bei einer absolut neuen GPU (Thema HBM) aktuell schlechter abschneidet als NV ist NV plötzlich in Ordnung, trotz der massiven Spikes. :uup:
Die GPU Architektur ist nicht neu und wenn HBM das Probleme ist und AMD die Treiber extra für jedes Game anpassen muss,macht das Ganze nicht grad besser.

MadManniMan
2015-06-25, 20:35:34
Die GPU Architektur ist nicht neu und wenn HBM das Probleme ist und AMD die Treiber extra für jedes Game anpassen muss,macht das Ganze nicht grad besser.

Und was ist Deine Entschuldigung für Maxwell?

dargo
2015-06-25, 20:35:59
Die GPU Architektur ist nicht neu und wenn HBM das Probleme ist und AMD die Treiber extra für jedes Game anpassen muss,macht das Ganze nicht grad besser.
Zu dumm nur, dass NV nächstes Jahr die gleichen Probleme bekommt. Aber ich weiß schon bin mir sicher, du findest bestimmt die passende Ausrede.

captain_drink
2015-06-25, 20:39:55
Zu dumm nur, dass NV nächstes Jahr die gleichen Probleme bekommt.

Es geht um die Optimierungen für den mit 4 GB zu kleinen Speicher. Das Problem hat NV nächstes Jahr nur dann, wenn sie ebenfalls zu wenig VRAM anbieten, wovon nicht auszugehen ist.

Peter Gräber
2015-06-25, 20:46:04
*huch* Bin zwar nicht PCGH aber hier gibt's nun genug Leute, die rumrennen und sagen Fiji wär sparsamer als ne 980 Ti, weil TomsTeures2xOszi im Unigine-Teslation Limit die gebremste Fiji gemessen hat. Und nu? Sind alle so schlau wie zuvor. Review taugen alle nix, wenn man nur eins liest.

Ich erwarte Gegenbeispiele.

Sollst du haben, wobei ich da schon relativ sicher bin, dass Carsten und Raff keinen Fehler gemacht haben und ihre Werte zu den vorangegangenen Messungen anderer Grafikkarten vergleichbar sind.

Edit: Ich kann das hochfrequente Geräusch aus dem geschlossenen Gehäuse ebenfalls heraushören. Da kann ich Marcs Einschätzung nicht zustimmen, mag aber am Muster liegen.

Schnoesel
2015-06-25, 20:51:39
Wann ist der HT4U Test online?