PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Radeon R9 Fury X


Leonidas
2015-06-25, 14:23:04
Link zum Artikel:
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-fury-x

PS: Benches zur 980 reiche ich nach, das ergab sich erst im Verlauf des Artikels, das diese doch interessant sein könnten.

Update 26. Juni 9:59
Benchmarks der 980 eingearbeitet.

Limit
2015-06-25, 14:46:13
Bei der Tabelle sind aber die Spalten ein wenig verrutscht ?!?

Der Eulenträger von Athen
2015-06-25, 14:59:10
Bei der Tabelle sind aber die Spalten ein wenig verrutscht ?!?
Nur die Kopfspalte, wie es aussieht...

Gast
2015-06-25, 15:03:00
Wie zu erwarten ist die Fury X mehr ein Proof of Concept und Ausblick auf die nächste Grafikkarten-Generation, als ein Produkt, dass man jetzt schon kaufen sollte.

Egal ob Speicherbestückung, HDMI, DX12-Level oder Wasserkühlung: An sich toll, aber jedes Feature für sich mit Einschränkungen, weshalb ich heute dafür keine 700€ ausgeben werde.

Leonidas
2015-06-25, 15:09:58
Bei der Tabelle sind aber die Spalten ein wenig verrutscht ?!?


Ja ... Kopfspalte vertauscht. Gefixt.

caddy77
2015-06-25, 15:25:29
In allenTests lese ich, dass die 4K Performance auf dem Niveau der 980Ti ist. Aber wieso schreibt ihr dann, dass die "nur" 4GB das K.O. Kriterium für die Fury sind?

Kartenlehrling
2015-06-25, 15:27:52
Weil es Leonis Kolumne ist.

R.I.P.
2015-06-25, 15:37:59
Cherry picking Testberichte pro Nvidia bei allen Auflösungen >1080p?

dildo4u
2015-06-25, 15:40:07
In allenTests lese ich, dass die 4K Performance auf dem Niveau der 980Ti ist. Aber wieso schreibt ihr dann, dass die "nur" 4GB das K.O. Kriterium für die Fury sind?
Nicht fps sind entscheident sondern die Frametimes dort versagt Fury öfter hier Witcher 3 ohne Hairworks.

http://techreport.com/r.x/radeon-r9-fury-x/w3-99th.gif


http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/6

Lowkey
2015-06-25, 15:48:59
Krass wie alt die 780 Ti ausschaut. Hat nvidia irgendwas bei den Treibern verändert?

aufkrawall
2015-06-25, 15:50:17
Nein, ist zum guten Teil ein app-Problem. Man muss bei Kepler prerendered frames 1 per TReiber erzwingen. Mit Radeons geht das jedoch nicht.

MadManniMan
2015-06-25, 16:20:01
Leo, THG ermitteln idle unter 5 Watt - die von Dir angegebenen > 20 Watt stellen einen Peak-Wert dar.

Dawn on Titan
2015-06-25, 16:45:05
Mir fehlt der Hinweis auf die Vorteile beim Multi-Monitor-Betrieb, sowie die Erfahrung aus dem hiesigen Forum, dass die Karte geräuschlos läuft, wenn man den Radiator höher lass die Karte einbaut. Im Grundsatz sollte der Artikel positiver ausfallen und eine klare Kaufempfehlung enthalten.

Gast
2015-06-25, 16:49:50
Kurze Frage dabei noch - wenn man sagt, die Fury X zieht 284 Watt, wieviel geht davon auf die Wakü? Zieht die vielleicht mehr als die Lüfterkombi auf den andren und wäre das somit etwas anders zu bewerten? Zumindest seh ich auf den Bilder keinen externen Stromanschluss für das Ding.

Grüße, Freed (hab den login grad net zur Hand)

Gast
2015-06-25, 16:50:28
Ja, danke an Leonidas.:up:

Endlich mal einer der es ausspricht. 660% Performanceindex spricht eine deutliche Sprache! AMD hat es vergeigt. Damit ist die FuryX zu teuer und der Preis muss runter. Wasserkühlung hin oder her. Dazu brauche ich ja den zusätzlichen Platz für den Radiator im Tower.

Warum man eine felherhafte Charge an Pumpen überhaupt abnimmt, anstatt diese bei Coolermaster zu reklamieren, weil sie nicht den Wunschvorgaben des Entwicklers-Herstellers entsprechen, weiß wohl bloß AMD. Zu den Testern hätte ich die, auf keinen Fall geschickt. War doch klar, dass die das auseinander nehmen.

Insgesamt eine gute Einschätzung, also warten auf Furyv2 und HBMv2. Bis dahin dürfte nV wohl mit Pascal kommen. NV hat das auch erkannt und die Preise der 980ti ziehen wieder an.

Die FuryX, aber auch 390x zeigen auf, dass AMDs Effizienz auf der Strecke bleibt, wenn das Design zur Konkurrenz aufschließen soll. Das man dies in bestimmten Regionen als Enthusiast nicht zu beachten braucht, ist auch so ein zweigeteiltes Schwert. Mehr Leistungsaufnahme bei gleicher Performance (zur Konkurrenz) bedeutet eben auch mehr Abwärme (Energie geht nun mal nicht verloren) und das Peripherieumfeld muss auch mehr leisten und aushalten (wird man dann wohl bei Fury Custom sehen), also ist und bleibt es ein negativer Effekt den AMD mit GCN noch lange nicht im Griff hat. Da hinkt AMD für mich weiter hinterher. Da gibt es auch nichts schön zu reden.

Für AMD Fans mag es ja Fortschritt sein, zu Maxwellv2 Leistung auszuschließen (seis ihnen vergönnt), nur kann man so Kepler-Maxwell-Besitzer kaum überreden FuryX zu kaufen, man tritt damit, was die zukünftigen Marktanteile und Zuwächse angeht weiterhin auf der Stelle. FuryX hätte kompromisslos schnell sein müssen (so wie es ankündigt wurde). Das dürfte Entwicklungen für die Zukunft gefährden. Damit wird für AMD mit Fury nicht vielmehr besser, ich hoffe das war nicht der letzte Strohhalm für AMD.

Man kann sogar behaupten, so haben sie den Grafikkartenhersteller-Einstieg beim HBM vergeigt, weil man wieder viel zu früh, zu viel wollte. Das Positive=die eigentliche Ersparnis die HBM mitbringt, haben sie bei Implentierung in das eigene Design nur wenig befriedigend umgesetzt. Innovativ zu sein kann auch Image kosten, etwas was AMD derzeit durchlebt und meiner Meinung nach, selbst zu hart erkauft oder in Kauf nimmt, dass sieht doch sehr nach Harakiri aus! Warum man bei GCN nicht endlich die Reissleine zieht ist völlig unverständlich. Lieber lässt man dann ganze Firmensparten zu Grunde gehen und sich in den Tod wirtschaften. Kann man einfach nicht glauben.

dildo4u
2015-06-25, 16:54:51
Krass wie alt die 780 Ti ausschaut. Hat nvidia irgendwas bei den Treibern verändert?
Die Seite hat die 780Ti noch nicht mit dem optemierten Treiber getestet.

MadManniMan
2015-06-25, 17:24:50
Weiterer Fehler: AMD gibt nich 275 TDP an, sondern 275 Watt Typical Board Power.

aufkrawall
2015-06-25, 17:32:05
Die Seite hat die 780Ti noch nicht mit dem optemierten Treiber getestet.
Ja ja...

von Richthofen
2015-06-25, 17:33:58
Man kann für AMD nur hoffen, die Karte geht irgendwie trotzdem ab und an über die Ladentheke.
Der Aufwand für Werbung, aggressive Namensgebung, der Hype um HBM und Wasserkühlung und die ebenfalls einzupreisenden Beleuchtungspielereien haben die Erwartungshaltung der potentiellen Kundschaft zu hoch getrieben. Jeder hat etwas auf Augenhöhe zu GM200 erwartet und wird nun über die Gegebenheiten der Speicherausstattung und der Anschlussmöglichkeiten hinaus enttäuscht.
Nun ist gar zu befürchten, dass sich zukünftige kleinere Fiji-Ableger mit dem 50% kleineren GM204 herumschlagen müssen. Marge adé.
Na mal sehen was künftige Treiber noch ausrichten können.

Lowkey
2015-06-25, 17:50:01
Es spricht nichts gegen einen Kauf der Karte. Wer sich so eine Karte leisten kann, der hat in 2 Jahren wieder genug Kleingeld für das nächste Upgrade. Eventuell schrauben die kommenden VR Headsets die Anforderungen weiter nach oben. Und eventuell reicht auch eine 980 Ti in 2 Jahren nicht mehr aus, was die Liga der außergewöhnlichen 4k Jünger immer wieder bestätigt.

Ob du heute eine Fury X oder 980 Ti einbaust spielt letztlich keine Rolle. Die Karten veralten und es gibt wieder neue Modelle. Oder kräht heute noch ein Hahn wegen einer 780 Ti oder gar 680 oder Titan?

Die Preisfrage ist an sich noch nicht geklärt. Die 980 Ti Karten sind seit Release im Preis gefallen. Die Fury X ist aktuell überall ausverkauft. Vermutlich geht der Preis in den nächsten Wochen runter.

Dawn on Titan
2015-06-25, 18:07:20
In den Foren mehren sich leider die Fälle, die die Lautstärke der Pumpe bestätigen. Was ich hören konnte war nervig. Sorry ich muss da meine vorherige Aussage anpassen, das muss man imho noch einmal extra betonen und nicht relativieren.

Gast
2015-06-25, 18:32:03
FuryX hilft mir keinen Deut weiter, mal von den Schwächen nach Launch abgesehen (Pumpe, Speicherausbau, zu langsam in FHD, Platz für den Radiator).
Was keiner getestet hat, ist mein geplanter Monitorkauf??? Kauf ich jetzt die 980ti wirds G-Sync, kauf ich die FuryX wird es Free-Sync.
Derzeit schlägt das Pendel (für die zwei Jahre) eher pro nVidia aus. Muss man so sagen, wobei ich auf Fury gewartet habe. Keins der Angebote ist wirklich 4K tauglich und ewig warten kann man auch nicht.
Fury hätte einfach nur brachial schnell sein müssen, ob die Karte dann 300Watt raushaut, dabei surrt, fiept, fliegt oder furzt ;), wäre doch vollkommen egal gewesen.
Für das "Schnellste" wäre man bestimmt auch kompromissbereiter, so verpufft das alles wieder und die Kritiker nehmen das Teil auseinander.
Mit den Ankündigungen im Vorfeld hat sich AMD die Kritik selbst zuzuschreiben.
Man kann sie nicht mal für die Zukunft empfehlen, ich soll jetzt 749 Euro auf den Tisch legen um in einem Jahr auf 8GB HBM zu upgraden, damit das zukünftig auch unter 4K funzt?
Wer macht sowas? Ehrlich?
FuryX zeigt nur auf, was zukünftig zu erwarten sein wird.
Kleines kompaktes Layout, damit wohl imho wieder irgendwann kostengünstiger, Wakü als Standard, leises Referenzdesign mit mehr Platzbedarf im Enthusiastenbereich wegen zusätzlichem Platzbedarf für den Raditor.
Sie hilft mir nicht weiter und AMD auch nicht.
Meine Meinung und trotzdem sehr schade.
Aber der "must have" Faktor kommt bisher auch nicht auf.
Was soll das jetzt sein, die Antwort auf die TitanX?
Zu viele Fragezeichen.:confused:
Wen man mal einen Ausblick auf dx12 hätte wäre es ja schon schön, aber so weiß ich damit ehrlich gesagt nichts anzufangen.
Ich persönlich glaube, die Karte kommt 6 Monate zu spät.

Flusher
2015-06-25, 18:33:28
Irgendwas limitiert die GPU massiv. Im einfachsten Fall sind es irgendwelche Treiberprobleme (was aufgrund der zahlreichen Verzögerungen traurig wäre) und im schlimmsten Fall hat die Architektur ihren Zenith mit Hawaii schon längst erreicht und wird mit mehr Einheiten und Takt einfach massiv ineffizient.

Ravenhearth
2015-06-25, 18:36:03
2 Seiten melden keine Probleme unter 4K, zwei Seiten nur bei einem Spiel und ein Spiel meldet Probleme, aber vor allem beim Einsatz von Kantenglättung. Und was macht Leo? BÄM! "Keine Eignung für 4K!" Das ist ein Witz, oder? MSAA wird doch ohnehin immer unwichtiger, weil das kaum vernünftig greift und in 4K ohnehin die Performance zu sehr verschlechtert. Da reicht auch simples SMAA und dann hat die Fury X auch viel weniger Performance-Probleme. Und sowieso: Das von der PCGH angeführte Arkham Knight ist auf technischer Scheißhaufen und wird nicht mehr verkauft, Shadow of Mordor ist unoptimiert was den Speicherverbrauch angeht, Watch Dogs hat mit Ultra-Texturen auf allen Karten Hänger... Vernünftig programmierte Spiele laufen auf der Fury X auch in 4K ohne Probleme, wenn die Leistung ausreicht. Gerade 4K ist die Parade-Disziplin der Fury X, da sie in geringeren Auflösungen ihre Rohleistung nicht auf die Straße bekommt. Da hätte ich ja viel eher drauf rumgeritten.

@Flusher: Vermutlich schlicht das Front-End. Das ist das gleiche wie bei Tonga.

Flusher
2015-06-25, 18:43:31
2 Seiten melden keine Probleme unter 4K, zwei Seiten nur bei einem Spiel und ein Spiel meldet Probleme, aber vor allem beim Einsatz von Kantenglättung. Und was macht Leo? BÄM! "Keine Eignung für 4K!" Das ist ein Witz, oder? MSAA wird doch ohnehin immer unwichtiger, weil das kaum vernünftig greift und in 4K ohnehin die Performance zu sehr verschlechtert. Da reicht auch simples SMAA und dann hat die Fury X auch viel weniger Performance-Probleme. Und sowieso: Das von der PCGH angeführte Arkham Knight ist auf technischer Scheißhaufen und wird nicht mehr verkauft, Shadow of Mordor ist unoptimiert was den Speicherverbrauch angeht, Watch Dogs hat mit Ultra-Texturen auf allen Karten Hänger... Vernünftig programmierte Spiele laufen auf der Fury X auch in 4K ohne Probleme, wenn die Leistung ausreicht. Gerade 4K ist die Parade-Disziplin der Fury X, da sie in geringeren Auflösungen ihre Rohleistung nicht auf die Straße bekommt. Da hätte ich ja viel eher drauf rumgeritten.

Schön und gut, aber problematisch ist dabei, dass AMD ganz klar die Karte als 4K tauglich bewirbt und der VRAM Bedarf in nächster Zeit eher noch weiter steigen wird.


@Flusher: Vermutlich schlicht das Front-End. Das ist das gleiche wie bei Tonga.

Ich kann ehrlich gesagt nicht glauben, dass AMD so blöd ist und eine so unausgewogene GPU bastelt. Das muss etwas anderes sein.

Ravenhearth
2015-06-25, 19:03:03
Schön und gut, aber problematisch ist dabei, dass AMD ganz klar die Karte als 4K tauglich bewirbt und der VRAM Bedarf in nächster Zeit eher noch weiter steigen wird.

Warum sollte der VRAM-Bedarf steigen? Und wenn er steigt, dann doch sicher auch die benötigte Rechenleistung, sodass man auf einer Fury X die Details reduzieren muss, was wiederum den Speicherverbrauch reduziert. Eine sonderlich gute 4K-Karte ist die wohl ohnehin nicht, aber eher wegen der Leistung.



Ich kann ehrlich gesagt nicht glauben, dass AMD so blöd ist und eine so unausgewogene GPU bastelt. Das muss etwas anderes sein.

Haben sie aber doch gemacht. Das Front-End ist vierfach ausgelegt und das scheint zu wenig zu sein. Erklärt ja auch das leistungsmäßig deutlich bessere Abschneiden in 4K. Da kann das Back-End viel besser ausgelastet werden.

Gast
2015-06-25, 19:26:02
@Flusher: Vermutlich schlicht das Front-End. Das ist das gleiche wie bei Tonga.
NEIN. Wenn überhaupt, dann das doppelte "Front-End".

MD_Enigma
2015-06-25, 20:00:24
Ich finde es auch etwas verwunderlich, dass die Karte ihre Hardware-Power nicht in FPS umsetzen kann. Ich hoffe AMD kitzelt nochmal 10% durch bessere Treiber raus.

Mich freuts andererseits, unter 1080p wird meine gut übertaktete 780 (+25%) noch länger im Rechner verweilen können.

mFuSE
2015-06-25, 20:10:52
In den Foren mehren sich leider die Fälle, die die Lautstärke der Pumpe bestätigen. Was ich hören konnte war nervig. Sorry ich muss da meine vorherige Aussage anpassen, das muss man imho noch einmal extra betonen und nicht relativieren.

Danke, schön mal zu lesen dass jemand nicht blind auf seiner Meinung und Darstellung beharrt :)



Eine geschlossene Wasserkühlung hat ansich das Problem dass so ein System im Laufe der Zeit zwangsläufig über die Schläuche immer minimal Flüssigkeit verliert.
Da wird nur die Zeit zeigen wie sich das über Jahre verhält -> ich sehe es kritisch dass es keine Möglichkeit gibt Flüssigkeit nachzufüllen.


Ansonsten sehr schöner Test, lies sich diesmal sehr stimmig - mit allen Vor-und Nachteilen der Fury X.

Zwar war für mich abzusehen dass über dieses Konzept im HighEnd Bereich kein Blumentopf zu gewinnen ist - die Fury Nano dagegen könnte für meinen TV und MultiMedia PC äußerst interessant werden. (Bislang in Verwendung eine passive GT 520 die schon einige Jährchen aufm Buckel hat, davor HD3650 passiv)

maximus_hertus
2015-06-25, 20:23:41
Sagt mal, ohne jetzt auf Nachkommastellen herumzureiten, aber laut Text liegt die 980 Ti in 1080p um 10% und in 1440p um 5% vorne. Ich würde daher beim Indexwert einen Vorsprung von <10% für die 980 Ti erwarten, herausgekommen ist jedoch >10%?

Im Vergleich zur 390X sind es rund 14% in 1080p und rund 25% in 1440p. Im Index sind es dann nur rund 15%? Irgendwie nicht ganz passend, dann kann man den 1440p-Wert ja komplett ignorieren, oder verpasse ich da gerade etwas?

Ravenhearth
2015-06-25, 20:25:54
NEIN. Wenn überhaupt, dann das doppelte "Front-End".

wat?

MadManniMan
2015-06-25, 20:47:30
Sagt mal, ohne jetzt auf Nachkommastellen herumzureiten, aber laut Text liegt die 980 Ti in 1080p um 10% und in 1440p um 5% vorne. Ich würde daher beim Indexwert einen Vorsprung von <10% für die 980 Ti erwarten, herausgekommen ist jedoch >10%?

Im Vergleich zur 390X sind es rund 14% in 1080p und rund 25% in 1440p. Im Index sind es dann nur rund 15%? Irgendwie nicht ganz passend, dann kann man den 1440p-Wert ja komplett ignorieren, oder verpasse ich da gerade etwas?

Jo, der 3DCenter-Performance-Index beruht auf 1080p!

Gast
2015-06-25, 21:19:24
Da fällt mir nun ein too little, too late.

Schon traurig zu sehen, dass die Energieeffizienz selbst trotz HBM nicht mit Maxwell mithalten kann. Spätestens wenn nvidia auf HBM setzt sind sie wieder meilenweit voraus.

Das einzig gute an der Karte ist, dass sie stark genug ist, dass Nvidia sich preislich im Highend nicht mehr alles erlauben kann. Hoffentlich wird AMD auch in Zukunft entsprechende Highendmodelle designen und das war keine Eintagsfliege

Gast
2015-06-25, 21:19:51
wat?
Du meinst also zwei ausgewachsene Tongas XT teilen sich ein FE, was glaubst du wie weit du damit kommst? Was ihr hier immer erzählt...

Wie wäre es damit - das Frontend entspricht Tonga Pro Taktung? Kann also vier Dreiecke pro Takt berechnen, wie schnell taktet es jetzt?

Heisst das, es ist das Gleiche wie bei Tonga?

Bin mal gespannt was du antwortest!:P

wat? Ja...BS³.

digidoctor
2015-06-25, 22:23:01
Fury X = der Skoda Superb III der GKs.

Hochgepuscht ohne Ende, so dass bei diesem tollen neuen Produkt am Ende die Erwartungen verfehlt und die Enttäuschung im Detail merklich ist.

Gast Immernoch Gast
2015-06-25, 23:03:39
Als ich die Bilder mit dem Coolermaster Logo das erstemal gesehen habe dachte ich nur: "oh nein". Ist halt Aldi...
Die Nano wird dann vielleicht echt was, wo vor 2016 schon das Grakageld rein geht. Wo ist die Zauberkugel?

Gast
2015-06-25, 23:33:30
Nee, Aldi ist doch etwas weit gefehlt, denn im AiO Bereich ist Coolermaster schon mehr als Skoda Superb.
AMD hätte sich dem Design annehmen sollen. Scheint so als gibt es bei denen keine Qualitätskontrolle mehr. Der ganze OEM Kram wird einfach zusammengeklatscht und gut.
Bei der DCC 310 hat man das ja auch mit einem Metallgehäuse geschafft, plus überarbeitetem Deckel, dann surrt es auch nicht mehr wahrnehmbar. Plastik schirmt doch kaum was ab und der Deckel der Gehäuseverkleidung ist zudem auch noch Plastezeugs.
Beides aus Metall und gut. AMD vergurkt es mal wieder. Da kann man echt nur mit dem Kopf schütteln.
Scheint denen wohl gewaltig der Schuh zu drücken Kohle alle, muss wieer was rein?
Erinnert mich an die Pleule der Aprilia R4 (V4), da wurde 1 Euro pro Stück bei anderem Zulieferer gesparrt und nach 2-3TKMgingen die ersten Motoren hoch. So ein geiles Bike, das Image war im Arsch. Letztendlcih musste man deutlich mit dem Preis runter, Motoren tauschen und hat ein Minusgeschäft hingelegt, Wahnsinn an solchen Einfachheiten zu scheitern. Da ist die Gier nach marge größer als alles andere. Sind die AMD Engineer's taub oder was? Das pfiept, dass kann man kaum aushalten. Da wirst du irre.
Scheint auch wieder sowas wie eine Serienstreuung zu geben.

Gast
2015-06-26, 00:11:06
Einfach mal lesen, 65°C ausserhalb des PC-Gehäuses, dass geht doch nicht lange gut: http://forum.aquacomputer.de/wasserk-hlung/p1417088-k-hler-amd-fury-xt/#post1417088

Spasstiger
2015-06-26, 00:21:39
Ich finde, dass Leonidas mit AMD etwas zu hart ins Gericht angeht. Sowohl bei der Bewertung der 4K-Tauglichkeit, als auch beim angesetzten Performanceindex im Vergleich zur GTX 980 Ti.
Außerdem ist preislich bei vergleichbarem Kühlsystem (All-In-One-Wakü) durchaus die GTX 980 auf GM204-Basis der Konkurrent: http://geizhals.de/evga-geforce-gtx-980-hybrid-04g-p4-1989-kr-a1248796.html?hloc=at&hloc=de.
Und die hat nicht den Vorzug der kurzen Kartenlänge.
Die Fury X ist sicherlich nicht perfekt, aber in einigen Belangen schon ganz weit vorne mit dabei (Lautstärke unter Last, Kühlreserven, Performance in 4K-Auflösung, Formfaktor/Eignung für kompakte PC-Gehäuse, unkonventionelle HBM- und Interposer-Technologie als Anreiz für Technik-Begeisterte).

Zero-11
2015-06-26, 00:39:08
pah als wäre ein Riesenchip bei diesem Steinalten Prozess ein Risiko, echt lachhaft sowas

Leonidas
2015-06-26, 04:05:24
Cherry picking Testberichte pro Nvidia bei allen Auflösungen >1080p?


Nö. Genau deswegen verrechne ich ja alles Datenmaterial, was ich habe (herausgelassen: Tests mit 6 oder weniger Benchmark-Titeln). Das Rechen-Ergebnis kommt dann unabhängig von mir heraus.

Oder anders formuliert: Ich hätte Fury X *wirklich gern* besser bewertet.




Leo, THG ermitteln idle unter 5 Watt - die von Dir angegebenen > 20 Watt stellen einen Peak-Wert dar.


Sie haben einen Schnitt aus teilweise ZeroPower und teilweise Peak angegeben. Halte ich für nicht sinnvoll, weil der Zeitanteil von ZeroPower bei jedem anders sein kann.




Weiterer Fehler: AMD gibt nich 275 TDP an, sondern 275 Watt Typical Board Power.


NV gibt auch keine TDPs im Wortlaut mehr an. Ich nehm das mal als TDP.




Sagt mal, ohne jetzt auf Nachkommastellen herumzureiten, aber laut Text liegt die 980 Ti in 1080p um 10% und in 1440p um 5% vorne. Ich würde daher beim Indexwert einen Vorsprung von <10% für die 980 Ti erwarten, herausgekommen ist jedoch >10%?

Im Vergleich zur 390X sind es rund 14% in 1080p und rund 25% in 1440p. Im Index sind es dann nur rund 15%? Irgendwie nicht ganz passend, dann kann man den 1440p-Wert ja komplett ignorieren, oder verpasse ich da gerade etwas?


Der Index beruht auf 1920x1080 und ist daher - abgesehen von Rundungen passend. 2560x1440 wird derzeit nicht erfasst. Es gibt den 4K-Index, in der Zusammenfassung beider Index-Zahlen spiegelt sich dann auch 2560x1440 wieder. Optimal ist das nicht, das sehe ich gerade an dieser Stelle.

Gast
2015-06-26, 06:42:26
Schade um alle jene die wegen Fiji so lang mit dem Graka-Kauf gewartet haben.

Gerade da es seit fast einem 3/4 Jahr keinen Preisverfall bei Grafikkarten gibt (GTX 970)

OK die Max-Performance ist gestiegen

Gast
2015-06-26, 07:32:29
Warum seit ihr mit eurer Performanceskalirung nicht konsequent und setzt die 1080p Leistung der TitanX auch gleich auf 100% und rechnet alle alten Karten davon runter

Erstmal wer bitte kann denn noch 660% zu 730%/760% vergleichen? Da muss man nen Rechner nehmen um zu sehen, aha 90%/86%.

Dann alleine der Fakt, dass die 4k Performance bei 100% steht macht einen Vergleich der unterschiedlichen Performance zu 1k unmöglich.

Zu guter Letzt selbes Spiel. Ich habe eine 270X, die soll ein Index von 290% haben. So wieviel schneller ist denn nun die Fury / Titan? 38% zu 86% / 100% sind da für Aufrüster wesentlich besser zu überschauen.

Also bitte seid konsequent und geht den richtig eingeschlagenen Weg der differenzierten Indexberechnung zu Ende und setzt die TitanX auch bei 1080p auf 100% und rechnet alle anderen Karte davon runter. Dann kann immer sehr gut sehen Fury / Titan 86% / 100% und 95% / 100%.

Die Titan als aktuelle Referenz zu sehen ist denke ich mal schlecht wegzudiskutieren.

matty2580
2015-06-26, 07:55:32
Wieder einmal eine gut gelungene Launch-Analyse.

Es gibt nicht einen Punkt wo ich widersprechen würde. ^^

thx, Leo

FlashBFE
2015-06-26, 09:59:56
Eigentlich passende Analyse mit gutem Überblick über verschiedene Ergebnisse. Unter FullHD hätte die Karte mehr bringen müssen, denn das ist immer noch die mit Abstand meistverwendete Auflösung, selbst im 3DC. Nur warum der Karte die 4k-Tauglichkeit dann doch abgesprochen wird, obwohl sie gerade darin brilliert, kann ich nicht nachvollziehen. Es war schon immer so: Man kauft PC-Hardware für heute und nicht für nächstes Jahr. Erstens hat man keine Glaskugel, wie sich der Speicherverbrauch entwickeln wird, denn vielleicht bremsen die Konsolen auch dabei oder vielleicht kommt noch ein Wundertreiber von AMD. Und zweitens hat man beim PC in Zukunft immer noch die Option, große Speicherfresser ohne großen optischen Verlust zu deaktivieren, wie unkomprimierte "Ultra"-Texturen und MSAA.


Der Index beruht auf 1920x1080 und ist daher - abgesehen von Rundungen passend. 2560x1440 wird derzeit nicht erfasst. Es gibt den 4K-Index, in der Zusammenfassung beider Index-Zahlen spiegelt sich dann auch 2560x1440 wieder. Optimal ist das nicht, das sehe ich gerade an dieser Stelle.
Warum soll es nicht optimal sein? Nun einerseits, weil ein oder zwei Zahlen nie die ganze Wahrheit abbilden können, aber über diese Probleme mit dem Index gab es ja schon einen eigenen Thread. Die Zwei-Index-Lösung ist schon gut so, wenn sie auch verstanden wird. Vielleicht würde ich an deiner Stelle die 2560er-Auflösungen bei der nächsten Launchanalyse einfach komplett weg lassen, damit es keine Verwirrung gibt. Oder der 3DC-Perf-Index muss klar in FullHD-Index umbenannt werden und der 4k-Index genauso groß und fett formatiert werden, um deren Gleichwertigkeit zu unterstreichen, gerade für solche HighEnd-Karten, die speziell für 4k beworben werden.

Die nächste große Indexdiskussion steht sowieso schon ins Haus, nämlich wie man DX12 und Vulkan-Benchmarks, in denen sich die Spiele womöglich ganz anders als mit DX11 verhalten, in die Indizes einrechnet. Da muss man nicht jetzt schon alles wieder in Frage stellen.

blackbox
2015-06-26, 10:52:51
Eigentlich passende Analyse mit gutem Überblick über verschiedene Ergebnisse. Unter FullHD hätte die Karte mehr bringen müssen, denn das ist immer noch die mit Abstand meistverwendete Auflösung, selbst im 3DC.
Nunja, mehr als genug ist doch auch genug, oder?
Spielbar wird die Karte unter FullHD immer sein. Mehr als 60 Bilder/Sek kann ein aktueller Monitor eh nicht darstellen. 120Hz Monitore hat geschätzt selbst hier im Forum nur ein Bruchteil der User. Und einen 4k Monitor, der entsprechende FPS darstellen kann wohl noch weniger. Bei solchen Grafikkarten im Schlage einer 980 TI oder jetzt die Fury darf die FullHD Auflösung nicht der Maßstab mehr sein.

Nur warum der Karte die 4k-Tauglichkeit dann doch abgesprochen wird, obwohl sie gerade darin brilliert, kann ich nicht nachvollziehen.
Das verstehe ich allerdings auch nicht.

PCGH_Carsten
2015-06-26, 12:58:31
NV gibt auch keine TDPs im Wortlaut mehr an. Ich nehm das mal als TDP.

Das bleibt aber trotzdem falsch: TDP ist der Wert, den validierte Kühllösungen dauerhaft abzuführen in der Lage sein müssen, der sollte außer bei kurzen Turbo-Phasen unter Ausnutzung der thermalen Trägheit nicht überschritten werden.

Typcial Board Power hingegen ist eine Wischi-Waschi-Angabe, die dauerhaft sowohl um 55 Watt unterschritten (THG) als auch um 55 Watt überschritten (PCGH) werden kann.

Wenn du auf den Wert bestehst, nenn' es doch zumindest anders. Platz ist ja genug: „Typ. Leistungsaufnahme unter Last lt. Hst.“ (oder sowas)

Noch was:
Deine Prozentangabe für den Rasterizer-Durchsatz kann ich nachvollziehen. Bei 31,4% der 980 Ti müsste letztere 214 GF/Sek. rasterisieren können. Das erscheint etwas viel.

BlacKi
2015-06-26, 13:25:29
Die Titan als aktuelle Referenz zu sehen ist denke ich mal schlecht wegzudiskutieren.

würdest du einen lambo auch als referenz heranziehen wenn du einen polo kaufen möchtest?

nächstes jahr sehen wir die 1000% dann fällt das beurteilen eh wieder einfacher.

Botcruscher
2015-06-26, 13:44:12
Nur warum der Karte die 4k-Tauglichkeit dann doch abgesprochen wird, obwohl sie gerade darin brilliert, kann ich nicht nachvollziehen. Es war schon immer so: Man kauft PC-Hardware für heute und nicht für nächstes Jahr. Erstens hat man keine Glaskugel, wie sich der Speicherverbrauch entwickeln wird, denn vielleicht bremsen die Konsolen auch dabei oder vielleicht kommt noch ein Wundertreiber von AMD. Und zweitens hat man beim PC in Zukunft immer noch die Option, große Speicherfresser ohne großen optischen Verlust zu deaktivieren, wie unkomprimierte "Ultra"-Texturen und MSAA.

Wo "brilliert" die Karte? Probleme in 4K sind heute schon da. Selbst wenn ich nichts merke kann das Streaming schon Details ausblenden. Von den Konsolen ist eher noch viel mehr Verbrauch zu erwarten. Die haben varrieble 6,5GB+2,5GB
BS für lächerliche 900/1080p. Auf Wundertreiber lasse ich mich nicht ein. Da zählt hier und heute. Warum soll ich bei einer 700€ Karte etwas ohne "großen optischen Verlust" abschalten? Die Messlatte dafür setzt die Konkurrenz mit 6GB.

Die Speicherproblematik trifft die Karte im hier und heute. Das kann man nicht einfach negieren.

würdest du einen lambo auch als referenz heranziehen wenn du einen polo kaufen möchtest?
Der GTI Polo ist in Form der 980TI doch auch da.

BlacKi
2015-06-26, 14:10:34
Wo "brilliert" die Karte? Probleme in 4K sind heute schon da. Selbst wenn ich nichts merke kann das Streaming schon Details ausblenden. Von den Konsolen ist eher noch viel mehr Verbrauch zu erwarten. Die haben varrieble 6,5GB+2,5GB
BS für lächerliche 900/1080p. Auf Wundertreiber lasse ich mich nicht ein. Da zählt hier und heute. Warum soll ich bei einer 700€ Karte etwas ohne "großen optischen Verlust" abschalten? Die Messlatte dafür setzt die Konkurrenz mit 6GB.

Die Speicherproblematik trifft die Karte im hier und heute. Das kann man nicht einfach negieren.


Der GTI Polo ist in Form der 980TI doch auch da.

eher ein audi r8, haben ja dieselbe basis, nur billiger.

trotzdem ist wenn man fhd@60hz anstrebt ein r8 oder lambo nicht die zu empfehlende karte denn man ist im straßenverkehr mit einer titanx nicht schneller als mit dem polo.

vl, sollten wir die autovergleiche lassen^^

eine 960 und die 750ti könnte mit rundungen zu nah bei einanderliegen wenn man die titanx als 100% referenz nimmt. jedoch liegen dazwischen eigentlich welten.

Botcruscher
2015-06-26, 14:31:40
Ich sehe kein Problem an FHD. Es ging um die Aussage zu 4K.
Warum sollten 750 oder 960 in den 4K Index? Das die Spreizung nach oben und unten enorm zunimmt haben Prozentangaben so ansich.

von Richthofen
2015-06-26, 15:59:10
Eine Neuansetzung des Index mit TitanX bei 100% erscheint mir viel zu hoch angesetzt. Die Vergleichbarkeit besonders leistungschwacher Karten würde leiden.
Zwischen 5750 und 5770 (zugegeben: wen interessieren die noch wirklich) wird dann vllt. der Rundungsfehler schon größer als sich der tatsächliche Performanceabstand abbilden lässt:
13% vs 13%?

Gast
2015-06-26, 17:21:28
Das bleibt aber trotzdem falsch: TDP ist der Wert, den validierte Kühllösungen dauerhaft abzuführen in der Lage sein müssen, der sollte außer bei kurzen Turbo-Phasen unter Ausnutzung der thermalen Trägheit nicht überschritten werden.

Typcial Board Power hingegen ist eine Wischi-Waschi-Angabe, die dauerhaft sowohl um 55 Watt unterschritten (THG) als auch um 55 Watt überschritten (PCGH) werden kann.

Wenn du auf den Wert bestehst, nenn' es doch zumindest anders. Platz ist ja genug: „Typ. Leistungsaufnahme unter Last lt. Hst.“ (oder sowas)

Noch was:
Deine Prozentangabe für den Rasterizer-Durchsatz kann ich nachvollziehen. Bei 31,4% der 980 Ti müsste letztere 214 GF/Sek. rasterisieren können. Das erscheint etwas viel.
Die TDP der Karte liegt bei 500w und weil AMD sowas als negativ empfindet, siehe 295x2, erfindet man irgend einen Wischi-Waschi Blödsinn. Eine der größten Kundenverarschen der Neuzeit. Ich bin gespannt wann die ersten Netzteile aussteigen. Die Rippleströme dürften gewaltig ausfallen. Da wurde nicht nur im Vorfeld,mehr ins Marketing gepumpt als in die Hardware, ein Witz ist das. Verblödung auf höchstem Niveau.

Grundkurs
2015-06-26, 18:43:47
Mal wieder eine sehr gelungene und informative Launch-Analyse! Auch konsequent den performance-Index der fury x in Relation zur 980 ti deutlich runterzusetzen aufgrund der durchgehend schlechteren Performance bei Full HD Auflösungen.

BlacKi
2015-06-26, 19:51:35
Die TDP der Karte liegt bei 500w und weil AMD sowas als negativ empfindet, siehe 295x2, erfindet man irgend einen Wischi-Waschi Blödsinn. Eine der größten Kundenverarschen der Neuzeit. Ich bin gespannt wann die ersten Netzteile aussteigen. Die Rippleströme dürften gewaltig ausfallen. Da wurde nicht nur im Vorfeld,mehr ins Marketing gepumpt als in die Hardware, ein Witz ist das. Verblödung auf höchstem Niveau.

als empfehlung nennt amd für die fury x ein 650w netzteil. bei einem sparsamen intel system wäre dann zwar jede menge luft, aber wenn du dir einen amd fx 9590 verbaust wirds trotzdem knapp.

aufkrawall
2015-06-26, 20:09:12
Sie empfehlen ein 750W Netzteil:
https://www.caseking.de/sapphire-radeon-r9-fury-x-4096-mb-high-bandwidth-memory-hbm-gcsp-121.html

MadManniMan
2015-06-26, 20:52:19
Ich habe extra nochmal beim Autor nachgefragt, berichte also mit echtem Hintergrundwissen :D

Sie haben einen Schnitt aus teilweise ZeroPower und teilweise Peak angegeben. Halte ich für nicht sinnvoll, weil der Zeitanteil von ZeroPower bei jedem anders sein kann.

Gemessen wurde auf dem nackten Windows-Desktop - Zero-Dings ist nur an, wenn der Bildschirm aus geht.

Und einen Schnitt aus diesen Dingsen haben sie auch nicht genommen, hier nochmal konkret ... die 4,8 Watt sind tatsächlich das, was THG gemessen. Darum entsponn sich auch im Review-Thread ne große Diskussion, weil die Ergebnisse so sehr abweichen, aber die haben da scheißteures Equipment und der Thüp weiß, was er tut.

(del)
2015-06-26, 21:38:13
Falls es jemanden interessiert:
Das schwankt zwischen PEG und PCI-E hin und her. Zieht der PEG mal etwas Saft, ist auf dem PCI-E fast Sabbat und umgekehrt. Es ist sehr selten, dass auf PCI-E und PEG gleichzeitig volle Last anliegt. Verringert man die Auflösung extrem, dann sieht man wieder auf beiden Rails gleichzeitig Lasten, was aber so nicht stimmt. Aux ist außerdem tot. Ich habe mehrfach zwischen 390X und Fury X hin- und hergewechselt - Plausibilität. Die Werte der Referenz stimmten aufs Watt genau. Allerdings endet bei mir mit den Zangen die Genauigkeit bei ca. 1 Watt. Dann müsste man über einen Shunt messen, um es noch genauer hinzubekommen.

Gast
2015-06-27, 01:27:48
@Format_C
Ihr habt schlicht vergessen, die Verbrauchs-Mess-Werte linear zu interpolieren!

@all
Das Problem der Geräuschentwicklung der Pumpe ist am Spannungswandlerrohr zu suchen. Durch die hohe Fließgeschwindigkeit mit gleichzeitiger Druckminderung in Rohrverengungen (oder zu rauer Oberfläche im Rohr) können Mikroblasen entstehen. Am Pumpenlaufrad der Coolermaster liegt es damit nicht.

Das Problem ist konstruktionsbedingt und muss AMD somit bekannt sein!

http://abload.de/img/furyx-16bdzprt.jpg (http://abload.de/image.php?img=furyx-16bdzprt.jpg)

Leonidas
2015-06-27, 06:21:24
Gemessen wurde auf dem nackten Windows-Desktop - Zero-Dings ist nur an, wenn der Bildschirm aus geht.


Ich denke, ich will einen üblichen Idle-Wert - keinen Idle-Wert mit Monitor aus. Erscheint mir wertvoller als der Monitor-Aus-Wert. Den erreiche ich beispielsweise niemals, weil meine PCs nie den Monitor ausschalten (oder nur nach 3h).

Knuddelbearli
2015-06-27, 07:16:51
leonidas liest du überhaupt was du da quotest? steht doch da das der Bildschirm an war und da keinerlei Durchschnittsbildung oÄ vorgenommen wurde ...

Leonidas
2015-06-27, 08:24:37
Hab es gelesen, aber andersherum verstanden.

Gut, also ohne Bildschirm-Aus.

Dann isses für mich aber trotzdem schleierhaft, wie man 0 Watt oder 3-5 Watt messen kann. Ich würde da eher diesem verrückten Ergebnise nachgehen, als daraus jetzt Schlüsse ziehen zu wollen.

Knuddelbearli
2015-06-27, 08:51:43
Tja und dazu hat Format X ( das ist der Tester! ) auch schon was geschrieben.

Und im zweifel traue ich eher dem Ergebnis das mit einer xxx.xxx €uro Messgerät gemacht wurde und der auch für viele professionelle Testseiten ( und wohl auch einigen AIBs? ) misst, statt den anderer Redaktionen wo es eher XXX sind

(del)
2015-06-27, 16:19:53
@Format_C
Ihr habt schlicht vergessen, die Verbrauchs-Mess-Werte linear zu interpolieren


Die Werte werden bereits am Oszilloskop linear interpoliert. Ich habe ersatzweise auch mal mit Sin/X interpolieren lassen (was für normale analoge Signale ja eigentlich Ideal wäre), ähnlicher Effekt, der bei anderen Karten so nicht auftrat. Ich versuche ja schon, auch mal mit maximaler Abtastrate Plausibiliätstest zu machen, obwohl dann recht schnell der Speicher voll läuft. Der selbe Messaufbau bringt mir für Hawaii 16 Watt. Womit auch die Frage nach ZeroCore Power geklärt wäre :)

Wenn die eigene Karte hier eintrifft, werde ich mal die Brücken mit den Shunts einbauen und nur Spannungen bzw. den Spannungsabfall messen. Für die paar Watt reichen die ja auch und ich muss nicht mit den Zangen messen, denen ich im einstelligen Wattbereich unter 5 Watt auch nicht alles glaube.

Ben Carter
2015-06-27, 20:55:23
Wie wäre es mit einer Messung mittels genauem Stromzähler über längere Zeit? Ich kenne das Problem, von nicht genau messbaren Lasten, weil sie z.T. zu hochfrequent sind, von anderen Geräten und wir lösten es in der Firma, indem wir eben den Verbrauch über Langzeit gemessen haben. Bei uns war es ein Tag, aber bei einer Grafikkarte wäre eine Messung über 30 Minuten schon sehr gut.

lg Ben

(del)
2015-06-27, 21:16:08
Genau da will ich ja auch ansetzen. Wenigstens einen Run, aber ich muss mir überlegen, wie ich die Datenflut beherrsche und die Inhalte auch realitätsnah halte.

Ich bin am Überlegen, ein 30-60 minütiges GTA5-Video mit vielen unterschiedlich fordernden Szenen zusammenzustellen und dies dann ingame rendern zu lassen.