PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14

Schnoesel
2015-10-06, 14:20:37
Wenn sie das in den Griff bekommen haben ist das auch super, wie gesagt ich weiß nicht von welcher charge meine war. Ansonsten fand ich die AIO auch sehr ansprechend. Lüfter war unaufdringlich und Beleuchtung war auch nice ... und wie klein die ist mit Kühlblock ;D

Raff
2015-10-13, 10:04:56
GPU-Leistungsindex 2015: 16 Radeon- und Geforce-Modelle im Benchmarkvergleich (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)

Online-Abhandlung des renovierten PCGH-Parcours für Grafikkarten (Auszug aus der PCGH 11 inkl. weiterer Grafikkarten). Möge die lebhafte Diskussion beginnen. ;)

MfG,
Raff

mustrum
2015-10-13, 11:00:46
Kann mich bei meiner über das Fiepen nicht beschweren ich hör nix allerdings steht das gedämmte Gehäuse unterm Tisch. Das einzige was ich höre ist die Pumpe der Wakü. Fieses Spulenfiepen habe ich jedenfalls nicht. Die Aio hingegen ging gar nicht, das Geräusch macht dich mürbe aber ich habe keine Ahnung welche charge ich bekommen habe.

Ich habe mein Gehäuse nun seit zwei Monaten offen (fragt nicht!). Die Fury X macht keinen Mucks (EKWB Kühler). Im dreistelligen FPS bereich kann man den Wandlern ein Scharren entlocken, dafür muss man aber mit dem Ohr 10cm an die Karte ran. Ich glaube ich hatte großes Glück mit meiner Fury X. :D

(del)
2015-10-13, 12:31:10
So, nach vielen Änderungen endlich online. Ist fast schon eine Art Making Of geworden :P

Alphacool AIO für die Fury X (http://www.tomshardware.de/alphacool-gpx-pro-aio-gpu-wasserkuhlung-umbau,testberichte-241935.html)

Arcanoxer
2015-10-13, 13:07:15
GPU-Leistungsindex 2015: 16 Radeon- und Geforce-Modelle im Benchmarkvergleich (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)

Online-Abhandlung des renovierten PCGH-Parcours für Grafikkarten (Auszug aus der PCGH 11 inkl. weiterer Grafikkarten). Möge die lebhafte Diskussion beginnen. ;)

MfG,
Raff
Neben den drölfzig Auflösungen und Auflösungsdurchschnitt wäre es mal schön high quallity Benchmarks zu sehen.
Wo Gameworks und Physik nicht ausgeschaltet sind (realitätsfremd).
Natürlich nur wenn es auf AMD Karten auch läuft, aber da gibt es heutzutage schon einiges. Weglassen ist da keine Lösung, es kann ja Optional bleiben.

Ansonsten schöne Zusammenfassung.

Exxtreme
2015-10-13, 13:13:08
Krass ist, dass das Ding seit 4 Monaten draussen ist und die Preise sind kaum ein Millimeter runter gegangen. :down: Da darf man immer noch rund 650 - 700 € blechen wenn der Shop seriöser sein soll.

fondness
2015-10-13, 13:16:13
GPU-Leistungsindex 2015: 16 Radeon- und Geforce-Modelle im Benchmarkvergleich (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)

Online-Abhandlung des renovierten PCGH-Parcours für Grafikkarten (Auszug aus der PCGH 11 inkl. weiterer Grafikkarten). Möge die lebhafte Diskussion beginnen. ;)

MfG,
Raff

Ohne Einzelergebnisse leider schwer zu beurteilen, aber die AMD-Karten liegen bei euch eher schlecht. Eine Idee woran das liegt?

/Edit: Die 390X liegt >10% vor der 290X, da limitieren wohl einige male 4GB VRAM und dadurch hat dann wohl auch die ganze Fury-Riege ein Problem.

Raff
2015-10-13, 13:20:32
Ohne Einzelergebnisse leider schwer zu beurteilen, aber die AMD-Karten liegen bei euch eher schlecht. Eine Idee woran das liegt?

An Gameworks, einem CPU-Limit oder zu geringen Auflösungen schon mal nicht. ;) Es gibt ein paar Spiele, wo AMD schlecht wegkommt, darunter Risen 3 EE, Skyrim und Metro LL Redux. Dieses Sucken ist etwas ausgeprägter als beim 2014er-Index, daher fallen die Endwerte etwas schlechter aus. Hinzu kommt der Speichermangel der Furien in UHD, was den Höhenflug dort bremst. Die Einzel-Fps gibt's im Heft.

MfG,
Raff

MartinRiggs
2015-10-13, 13:22:41
Neben den drölfzig Auflösungen und Auflösungsdurchschnitt wäre es mal schön high quallity Benchmarks zu sehen.
Wo Gameworks und Physik nicht ausgeschaltet sind (realitätsfremd).
Natürlich nur wenn es auf AMD Karten auch läuft, aber da gibt es heutzutage schon einiges. Weglassen ist da keine Lösung, es kann ja Optional bleiben.

Ansonsten schöne Zusammenfassung.

Realitätsfremd?
Allein Hairworks in Witcher 3 ist ne Frechheit und das sage ich als NV-Nutzer.
Ich habe in fast allen Games den Gameworks-Müll ausgeschaltet.

dildo4u
2015-10-13, 13:26:03
Ohne Einzelergebnisse leider schwer zu beurteilen, aber die AMD-Karten liegen bei euch eher schlecht. Eine Idee woran das liegt?

/Edit: Die 390X liegt >10% vor der 290X, da limitieren wohl einige male 4GB VRAM und dadurch hat dann wohl auch die ganze Fury-Riege ein Problem.
Die Benches wurden Richtung höhere Auflösung gewichtet,daher liegen die 980 und 970 deutlich schlechter alles in allem wurde der Bench pro AMD verändert,da die Karten in hoher Auflösungen besser sind.

fondness
2015-10-13, 13:26:20
An Gameworks, einem CPU-Limit oder zu geringen Auflösungen schon mal nicht. ;) Es gibt ein paar Spiele, wo AMD schlecht wegkommt, darunter Risen 3 EE, Skyrim und Metro LL Redux. Dieses Sucken ist etwas ausgeprägter als beim 2014er-Index, daher fallen die Endwerte etwas schlechter aus. Hinzu kommt der Speichermangel der Furien in UHD, was den Höhenflug dort bremst. Die Einzel-Fps gibt's im Heft.

MfG,
Raff

Limitieren bei euch schon in 1080p bei einigen Spielen 4Gb VRAM, oder wie kann es sein, dass die 390X schon in 1080p 11% vor der 290X liegt? Das scheint mir zu viel zu sein.

dildo4u
2015-10-13, 13:27:55
Unity mit MSAA frisst massig Vram in 1080p,außerdem werden viele Games mit SSAA gebencht sind also nicht nativ 1080p.

Raff
2015-10-13, 13:28:49
Die Benches wurde Richtung höhere Auflösung gewichtet,daher liegen die 980 und 970 deutlich schlechter alles in allem wurde der Bench pro AMD verändert ,da die Karten in hoher Auflösungen besser sind.

Ich würde es anders formulieren: Die Gewichtung wurde der Entwicklung der Spielergewohnheiten angepasst. Immer mehr Leute spielen in höheren Auflösungen als Full HD. Basis der neuen Gewichtung ist diese Auflösungsumfrage: http://extreme.pcgameshardware.de/quickpolls/395587-welcher-aufloesung-spielt-ihr-meistens-2015-a.html. Die Einzelindizes zeigen daher zusätzlich das Bild ohne Gewichtung.

Limitieren bei euch schon in 1080p bei einigen Spielen 4Gb VRAM, oder wie kann es sein, dass die 390X schon in 1080p 11% vor der 290X liegt? Das scheint mir zu viel zu sein.

Unity mit MSAA frisst massig Vram in 1080p.

In ACU reichen 4 GiB bis 1440p, die krassen Unterschiede treten erst in UHD auf. Da ich nicht jeden einzelnen Wert erläutern kann: Schaut doch mal ins aktuelle Heft. :D

MfG,
Raff

Arcanoxer
2015-10-13, 13:29:27
Realitätsfremd?
Allein Hairworks in Witcher 3 ist ne Frechheit und das sage ich als NV-Nutzer.
Ich habe in fast allen Games den Gameworks-Müll ausgeschaltet.
Geschmack ist nun mal unterschiedlich.
Kannst du mit Windows 8.1 sicherlich bestätigen. ;)

Es wegzulassen ist keine Lösung.

dildo4u
2015-10-13, 13:30:19
Ne es wurde massig Richtung hohe Auflösung verändert,da ihr 1080p in vielen Games gar nicht testet da SSAA aktiv ist.Die Angabe wir haben 15 Games in 1080p getestet ist im Prinzip irrefürend.

Raff
2015-10-13, 13:33:49
Ne es wurde massig Richtung hohe Auflösung verändert,da ihr 1080p in vielen Games gar nicht testet da SSAA aktiv ist.

Der SSAA-Anteil ist nicht größer als vorher, im Jahr zuvor gab's auch diverse Tests mit 2× SSAA (Tomb Raider, Metro LL, Witcher 2 EE). Nun sind's CoD AW, Metro LL Redux und Ethan Carter Redux.

MfG,
Raff

Arcanoxer
2015-10-13, 13:37:28
Immer mehr Leute spielen in höheren Auflösungen als Full HD. Basis der neuen Gewichtung ist diese Auflösungsumfrage: http://extreme.pcgameshardware.de/quickpolls/395587-welcher-aufloesung-spielt-ihr-meistens-2015-a.html.
Für 5% mit 4k Auflösung macht ihr dann aber einen ganz schönen Aufriss.

dildo4u
2015-10-13, 13:37:39
SSAA dürfte mit der Einbindung von Ultra HD deutlich deftiger zuschlagen was Vram angeht,sieht man ja auch an der 390X die verdammt gut läuft.Wie gesagt ist kein Problem das soll ja auch ne Weile halten.

Exxtreme
2015-10-13, 13:43:02
Für 5% mit 4k Auflösung macht ihr dann aber einen ganz schönen Aufriss.
Das wird wahrscheinlich immer mehr. Speziell wenn man Supersampling einbezieht.

Arcanoxer
2015-10-13, 13:44:37
Das wird wahrscheinlich immer mehr. Speziell wenn man Supersampling einbezieht.
Sicherlich, aber aktuell ist dafür eine 25% Gewichtung doch sehr viel (siehe Umfrage).

horn 12
2015-10-13, 13:51:42
Fury, Fury X sollen kaum Probleme bekommen unter Ultra HD
Da hat PCGH wohl wieder NV ins rechte Licht gerückt.

Einige Games laufen derzeit noch nicht optimal unter UHD, daran wird wohl noch gefeilt

StefanV
2015-10-13, 13:54:37
Neben den drölfzig Auflösungen und Auflösungsdurchschnitt wäre es mal schön high quallity Benchmarks zu sehen.
Wo Gameworks und Physik nicht ausgeschaltet sind (realitätsfremd).
Natürlich nur wenn es auf AMD Karten auch läuft, aber da gibt es heutzutage schon einiges. Weglassen ist da keine Lösung, es kann ja Optional bleiben.

Ansonsten schöne Zusammenfassung.
Warum sollte man den Bullshit machen?!

Es macht einfach keinen Sinn, das ganze Gameworks Zeugs einzuschalten, eben weil der Performance Impact z.T. unter aller Sau ist. Und weil das ganze einfach unseriös ist!
Denn nVidia kann (und wird) eben auch den Mist, den sie mit Gameworks verbrechen, in den Treibern gerade biegen - andere können das nicht...

Und da ist es auch für die Redakteure das beste, den ganzen Müll abzuschalten - und so gut es geht auf Gameworks draufzukloppen, in der Hoffnung, dass es so wenig wie möglich einsatzen...

Aber das sind Dinge, die du eigentlich auch wissen solltest...

Oder was willst du hier eigentlich?!
Künstlich die nVidia Karten nach vorn drücken und ihnen eine Performance attestieren, die sie gar nicht haben?!

dildo4u
2015-10-13, 13:56:18
Fury, Fury X sollen kaum Probleme bekommen unter Ultra HD
Da hat PCGH wohl wieder NV ins rechte Licht gerückt.

Einige Games laufen derzeit noch nicht optimal unter UHD, daran wird wohl noch gefeilt
Natürlich kommen sie in Probleme da sie zu wenig Vram haben.Das kannste nich per Treiber "fixen",dort steht nicht umsonst das der Bench für 2016 Gedacht ist,das ganze muss auch Pascal als Titan Version herausfordern.

Raff
2015-10-13, 13:59:12
Ich verstehe übrigens nicht, wo das Problem ist. Die Fury und Nano (und 390X!) kommen doch klasse weg. Allein die Fury X hat ein Problem: Sie bekommt ihre Rohleistung nicht auf die Straße, da sie an vielen Ecken mit sich selbst kämpft. Viele ALUs sind nicht alles, es bräuchte mehr Front-End und mehr Speicher. Faktor 2 bei beidem würde die Karte bestimmt auf TX-Niveau bringen.

MfG,
Raff

dildo4u
2015-10-13, 14:01:32
Imo alles richtig gemacht beide Seiten regen sich auf,also haste die Mitte getroffen. ;D

Raff
2015-10-13, 14:02:08
Wohl wahr. :biggrin:

MfG,
Raff

Tamagothi
2015-10-13, 14:02:28
So, nach vielen Änderungen endlich online. Ist fast schon eine Art Making Of geworden :P

Alphacool AIO für die Fury X (http://www.tomshardware.de/alphacool-gpx-pro-aio-gpu-wasserkuhlung-umbau,testberichte-241935.html)

Der Artikel ist toll aber Temperaturen sind ein Witz ( Meiner Meinung )

Wer Wasserkühlung haben will sollte sich selber eine zusammenstellen. Leiser,Kühler und nicht grade teurer.

Arcanoxer
2015-10-13, 14:06:52
Es macht einfach keinen Sinn, das ganze Gameworks Zeugs einzuschalten, eben weil der Performance Impact z.T. unter aller Sau ist.
Da hast du dir doch schon selber die Antwort gegeben.

Und da ist es auch für die Redakteure das beste, den ganzen Müll abzuschalten - und so gut es geht auf Gameworks draufzukloppen, in der Hoffnung, dass es so wenig wie möglich einsatzen...Deine Argumentation erinnert mich an Mortlers Drogenpolitik. Totschweigen und auf das beste hoffen. :freak:

Exxtreme
2015-10-13, 14:11:05
Sicherlich, aber aktuell ist dafür eine 25% Gewichtung doch sehr viel (siehe Umfrage).
Ja, aber andererseits sind höhere Auflösungen nie ein Ausschlusskriterium für niedrigere Auflösungen, umgekehrt jedoch durchaus. Sprich, wenn eine Grafikkarte in hohen Auflösungen gut performt dann wird sie in niedrigen Auflösungen idR. ebenfalls sehr gut laufen. Umgekehrt ist das nicht unbedingt der Fall. Ich gewichte deshalb die Leistung in hohen Auflösungen stärker als in niedrigen. Von meiner Seite passt die Gewichtung der PCGH deshalb durchaus.

M4xw0lf
2015-10-13, 14:11:41
Viele ALUs sind nicht alles, es bräuchte mehr Front-End und mehr Speicher. Faktor 2 bei beidem würde die Karte bestimmt auf TX-Niveau bringen.

MfG,
Raff
Oder DX12 :naughty:

:weg:

dildo4u
2015-10-13, 14:17:52
Der OC Skylake hilft den Radeon's in 1080p massiv wenn man sich die Benches im Heft anguckt,höstens Asynchronous Compute könnte AMD voran bringen.

Was mir noch auffällt Projekt Cars wäre deutlich besser gewesen als F1 2015 den Schrott spielt eh kaum einer,Projekt Cars hat dagegen ne gute aktive Community.Mit dem DX12 Update hätte sich vermutlich auch die miese AMD Performance erledigt.

Raff
2015-10-13, 14:22:08
Wo wir gerade so schön beisammen sind, hier ein paar ofenfrische Witcher-Werte zur Feier des Addon-Releases: The Witcher 3: Hearts of Stone im Techniktest mit 16 Grafikkarten (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Benchmarks-Grafikkarten-1174311/)

Das Spielt schmeckt den Radeons.

MfG,
Raff

dargo
2015-10-13, 14:25:16
Ohne Einzelergebnisse leider schwer zu beurteilen, aber die AMD-Karten liegen bei euch eher schlecht. Eine Idee woran das liegt?

Die PCGH misst immer mit High Quality AF. Mit Q-AF sollten die AMDs etwas stärker zulegen als die Geforces.

(del)
2015-10-13, 15:27:13
Der Artikel ist toll aber Temperaturen sind ein Witz ( Meiner Meinung )

Genau deshalb gibt es ja den Kühlerblock noch einmal neu. Ich bin mir ziemlich sicher, dass diese Temperaturen noch einmal deutlich runter gehen werden. Eine "echte" WaKü ist immer besser, dummerweise aber auch immer teurer. Und wer keinen Platz für Pumpe und AB hat, kommt durchaus besser weg. :)

M4xw0lf
2015-10-13, 15:43:51
Wo wir gerade so schön beisammen sind, hier ein paar ofenfrische Witcher-Werte zur Feier des Addon-Releases: The Witcher 3: Hearts of Stone im Techniktest mit 16 Grafikkarten (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Benchmarks-Grafikkarten-1174311/)

Das Spielt schmeckt den Radeons.

MfG,
Raff
Fiji würde ich da ausnehmen, der kriegt auch in dem Spiel seine Einheiten nicht ausgelastet.

Thunder99
2015-10-13, 16:06:02
Die PCGH misst immer mit High Quality AF. Mit Q-AF sollten die AMDs etwas stärker zulegen als die Geforces.
So was sollten sie erst gar nicht wieder machen. Q ist so was von gestern und beide Seiten haben genug Power fast ohne Geschwindigkeitseinbußen 16x HQ zu filtern. So was sollte man 2015 erwarten dürfen :wink:

Spätestens 2016 sollte sich 1440p als neuer Standard sich etablieren da die Rohleistung endlich vorhanden ist. Hat lange genug gedauert...

horn 12
2015-10-13, 16:07:46
Nun, man muss auch den Preis nun beachten
Fiji Technik für 460 Euro ist nicht schlecht und weitaus billiger als der GTX 980 /970-er Ramsch.
GTX 980TI ist sowieso mit OC unangefochten und nochmals 10 bis 15% schneller als eine Fury X.

Fiji wird erst dann DX12 punkten,- und das dauert eben bis jenes groß im Kommen ist!

Dural
2015-10-13, 16:18:07
Fiji ist billiger als der 980/970 ramsch? hab ich was verpasst? :confused:

Tamagothi
2015-10-13, 16:21:49
Eine "echte" WaKü ist immer besser, dummerweise aber auch immer teurer.

für knapp 500€ bekommt man CPU und GPU mit hochwertigen Sachen Gekühlt.

- Mora
- Aquastream XT Pumpe
- Aquacomputer kryographics ( kühlt die komplette Karte)
- Alphacool NexXxoS XP³
- 9x Noiseblocker NB-Blacksilent

Das mit dem teurer würde ich nicht mal sagen :wink:
Sie kann teurer sein man hat aber deutlich bessere Preis / Leistung.

Fiji ist billiger als der 980/970 ramsch? hab ich was verpasst? :confused:

Horn hat seine für 460€ bekommen

dildo4u
2015-10-13, 16:27:22
Fiji ist billiger als der 980/970 ramsch? hab ich was verpasst? :confused:
Hat keine Relevanz für Deutschland es wurden in Italien ein paar Fury's für 450 verkauft.Wobei selbst dann ist eine 390 für 300€ der deutlich bessere Kauf.
Die einzige Schwachstelle ist Tesselation und dank der GCN Konsolen wird die vermutlich nie zum Verhängnis.

Megamember
2015-10-13, 16:31:22
Wo wir gerade so schön beisammen sind, hier ein paar ofenfrische Witcher-Werte zur Feier des Addon-Releases: The Witcher 3: Hearts of Stone im Techniktest mit 16 Grafikkarten (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Benchmarks-Grafikkarten-1174311/)

Das Spielt schmeckt den Radeons.

MfG,
Raff

970@1174 :ugly:. Ist das schon der boost?
Ach seh grad, die Referenz hat wirklich so einen armseligen Boosttakt.

dargo
2015-10-13, 17:40:03
So was sollten sie erst gar nicht wieder machen. Q ist so was von gestern und beide Seiten haben genug Power fast ohne Geschwindigkeitseinbußen 16x HQ zu filtern. So was sollte man 2015 erwarten dürfen :wink:

Sollte nur als Hinweis dienen. Q-AF ist eben auf beiden Seiten der Treiber-Standard und die Radeons verlieren etwas mehr Leistung mit HQ-AF. Mir bsw. reicht Q-AF. Hatte ich auch auf Geforces genutzt.

tm0975
2015-10-13, 18:24:09
Spätestens 2016 sollte sich 1440p als neuer Standard sich etablieren da die Rohleistung endlich vorhanden ist. Hat lange genug gedauert...

bitte gleich 4k als Standard setzen. mit einer 390 kann man heute schon größtenteils in 4k glücklich werden.

Fiji ist billiger als der 980/970 ramsch? hab ich was verpasst? :confused:

Amazon.it für 460 € weggegangen. waren sehr schnell ausverkauft.

aufkrawall
2015-10-13, 18:28:23
Die PCGH misst immer mit High Quality AF. Mit Q-AF sollten die AMDs etwas stärker zulegen als die Geforces.
Das sind so wenige Prozent, das fällt sicher kaum ins Gewicht.

Mr. Lolman
2015-10-13, 18:30:57
Das Spielt schmeckt den Radeons.

MfG,
Raff

Liegt doch eh alles im Rahmen des Erwartbaren, oder? (bzw. müsste man eher sagen, dass das mal zur Abwechslung kein Spiel ist, was den Radeons nicht schmeckt)

aufkrawall
2015-10-13, 18:34:05
?
Wo, außer UE4 Indies, lagen denn die Radeons in letzter Zeit nennenswert zurück?
Alle wichtigen Engines scheinen mittlerweile gut auf GCN optimiert zu sein und ich denke, so ziemlich alle kommenden AAA-Spiele werden gut bis sehr gut auf Radeons im Vergleich performen.
Es sind ja auch Spiele mit AMD-Zusammenarbeit in den Startlöchern.

Mr. Lolman
2015-10-13, 19:35:24
Naja, Risen 3 Enhanced Edition bspw. Aber eigentlich hast du recht.

Raff
2015-10-13, 22:15:36
Das sind so wenige Prozent, das fällt sicher kaum ins Gewicht.

Jo, das dürften im Mittel 2-3 Prozent sein. Das mag so manche Nachkommastelle ändern, aber wohl keine einzige Platzierung im Index.

MfG,
Raff

von Richthofen
2015-10-13, 22:39:19
970@1174 :ugly:. Ist das schon der boost?
Ach seh grad, die Referenz hat wirklich so einen armseligen Boosttakt.

Hatten PCGH nicht vor allzulanger Zeit die Graka-Benchmarks auf kaufbare Retaildesgns umgestellt?
Hatte mich gerade dran gewöhnt - jetzt wieder die Rolle rückwärts.

Raff
2015-10-13, 23:37:25
Keine Rolle rückwärts. :) Es bot sich lediglich an, die im neuen Index enthaltenen Witcher-Werte dediziert zu veröffentlichen, da das Addon erschienen ist. "Normale" Spieletests zum Launch werden weiterhin mit Custom-Designs durchgeführt. Wer wissen möchte, wie sich diese schlagen, kann die nur etwas älteren Werte hier begutachten: The Witcher 3 V1.07 unter Windows 10: 25 Grafikkarten mit neuen Treibern getestet (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Test-Version-107-Windows-10-1165910/)

MfG,
Raff

Nakai
2015-10-13, 23:39:20
Wo wir gerade so schön beisammen sind, hier ein paar ofenfrische Witcher-Werte zur Feier des Addon-Releases: The Witcher 3: Hearts of Stone im Techniktest mit 16 Grafikkarten (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Benchmarks-Grafikkarten-1174311/)

Das Spielt schmeckt den Radeons.

MfG,
Raff

Naja, das Einzige was man merkt ist, dass es Kepler nicht schmeckt...ind das Tonga stark von dem Frontend profitiert.

Knuddelbearli
2015-10-16, 15:37:19
Fiji ist billiger als der 980/970 ramsch? hab ich was verpasst? :confused:

Amazon.it 450€ inkl Deutscher MWST ( 462€ mit italienischer ) usw. wurde auch etliche verkauft und ausgeliefert, Preis stand über ne Woche so tief seit heute leider nimmer. Andere Italienische Händler lagen und liegen teils aber noch deutlich darunter!

Hübie
2015-10-16, 15:51:59
Krass. Das ist genau der Preis mit dem man Mengen absetzen kann die sich bilanziell auswirken.Hoffentlich wird die Verfügbarkeit jetzt auch besser.

M4xw0lf
2015-10-16, 15:55:19
Krass. Das ist genau der Preis mit dem man Mengen absetzen kann die sich bilanziell auswirken.Hoffentlich wird die Verfügbarkeit jetzt auch besser.
Glaube kaum, dass sich irgendeine Karte >300€ substantiell auf die Bilanz auswirkt.

iuno
2015-10-16, 16:30:00
Glaube kaum, dass sich irgendeine Karte >300€ substantiell auf die Bilanz auswirkt.
Und du meinst, die Nvidia Zahlen nach Maxwell 2.0 kommen von alten kleinen Keplern und Tegra?

(del)
2015-10-17, 06:41:22
Die wirklichen Stückzahlen laufen im OEM/SI Business und bei den Mobilgrafiken, nicht bei den paar Exoten im HighEnd oder der oberen Mittelklasse. Aktuell bestes Pferd im SI sind die 960er und 950er, ob man sich es vorstellen kann/möchte oder nicht.:)

M4xw0lf
2015-10-17, 09:42:49
Und du meinst, die Nvidia Zahlen nach Maxwell 2.0 kommen von alten kleinen Keplern und Tegra?
Ich glaube, dass von den Karten im Bereich 300 und mehr allenfalls die 970 einen sichtbaren Effekt in der Bilanz hinterlassen hat. Der Rest sind Halo-Effekt und das Kleinzeug.

Raff
2015-10-17, 10:02:35
Die wirklichen Stückzahlen laufen im OEM/SI Business und bei den Mobilgrafiken, nicht bei den paar Exoten im HighEnd oder der oberen Mittelklasse. Aktuell bestes Pferd im SI sind die 960er und 950er, ob man sich es vorstellen kann/möchte oder nicht.:)

Die GTX 960 bietet rein objektiv sogar für Leute in Nerdforen wie diesem ein gescheites Verhältnis aus Preis und Grundleistung. Natürlich nicht für die echten Turbonerds hier, aber im Falle der GTX 960 verwundert es mich nicht, wenn die gut geht. Aber, und das fällt wohl bei den meisten Systembauern unter den Tisch: Die R9 380 ist nochmal etwas schneller und günstiger. Das ist so marginal, dass die meisten Leute ihrer "Nvidia, weil ich's immer gemacht habe"-Einstellung nachgehen können.

MfG,
Raff

dargo
2015-10-17, 10:16:33
Die R9 380 ist nochmal etwas schneller und günstiger. Das ist so marginal, dass die meisten Leute ihrer "Nvidia, weil ich's immer gemacht habe"-Einstellung nachgehen können.

Jup.

Und sie ist endlich unter 200€ mit 4GB gefallen.
http://geizhals.de/his-radeon-r9-380-iceq-x-oc-h380qm4gd-a1282808.html?hloc=at&hloc=de
http://geizhals.de/vtx3d-radeon-r9-380-vxr9-380-4gbd5-dhe-a1336330.html?hloc=at&hloc=de

Für die Masse @1080p keine schlechte Karte. Die kommende R9 380X sollte somit bei ~250€ landen denke ich. Ich bin gespannt was Nvidia als Reaktion für die 380X hinstellt.

(del)
2015-10-17, 11:14:03
Aber, und das fällt wohl bei den meisten Systembauern unter den Tisch: Die R9 380 ist nochmal etwas schneller und günstiger. Das ist so marginal, dass die meisten Leute ihrer "Nvidia, weil ich's immer gemacht habe"-Einstellung nachgehen können.MfG,
Raff

Naja, das Problem nennt sich fast immer Billig-Gehäuse und -Netzteil. Bei der R9 380 ist die Grenze der Billig-Büchsen erreicht/überschritten, zumal es auch gar keine echten SI-Karten der R9 380 gibt. Die haben fast alle mindestens 2 Lüfter, sind relativ lang und kaum ein Boardpartner von AMD bietet zudem echte, preisgünstigere SI-Lösungen an. Bei der GTX 950 und 960 sieht das deutlich anders aus (siehe z.B. Gigabyte). Die Sapphire ITX ist eine Ausnahme bei der Größe, aber für viele wird die schon zu heiß und sie ist außerdem zu teuer.

Ich habe bei Gehäuse-Herstellern in China viele Low-Cost-Büchsen gesehen, meist noch Netzteil oben und auch kein verbauter Frontlüfter (z.B. Fujitsu). Die TDP-Empfehlungen für solche Spardosen reicht bis max. 150 Watt bei Grafikkarten und die dazu passenden Netzteile, die bereits eingebaut mit ausgeliefert werden, liegen meist bei 350/400 Watt gesamt, d.h. mit etwas Glück schafft man 300 Watt auf 12 Uhr. Dazu gibt es schon aus Gründen der Verhinderung von Upgrades meist nur einen 6-Pin PCIe-Versorgungsanschluss für Grafikkarten. Die 380 kannst Du damit locker knicken und die 370 ist einfach nur ein schlechter Witz. :(

Fragst Du die Boardpartner nach AMD-Karten für SI, bekommen fast alle das große Jucken. Innovationsrate geht gegen Null und selbst die Kunden merken, dass Umlabeln nichts Neues mit sich bringt. Da die SI-Karten fast nie mit OC kommen, hat sich an den Leistungswerten seit nunmehr fast 3 Jahren bei den Fusshupen kaum etwas geändert.

Botcruscher
2015-10-17, 12:26:09
Den Kistenschiebern sind doch die Leistungswerte egal. Da zählt maximal der Verbrauch weil dann das Chinaböller-NT noch billiger sein kann.

Zum Thema: NV dürfte sich mit der Ti und gerade der 970 dumm und dämlich verdienen. Die Karten bringen neben Umsatz einfach deutlich mehr Gewinn. Die Steamumfrage ist da sehr deutlich. Die Fury läuft hingegen einfach bescheiden.

Loeschzwerg
2015-10-17, 12:37:06
Ich habe bei Gehäuse-Herstellern in China viele Low-Cost-Büchsen gesehen, meist noch Netzteil oben und auch kein verbauter Frontlüfter (z.B. Fujitsu). Die TDP-Empfehlungen für solche Spardosen reicht bis max. 150 Watt bei Grafikkarten und die dazu passenden Netzteile, die bereits eingebaut mit ausgeliefert werden, liegen meist bei 350/400 Watt gesamt, d.h. mit etwas Glück schafft man 300 Watt auf 12 Uhr. Dazu gibt es schon aus Gründen der Verhinderung von Upgrades meist nur einen 6-Pin PCIe-Versorgungsanschluss für Grafikkarten. Die 380 kannst Du damit locker knicken und die 370 ist einfach nur ein schlechter Witz. :(


Die verbauten Netzteile in den Fujitsu Komplett-PCs sind eigentlich sehr solide und effizient. Das sind definitiv keine 08/15 China Böller NTs!

Klar sind diese PC's aus Kostengründen entsprechend dimensioniert. Wozu ein dickes NT und viele Lüfter einbauen wenn diese im Grundausbau nicht nötig sind? Der Kunde zahlt dir das doch nicht.

(del)
2015-10-17, 15:36:39
Die verbauten Netzteile in den Fujitsu Komplett-PCs sind eigentlich sehr solide und effizient. Das sind definitiv keine 08/15 China Böller NTs!
Klar sind diese PC's aus Kostengründen entsprechend dimensioniert. Wozu ein dickes NT und viele Lüfter einbauen wenn diese im Grundausbau nicht nötig sind? Der Kunde zahlt dir das doch nicht.

Ich schrieb nicht, dass die NT's Schrott sind, sondern extrem Low-Cost. Kleiner, aber wichtiger Unterschied. Fujitsu lässt z.B. einen Teil der Büchsen bei HEC in Shenzhen fertigen, da kommt dann auch gleich das Netzteil mit rein. Im OEM-Business ist es allerdings immer so, dass wirklich Wert auf eine Mindesthaltbarkeit gelegt wird, so dass alle Komponenten von Haus aus exakt vorausberechnet werden. Da kommt nie mehr rein, als nötig (aber eben auch nicht weniger) ;)

Loeschzwerg
2015-10-17, 15:56:13
Klang halt ein wenige abwertend, da musste ich als Fujianer einfach was sagen :D Ich habe am Arbeitsplatz mehrere Esprimos die jetzt schon 5-7 Jahre 9x5 laufen. Wenn dort etwas getauscht wurde, dann die Festplatte.

Geil finde ich aber eh drei Primergy 070 (Bj. 1998) die mit wenigen Ausnahmen (Umzüge) 24/7 laufen.

(del)
2015-10-17, 19:23:55
Ich habe die Fuji-Dingser von der Blech-Rolle bis zur Fakturierung begleitet (nicht nur die) und man läuft sich in der alten Butze bei HEC echt 'nen Wolf, wenn man alles sehen will. Da kommen ja noch Hitze und Luftfeuchtigkeit dazu. Nie wieder im Mai. :D

Raff
2015-11-02, 14:10:59
Radeon Software Crimson: AMD begräbt das Catalyst Control Center -> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=568092

MfG,
Raff

-/\-CruNcher-/\-
2015-11-02, 14:36:22
War abzushen man hatte ja schon das neue interface gezeigt wer sich erinnert an den Carrizo start ;)
Nvidia wird bald mit ihrem Nachziehen, das Design Branding ist ja alles schon ausgearbeitet und ready for deployment

Hübie
2015-11-11, 02:24:29
So traurig es auch ist, aber du kannst die komplette Fury Reihe aufaddieren um kämst nicht mal ansatzweise an die Zahlen der 980 Ti. Allein die Titan X dürfte sich besser verkaufen als die Fury, Fury NANO und Fury X zusammen. AMD scheint immer noch Probleme mit der gesamten Ausbeute zu haben. Also nicht nur der Die, sondern das gesamte Package samt Interposer. Die Nacharbeit ist aufwändig und relativ teuer. Das sorgt vielleicht unter anderem dafür dass der Preis kaum herunter geht. Bei 550 hätte man imo den Nerv getroffen, aber könnte die Nachfrage gar nicht decken.

L.ED
2015-11-11, 07:25:48
Die Fury Serie ist in der Sache nicht rund und dafür zu teuer, gemeint es fehlt immer irgendwo noch das letzte bißchen nebst den obligatorischen Restzweifeln wegen den mäßigen bis hin vergeigten launches.

Mittlerweile schon so vorherzusehen, so das es als AMD typisch gebrandet werden kann und als geneigter Endanwender man hier ebenso schon länger nicht mehr mitkommt. Da es nach außen hin den Anschein eines Unternehmens erweckt was sich offenkundig selbst sabotiert bzw. dessen nicht im Griff und zulässt (falls es an dessen ist)?! :|
Das größte potential und Beste sehe noch bei der Nano (da als Produkt fast schon glatt), insofern sie mal mit einem gescheiten nebst wertigen (in jeder Beziehung), Kühler versehen, etwa der Klasse wie auf der Fury ohne X (http://geizhals.de/sapphire-radeon-r9-fury-tri-x-11247-00-40g-a1295264.html) genutzt!

Aber auch diese Chance vertun AMD & Partner bisher, hätte sie eine solche könnte sie die Abteilung High-Performance bis Highend HW Wunsch bei dennoch nach Silent strebend (in Praxis und Tendenz), ansprechen! Für solch ein Produkt wüsste und hätte Interessenten (inklusive mir selbst), natürlich zu Norm-Preisen und nicht nach Spezi-Modding-Tarifen. ^^

Tarkin
2015-11-13, 07:38:56
AMD R9 Fury X Leaps Ahead Of Nvidia GTX 980 Ti With The Latest Windows 10 Drivers

Read more: http://wccftech.com/amd-r9-fury-x-performance-ahead-nvidia-980-ti-latest-drivers/#ixzz3rLow5p1D

(latest Drivers sind in dem Fall die 15.9.1. Beta)

very nice eigentlich... wird sehr interessant wenn die Furys dann mit den Crimson Treiber nochmal getestet werden

bedenklich allerdings, dass die Launch Treiber immer dermaßen versch.... sind. :rolleyes:

horn 12
2015-11-13, 09:23:22
Nun, der Treiber unter DX11 wird wohl auch davon profitiren, sofern richtig optimiert wurde beim Crimson Treiber
Die ganzen Blockbuster sollten mit diesem Treiber wohl komplett rund laufen und NV mal die Optimierungen aufzeigen!

(del)
2015-11-13, 10:08:24
Ich kann das ganze Wundertreiber-Zeug nicht mehr hören. Ist immer wieder das Gleiche :D
Naja, die Hoffnung stirbt zuletzt... :P

horn 12
2015-11-13, 10:10:30
Nun, AMD hat immer mehr Potential, dies wird bei der gesamten Fury Serie nicht anders sein
GTX 970 und 980 sind auch von R9 390 und 390X überholt worden.

Arcanoxer
2015-11-13, 10:17:24
GTX 970 und 980 sind auch von R9 390 und 390X überholt worden.In Fallout 4 ist eine GTX970 schneller oder gleichauf mit der Fury.

MartinRiggs
2015-11-13, 10:24:30
Horn glaubt halt auch noch an den Weihnachtsmann, klar wird mit dem nächsten Treiber AMD die Weltherrschaft an sich reißen.:D

Ich hab beides erst kürzlich verglichen und AMD also zumindest die R9 390 läuft für mich in einigen Spielen zu unrund, ist schade ist aber so.

StefanV
2015-11-13, 10:28:04
Ich kann das ganze Wundertreiber-Zeug nicht mehr hören. Ist immer wieder das Gleiche :D
Naja, die Hoffnung stirbt zuletzt... :P
Und immer wieder passiert das, wenn es eine neue Generation oder andere gravierende Neuerungen gibt.

Der Speichercontroller der Fury ist ja wohl eine gravierende Änderung, die in bisherigen Treibern u.U. noch nicht ausreichend berücksichtigt wurde - entsprechend kann es durchaus sein, dass ein neuer 'Wundertreiber' einiges an Leistung bringen kann, eben weil die bisherigen mit angezogener Handbremse liefen...

captain_drink
2015-11-13, 10:57:30
Wenn ich das richtig sehe, steht '980 Ti' bei WCCFT für die 980 Ti im Referenzdesign.
Selbiges war unter 4k aber schon länger langsamer als eine Fury X.
Da in den meisten Benches der letzten Zeit zudem ohnehin W10 eingesetzt wurde, mag der Leistungszuwachs für WCCFT eine Neuigkeit darstellen, allen anderen ist dieses Leistungsbild jedoch bereits geläufig.

(del)
2015-11-13, 11:02:19
... entsprechend kann es durchaus sein, dass ein neuer 'Wundertreiber' einiges an Leistung bringen kann, eben weil die bisherigen mit angezogener Handbremse liefen...

Die Limitierung der Fury liegt im Missverhältnis von Front- und Back-End. Selbst wenn der Controller optimiert werden könnte, ändert es nichts am Versagen bei geringeren Auflösungen/Lasten. Es ist und bleibt ein Hardware-Problem.

Schnoesel
2015-11-13, 11:13:53
Na ich hoffe doch nicht dass man sich ne Fury (x) für 1080p zulegt. Das ist doch Perlen vor die Säue.

akuji13
2015-11-13, 11:31:40
Oder längerfristig sorgenfreie fps.

Baue im Januar einen Rechner zusammen für einen Bekannten mit dem genannten setup, das reicht ihm dann wieder für 5-6 Jahre.

Kartenlehrling
2015-11-13, 11:43:56
Ich glaube das kann man bis zum Sankt Nimmerleinstag diskutieren, DX11 Spiele werden immer an einer CPU-Limitierung leiden.
Bis anfang Sommer 2016 warten ist einfach zulang, jetzt sind es 6 Jahre DX11, 3 Jahre wo an Mantle/DX12 gearbeite wird, das brauch einfach alles zu lange.

Bei Anno 2205 sieht man das leider auch, das die Spieleentwickler das nicht früher erkennen, kann doch nicht sein das man erst mit dem Goldstatus Benchmarks veranstallte.

Liegt die Differenz zwischen der langsamsten und der schnellsten Prozessorkonfiguration auf der GeForce GTX 980 Ti bei 2.500 Einwohnern in 1.920 × 1.080 noch bei 17 Prozent,
beträgt sie bei 900.00 Einwohnern nur noch marginale drei Prozent.
Es muss allerdings angemerkt werden, dass die CPU bei nur noch zwei aktiven Kernen ohne Hyper Threading zwar die genannte Framerate erreicht,
das Bild beim Scrollen jedoch anfängt zu ruckeln – was bei allen anderen CPU-Szenarien nicht passiert.

Auf der Radeon R9 Fury X und damit auch auf sämtlichen anderen AMD-Beschleunigern ist es völlig gleichgültig, welcher Prozessor eingesetzt wird.
Auch dort ruckelt die Zwei-Kern-Variante beim Scrollen, alle anderen Prozessoren liefern jedoch exakt dieselbe Performance.
In Anno 2205 ist es also auch im Late Game nicht wichtig, welcher Prozessor verbaut ist.
http://www.computerbase.de/2015-11/anno-2205-benchmarks-viele-einwohner/#diagramm-prozessorskalierung-radeon-r9-fury-x

Knuddelbearli
2015-11-13, 15:39:37
Ich glaube das kann man bis zum Sankt Nimmerleinstag diskutieren, DX11 Spiele werden immer an einer CPU-Limitierung leiden.
Bis anfang Sommer 2016 warten ist einfach zulang, jetzt sind es 6 Jahre DX11, 3 Jahre wo an Mantle/DX12 gearbeite wird, das brauch einfach alles zu lange.

Bei Anno 2205 sieht man das leider auch, das die Spieleentwickler das nicht früher erkennen, kann doch nicht sein das man erst mit dem Goldstatus Benchmarks veranstallte.


http://www.computerbase.de/2015-11/anno-2205-benchmarks-viele-einwohner/#diagramm-prozessorskalierung-radeon-r9-fury-x

Aus immer gleichbleibender Performance liest ein ein CPU Limit? ähm nein! Genau das Gegenteil ist der Fall. wenn es nach dem ginge hat NV ein CPU Limit!

Kartenlehrling
2015-11-13, 15:53:21
wir reden hier von 30fps unterschied bei 80.000 Einwohner gegenüber Nvidia,
wenn bei einer FuryX genauso bei 60fps hängt wie bei einer R9280x wird es bestimmt nicht an der GPU liegen.

Knuddelbearli
2015-11-13, 16:00:34
und wie soll das an einem CPU Limit liegen wenn selbst eine 3 mal so starke CPU fast 0,0 nix niente nessuno bringt ...

Abgesehen davon das unter Max AMD gleich aufliegt.

Kartenlehrling
2015-11-13, 16:11:44
Test belegen es doch das für Anno 2205 erst mit "Ultra Present-4K" wirklich im GPU limit hängt, selbst 1440p ist zu CPU-Lastig.

4Fighting
2015-12-06, 11:09:34
Verkaufsverbot wg. Patent-Verletzung möglich:freak:

Asetek’s attorneys have also written a cease and desist letter to AMD, demanding that it stop selling its Radeon R9 Fury X product, because it infringes Asetek’s patents.



There is no licensing agreement in place with Cooler Master, nor do we plan to offer any in the foreseeable future. Asetek sued Cooler Master and CMI USA, Inc. (Cooler Master’s US affiliate) for infringement of Asetek’s US Patent Nos. 8,240,362 and 8,245,764, and the jury found that the Cooler Master products at issue infringe Asetek’s patents and awarded damages to Asetek. The judge also entered an injunction prohibiting Cooler Master and CMI USA from importing or selling the accused products in the US, and the judge awarded enhanced damages because of continued sales after the jury’s verdict.


http://www.gamersnexus.net/industry/2217-asetek-demands-cessation-of-fury-x-and-waterforce-sales

horn 12
2015-12-06, 11:30:04
Dies wäre wohl schlimm und dass Alleinstellungsmerkmal der kurzen Fiji Karte inkl. AIO wäre dahin!
Somit müssten es die guten Luftkühler von Sapphire und Co richten.
Hoffe das AMD da doch noch die Kurve hinbekommt...

HarryHirsch
2015-12-06, 12:09:08
wenn amd die dinger von cooler master bezieht kann denen das doch egal sein.

Kartenlehrling
2015-12-06, 12:20:02
Weiss gar nicht wieso diese Aufregung der Kühler ist doch sowieso "Shit!!"

Hübie
2015-12-06, 13:04:49
Der von CM, ja. Der von Asetek fiel dahin gehend nicht so negativ auf.

Unicous
2015-12-06, 14:35:11
Hauptsache clickbait erzeugen.

Asetek Demands AMD Cease Sales of Fury X on Infringement Claims

Asetek’s attorneys have recently sent cease and desist letters to Gigabyte, demanding that it cease selling Giga-Byte’s GEFORCE GTX 980 Water Force (sold under at least model number GV-N980WAOC-4GD) because it contains the Seidon 120M found by the court to infringe Asetek’s patents.

Asetek’s attorneys have also written a cease and desist letter to AMD, demanding that it stop selling its Radeon R9 Fury X product, because it infringes Asetek’s patents. Our attorneys have had some difficulty obtaining a Gigabyte GV-N98TXTREME W-6GD, but we expect to receive and analyze one very soon for infringement.

Falls ihr das noch nicht mitbekommen habt: Asetek verklagt im Moment so gut wie jeden Hersteller/OEM der AiO LQS verkauft.

fondness
2015-12-06, 16:20:54
Der von CM, ja. Der von Asetek fiel dahin gehend nicht so negativ auf.

Der von Asustek ist um nichts leiser unter idle, es störte bei der 295X2 nur niemanden, da die Karte für eine Dual-GPU trotzdem noch sehr leise ist. Im übrigen ist auch die FuryX die leiseste High-End-Karte seit Jahren.

Arcanoxer
2015-12-06, 16:57:54
Falls ihr das noch nicht mitbekommen habt: Asetek verklagt im Moment so gut wie jeden Hersteller/OEM der AiO LQS verkauft.Na und, was hat das mit der Fury zu tun?

Urheberrecht: Asetek fordert den Verkaufs-Stop von Fury X (http://www.pcgameshardware.de/AMD-Radeon-R9-Fury-X4G-Grafikkarte-260708/News/Urheberrecht-Asetek-fordert-Stop-von-Fury-X-1180146/)

(del)
2015-12-06, 18:24:25
Die Seidon-Pumpen auf der FuryX und der Gigabyte 980 Waterforce, sowie der neuen 980 Ti Xtreme Gaming Waterforce sind einfach nur Müll. Dazu ein arg popeliger Kühlaufbau, bei dem zwischen VRM-Kühlerplatte (Alu) und der darauf "angebrachten" Heatpipe (Kupfer-Komposit) bereits 8K als Delta zu messen sind (980 Ti). Billig hingeschludert.

CM hat langsam ein anderes Problem als nur angeknabberte Patente. Im Sommer in Taiwan hat mir ein glatzköpfiger CM-Einpeitscher im Stile eines Versicherungsverkäufers immer wieder beteuert "We are the makers, the maker Company!". Ich hab das Event verlassen, weil mir davon recht schnell kotzübel war. Das tolle Master-Case stand dort nur als angeranztes Mockup, anfassen verboten. Für diesen Schmarrn habe ich über 30 Minuten geopfert. Wolfgang von CB saß neben mir und sah auch nicht wirklich glücklich aus :D

AMD sollte sich nach einem eigenen OEM umsehen, die ganze Man-in-the-middle Geschichte bringt eh nichts, außer horrenden Anwaltskosten. Bei GB glühen auch schon die Telefone, nachdem ich am Donnerstag die Daten der komplett zerlegten Karte (980 Ti) geschickt habe.

horn 12
2015-12-06, 18:47:32
Da gelobe ich die Saubere und professionelle Arbeit der Fury Sapphire im 2,5 Slot Bauform!
Leiser als so manche Hochkarate Karte am Markt und äußerst stabil und Sauleise obendrauf!

Hübie
2015-12-06, 19:02:59
Der von Asustek ist um nichts leiser unter idle, es störte bei der 295X2 nur niemanden, da die Karte für eine Dual-GPU trotzdem noch sehr leise ist. Im übrigen ist auch die FuryX die leiseste High-End-Karte seit Jahren.

Das es um das Fiepen geht ist dir dabei aber bewusst, ja? ;) Deshalb mein Zusatz "dahin gehend". Und Asustek? Näää :P

Edit: @ Igor: Gab es da ein Wechsel von Wichtigmachern im Management oder haben die sich von einem Quacksalber einlullen lassen? Kannte CM noch von "früher" und die waren recht höflich / freundlich.

Unicous
2015-12-08, 13:42:30
Statement von AMD:

We are aware that Asetek has sued Cooler Master. While we defer to Cooler Master regarding the details of the litigation, we understand that the jury in that case did not find that the Cooler Master heat sink currently used with the Radeon Fury X infringed any of Asetek’s patents.

eratte
2015-12-18, 09:34:04
Glaub meine Fury X hat einen defekt, sobald ein Spiel (egal welches) in den den "3D Modus" schaltet kein Signal mehr am DP, Treiber rauf/runter/DDU usw ohne Abhilfe. Wieder zurück zur GTX980 (böse Seite der Macht), da tut es alles bei identischem Rest.

Gegentest in einem anderem Rechner steht noch aus, wenn das Fehlerbild da auch auf tritt geht sie zum Händler in den RMA.

Schon mal jemand was ähnliches gehabt?

Hübie
2015-12-18, 09:40:50
Und anderer Port bzw. anderer Anschluss zeigt das gleiche Fehlerbild? Defekte der Fury-Serie sind mir bisher sehr selten untergekommen.

eratte
2015-12-18, 09:51:38
Jo andere Ports auch, war auch auf einmal - an dem Rechner ist auch nichts gemacht worden.

Vormittags ging es, Abends nicht mehr.

Raff
2015-12-20, 15:27:31
Etwas Öl für das immer wieder auflodernde Feuer: Was in aller Welt limitiert die Furien? Man fragt sich immer wieder, was mit den +45 % Shader-Leistung und der dicken Speichertransferrate gegenüber der 390X passiert, selbst wenn 4 GiB ausreichen. Werfen wir mal einen Blick auf das neue Unreal Tournament (http://www.pcgameshardware.de/Unreal-Tournament-Spiel-55786/Specials/Technik-Test-mit-22-Grafikkarten-der-Jahrgaenge-2009-bis-2015-1177615/).

Wie man sieht, ist das Spiel im Test vollkommen grafiklimitiert, die Fps brechen fast linear mit steigender Auflösung ein. Zumindest auf Geforce-Grafikkarten. Auf Radeons mal wieder nicht. Obwohl ganz offensichtlich nicht der Polygondurchsatz limitiert – das kann man immer sehr gut am Duell 270X OC vs. 280 OC ablesen und letztere gewinnt hier klar –, kommen Fury und Fury X nicht aus dem Quark. Die X kann ihre +14 % Zusatz-Shader gegenüber der Fury mit gleichem Takt in +4 bis +5 % Leistung umsetzen. Die Arithmetikleistung kommt aber bei beiden nicht ansatzweise auf die Straße.

MfG,
Raff

aufkrawall
2015-12-20, 15:37:32
Es wurde schon mehrfach von versierten Usern wie Nakai oder Locuza die These aufgestellt, dass zusätzliche ALUs mit GCN in Spielen mitunter schwer auslastbar sind. Dafür braucht es offenbar ordentlich Optimierung durch den Entwickler oder von AMD im Treiber (siehe etwa Fiji-Verbesserungen in Fable durch Crimson).
Deshalb würd ich mir die Karte niemals holen, das Teil wird einfach von einer 980 Ti@1,4Ghz übel deklassiert.

fondness
2015-12-20, 15:50:10
Es ist vollkommen logisch, wenn ich bei einem Chip nur die Anzahl der ALUs erhöhe, dass ich dann keinen lineare Skalierung erwarten kann. Sowohl Front- als auch Backend sind identisch zu Tonga. Fiji spielt seine Stärken aus, wenn hoher artithmetikdurchsatz gefragt ist.

Das die Unreal-Engine eher auf NVs-Architektur optimiert ist, überrascht im übrigen nicht im geringsten.

aufkrawall
2015-12-20, 15:55:05
Fiji spielt seine Stärken aus, wenn hoher artithmetikdurchsatz gefragt ist.

Das ist auch nicht automatisch so, siehe Risen oder Anno.


Das die Unreal-Engine eher auf NVs-Architektur optimiert ist, überrascht im übrigen nicht im geringsten.
Unsinn. Fable lief auf Hawaii sofort sehr schnell, nur Fiji brauchte erst ein Treiber-Update.

fondness
2015-12-20, 16:01:33
Das ist auch nicht automatisch so, siehe Risen oder Anno.

Gerade Anno zeigt, dass komplexe Berechnungen Fiji deutlich weniger kosten, als anderen Karten, Siehe Vergleich Shaderqualität sehr hoch zu ultra. Risen ist als DX9 Spiel hoffentlich nicht dein ernst.

Ansonsten gibt es da wenig zu diskutieren, der Artithmetikduchsatz ist konkurrenzlos hoch, das ist Fakt. Je nach Spiel bringt das mehr oder weniger.


Unsinn. Fable lief auf Hawaii sofort sehr schnell, nur Fiji brauchte erst ein Treiber-Update.

Das kannst du gar nicht beurteilen, Treiber werden lange vor dem ersten Benchmarks optimiert, womöglich kam die Fiji-optimierung nur später. Klar ist natürlich, das Fiji ein völlig anderes Verhältnis der Einheiten zueinander hat, deshalb ist die Erwartungshaltung +45% ALUs = +45% mehr Leistung, außer in Optimalfällen natürlich nicht haltbar.

aufkrawall
2015-12-20, 16:04:43
Risen ist als DX9 Spiel hoffentlich nicht dein ernst.

Komisch, dass du Trine 3 als DX9 Spiel aber gerne als Argument für Fijis Rechenstärke angeführt hattest?


Das kannst du gar nicht beurteilen, Treiber werden lange vor dem ersten Benchmarks optimiert, womöglich kam die Fiji-optimierung nur später.
Mit dem Crimson wurde allgemein bei Fiji etwas die Handbremse gelockert. Ist ja nicht so, dass es nur ein UE4 Phänomen wäre. Selbst bei BF4 gab es nennenswerte Zuwächse bzw. endlich mal eine halbwegs erkennbare Skalierung gegenüber Hawaii.

fondness
2015-12-20, 16:06:47
Komisch, dass du Trine 3 als DX9 Spiel aber gerne als Argument für Fijis Rechenstärke angeführt hattest?


Ich habe gerade die Suchfunktion benutzt und keinen einzigen Beitrag von mir gefunden, wo das Wort "Trine 3" auch nur vorkommt. Also bitte bei der Wahrheit bleiben.

aufkrawall
2015-12-20, 16:09:10
LOL:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10749319#post10749319
AMD_Markus at his best...

Hübie
2015-12-20, 16:16:56
Sehe ich auch so. Sweeny und Jensen kuscheln ja nun schon seit mehreren Jahren. Und das Fiji wenig ausgewogen für aktuelle Spiele-Engines ist, konnten wir ja nun schon öfter feststellen. Mit AC in D3D12 wird sich das verbessern, nur ob es schnellen Durchbruch erlangt bezweifel ich erst einmal, da der große Player es eben nicht so gut beherscht (beherrschen muss).

fondness
2015-12-20, 16:35:21
LOL:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10749319#post10749319
AMD_Markus at his best...

Wo habe ich da auch nur in irgend einer Form "Trine 3 als Argument für Fijis artithmetikdurchsatz angeführt", wie mir mir zuerst unterstellt hast? Die Frage kannst du natürlich nicht beantworten.

Und nein, ich bin nicht AMD_Markus.

aufkrawall
2015-12-20, 16:38:22
Nach der peinlichen Erinnerungslücke kommt jetzt peinliche Haarspalterei?
Such dir dafür bitte einen anderen Dummen.

fondness
2015-12-20, 16:43:48
Nach der peinlichen Erinnerungslücke kommt jetzt peinliche Haarspalterei?
Such dir dafür bitte einen anderen Dummen.

Du hast mir unterstellt, dass ich "Trine 3 als DX9 Spiel als Argument für Fijis Rechenstärke angeführt haben". Das ist nachweislich falsch, also bitte bei der Wahrheit bleiben.

Und nein, das Wort "Trine 3" kommt in dem von dir verlinken Beiträgen auch nicht vor, ich habe nur den Test verlinkt und dabei ist weder das Wort Trine 3, noch das Wort Fiji oder Rechenleistung gefallen.

dargo
2015-12-20, 17:37:47
Etwas Öl für das immer wieder auflodernde Feuer: Was in aller Welt limitiert die Furien? Man fragt sich immer wieder, was mit den +45 % Shader-Leistung und der dicken Speichertransferrate gegenüber der 390X passiert, selbst wenn 4 GiB ausreichen.
Die Steinzeit-API am PC, imo.

aufkrawall
2015-12-20, 18:04:34
So würd ich das nicht pauschalisieren, Battlefront läuft mit DX11 auch auf Fiji schnell.
Fable mit DX12 & Async Compute tat das nicht.

Es sollten schon mehrere DX12 spiele spielbar sein, was jetzt jedoch vielleicht frühestens in ca. einem halben Jahr etwas wird. DX12 scheint arschschwierig für Entwickler zu sein.
Shader werden damit auch nicht wie durch Zauberhand schneller laufen. Dota 2 etwa läuft im GPU-Limit mit DX11 langsamer als mit DX9. Eine bessere/neuere API allein muss nicht zwangsläufig sofort etwas bringen.

Megamember
2015-12-20, 18:19:09
Wüsste nicht was die APi mit der Shaderauslastung zu tun hat. Das ist doch ne reine Sache zwischen Chipdesign, Treiber und Engine.

Locuza
2015-12-20, 18:38:23
Etwas Öl für das immer wieder auflodernde Feuer: Was in aller Welt limitiert die Furien? Man fragt sich immer wieder, was mit den +45 % Shader-Leistung und der dicken Speichertransferrate gegenüber der 390X passiert, selbst wenn 4 GiB ausreichen.
Wie schlägt sich eig. HBM Overclocking?
http://www.pcgamer.com/sapphire-trixx-unlocks-amd-r9-fury-x-voltage-and-hbm-overclocking/

Der niedrige Takt bei so einem extrem breiten Interface klingt nach einer Herausforderung bei der Lastverteilung bzw. Versorgung.

Man sieht bei den theoretischen Tests von Techreport auch, dass die Bandbreite nicht sehr gut ankommt.
Im worst-case sind es 26%, im best-case mit optimaler Kompression 47%, die Bandbreite ist aber theoretisch um 60% gestiegen von 320 GB/s auf 512 GB/s.
Ansonsten ist der theoretische Durchsatz vom Back-End nicht gestiegen, nur die color-compression wurde hinzugefügt.

Das Front-End wurde etwas getweaked, aber ich denke das müsste man stärker renovieren, um das scaling besser hinzubekommen.
Ab GCN Gen 4 gibt es dann hoffentlich etwas neues.

Kartenlehrling
2015-12-20, 19:30:16
Hat eigentlich einer... der Ahnung hat ... sich mal das Tool von AMD angeschaut,
sieht man da wirklich Optimierungs Lücken, gerade solche Engine wie UE4 die mit Nvidia ins Bett gehen wär es toll zu sehen ob man da wirklich was sehen könnte?
Anscheinen reicht die .EXE, ich dachte zuerst man brauch auch das engine projekt.

http://developer.amd.com/tools-and-sdks/graphics-development/gpu-perfstudio/
GPU PerfStudio v3.3.29.0

Unicous
2015-12-21, 17:41:43
Cooler Master Responds to AMD Fury X Infringement Claims (http://www.overclock3d.net/articles/gpu_displays/cooler_master_responds_to_amd_fury_x_infringement_claims/1)


Although Asetek had originally included Cooler Master in the litigation, Asetek voluntarily and unconditionally dismissed all of its infringement claims against Cooler Master before trial. Additionally, the Cooler Master heat sink used with the Radeon Fury X was not accused in the litigation, was not found by the jury to infringe, and was not included in the judgment. The heat sink's design is also fundamentally different from the accused devices in the litigation.

aufkrawall
2015-12-30, 18:42:45
Etwas Öl für das immer wieder auflodernde Feuer: Was in aller Welt limitiert die Furien?
gamegpu.ru hat Dying Light mit neusten Patches und Treiber getestet, diesmal auch mit Fury X und Nano:
http://gamegpu.ru/action-/-fps-/-tps/dying-light-test-gpu-2015.html
Mit höherer Detailstufe bricht es stärker ein, an Gameworks liegt das nicht (HBAO+ zieht kaum und das DoF wird in dem Benchrun wohl gar nicht genutzt).
Mit VHQ ist die 980 in WQHD mal wieder vor der Fury X.

-/\-CruNcher-/\-
2015-12-30, 19:32:47
Cooler Master Responds to AMD Fury X Infringement Claims (http://www.overclock3d.net/articles/gpu_displays/cooler_master_responds_to_amd_fury_x_infringement_claims/1)


"fundamentally different"

die meinten doch eher es ist fundementaly worse und kann deshalb überhaupt keine patentverletzung sein ;)

Spaß beiseite Es klingt eher danach als hat man sich einfach ausser gerichtlich geinigt nach dem C&D, ich schick doch kein C&D los wenn ich mir nicht 100% sicher bin.

Unicous
2015-12-30, 19:40:40
Schon geil, wie du deinen "Beitrag" komplett editiert hast und die ursprüngliche Aussage nicht mehr vorhanden ist.:uup:


edit: Das zigste Editieren macht deine Aussage übrigens nicht besser oder gar relevanter. ;)

Exxtreme
2015-12-31, 09:22:47
Etwas Öl für das immer wieder auflodernde Feuer: Was in aller Welt limitiert die Furien? Man fragt sich immer wieder, was mit den +45 % Shader-Leistung und der dicken Speichertransferrate gegenüber der 390X passiert, selbst wenn 4 GiB ausreichen. Werfen wir mal einen Blick auf das neue Unreal Tournament (http://www.pcgameshardware.de/Unreal-Tournament-Spiel-55786/Specials/Technik-Test-mit-22-Grafikkarten-der-Jahrgaenge-2009-bis-2015-1177615/).

Wie man sieht, ist das Spiel im Test vollkommen grafiklimitiert, die Fps brechen fast linear mit steigender Auflösung ein. Zumindest auf Geforce-Grafikkarten. Auf Radeons mal wieder nicht. Obwohl ganz offensichtlich nicht der Polygondurchsatz limitiert – das kann man immer sehr gut am Duell 270X OC vs. 280 OC ablesen und letztere gewinnt hier klar –, kommen Fury und Fury X nicht aus dem Quark. Die X kann ihre +14 % Zusatz-Shader gegenüber der Fury mit gleichem Takt in +4 bis +5 % Leistung umsetzen. Die Arithmetikleistung kommt aber bei beiden nicht ansatzweise auf die Straße.

MfG,
Raff

Für mich sieht es eher danach aus als wenn die CPU limitiert und nicht die Fury. Sprich, die Treiber sind was CPU-Ausnutzung angeht wohl viel schlechter als die von Nvidia.

(del)
2015-12-31, 09:54:58
Für mich sieht es eher danach aus als wenn die CPU limitiert und nicht die Fury. Sprich, die Treiber sind was CPU-Ausnutzung angeht wohl viel schlechter als die von Nvidia.

Würde ich jetzt nicht ganz zu 100% unterschreiben wollen, denn die Ergebnisse beim i7 5930K @4.2 GHz unterscheiden sich in vielen Situationen kaum von denen @4.9 GHz. Zumal es kaum den geringen Anstand zur 390X erklärt, der eigentlich deutlich größer sein müsste. Dass die Treiber noch Potential besitzen steht natürlich außer Frage, hier hätte man sich bei Crimson weniger auf das bunte GUI stürzen, sondern mehr um die Basics kümmern sollen.

Exxtreme
2015-12-31, 10:12:44
Würde ich jetzt nicht ganz zu 100% unterschreiben wollen, denn die Ergebnisse beim i7 5930K @4.2 GHz unterscheiden sich in vielen Situationen kaum von denen @4.9 GHz. Zumal es kaum den geringen Anstand zur 390X erklärt, der eigentlich deutlich größer sein müsste. Dass die Treiber noch Potential besitzen steht natürlich außer Frage, hier hätte man sich bei Crimson weniger auf das bunte GUI stürzen, sondern mehr um die Basics kümmern sollen.
Hi, hast du irgendwo Benchmarks rumfahren, die beide CPUs in einer niedrigen Auflösung vergleichen? Und der geringe Abstand zur 390X würde sogar für meine These sprechen: wenn die Grafikkarte auf die CPU warten muss dann wird die Geschwindigkeit der Grafikkarte zunehmend unwichtig weil sie nicht der limitierende Faktor ist.

(del)
2015-12-31, 11:08:30
Nichts Offizielles, weil es faktisch nichts brachte und sich weitere Tests damals einfach nicht lohnten. Die Fury hat den Flaschenhals ganz offensichtlich fest eingebaut, denn Front- und Back-End stehen ja nun nicht wirklich in einem ausgesprochen harmonischen Verhältnis. Hier hilft nur das Warten auf Polaris, denn mit FinFET und GCN 1.3 wird der ganze aktuelle Kram eh schlagartig obsolet und die Karten (Wortspielkasse) werden sowieso neu gemischt. :)

Bis dahin muss man mit den Absonderlichkeiten wohl leben....

aufkrawall
2015-12-31, 14:33:21
So CPU-limitierend ist der AMD-Treiber in höheren Auflösungen dann auch nicht, dass er den avg-fps Wert derart drücken würde.
Siehe der gamegpu.ru Test von oben: In 4k schrumpft der Abstand zwischen Fiji und Hawaii sogar gegenüber WQHD.
Mit CPU-Limit kann das gar nichts zu tun haben, weil die 295X2 135fps Minimum in 1080p schafft.

Raff
2016-01-12, 10:21:49
Etwas Öl für das immer wieder auflodernde Feuer: Was in aller Welt limitiert die Furien? Man fragt sich immer wieder, was mit den +45 % Shader-Leistung und der dicken Speichertransferrate gegenüber der 390X passiert, selbst wenn 4 GiB ausreichen. Werfen wir mal einen Blick auf das neue Unreal Tournament (http://www.pcgameshardware.de/Unreal-Tournament-Spiel-55786/Specials/Technik-Test-mit-22-Grafikkarten-der-Jahrgaenge-2009-bis-2015-1177615/).

Wie man sieht, ist das Spiel im Test vollkommen grafiklimitiert, die Fps brechen fast linear mit steigender Auflösung ein. Zumindest auf Geforce-Grafikkarten. Auf Radeons mal wieder nicht. Obwohl ganz offensichtlich nicht der Polygondurchsatz limitiert – das kann man immer sehr gut am Duell 270X OC vs. 280 OC ablesen und letztere gewinnt hier klar –, kommen Fury und Fury X nicht aus dem Quark. Die X kann ihre +14 % Zusatz-Shader gegenüber der Fury mit gleichem Takt in +4 bis +5 % Leistung umsetzen. Die Arithmetikleistung kommt aber bei beiden nicht ansatzweise auf die Straße.

MfG,
Raff

Ebenfalls interessant sind die Neuigkeiten vom Hardware-Fresser: Ark: Survival Evolved Revisited - Neue Grafikkarten-Benchmarks (http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Benchmark-Test-2016-1182869/)

PCGH testet eine AMD Fury X und eine Sapphire Fury Nitro, womit ein Pro-Takt-Vergleich @ 1.050 MHz möglich ist. Hier kann sich die Fury X trotz geringer Bildschirmauflösung überdurchschnittlich absetzen, die Shaderleistung schlägt gut durch (+8 % bei "High") und beide Karten können die 390X OC ordentlich abziehen. Kurioserweise kann sich die Fury X bei "Epic" nicht mehr nennenswert von der Fury absetzen, hier limitiert wieder ... irgendwas. Der Speicher ist's nicht, 4 GiB genügen.

MfG,
Raff

Schaffe89
2016-01-12, 13:15:05
Also meistens doch gar kein CPU Limit in niedrigen Auflösungen, sondern irgend ein anderes Problem?
Macht doch mal einen reallitätsfernen Test mit mehreren gering gewählten Auflösungen und einer 390 und Furx kombiniert mit nem Pentium Dualcore, einem i3, i5 und i7 dann auch mit OC und natürlich entsprechender Nvidia Karte.

Das wäre mal ein interessanter Test und man könnte AMD Druck machen, endlich was zu tun.
Hab so das Gefül dass Hawai schneller wird und Fijii langsamer mit der Zeit, da werd ich mir wohl doch keine Nano in den Wohnzimmer PC schrauben, muss halt ne 960 herhalten.
Fijii hat AMD wirklich wiedermal versaut, wie schnell wäre der Chip blos wenn das Frontend und die Treiber stimmen würden? Wahrscheinlich 980 Ti +15%.

dildo4u
2016-01-12, 13:22:31
AMD hat nich die Ressourcen jedes Early Acces Game zu optemieren es ist wesentlich wichtiger,das sie jetzt z.b an Tomb Raider sitzen.Bei Ark muss noch einiges passieren,mich wundert es das Epic nich langsam eingreift der Ruf der UE 4.0 leidet hier deutlich,das Game sieht kacke aus und läuft grottig.

Blediator16
2016-01-12, 14:50:42
DX12 wird wohl dann nie kommen, wenn man deren Arbeit aktuell sieht.

dargo
2016-01-12, 14:55:42
Ebenfalls interessant sind die Neuigkeiten vom Hardware-Fresser: Ark: Survival Evolved Revisited - Neue Grafikkarten-Benchmarks (http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Benchmark-Test-2016-1182869/)

PCGH testet eine AMD Fury X und eine Sapphire Fury Nitro, womit ein Pro-Takt-Vergleich @ 1.050 MHz möglich ist. Hier kann sich die Fury X trotz geringer Bildschirmauflösung überdurchschnittlich absetzen, die Shaderleistung schlägt gut durch (+8 % bei "High") und beide Karten können die 390X OC ordentlich abziehen. Kurioserweise kann sich die Fury X bei "Epic" nicht mehr nennenswert von der Fury absetzen, hier limitiert wieder ... irgendwas. Der Speicher ist's nicht, 4 GiB genügen.

MfG,
Raff
Wenn ich mir die Performance der ganzen Grafikkarten-Palette so anschaue dann kann ich nur mit dem Kopf schütteln. Das Ding hat gerade mal nen Alpha-Status.

fondness
2016-02-06, 12:43:51
In XCOM-2 scheint die Fury besser mit langsamen CPUs zurecht zu kommen wie die 980Ti, hat dafür jemand eine Erklärung?
http://www.computerbase.de/2016-02/xcom-2-benchmarks-grafikkarte-prozessor/2/#diagramm-xcom-2-2560-1440

dargo
2016-02-06, 12:47:33
An den Draw Calls liegts jedenfalls nicht.

Edit:
CB hätte aber ruhig mal den Takt stärker reduzieren können. Wenn die Software nicht mit mehr Threads skaliert ok. Aber wenn selbst der höhere Takt bei dem Intel nicht skaliert ist man voll im GPU-Limit. Das einzige was hier einigermaßen brauchbar ist ist das Ergebnis der FX-CPU.

Hübie
2016-02-06, 12:59:27
In XCOM-2 scheint die Fury besser mit langsamen CPUs zurecht zu kommen wie die 980Ti, hat dafür jemand eine Erklärung?
http://www.computerbase.de/2016-02/xcom-2-benchmarks-grafikkarte-prozessor/2/#diagramm-xcom-2-2560-1440

Erklärungen kann nur ein Dev abgeben. Alles andere ist reine Spekulation. ;) Das ist aktuell auch eine beliebte Kombination: Fury Nano, X oder non-X mit dem FX 8370 (und vergleichbare). Sehe viele Builds via Twitter, Yt und dergleichen.

Kartenlehrling
2016-02-06, 13:39:36
allein das die CPU nicht ins Limit läuft ist schon ein Zeichen, bei RotTR rennt die CPU ins Limit und HTT bremst sogar.

CB hat den CPU Limit bereich aber auch nicht wirklich ausgelote,

Da die maximale Detailstufe selbst auf High-End-Grafikkarten keine hohen FPS-Raten erzeugt, sind die Details für diesen Test reduziert.
Sowohl für 1.920 × 1.080 als auch für 2.560 × 1.440 wird zunächst das maximale Grafik-Preset ausgewählt, die Kantenglättung jedoch auf FXAA reduziert.


Nvidia GeForce GTX 980 Ti --90,5
AMD Radeon R9 Fury X--85,6
Das sind doch schon die GPU-Limit werte, oder sehe ich das falsch?
Jedendfalls sieht das bei Nvidia seltsam aus, man hat die Detailstufe zu niedrig gewählt für Vergleichmessung der GPUs.


i7-4770K @ 4,4 GHz + 4K + HTT
90,5
i7-4770K @ 3,5 GHz + 4K + HTT
90,4
i7-4770K @ 3,5 GHz + 4K
89,8
i7-4770K @ 3,5 GHz + 2K + HTT
88,1
i7-4770K @ 3,5 GHz + 2K
87,7
i7-4770K @ 2,5 GHz + 4K
81,4

Mr. Lolman
2016-02-07, 07:06:41
An den Draw Calls liegts jedenfalls nicht.


Das ist einfach ein CPU Limit, wie es sein sollte, CPUs mit massiven Drawcalls gegen die Wand zu fahren, ist ohnehin ein Unding.

(del)
2016-02-07, 09:16:02
Sehe ich eigentlich auch so. Ich habe so oft die CPU-Last aufgezeichnet und bisher kein auffälliges Schema feststellen können. Auch bei steigendem Takt passiert oberhalb einer gewissen Grenze nichts mehr und auf halbe und viertelste FPS gebe ich nichts, weil alles deutlich unter einem FPS schon im Toleranzbereich der Messungenauigkieten liegen kann.

iuno
2016-02-07, 13:04:15
Bei dem Spiel sieht ohnehin einiges sehr anders aus, als man das sonst gewohnt ist.
Die schon angesprochene CPU-Skalierung als auch das Verhalten bei verschiedenen Aufloesungen. AMD liegt hier auch bei FHD verhaeltnismaessig schon sehr gut. Fury X fast gleichauf mit 980 Ti und 390X auf Niveau der 980. Allerdings kann AMD hier von hoeheren Aufloesungen anders als sonst gar nicht mehr profitieren. Bei WQHD bleibt das Bild quasi unveraendert und bei UHD sieht es so aus, als ginge den Furien so langsam der Speicher aus, auch wenn CB schreibt, dass nur 3 GiB belegt seien.... siehe auch 290X mit 4 und 390 mit 8 GiB. Wobei man an der 980 wiederum nichts von einem "Einbruch" sieht...

Achill
2016-02-07, 15:38:04
Bei dem Spiel sieht ohnehin einiges sehr anders aus, als man das sonst gewohnt ist.
Die schon angesprochene CPU-Skalierung als auch das Verhalten bei verschiedenen Aufloesungen. AMD liegt hier auch bei FHD verhaeltnismaessig schon sehr gut. Fury X fast gleichauf mit 980 Ti und 390X auf Niveau der 980. Allerdings kann AMD hier von hoeheren Aufloesungen anders als sonst gar nicht mehr profitieren. Bei WQHD bleibt das Bild quasi unveraendert und bei UHD sieht es so aus, als ginge den Furien so langsam der Speicher aus, auch wenn CB schreibt, dass nur 3 GiB belegt seien.... siehe auch 290X mit 4 und 390 mit 8 GiB. Wobei man an der 980 wiederum nichts von einem "Einbruch" sieht...

Bei UHD wird ein anderes Preset (Medium) verwendet, es kann einfach sein, dass dies der 980TI besser schmeckt im Vergleich zur FuryX.

CompuJoe
2016-02-18, 23:48:27
Mal eine Frage, ist jemand schonmal eine Fury X verstorben?

Meine ist letzte Woche hops gegangen, lief erst 2 Tage nur noch im idlemode und taktete nicht mehr hoch, dachte erst an einen Treiberfehler bis sie dann mit nem recht lauten zischen komplett ausstieg.
Die backplate hat sich in höhe der Spwas verfärbt.

Hübie
2016-02-19, 00:27:45
Vereinzelt las ich von Ausfällen des Monitorsignals oder des Speichers, aber zischende Verabschiedung lese ich zum ersten Mal. Mein Beileid. :( Ist doch hoffentlich ein Garantiefall?

CompuJoe
2016-02-19, 00:46:32
Vereinzelt las ich von Ausfällen des Monitorsignals oder des Speichers, aber zischende Verabschiedung lese ich zum ersten Mal. Mein Beileid. :( Ist doch hoffentlich ein Garantiefall?
Ja war ein Garantiefall, aber mein örtlicher Händler konnte nicht direkt tauschen und deswegen habe ich für 27€ Zuzahlung eine 980Ti von Palit genommen, hätte sonst bis zu 6 Wochen warten müssen.

Und dabei war ich froh eine erwischt zu haben dessen Pumpe keine Geräusche gemacht hat.

Hübie
2016-02-19, 10:21:03
Hm. Ja auch kein schlechter Deal. Die 980 Ti ist nach wie vor unangefochten an der Spitze und man blickt mit ein wenig OC entspannt in die Zukunft.

Raff
2016-02-19, 11:44:22
Und dabei war ich froh eine erwischt zu haben dessen Pumpe keine Geräusche gemacht hat.

Vielleicht lief sie gar nicht, weshalb die Karte nur zwei Wochen lebte. :ulol:

MfG,
Raff

Hübie
2016-02-19, 11:47:29
X-D Dann wäre es wenig verwunderlich.

(del)
2016-02-19, 15:02:39
Cooler Master hat das gesamte Kühldesign verkackt. Da muss man auch nicht drumrum reden. Die "Heatpipe"-VRM-Kühlung ist ein müder Joke.

CompuJoe
2016-02-19, 19:29:46
Vielleicht lief sie gar nicht, weshalb die Karte nur zwei Wochen lebte. :ulol:

MfG,
Raff

Hatte die karte seit Release

Armaq
2016-02-29, 21:49:50
Ich frage mich, warum das hier noch nicht kam:

http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/

PCGH hat immerhin die absolute HighEnd Ti rausholen müssen, damit es nicht zu hart wird.

aufkrawall
2016-02-29, 21:50:51
"PCGHs absolute HighEnd Ti" ist die EVGA Superclocked mit 1,4Ghz.

dargo
2016-02-29, 21:51:33
Schon länger bekannt. ;)

Lohnt aber nicht wirklich da die Full DX12 mit AC unterstützen wird.

Raff
2016-02-29, 21:53:44
Die schnellsten Modelle würden nochmal 50 MHz draufpacken - nimmt sich dann auch nicht mehr viel.

MfG,
Raff

Armaq
2016-02-29, 21:54:16
"PCGHs absolute HighEnd Ti" ist die EVGA Superclocked mit 1,4Ghz.
Da steht 980Ti als ob das ne normale Ti wäre. Die ist deutlich leistungsfähiger und es fällt nur auf, wenn man die Modellbezeichnung kennt.

fondness
2016-02-29, 21:56:33
Ja PCGH testet schon länger die OC-Modelle. Kann man so oder so sehen. Solange sie damit dann auch die Leistungsaufnahme messen finde ich es okay. Jedenfalls fällt auf, das Nvidia immer öfter auch diese starken OC-Modelle benötigt, um mit den AMD-Karten mithalten zu können.

Raff
2016-02-29, 21:58:22
Ja PCGH testet schon länger die OC-Modelle. Kann man so oder so sehen.

Es ist schlicht und ergreifend praxisnah. Dass aktuelle Nvidia-Karten im Mittel stärker ab Werk übertaktet werden, ist kein Geheimnis. :)

In Far Cry Primal kommt eine unübertaktete Fury X auch bedrohlich nah an eine GTX 980 Ti OC heran: http://www.pcgameshardware.de/Far-Cry-Primal-Spiel-56176/Specials/Benchmark-Test-1187476/

MfG,
Raff

Armaq
2016-02-29, 21:59:40
Ja PCGH testet schon länger die OC-Modelle. Kann man so oder so sehen. Solange sie damit dann auch die Leistungsaufnahme messen finde ich es okay. Jedenfalls fällt auf, das Nvidia immer öfter auch diese starken OC-Modelle benötigt, um mit den AMD-Karten mithalten zu können.
Ich bin darauf selbst nur über eine sekundäre Berichterstattung aufmerksam geworden. Mich stört das gar nicht, aber der Trend ist klar. Ein neueres Spiel findet die Fury ganz lecker.

Im Fließtext wird das Thema komplett umgangen.

fondness
2016-02-29, 21:59:45
Es ist schlicht und ergreifend praxisnah. Dass aktuelle Nvidia-Karten im Mittel stärker ab Werk übertaktet werden, ist kein Geheimnis. :)

MfG,
Raff

Siehe mein Edit: Solange man dann nicht für die Leistungsaufnahme die im sweet-spot laufenden Referenzmodelle hernimmt, finde ich es okay. Leider war das AFAIK bei euch durchaus mal der Fall.

dildo4u
2016-02-29, 21:59:48
Es ist schlicht und ergreifend praxisnah.

MfG,
Raff

Jup vorallem da man nur bei den OC Karten die besten Kühler bekommt.

Armaq
2016-02-29, 22:01:18
Jup vorallem da man nur bei den OC Karten die besten Kühler bekommt.
Das ist ja gut und richtig, aber Geschmäckle hat es wie der Schwabe sagen würde. Es gibt ja auch keine OC Varianten der Fury von daher.

dargo
2016-02-29, 22:03:20
Ich weiß nicht was ihr für ein Problem habt? :) Solange es diese OC-Varianten kaufbar gibt ist doch alles ok. Natürlich sollte man dann auch die Verbrauchswerte dieser OC-Varianten nehmen und nicht einer Defaultkarte, da bin ich voll bei fondness.

Raff
2016-02-29, 22:03:34
Siehe mein Edit: Solange man dann nicht für die Leistungsaufnahme die im sweet-spot laufenden Referenzmodelle hernimmt, finde ich es okay. Leider war das AFAIK bei euch durchaus mal der Fall.

Nicht, dass ich wüsste. Das wäre ja auch Unsinn. Der letzte große Vergleich war das "20 Spiele im Watttest"-Special vergangenes Jahr, mit ordentlichen Äpfel-gegen-Äpfel-Vergleichen. Zu dem Thema bietet die PCGH 04/2016 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-04-2016-Magazin-DVD-Download-PDF-1187465/) wieder eine spannende Lektüre: Fury, Fury OC und Fury X mit und ohne Undervolting gegen diverse andere Karten. :)

Das ist ja gut und richtig, aber Geschmäckle hat es wie der Schwabe sagen würde. Es gibt ja auch keine OC Varianten der Fury von daher.

Die gibt's. Die getestete Fury Nitro ist um 5 Prozent übertaktet. Allein von der Fury X gibt's keine OC-Versionen - und nur AMD weiß, warum. Klar, Fiji ist am Anschlag, aber mit etwas Selektion wären da 1.070 bis 1.100 MHz ab Werk drin.

MfG,
Raff

Armaq
2016-02-29, 22:04:45
Die gibt's. Die getestete Fury Nitro ist um 5 Prozent übertaktet. Allein von der Fury X gibt's keine OC-Versionen - und nur AMD weiß, warum. Klar, Fiji ist am Anschlag, aber mit etwas Selektion wären da 1.70 bis 1.100 MHz ab Werk drin.

MfG,
Raff
5% merkst du ja nicht mal. Ist wie ein 5 % längerer Penis.

dildo4u
2016-02-29, 22:05:18
Ich sehe verstehe nicht warum ihr euch weiter über diese Tests beschwert,es ist jetzt klar das AMD gut zulegen kann sobald die Engine für die neuen Konsolen entwickelt wurde,selbst ohne DX12.Genießt es doch einfach anstand weiter zu Mosern.

Raff
2016-02-29, 22:10:08
5% merkst du ja nicht mal. Ist wie ein 5 % längerer Penis.

Das ist halt das Beste, was du bei einer Fury bekommst. Bei der 390X sieht's ähnlich aus, da sind 1.100 MHz ein Grund zum Jubeln. ;)

MfG,
Raff

horn 12
2016-02-29, 22:49:32
Ja, 5% sind vielleicht 3-4 % Mehrperformance und so gut wie nie und nimmer spürbar, doch messbar :-)
Nun gut, wohl gut möglich dass wir ab morgen 1 März Monat für Monat mehr Freude an AMD Karten haben werden und NV immer weiter nach "hinten" gestellt werden wird.
Hitman, Quantum Brake abwarten um zu sehen wo die Reise hingeht, oder hingehen kann,
Tomb Raider soll auch noch gefixt werden um den extrem hohem Speicher Verbrauch Herr zu werden.
So schnell schlägt eine Fury (X) wohl in Zukunft nix mehr, auch Polaris und Pascal werden klein beigeben müssen, ausgenommen des weitaus Besseren Stromverbrauchs und eben mehr Speicher.
Werden wohl die Neuen GTX 970 auf beiden Seiten mit gutem Mehrspeicher!

Wildfoot
2016-03-01, 00:21:03
Das ist halt das Beste, was du bei einer Fury bekommst. Bei der 390X sieht's ähnlich aus, da sind 1.100 MHz ein Grund zum Jubeln. ;)

MfG,
Raff

Stimmt, kann ich bestätigen. Meine beiden 390X'en schaffen den Sprung von 1055 zu 1100 schon mal nicht. Crysis 2 wird sofort instabil.

ABER! Die 1600 MEM-Clock schaffen beide.:D
Das ist mir noch wichtig, dann habe ich doch auch immerhin 400GB/s Memory-Bandbreite und bin somit nichtmehr ganz so übel abgeschlagen zu einer Fury X (525GB/s).

Gruss Wildfoot

(del)
2016-04-10, 17:15:59
Mein Wochenende, aber was soll's....

Die AIO von Alphacool ist (endlich) fertig und final. Wobei sich die Verbesserung wirklich gelohnt hat und mit Sicherheit nicht nur die Fury X profitiert. Die Pumpe ist jetzt etwas kräftiger, lässt sich aber bequem auch auf 7V drosseln. Der Lüfter hängt jetzt Dank meines eingebauten Adapters direkt an der Grafikkarte und wird wie bei der Fury X automatisch gesteuert (und lässt sich über den Arschbrenner mittels eigener Lüfterkurve auch modifizieren).

http://scontent.ftxl1-1.fna.fbcdn.net/t31.0-8/12970854_214399118949708_7733539503182390155_o.jpg

Geil sind die neuen Schnellverschlüsse, wo man auch eine CPU mit reinhängen kann. Ab einem 240er Radiator macht das bis ca. 100 Watt TDP für die CPU richtig Spaß. Das Wasser liegt im Schnitt knapp unter 50°C, was für eine AIO noch im Rahmen liegt und die CPU nicht grillt. Nachteil: Prime heizt nunmehr auch die GPU mit auf... :D

Hübie
2016-04-10, 17:49:13
Und um wieviel Prozent ist der Preis gestiegen? Ist dass dann sozusagen der neue OEM-Vertreter in Vorserienformat? Das sieht mir jetzt schon mal etwas flexibler aus. Die Variante für die FuryX ist ja schon sehr spezifisch.

(del)
2016-04-10, 18:01:29
Normalerweise gibt es einen Schnellverschluss in Serie, nicht zwei. Das habe ich nur zum Spielen :D
Die Lüfterverkabelung ist von mir, was da dann dranhängt, ist dem Kunden überlassen. Immerhin habe ich durchgedrückt, dass der Kühler an der Seite eine Aussparung für das Lüfterkabel bekommt. Die Pads sind nur noch halb so dick und bei den VRM gibt es besseren Kontakt. :D

iuno
2016-04-10, 18:30:01
Sehr schoen. Gibt es das als Komplettset wie abgebildet (halt nur mit 1 Schnellverschluss) oder kauft man Radi und den Kuehler mit Pumpe extra?
Meinst du den 240er Radi fuer beides zusammen als Ersatz fuer den 120er oder zusaetzlich zu dem?

(del)
2016-04-10, 18:35:04
Man kauf m.E. einzeln, was die Flexibilität deutlich erhöht. Pumpe und Kühler werden vormontiert als eine Einheit verkauft, Kühler gibt es aber auch einzeln. Vorteil der Aktion: beim Karten-Update kauft man nur noch den nächsten Kühler und schraubt die Pumpe von A nach B.

Ich bin nicht Alphacools Sales oder PR, ich habe denen lediglich irgendwie das Weihnachtsgeschäft versaut :D
Aber es hat sich durchaus gelohnt, denn das Ding ist jetzt so, wie man es braucht. Bissl spät, aber universell.

Hübie
2016-04-10, 18:42:15
Die haben es sich selber versaut. ;)
Hat die Pumpeneinheit variable Bohrungen? Denn sonst ist die Lebensdauer wohl auch begrenzt. Afair haben aktuelle Karten 83er Bohrung. Und mit Aussparung meinst du das Ding für das Pumpenkabel oder? Lüfter ist doch hinten raus.
Ich kann mir nicht helfen, aber irgendwie wirken die Materialien und die Verarbeitung immer noch billig. :freak:

(del)
2016-04-10, 18:49:46
Du schraubst die Pumpeneinheit in den Kühlerblock für die jeweilige Karte, was schon mal deutlich sinnvoller ist, da es universell bleibt.

Mit Aussparung meine ich den Anschluss für den Lüfter auf der Platine, damit man den Umbau auch per PWM von der Karte aus steuern kann. das hatten sie bei dem ersten Modell auch vergessen.

Billig? Nimm es erst mal in die Hand und urteile dann. Danach wirf bitte eine Blick auf den Müll der Original-Fury und urteile nochmals. :)

Nach einer Stunde Metro LL in 4K sind es nicht mal 49°C Wassertemperatur bei wirklich albern niedriger Geräuschentwicklung. Es ist natürlich kein echter Fullcover, aber besser als dieses ganze Hybrid-Geraffel (EVGA, Corsair, Gigabyte - egal ob nun von Arctic/Asetek, AVC und wem auch immer als OEM)

Emil_i_Lönneberga
2016-04-10, 20:23:09
Für Freunde, die auf ihre >250W Karten normalerweise einen Morpheus schrauben durchaus interessant. Allerdings würde ich dann gleich auf einen 240mm Radiator gehen, um bei einer Lüfterdrehzahl von 500 U/min oder weniger sowohl eine bessere Kühlleistung als auch eine leisere Kühlung zu realisieren.
Das Set aus Pumpe, Kühler, Schlauch, Schnellkupplung, 240mm Radiator+zwei Lüfter würde ich bei 150-170€ einordnen. Bei einem doppelt so hohen Preis muss dann logischerweise auch mehr bei rumkommen um interessant zu sein.

Habs als Waküler gerade eben erst bei der Suche über den Preisvergleich bemerkt: Seit wann sind der Morpheus und Peter eigentlich nicht mehr gelistet? Nur noch der Xtreme und MK26 sind breit verfügbar. Beide EOL und Nachfolger in Sicht?

Wann geht der Artikel auf TH online?

(del)
2016-04-10, 21:03:02
Was ist lauter:
Ein 120er mit einem Lüfter auf 900-1200 U/min oder ein 240er mit zwei Lüftern auf 600-800 U/min? Der Dicke 120er ist wirklich kaum schlechter, als die dünnen 240er. Was zählt, ist die Lamellenfläche, nicht die Anzahl der Lüfter. Mit 2x 500 U/min kommst Du bei der Fury X unter Dauerlast nicht hin. :)

Der Artikel muss noch geschrieben werden, heute habe ich umgebaut und gemessen. Allein das Lüfterprofil hat lange gedauert, man muss ja alle Eventualitäten berücksichtigen. Idle vs. Teil- und Volllast. Eine gute Kurve besteht ja aus dem Abbild verschiedenster Szenarien. :)

Emil_i_Lönneberga
2016-04-11, 10:08:23
Der GPX-Pro soll wahrscheinlich die Einstiegsdroge sein und die 45°C bei 1000 U/min im ersten Feldversuch 2015 mit dem 240mm Radiator waren ein gutes Ergebniss bzw. hat sich diese Radiatorgröße bei Karten wie der Fury X bewährt. Ich bin vor allem auf die aktuellen Resultate bei den passiv gekühlten Komponenten gespannt. Da gab es damals ja von deiner Seite einige Verbesserungsvorschläge. :)

Ob es ein 120er oder 240er sein sollte: 600 U/min sind imo auch bei den eloops eine andere Hausnummer als 900 U/min. Aber beim Thema Laustärke scheiden sich sowieso die Geister. Meine eloops am Mora laufen mit maximal 400 U/min. Ich würde wegen dem Verhältnis aus Kühlleistung und Laustärke bei "niedrigen" Lüfterdrehzahlen einen 30mm 240er einem 60mm 120er mit jeweils zwei Lüftern immer vorziehen. Sowohl bei identischem Finnenabstand als auch bei weniger fins per inch des 120er. Aber da es nach deiner Aussage keine Sets gibt hat man bei der Radiatorwahl freie Hand.

(del)
2016-04-11, 14:16:30
Jetzt schaffe ich 49°C mit einem 120er und 600 bis 1300 U/min (PWM-geregelt). Der eLoop ist trotzdem kaum hörbar, da er ja nunmehr von der Karte selbst gesteuert wird. Ich habe extra auf der Aussparung für den mini-Adapter bestanden. Im Idle und bei niedriger last <600 U/min - nur bei 4K und Worst Case sind es die 1350. Und man kann die Lüfterprofile sogar selbst noch optimieren :D

Hübie
2016-04-11, 16:13:05
Mit billig meine ich hier wirklich die (Gemein-) Kosten. Wenn Alphacool diese Alu-Teile nicht selbst herstellt sondern kauft, dann weiß ich schon so vor meinem geistigen Auge welche Maschinen etc eingesetzt wurden. Entsprechend groß die Marge.
FuryX ist in meinem Freundeskreis nicht vertreten. Also wenn du mir kein Muster zukommen lässt muss ich mich auf dein Wort verlassen, dass AMD sich hier ordentlich an der Nase herum führen lies. ;)

(del)
2016-04-11, 17:46:39
Der Referenzkühler der Fury X ist wirklich alberner Klamauk :D

Man muss schon krank im Hirn sein, um ein Kupferröhrchen scharfkantig plattzupressen und biegen, um die VRM zu kühlen. Und dann zu hoffen, dass das funktioniert. Ohne Microbubbles und vor allem kühlend. Die Pumpen waren Schrott und wurden dann noch einmal Gigabyte für die 980 Ti Waterforce untergejubelt.

Hübie
2016-04-12, 16:45:14
Wer in Werkstoffkunde gepennt hat verbricht so etwas eben. Traurig genug dass dann die großen keine Experten haben, die so etwas bemerken. Kaltumformen ist halt immer so eine Sache. Ich sag nur Burgers-Vektor. :D Bei meiner ASUS ärgere ich mich auch schwarz und frage mich wer da den Kühler evaluiert / validiert hat.

Bizi
2016-04-12, 17:23:10
Die AIO der Fury X hab ich auch nur 2 Wochen ertragen. Selbst im Push-Pull Betrieb mit Vollast über 60°C und nicht mehr leise. Jetzt im Kreislauf mit EKWB Fullcover selbst mit Spannungserhöhung auf 1150 Mhz geprügelt nicht über 45°C. Warum in diesem preisbereich nicht wenigstens ein Hersteller nackte Karten verkauft, bleibt mir wohl ewig ein Rätsel.

Schnoesel
2016-04-12, 17:38:45
Warum in diesem preisbereich nicht wenigstens ein Hersteller nackte Karten verkauft, bleibt mir wohl ewig ein Rätsel.

das wäre echt geil. Wie skaliert denn die FuryX mit 100Mhz OC? Ich habe den Takt meiner noch nicht angerührt weil ich denke dass dies evtl. messbar aber nicht spürbar schneller ist.

Bizi
2016-04-12, 19:51:48
Ich konnte zwischen 5-10% Leistungssteigerung messen, also kaum bemerkbar. Sie läuft jetzt mit 1080Mhz/552MHz ohne Spannungserhöhung mit +25% Powertarget. Ich habe aber keine Powerviren auf sie losgelassen. Befeuert wird ein Foris mit 90 Hz. Kurze Tests mit den max möglichen 144 Hz förderten deutliche Spulengeräusche zu Tage und selbst jetzt mit der 91fps Grenze ist sie ab und an im System hörbar.

dildo4u
2016-04-15, 16:11:09
Dark Souls 3 R9 Fury X vs GTX 980 Ti 1440p/4K Gameplay Frame-Rate Tests


https://youtu.be/zfVWHRWTkXk

Wundert mich die Engine wurde zuerst für Bloodborne auf PS4 gebaut,dieses Game kommt jetzt für PS4 und Xbox One gibt aber kein sonderlichen GCN Vorteil.
Gameworks wird auch nicht genutzt es hat nicht mal HBAO+.

Kartenlehrling
2016-04-15, 18:11:04
Das ist doch Grütze programiert schon seit Jahren.
Man könnte meinen die Japan leben auf einer Insel und haben vom Rest der Welt noch nie was gesehen.

dildo4u
2016-04-15, 19:43:17
Der PC Port läuft bei mir ziemlich gut,selbst mit meinem FX hab ich keine CPU Limit's es skaliert also über viele Cores.Hab hier 2 Fache PS4 Leistung mit der 970 und noch Luft bei 60fps,die GPU wird nicht zu 100% ausgelastet.Die werden bei Teil 3 viel mehr Geld für den Port gehabt haben als das noch beim Vorgänger der Fall war.

dargo
2016-04-15, 19:49:56
Seit wann? Seit dem letzten Patch vielleicht.
http://wccftech.com/dark-souls-3-pc-103-patch-vastly-improves-performance-demanding-areas/

dildo4u
2016-04-15, 19:54:44
Immer für PC User im Westen,die EU Version kam direkt mit 1.03.In Japan war das Game schon vor ein paar Wochen draußen,da gabs den Patch noch nicht.
Die negativen Berichte zu Performance kamen von Journalisten,die haben das Game zum Japan Launch schon Wochen vor der EU/US Release zum testen bekommen.

bnoob
2016-04-17, 17:30:55
Was ist lauter:
Ein 120er mit einem Lüfter auf 900-1200 U/min oder ein 240er mit zwei Lüftern auf 600-800 U/min? Der Dicke 120er ist wirklich kaum schlechter, als die dünnen 240er. Was zählt, ist die Lamellenfläche, nicht die Anzahl der Lüfter. Mit 2x 500 U/min kommst Du bei der Fury X unter Dauerlast nicht hin. :)

Der Artikel muss noch geschrieben werden, heute habe ich umgebaut und gemessen. Allein das Lüfterprofil hat lange gedauert, man muss ja alle Eventualitäten berücksichtigen. Idle vs. Teil- und Volllast. Eine gute Kurve besteht ja aus dem Abbild verschiedenster Szenarien. :)
Hast du schon Infos ab wann das zu haben ist? Gerade die Erweiterbarkeit mit extrem kompakt verstauter Pumpe finde ich für ein geplantes Projekt mit Platzeinschränkungen extrem interessant.

(del)
2016-04-17, 19:10:09
Das Schiff ist schon unterwegs nach Europa. Hoffen wir mal auf wenig Wellengang und keine Piraten :D

Wenn nichts dazwischen kommt, gibt es das Review morgen :)

bnoob
2016-04-17, 19:15:12
Nice! Gerade noch deine Review vom Vorserienmodell gelesen, klingt alles extrem cool (huehuehue).

horn 12
2016-04-17, 19:27:02
@Format C

Siehe bitte mal in den Fury Thread
Dank!

(del)
2016-04-18, 10:01:36
So, der Test ist online
http://www.tomshardware.de/alphacool-gpx-pro-fury-x-wasserkuhlung-all-in-one-benchmarks-review,testberichte-242085.html

akuji13
2016-04-18, 11:40:34
Nettes Teil. :)

Kommt für mich persönlich nur leider viiiel zu spät.

Effe
2016-04-18, 11:46:41
Nicht schlecht das Teil. Gibts da irgend eine Preisrichtung? Also ~100Eur oder so? Und wird es für alle gängigen Highendkarten so einen Kühler zu kaufen geben?

bnoob
2016-04-18, 12:15:50
Laut Artikel wird das jetzt eine neue Reihe, ab Midrange wohl irgendwann für jede aktuelle Karte verfügbar.

Igor hatte mal was von 150€ in den Raum geworfen, aber auch, dass seine angeregten Änderungen natürlich auf den Preis schlagen.

Emil_i_Lönneberga
2016-04-18, 13:38:51
So, der Test ist online
http://www.tomshardware.de/alphacool-gpx-pro-fury-x-wasserkuhlung-all-in-one-benchmarks-review,testberichte-242085.html

Hast du von der Platinenrückseite der Fury X eine Infrarotaufnahme, wenn die Karte über einen Full-Cover-Kühler gekühlt wird?

(del)
2016-04-18, 13:45:22
Sollte nicht besser aussehen, die Begründung steht im Text. Die Gate-Treiber auf der Rückseite direkt unter den CMOS zu platzieren, das kann auch nur AMD einfallen. :D

Wobei:
Nvidia hat bei einer neuen Karte (Launchartikel kommt morgen 16.00 Uhr bei uns) auch den Monitor-IC (Current/Voltage) direkt unter den PWM-Controller geballert. Netter >90°C-Hotspot auf beiden Seiten und absolut sinnlos, da der Rest vom PC gähnend leer ist :P Und nein, es ist nicht Pascal.

Effe
2016-04-18, 13:49:06
Sollte nicht besser aussehen, die Begründung steht im Text. Die Gate-Treiber auf der Rückseite direkt unter den CMOS zu platzieren, das kann auch nur AMD einfallen. :D

Wobei:
Nvidia hat bei einer neuen Karte (Launchartikel kommt morgen 16.00 Uhr bei uns) ... Und nein, es ist nicht Pascal.
Die 970 mit 7GB(+1GB) Speicher? ;D

iuno
2016-04-18, 13:50:49
Wobei:
Nvidia hat bei einer neuen Karte (Launchartikel kommt morgen 16.00 Uhr bei uns)[...] Und nein, es ist nicht Pascal.
:eek: :eek:
Ausser der Quadro mit mehr Speicher kam doch da zuletzt nichts mehr. Diese Teaser immer :P

Abloese fuer GM107 oder doch noch dual-GPU fuer Consumer? ;D

(del)
2016-04-18, 14:03:56
Weder, noch. Ist die letzte Karte mit M-Power :P

Ich bin ja einer der wenigen, die sich neben dem Martin von Heise auch für Nischenprodukte nicht zu schade sind. Ist halt nichts fürs Click-Baiting.

M4xw0lf
2016-04-18, 14:29:46
Die ultimative GM204- oder GM200-Resteverwertung?

Emil_i_Lönneberga
2016-04-18, 14:33:48
Sollte nicht besser aussehen, die Begründung steht im Text. Die Gate-Treiber auf der Rückseite direkt unter den CMOS zu platzieren, das kann auch nur AMD einfallen. :D

Wobei:
Nvidia hat bei einer neuen Karte (Launchartikel kommt morgen 16.00 Uhr bei uns) auch den Monitor-IC (Current/Voltage) direkt unter den PWM-Controller geballert. Netter >90°C-Hotspot auf beiden Seiten und absolut sinnlos, da der Rest vom PC gähnend leer ist :P Und nein, es ist nicht Pascal.

Habe ich schon gelesen. Meine Frage ziehlt darauf ab, inwieweit ein Full-Cover über die aktive Kühlung der MOSFETs bei dieser Anordnung der Bauteile auf die Gate-Treiber auf der Platinerückseite und die Wärmeverteilung auf der Platine einwirkt. Es geht mir nicht um "besserer Kühler, schlechtere Kühllösung", sondern ob die aktive Kühlung der MOSFETs das Fehlen dieser Backplate+WLP zum größten Teil kompensieren kann.

Loeschzwerg
2016-04-18, 18:13:04
Weder, noch. Ist die letzte Karte mit M-Power :P

Ich bin ja einer der wenigen, die sich neben dem Martin von Heise auch für Nischenprodukte nicht zu schade sind. Ist halt nichts fürs Click-Baiting.

24GB :)

Raff
2016-04-18, 20:01:57
Ich bin ja einer der wenigen, die sich neben dem Martin von Heise auch für Nischenprodukte nicht zu schade sind. Ist halt nichts fürs Click-Baiting.

Tjo, ein paar Kollegen müssen "nebenbei" noch ein komplettes Heft befüllen. ;) Da ist es völlig unmöglich, neben den großen noch alle kleinen Sachen mitzunehmen. Manchmal muss man Prioritäten setzen (wer hat jetzt Lust auf ein Eis? :ugly: ).

MfG,
Raff

(del)
2016-04-18, 20:25:46
Tjo, ein paar Kollegen müssen "nebenbei" noch ein komplettes Heft befüllen.Ich schreibe mindestens acht Artikel pro Monat, habe ein eigenes Testlabor und arbeite nebenher noch in der Produktentwicklung. Da klappen auch solche Sachen noch ganz gut ;)

Das Problem liegt eher darin, dass sich für Workstation-Grafik nur wenige Redaktionen interessieren, obwohl es einen wirklich großen (und dankbaren) Leserkreis dafür gibt. Übrigens hatte ich Dich dabei gar nicht im Hinterkopf, denn bei Euch geht es ja eh mehr um Unterhaltung und Klickibunti und nicht um Pro-Gedöns. Aber wenn Du Dir das Stöckchen trotzdem schnappst... ;)

Raff
2016-04-18, 20:38:26
Ich mein ja nur. Es ginge noch sooo viel - wenn der Tag 48 Stunden hätte und davon 40 bezahlt würden. :D

MfG,
Raff

(del)
2016-04-18, 21:22:16
Habe ich schon gelesen. Meine Frage ziehlt darauf ab, inwieweit ein Full-Cover über die aktive Kühlung der MOSFETs bei dieser Anordnung der Bauteile auf die Gate-Treiber auf der Platinerückseite und die Wärmeverteilung auf der Platine einwirkt. Es geht mir nicht um "besserer Kühler, schlechtere Kühllösung", sondern ob die aktive Kühlung der MOSFETs das Fehlen dieser Backplate+WLP zum größten Teil kompensieren kann.
Kann sie nicht. Deshalb habe ich diese Anordnung ja auch kritisiert. Fullcover sind nett, aber die Glühwürmchen auf der Rückseite können nun mal NICHT durchs PCB hindurch gekühlt werden, auch wenn der indirekte Hotspot durch die VRM-Platinenaufwärmung schon etwas kleiner wird. Der Kühlblock der GPX-.Pro nutzt auf meine Empfehlung hin sogar dünnere Wärmeleitpads als die meisten Fullcover, trotzdem glüht es hinten gar frühlich weiter. Ein Versuch mit Wärmeleitpaste statt Pad hat da auch nichts dran geändert.

Ich mein ja nur. Es ginge noch sooo viel - wenn der Tag 48 Stunden hätte und davon 40 bezahlt würden. :D
Das ist der Fluch der Festangestellten und von Großraumbüros mit fest eingeteilten Arbeitsbereichen. Ich kann hier an bis zu fünf Plätzen simultan arbeiten, was oft Sinn macht. Vorher habe ich über 17 Jahre im Stück in einer Industrie-Programmierer-Knochenmühle gearbeitet, wenn am Ende auch als Chef. Man muss als Angestellter immer dann mehr arbeiten, wenn man gar nicht nicht will und darf es andersherum nie, wenn man es vielleicht gern mal möchte. Knickrige Lohnbuchhalter inklusive. ;)

Loeschzwerg
2016-04-19, 16:35:27
Möööhhh, leider nur ne kleine Quadro :P Der Hotspot am Speicher ist echt unschön.

(del)
2016-04-19, 17:22:02
Ja, die M2000 ist eine GTX 950 zum Arbeiten:
http://www.tomshardware.de/nvidia-quadro-m2000-workstation-grafikkarte-benchmarks-leistungsaufnahme,testberichte-242089.html

Wobei es auch die letzte Maxwell-Karte war, die offiziell gelauncht wurde und wird. Somit ist sie also historisch wertvoll. :D

Wildfoot
2016-04-19, 20:30:02
Schnüsiges Teil. Ist ja fast wie meine NVS 290. :D

Gruss Wildfoot

Screemer
2016-04-19, 22:21:16
Was ich bei dem test schon mal nicht verstehe ist, das man im Fazit mit der w5100 vergleicht. Die ist round about 220€ also gut 1/3 günstiger. Die w7100 ist um etwa genau soviel hochpreisiger und dreht schon fast Kreise um die NV. Ziemlich subjektive Betrachtung.

(del)
2016-04-19, 22:57:38
Straßenpreise ungleich UVP. AMD hat die W5100 bewusst gegen die K2000D/2200 gesetzt und gedumpt, NV die M2000 nun gegen die W5100.
Die UVP der M2000 ist übrigens die gleiche wie seinerzeit die der K2200, deren Straßenpreis aktuell bei etwas über 400 Euro rumhängt.

Im Pro-Bereich geht es aber meist gar nicht um Preise, sondern um Leistungsklassen und die besten Treiber für eine bestimmte Anwendung.
Geld ist dann eher auch mal Nebensache und die W7100 übrigens auch kein Allheilmittel (siehe Creo). AMD hat Windows 10 vergessen zu testen.
Genau solche Ausrutscher sind dann aber auch der Grund, warum die FirePro meist so günstig verramscht werden müssen.

Ich habe alle Karten von AMD und NV der letzten drei Generationen hier im Schrank, bis hin zu W9100 und M6000.
Das gibt viel Raum zum direkten Vergleich. In Maya 2015 finde ich z.B. die Schatten und das AA bei den Quadros meilenweit überlegen,
das sieht einfach besser aus. Solidworks geht eher Unentschieden aus, die M2000 hängt etwas dem Speicherinterface hinterher.

Screemer
2016-04-19, 23:16:32
point taken.

hast du zufällig mal bei amd nachgehakt warum creo denn nicht laufen will? ist schon komisch.

RoughNeck
2016-04-20, 06:52:11
@Format_C

Wie kann man vergessen ein neues Windows zu testen?
Ich meine, es ist ja nicht dass das überraschend und still / heimlich von MS auf den Markt gebracht wurde.
Manchmal verstehe ich AMD überhaupt nicht, gerade was den Profi Markt angeht machen die einen Fehler nach den anderen.

(del)
2016-04-20, 08:23:08
Generell ist es ja so, dass viele noch mit Windows 7 Enterprise und Ultimate abhängen, was natürlich auch an den deutlich längeren Standzeiten im Pro-Bereich zusammenhängt (Standzeit = Nutzungsdauer bis zum Defekt/Ausmustern). Da kommt es stets auf Kontinuität und nicht auf Early-Adaptor-Begehrlichkeiten an.

Nur ist Windows 10 mittlerweile auch im Pro-Bereich angekommen. Auf der einen Seite haut man Vulkan RT raus, auf der anderen Seite vergisst man Creo. Wobei es "vergessen" wohl eher nicht trifft. Jede Zertifizierung kostet AMD auch ordentlich Kohle und aktuelle Creo-Versionen sind eher Quadro-Land. Da konzentriert man sich mit Sicherheit eher auf die Programme, zu denen man auch Karten verkaufen kann (Solidworks).

Ich habe bewusst diese beiden Apps genommen, weil es mir um ausgleichende Gerechtigkeit ging. Dass dann Creo gar nicht lief - call it shit happens. Konnte ja keiner ahnen. Nur schüttelt man solche Vollversionen nicht mal einfach so innerhalb von 48 Stunden aus dem Ärmel, hier geht es um andere Preise. Ohne Firmen, die mit temporären Lizenzüberlassungen helfend eingreifen, geht da überhaupt nichts. So eine Creo 3.0 Netzwerklizenz kostet schon mal mindestens um die 6000 bis 7000 Euro, je nach inkludiertem Wartungsvertrag/Support auch mehr, Solidworks ist dann noch einmal um einiges teurer. Ob AMD da überhaupt alle Lizenzen besitzt, um selbst zu testen, darf durchaus angezweifelt werden. Deshalb gibt es ja auch die Zertifizierungsprogramme der Softwarehersteller, die ihre Software besser kennen dürften.

Ich habe Nvidia auch schon mal beim "Vergessen" einer Solidworks-Zertifizierung erwischt, wo ich mit dem letzten zertifizierten Treiber bis zu 25% unter der Performance des Beta-Treibers lag. Innerhalb von 48 Stunden wurde das klaglos nachgeholt, während sich von AMD bis heute keiner zurückgemeldet hat. Ausreden wie, SPECapc läuft nur mit Creo 3.0 M10 sind da fast schon eine Beleidigung, denn M10 ist die erste der 3.0er Versionen und läuft lediglich unter den Mindestvoraussetzungen. SPECapc ist doch nur eine Script-/Remotegeschichte, was crasht ist der Treiber. Auch dann, wenn ich die Workloads in die M90 manuell reinlade und selbst zoome und rotiere. Das hieße ja, auch ich bin inkompatibel... :)

Dabei war ich wirklich kooperativ. Ich habe sogar Bilder von der Stelle, wo es gecrasht ist geschickt, zuzüglich der detaillierten Trail- und Log-Files für die Workloads. Wenn selbst ich Plinse in der Lage bin, exakt in diesen Workload manuell an genau dieser bewussten Stelle wieder einzusteigen, dann sollten es die besser ausgebildeten Weißkittel doch wohl auch hinbekommen. Manchmal kann man so ein Schweigen allerdings auch anders interpretieren. :D

Screemer
2016-04-20, 10:20:09
Die Kommunikation von AMD mit den Redaktionen ist aber schon, naja sagen wirs mal salomonisch, unbefriedigend. Mir völlig unverständlich, wie man eine Seite wie thg und einen Redakteur wie igor einfach mal ignoriert. Da muss man sich dann auch nicht wundern, dass die Berichterstattung eher durchwachsen ist.

Zettabit
2016-04-20, 10:37:25
Es zeigt eben das Problem von AMD im professionellen Sektor.

Da ist es billiger für die Grafikkarte 5000€ mehr zu zahlen, als dass der Ingenieur hinterher ne Woche nicht arbeiten kann, weil AMD nicht in die Pötte kommt.

(del)
2016-04-20, 13:41:30
Das Problem liegt wohl doch eher an der zerklüfteten AMD-Hierarchie. Geschäftsetage, einzelne Sparten, die PR, das Treiber-Team - da ist bis heute ganz offensichtlich noch nichts wirklich zusammengewachsen und die Grafikkartensparte macht eh, was sie will - säuberlich getrennt in Massenabfertigung der Consumer und Edelhardware für die Pros. :)

Ich kann nur unterstreichen, dass die PR-Leute im Pro-Bereich echt einen guten Job machen, aber am Ende auch nur Gefangene im AMD-Körper sind. Sogar Leute aus der technischen PR wie Sami sind wirklich extrem kooperativ und um Hilfe bemüht. Wenn aber die Kanadier nicht wollen, sind auch Amis, Briten und Deutsche machtlos. Fragmentierung pur.

Manchmal sind mir dann sogar Kameltreiber lieber als AMD-Treiber *böhmermannhumor*

Ok, rote Treiber kann man sich auch mit Rotem schön saufen:
http://www.weinhalle.de/media/catalog/product/cache/1/image/230x500/9df78eab33525d08d6e5fb8d27136e95/n/l/nlz11103.png

Emil_i_Lönneberga
2016-04-20, 17:49:01
Kann sie nicht. Deshalb habe ich diese Anordnung ja auch kritisiert. Fullcover sind nett, aber die Glühwürmchen auf der Rückseite können nun mal NICHT durchs PCB hindurch gekühlt werden, auch wenn der indirekte Hotspot durch die VRM-Platinenaufwärmung schon etwas kleiner wird. Der Kühlblock der GPX-.Pro nutzt auf meine Empfehlung hin sogar dünnere Wärmeleitpads als die meisten Fullcover, trotzdem glüht es hinten gar frühlich weiter. Ein Versuch mit Wärmeleitpaste statt Pad hat da auch nichts dran geändert.


Das ist der Fluch der Festangestellten und von Großraumbüros mit fest eingeteilten Arbeitsbereichen. Ich kann hier an bis zu fünf Plätzen simultan arbeiten, was oft Sinn macht. Vorher habe ich über 17 Jahre im Stück in einer Industrie-Programmierer-Knochenmühle gearbeitet, wenn am Ende auch als Chef. Man muss als Angestellter immer dann mehr arbeiten, wenn man gar nicht nicht will und darf es andersherum nie, wenn man es vielleicht gern mal möchte. Knickrige Lohnbuchhalter inklusive. ;)

Eine AC XCS Backplate hätte der Fury (X) gut getan, die gibt es aber nur für Maxwell :rolleyes:

http://forum.aquacomputer.de/images-ac/gtx_titan_black_thermal_image_2.jpg

Raff
2016-08-30, 17:20:56
Battlefield 1 Beta: Ticker zur Technik, Systemanforderungen, Grafiktreiber, Benchmarks [Update: DX12 langsamer als DX11] (http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/)

Trotz (angezeigter) Unterstützung für Asynchronous Compute läuft DX12 auch auf Fiji langsamer als DX11. Hm. :|

MfG,
Raff

Nightspider
2016-08-30, 17:26:19
Wegen einer nichtssagenden Beta und offensichtlicher, fehlender DX12 Optimierungen holst du den Thread wieder rauf?

Braucht ihr Klicks oder so? ^^

Raff
2016-08-30, 17:30:16
Jo, sagt gar nix. Ist nur eines der "größten" Spiele des Jahres, eine potente Engine, AMD leistet bei DICE viel Entwicklersupport und Async Compute wird als "aktiv" beschrieben. Alles halb so wild. ;) Aber es wird spannend, zu sehen, wie das bis Ende Oktober (Release der Finalversion) aussieht.

MfG,
Raff

Nightspider
2016-08-30, 17:34:33
Bisher ist es nur die größte Beta des Jahres und der AMD Treiber für BF1 kommt erst morgen soweit ich weiß.

dargo
2016-08-30, 17:39:20
Jo, sagt gar nix. Ist nur eines der "größten" Spiele des Jahres, eine potente Engine, AMD leistet bei DICE viel Entwicklersupport und Async Compute wird als "aktiv" beschrieben. Alles halb so wild. ;)
Du solltest dich vielleicht erstmal fragen wieviel Energie Dice bisher in den DX12 Renderer gesteckt haben um den Releasezeitplan am 21.10.16 einzuhalten.

btw.
Schon mal CPU-Limits verglichen?

iuno
2016-08-30, 17:41:42
https://i.redd.it/wbmpk58yqchx.jpg
:tongue:

AMD leistet bei DICE viel Entwicklersupport und Async Compute wird als "aktiv" beschrieben.

Auch die AMD-Grafikkarte rechnet unter DX12 langsamer als unter DX11 - obwohl Battlefield 1 in der spieleigenen Konsole sogar "with async compute" nennt und die Fiji-GPU somit optimal ausgelastet werden sollte.
Das ist imho schon etwas irrefuehrend, wenn man nichtmal weiss, ob oder was dice parallelisiert. Oder gibt es dahingehend inzwischen Infos bzgl. der Frostbite Engine?
Bis zum Release koennte sich da auch noch einiges tun. IMHO ist die Technik auch das einzige was das Spiel "retten" kann, aber das ist Geschmackssache.

Ansonsten liegt Fiji doch gar nicht so schlecht oder sind nur 2/3 von der Titan X auf die Fury X normal?
Sehe ich richtig, dass ihr noch keinen vollstaendigen Test zur TXP habt?

Bin ausserdem auf Tests mit mehr Kernen oder langsameren CPUs gespannt ;)

Megamember
2016-08-30, 17:45:51
Bei den meisten neuen Games hab ich irgendwie das Gefühl die Engineprogrammierer sitzen da und sagen:"DX12.... hmm, keine Ahnung wie dat funktionieren soll, egal.........":ugly:

dargo
2016-08-30, 18:07:04
Ansonsten liegt Fiji doch gar nicht so schlecht oder sind nur 2/3 von der Titan X auf die Fury X normal?

Jupp... wundert mich auch etwas. DX12 +50%, DX11 +67%. Bei BF4 sind es +100%.
http://www.tomshardware.de/nvidia-titan-x-2016-12gb-pascal,testberichte-242164-4.html

Aber da wird es sicherlich noch zu einigen Verschiebungen auf beiden Seiten kommen. Erstmal das Spiel und die Treiber reifen lassen.

captain_drink
2016-08-30, 18:13:02
Bei BF4 sind es +100%.
http://www.tomshardware.de/nvidia-titan-x-2016-12gb-pascal,testberichte-242164-4.html

Im Singleplayer. Vergleichbarkeit ergo null.

horn 12
2016-08-30, 23:13:07
@Raff

Mal den Teufel doch bitte nicht an die Wand
Wartet etwas ab, die 4GB der Fiji Serie limitieren nun auch bei Deus EX die Fury(X) Karten nicht mehr ----> und da habt ihr auch wild losposaunt!

-/\-CruNcher-/\-
2016-08-30, 23:26:47
Du solltest dich vielleicht erstmal fragen wieviel Energie Dice bisher in den DX12 Renderer gesteckt haben um den Releasezeitplan am 21.10.16 einzuhalten.

btw.
Schon mal CPU-Limits verglichen?

Raff kann eine solche Bewertung garnicht richtig objektiv durchführen dazu hat er einfach nicht die Möglichkeiten ;)

zumal

Immerhin fällt der Einbruch unter DX12 nicht so groß aus wie bei der Geforce, sofern man die höchste Auflösung ausklammert (Speichermangel). Möglicherweise ändert sich an diesem Verhalten etwas mit dem erwarteten Treiber-Update. Weitere Tests liefern wir zeitnah nach.


Wie gesagt die Art und weise der Tests reichen nicht mehr man muss endlich weg von dieser sturen Balkenbetrachtung ;)

Innerhalb von VR wird das für Computec eine Lachnummer in Zukunft wenn sie darauf sitzen bleiben sollten das gilt aber auch für andere Reviewer ;)

Es gibt nur 2 Reviewer die eingermasen Objektive Ergebnise Liefern momentan sind das

Toms Hardware (Purch) (Igor Wallossek)
Digital Foundry (Eurogamer) (Richard Leadbetter)

Jeder Liefert 2 wichtige Datenpunkte mit sehr hoher Präzession Igor vor allem im Berreich Dynamisches Power Management :)

Raff
2016-08-31, 00:05:57
Cruncher, du glaubst sowieso nur an einen Gott, daher spare ich mir weitere Worte dazu. ;)

An die, die's interessiert: Ich habe gerade eine höchst aufschlussreiche Messreihe an meinem FX-Nano-PC hinter mir, welche a) die bei PCGH gezeigte Performance im Grafiklimit bestätigt und b) gigantische Gewinne im CPU-Limit aufzeigt (allerdings nicht frei von Nebenwirkungen). Die entsprechenden Frameverläufe gehen morgen früh um 10 Uhr live.

@Raff

Mal den Teufel doch bitte nicht an die Wand
Wartet etwas ab, die 4GB der Fiji Serie limitieren nun auch bei Deus EX die Fury(X) Karten nicht mehr ----> und da habt ihr auch wild losposaunt!

Fiji wird in modernen Spielen alle naselang von seinem RAM limitiert. Leider. Mit 6 GiByte HBM wäre das Ding wesentlich besser, bei Release und jetzt erst recht. Das braucht man nicht schönzureden, selbst wenn zwischendrin ein Patch kommt, der die ernsthaften Probleme eine Auflösungsstufe weiter hoch schiebt. ;)

MfG,
Raff

Schnoesel
2016-08-31, 00:11:34
Warum habt ihr denn die 2 unwichtigsten Grakas zur Zeit gebencht? Dazu noch unterschiedliche Fertigungen. FuryX hat niemand und Titan x Pascal ebensowenig. RX 480/470 4GB/8GB GTX 1060 3GB/6GB das interessiert doch die Leute.

Mit 6 GiByte HBM wäre das Ding wesentlich besser

Hätte hätte Fahrradkette. Technisch wars einfach nicht möglich. Und jeder wusste worauf er sich einlässt.

Raff
2016-08-31, 00:13:55
Es handelt sich jeweils um das aktuelle GPU-Topmodell. Ein direkter Vergleich untereinander soll das aber gar nicht sein, sondern ein Test, was beim Wechsel von DX11 auf DX12 passiert. "Echte" Vergleichswerte von Grafikkarten (unter DX11) gibt's morgen im Laufe des Vormittags. :)

MfG,
Raff

Schnoesel
2016-08-31, 00:15:25
Gut das wird interessant wenn DX 12 funktioniert, wobei ich wahrscheinlich eh immer vom LL APis profitiere mit meinem alten Mann als CPU ;-)

"Echte" Vergleichswerte von Grafikkarten (unter DX11) gibt's morgen im Laufe des Vormittags.


Ausgezeichnet !

-/\-CruNcher-/\-
2016-08-31, 00:23:27
Das sichtbare Nvidia Render Problem beim Tiled Resource Terrain Streaming ist interessant (sichtbare tile boarder) :)

Während unserer Tests stießen wir auf mehreren Systemen unterschiedlicher Infrastruktur auf Grafikfehler, welche laut unserem Kenntnisstand nur auf Geforce-Chips auftreten. Der neue Treiber Geforce 372.70 WHQL beseitigt die sichtbaren Kachel-Übergänge nicht; Radeon-Grafikkarten zeigen das Problem auf unserem Testrechnern nicht. Wir vermuten, dass Entwickler DICE das Problem mit einem Patch aus der Welt schaffen wird.

Quelle: PC Games Hardware Computec [Raffael Vötter,Thilo Bayer]

http://www.pcgameshardware.de/screenshots/original/2016/08/BF1-Open-Beta-Geforce-Grafikfehler-Kacheln-pcgh.jpg

horn 12
2016-08-31, 00:31:14
@RAFF

Wo bitte limitieren die 4GB Speicher der Fiji Karten beim Neuen Deus Ex.
Bei Tomb Raider hatte NV die Finger im Spiel, und da ist man schon weit vorwärts gekommen mit Fiji und den micktigen 4GB HBM Speicher.
Da warte mal den morgígen Treiber ab :-)

Ex3cut3r
2016-08-31, 06:22:42
4GB brechen der Fury das Genick, ob du willst oder nicht, und was soll immer dieses Nvidia Bashing ohne Grund? Stell die Texturen in ROTTR doch auf hoch, erst sehr hoch, verlangt 6GB+ VRAM. Beim neuem Deus Ex sind 4GB zumindest im Very High Preset, auch schon wieder zu wenig.

Fury's Rohleistung ist brutal, und mit Vulkan und Async ist da sicherlich noch viel drin, doch leider wird der VRAM da früher oder später die Grätsche machen, Hawaii war mit 8GB zukunftssicherer.

Megamember
2016-08-31, 09:47:47
ALso ich spiel Deux Ex mit meiner Fury in 1440P und very high texturen. Rest meist auf max. und mein Speicherverbrauch war bis jetzt nie über 3,7GB oder so.

RoughNeck
2016-08-31, 09:58:18
@RAFF

Wo bitte limitieren die 4GB Speicher der Fiji Karten beim Neuen Deus Ex.
Bei Tomb Raider hatte NV die Finger im Spiel, und da ist man schon weit vorwärts gekommen mit Fiji und den micktigen 4GB HBM Speicher.
Da warte mal den morgígen Treiber ab :-)

horn at its best.
Ja, alle aber wirklich alle werden von Nvidia bestochen :rolleyes:
Tomb Raider hat hochauflösende Texturen und die brauchen halt RAM, klangt zwar komisch, ist aber so. Warum denkst du hat AMD in der Mittelklasse mit der RX 470 / 480 die 8GB eingeführt?

Und Fiji war schon zu release ein Fail mit den 4GB RAM, mit 8GB wäre es eine gute Karte geworden. 4GB sind zu wenig, ob du es einsehen willst oder nicht.

MechWOLLIer
2016-08-31, 10:18:31
@RAFF

Wo bitte limitieren die 4GB Speicher der Fiji Karten beim Neuen Deus Ex.

Überall?^^

ALso ich spiel Deux Ex mit meiner Fury in 1440P und very high texturen. Rest meist auf max. und mein Speicherverbrauch war bis jetzt nie über 3,7GB oder so.
Ja, weil Fiji wie nen Berserker versucht nur das im Speicher zu halten was gerade unbedingt gebraucht wird und den Rest sofort wegschmeißt, weil sonst gar nichts mehr geht.
Very High macht auf Fiji nicht wirklich Spaß, es Stockt ab und zu. Über Ultra muss man dann gar nicht mehr nachdenken.

Megamember
2016-08-31, 10:36:15
Very High macht auf Fiji nicht wirklich Spaß, es Stockt ab und zu. Über Ultra muss man dann gar nicht mehr nachdenken.

Naja, solange es in 99% der Zeit ohne Stocker läuft seh ich da kein großes Problem. Ist ja auch nur ein Schleichspiel und kein hektischer Shooter.

anddill
2016-08-31, 11:02:00
Ist schon erstaunlich welche Inflation es aktuell beim Grafikspeicher Bedarf gibt. Jahrzehntelang hat sich da extrem wenig getan, und jetzt ging es von 2 praktisch direkt auf 8GB. War rückblickend ein blöder Zeitpunkt für das HBM Experiment mit 4GB.
Zum Glück sieht man in Bewegung und wenn man sich auf das Spielen konzentriert statt auf mögliche Grafikschwächen in der Praxis keinen Unterschied zwischen den höchsten Texturstufen. Jedenfalls geht es mir so.
Wer mit der Lupe vor seinem 4K-Monitor sitzt sieht das vielleicht anders und ist jetzt ein bisschen angepisst.

Sven77
2016-08-31, 11:16:20
Ist schon erstaunlich welche Inflation es aktuell beim Grafikspeicher Bedarf gibt. Jahrzehntelang hat sich da extrem wenig getan, und jetzt ging es von 2 praktisch direkt auf 8GB. War rückblickend ein blöder Zeitpunkt für das HBM Experiment mit 4GB

Konsolen...

Aber ich finde die Entwicklung gut.. zu niedrig aufgelöste Texturen waren/sind immer ein Ärgernis..

RoughNeck
2016-08-31, 11:31:07
Ich finde die Entwicklung beim RAM super.
Jetzt gibt es auch keinen Grund mehr für niedrig aufgelöste Texturen, da in der Mittelklasse 8GB Standard sind, dafür danke AMD.

Was die Furie angeht, das war von Anfang an ein Fail.
Klar, man wollte zeigen was mit HBM so geht aber Launch, Verfügbarkeit und die Partner die überhaupt eine Fury brachten waren quasi nix und ich bin überzeugt das war ein einziges Minusgeschäft für alle beteiligten.

soLofox
2016-08-31, 11:46:24
warum sollte die fury ein fail gewesen sein, es ist die erste grafikkarte mit HBM speicher, AMD hat das ding einfach auf den markt geworfen um erfahrungen zu sammeln. dafür dass sie nur 4GB hat, performt sie trotzdem sehr gut. wie bei AMD üblich, wurde sie sogar mit der zeit durch bessere treiber immer schneller.

anstatt dass die leute sich mal über neuheiten und erfrischung freuen, wird genörgelt. zwar war ich auch über 4GB enttäuscht, aber wenn es nunmal nicht machbar war, ist es eben so.

das einzige was bei der fury ein fail war, war der kühler, das ist richtig. da kann man nichts schönreden.

=Floi=
2016-08-31, 11:49:50
Ich finde die Entwicklung beim RAM super.


die aussage im fury x thread finde ich ja göttlich! :D

Achill
2016-08-31, 11:55:42
warum sollte die fury ein fail gewesen sein, es ist die erste grafikkarte mit HBM speicher, AMD hat das ding einfach auf den markt geworfen um erfahrungen zu sammeln. dafür dass sie nur 4GB hat, performt sie trotzdem sehr gut. wie bei AMD üblich, wurde sie sogar mit der zeit durch bessere treiber immer schneller.

anstatt dass die leute sich mal über neuheiten und erfrischung freuen, wird genörgelt. zwar war ich auch über 4GB enttäuscht, aber wenn es nunmal nicht machbar war, ist es eben so.

das einzige was bei der fury ein fail war, war der kühler, das ist richtig. da kann man nichts schönreden.

Einfach nicht füttern ... ;)

dildo4u
2016-08-31, 12:05:22
Zumindest bei BF1 scheinen 4GB nicht zu limitieren,die 980/970 sind gut dabei.

http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/

gnomi
2016-08-31, 12:26:04
Deus Ex funktioniert auch prima mit Very High Textures auf 980 4GB.
Zwar kann das Very High Preset tatsächlich mal kurz stocken, aber per Hand angepasst (was eh besser aussieht als Very High Voreinstellung ;) - Sehr Hoch, 16*, Hoch, Ein, Aus, Hoch, Ein, Hoch, Ultra, Ein, 6* Haken, 1* keinen, 1* Haken) geht es in1440P. =)

Raff
2016-08-31, 16:31:15
Zumindest bei BF1 scheinen 4GB nicht zu limitieren,die 980/970 sind gut dabei.

http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/

Jo, 4 GiB genügen auf der Map sogar in UHD (die Bildrate ist dann jedoch niedrig). Die Fury X kommt gut weg und könnte sich mit einer GTX 1070 Founders Edition anlegen. Aber wer weiß, was das Vollspiel noch alles bietet – Sinai besteht ja gefühlt nur aus drei Texturen und Farben. :biggrin:

MfG,
Raff

P.S: In dem Artikel sind nun 16 Grafikkarten gebencht.