PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14

foenfrisur
2015-07-08, 22:08:49
so siehts nämlich aus. kann dem nur zustimmen.
bei einigen herrscht eben der grundtenor "ich drehe mir die welt, wie sie mir grad gefällt" :D

außerdem sind damit auch schon durchaus tendenzen für ein sli-/cf-gespann rauszulesen.
also alles gut.

obwohl es in einem gesonderten "4k-artikel" sicher mal eine option wäre, inwieweit aktuelle spiele wie & womit spielbar wären.

mfg

Hübie
2015-07-08, 22:10:38
Da brauchst du nur mal bei Scott vorbeischauen :rolleyes:

foenfrisur
2015-07-08, 22:13:43
ich hole mir ungerne nur eine meinung ein :D
auch wenn man diese vielleicht besonders zu schätzen weiß.

so ein extra test wäre was feines. punkt.

mfg

Kartenlehrling
2015-07-08, 22:16:52
so geht das!


Die ... haben es doch auch mit verbockt das 3 Jahre alte Monitor noch ohne DP verbaut wurden, darauf würde ich nicht stolz sein.


:rolleyes:

Hübie
2015-07-08, 22:22:35
Du meinst mit up- and downsides? Da kommt sicher Raff gleich aus der Ecke gesprungen um irgendwas zu verlinken ;D

Hast du den Test von techreport denn auch durchgelesen oder nur die Bilder angeguckt? :| Interpretation der Graphen ist nicht jedermanns Sache :P

horn 12
2015-07-08, 23:22:29
FURY Strix von Asus:

http://wccftech.com/asus-strix-radeon-r9-fury-graphics-card-pictured-3584-sps-directcu-iii-triple-fan-cooler/


Ebenso wieder so ein Bomber wie Sapphire!
geht dies bitte nicht Kleiner und mit beleuchtetem LOGO wie bei dem Großen Bruder FURY X

Nachtrag:
Karten scheinen schon im Handel angelangt zu sein
AMD wird wohl den Launch einige Tage (4) vorverlegen, da ansonsten die Enduser Ihnen die FURY Karte wieder versauen dürften!

Expect more cards to be revealed ahead of launch on 10th July.

Thowe
2015-07-08, 23:27:04
...

Ich finde es durchaus berechtigt, dass weiterhin 4K-Benchmarks mit und ohne MSAA gezeigt werden. Manches Mal wird es wirklich überflüssig, doch manches Mal schraube ich dann lieber auf 2560 runter.

Sprichst mir aus der Seele Peter. 4K ja, aber nicht als Rückschritt, so einfach ist es. Ergo heißt es im Moment, egal mit welcher Karte, man orientiert sich bei den Titeln die man spielen wird lieber rückwärts denn Gegenwart oder gar vorwärts.

Ich sehe die Fury ohne X oder Nano für mich als potentielle Möglichkeit 4K eben in einem erdenklichen Maximum spielen zu können, ohne Rumfrickeln oder Abstriche die ich bei FullHD auch niemals akzeptieren würde. Grafik ist für mich essentiell und auch gerade ältere Spiele gewinnen durch 4K enorm dazu.

Zum jetzigen Stand in der Gegenwart gibt es von meiner Seite nur ein Fazit: Wäre der Dell Monitor den ich habe für mich nicht aus erster Linie für die Bildbearbeitung gekauft worden (mit fast kompletten Adobe RGB Farbraum) und nur für Spiele, hätte ich schon überlegt ihn wieder abzustoßen. Wegen den Problemen, wegen der Performance der jetzigen < 500,- Euro Grafikkarten und eben so vieler Programme unter Windows, die die 200% Skalierung nicht umsetzen. Ab und an schaue ich mir dann Werbefilmchen in 4K an, nur damit ich den Frust vergesse, den ich schon erlebt habe. Der Weg ist aber richtig, aber ausgereift und nutzbar? Ich tippe mal 5 Jahre, bevor es etwas für den Massenmarkt wird.

dildo4u
2015-07-08, 23:30:56
FURY Strix von Asus:

http://wccftech.com/asus-strix-radeon-r9-fury-graphics-card-pictured-3584-sps-directcu-iii-triple-fan-cooler/


Ebenso wieder so ein Bomber wie Sapphire!
geht dies bitte nicht Kleiner und mit beleuchtetem LOGO wie bei dem Großen Bruder FURY X
Müssen die Kühler nich solche Monster sein wenn der Chip nicht über 65° laufen darf?

akuji13
2015-07-08, 23:48:05
Das stimmt leider nicht. GTX 970 und GTX 980 haben je nach Alter der Firmware ein Problem, welches genau das hervorruft.

Also meine Aussage stimmt nach wie vor:
Hier gibt es keine Probleme.

Liegt vielleicht daran das ich genannte Karten nie (970) oder nicht mehr (980) einsetze. ;)

Das es problematische Karten geben kann habe ich nicht bestritten.

N0Thing
2015-07-09, 00:06:46
Müssen die Kühler nich solche Monster sein wenn der Chip nicht über 65° laufen darf?

Ich dachte die 65°C richten sich nach der Pumpe der Wasserkühlung, nicht nach dem Chip. Warum auch, ist ja der bekannte 28nm Prozess und die HBM-Chips scheinen auch keine besondere Kühlung zu erfordern.

aufkrawall
2015-07-09, 00:12:48
Je nach Faktor und Spiel. Das du übertreibst weiß hier eh jeder. Soviel Zeit verplempert hier kein anderer, mit solchen Stuß, wie du. :P
Du checkst einfach gewisse Implikationen nicht. Dafür hast du eine ziemlich große Klappe.

Hübie
2015-07-09, 00:22:34
Du checkst einfach gewisse Implikationen nicht. Dafür hast du eine ziemlich große Klappe.

Ja, das wirds sein :facepalm:

aufkrawall
2015-07-09, 00:24:21
omfg, was willst du?
Schrott-Sampling ist Schrott-Sampling. Was zum Geier soll das mit unterschiedlichen Spielen zu tun haben?
Auf die Erklärung wär ich ja mal gespannt...

Hübie
2015-07-09, 00:36:15
Ich habe gar nicht die Zeit dir das zu erklären. :rolleyes: Zumal ich auf dem Niveau gar nicht diskutieren will (Stichwort: große Klappe). Das sehe ich nicht als Beleidigung an, sondern als Herabsetzung, von der du sofort aus gehst. Und das ist eben dein Diskussionsstil. Nicht meiner.

aufkrawall
2015-07-09, 00:47:17
Du solltest mal an deiner Selbstwahrnehmung arbeiten. Zu Beginn empfehle ich das Durchlesen deiner letzten Posts.

Hübie
2015-07-09, 01:00:54
Ja Schluß mit deinem OT-Scheiß. Komm zurück zum Thema.

Ich mach mal den Anfang: Als ich Peter seinen Test gelesen habe kam wieder die Frage auf wie empfindlich denn nun die Leerstellen auf dem Interposer sind. Wurde da kein Schutzlack aufgetragen? Ist das wirklich blankes Silizium?

Satos666
2015-07-09, 01:46:22
Guten Morgen

Ich Bräuchte mal Hilfe Heute ist meine zweite Fury X von Asus angekommen .
Aber leider reicht mein Netzteil nicht aus be quit 700 Watt 3 D Mark 2014
Läuft nicht durch :-((

Habe ein I 7 5820 @ 4300Mhz 32 Gigabyte Ram 2 mal EVO 850 500 Gigabyte

Denke mal das mein Netzteil zu schlapp ist ggg suche ein passendes und am
besten günstig ggg

Besten Dank für die Hilfe ;-)

foenfrisur
2015-07-09, 01:51:26
alleine weil deine cpu übertaktet ist und daher gut verbrauchen dürfte,
ist dein nt für 2x fury zu schwach bzw. an der leistungsgrenze.

ein günstiges nt in der leistungklasse gibt es in dem sinne nicht ;)

http://geizhals.de/?cat=gehps&xf=1119_4~360_800#xf_top

das 3dmark aber nicht durchläuft, kann aber auch andere ursachen haben.
spiele laufen?

btw. ist das "offtopic", weil netzteilsuche und kein frage zur fury.
außerdem fehlen bei dir einige satzzeichen :D

mfg

Satos666
2015-07-09, 01:59:07
OK besten dank für die Hilfe ich könnte dir auch in meiner
Heimat Sprache schreiben 本族语 [本族語] běnzúyǔ [语]

Und Sorry für die fehlenden Satz Zeichen;(

Und jetzt mal etwas zum Thema Pumpe der Fury X .
Ich frage mich schon lange warum sich alle darüber aufregen .....
Leistung hat nun mal sein Preis oder ;-)

Strom verbrauch ts.ts sollte ein schnuppe sein ,denn wer ein Top
Gaming PC haben will sollte auch die Euros dafür übrig haben.

Ein Sportwagen hat auch sein Sound und verbrauch ;D

Hübie
2015-07-09, 02:04:20
Es geht dabei nicht ums Geld sondern einfach darum ob es fiept oder nicht. Ich will einfach kein Produkt das hochfrequent fiept. Nicht mal geschenkt. Desto schlimmer wirds wenn man 700 Euro gelatzt hat. ;)

ps: Willkommen an Board :smile:

Satos666
2015-07-09, 02:16:53
Also ich werde versuchen die fiependen Spulen einzuharzen .
Geforce Karten fiepen auch .

Und 700 Euro ist nun mal Geld .
Ich denke aber auch das die neue Technik von ATI erst so richtig
zeigen kann wenn entsprechend neue Treiber und halt Spiele Direkt X 12 da sind.

Warum sich alle immer über die schlechte FPS in Full HD aufregen kann ich auch nicht
verstehen wenn ich in der Auflösung spielen Möchte reicht eine Karte für 350 - 450 Euro aus.

Ich möchte in 4K zocken also zwei Furien rein und gut ist .
Netzteil ist auch geordert 1000 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum .

Denke mal das reicht für 2 Karten + übertakten .

Arcanoxer
2015-07-09, 02:19:21
Also ich werde versuchen die fiependen Spulen einzuharzen .
Viel Spass dabei! :uhippie:

sorry, aber fiependen Spulen einzuharzen, der musste sein. ;)

maguumo
2015-07-09, 03:18:55
Ich mach mal den Anfang: Als ich Peter seinen Test gelesen habe kam wieder die Frage auf wie empfindlich denn nun die Leerstellen auf dem Interposer sind. Wurde da kein Schutzlack aufgetragen? Ist das wirklich blankes Silizium?
Auf AMDs Folien zum Interposer gebastel (hatte z.B. hardwareluxx in einem Artikel hochgeladen) kommt über dem obersten Metal Layer noch ein "Pass", mit Löchern für die uBumps. Keinen Plan was das genau ist, wenn ich tippen müsste würde ich sagen das ist identisch zum Stress Layer (Polyamid) den man auch unter "normalen" Chips hat...

ilibilly
2015-07-09, 06:29:28
Wenn ich mir die fury daten so ansehe dürfte sie mit 950mhz und 3560 shadern etwa 25% langsamer sein für 549€.
Da wird eng gegen 390x karten mit 8gb zumal die um 449 kosten

horn 12
2015-07-09, 07:01:59
FURY wird vielleicht 10% unter einer FURY X liegen, in 4K vielleicht 15%
Morgen sollten die Test aufschlagen.

Loeschzwerg
2015-07-09, 07:50:07
FURY Strix von Asus:

http://wccftech.com/asus-strix-radeon-r9-fury-graphics-card-pictured-3584-sps-directcu-iii-triple-fan-cooler/


Ebenso wieder so ein Bomber wie Sapphire!
geht dies bitte nicht Kleiner und mit beleuchtetem LOGO wie bei dem Großen Bruder FURY X

Nachtrag:
Karten scheinen schon im Handel angelangt zu sein
AMD wird wohl den Launch einige Tage (4) vorverlegen, da ansonsten die Enduser Ihnen die FURY Karte wieder versauen dürften!

Expect more cards to be revealed ahead of launch on 10th July.

Typisch wccftech... Die Karte hat einen DVI Ausgang, aber das Fury PCB hat dafür eigentlich keine Kontakte und außerdem ist das PCB zu breit.

Das sind Bilder einer 390X... Elendige Anfänger.

foenfrisur
2015-07-09, 13:32:47
ja, da wirst du wohl recht behalten
bin auch drauf reingefallen :D
also nix fury+dual link dvi

mfg

Ex3cut3r
2015-07-09, 14:06:10
Kurze frage, braucht man 2015/16 wirklich noch DVi? ist ja genau so wie mit den vga adaptern bei der Titan, 1000€ für eine Graka, aber noch einen Vga Monitor rocken. ;D

Raff
2015-07-09, 14:09:33
Ja, wenn man ein LCD hat, das mit DVI läuft. ;) Ich habe sowas beispielsweise noch. Dual-Link, um genau zu sein. Baujahr 2009, 2.560 × 1.600 native Pixel. Auf Teufel komm raus alles "wegfortschritten" bringt nichts, zumal DVI weniger Probleme bereitet als das nervige HDMI.

MfG,
Raff

Kartenlehrling
2015-07-09, 14:31:46
Solange man es mit Adapter bereinigen kann finde ich kann man sie wegrationalisieren,
aber man sollten sie dann auch beilegen oder preiswert bereitstellen.

Aber ich finde da sind die Monitorhersteller in zugzwang, ich hatte mal einen Link hier geposte,
wo sich die Hersteller einig waren das bis 2015 DP als neuer Standard verbaut wird,
dafür VGA nicht mehr verbaut werden, AMD zb. hatte sich selbst 2013 als Sticktag festgelegt.

Unicous
2015-07-09, 14:32:53
LOL.;D

Auf Teufel komm raus?

http://newsroom.intel.com/community/intel_newsroom/blog/2010/12/08/leading-pc-companies-move-to-all-digital-display-technology-phasing-out-analog (Leading PC Companies Move to All Digital Display Technology, Phasing out Analog)

Intel Newsroom

SANTA CLARA, Calif., Dec. 8, 2010 – AMD, Dell, Intel Corporation, Lenovo, Samsung Electronics LCD Business and LG Display today announced intentions to accelerate adoption of scalable and lower power digital interfaces such as DisplayPort and High-Definition Multimedia Interface® (HDMI) into the PC.

Intel and AMD expect that analog display outputs such as Video Graphics Array (VGA) and the low voltage differential signaling technology (LVDS) panel interface would no longer be supported in their product lines by 2015. HDMI has increasingly been included in new PCs for easy connection to consumer electronics devices. DisplayPort is expected to become the single PC digital display output for embedded flat panels, PC monitors and projectors.

Intel plans to end support of LVDS in 2013 and VGA in 2015 in its PC client processors and chipsets.

AMD plans to begin phasing out legacy interfaces, starting with the removal of native LVDS output from most products in 2013. The company also plans to remove native VGA output starting in 2013, with expansion to all AMD products by 2015. This would mean DVI-I support will be eliminated in the same timeframe.

Seit fast 5 Jahren ist das bekannt. Und es ist nicht nur AMD sondern wie man dem Press Release von Intel entnehmen kann die größten OEMs. The only one missing...Nvidia.:wink:

Ich will ja nichts unterstellen, aber... Nvidia ist schuld.:P
Sie haben sich nämlich nicht committed und auch das ist ein Statement für eine GPU die die ultimative 4K Experience verspricht:wink:

http://www.kitguru.net/wp-content/uploads/2015/03/DSCF6836.jpg

Frosty
2015-07-09, 14:37:33
Auf Teufel komm raus alles "wegfortschritten" bringt nichts, zumal DVI weniger Probleme bereitet als das nervige HDMI.

MfG,
Raff


sehe ich genauso. ich hab einen iiyama xb2483hsu mit dvi und hdmi als digitalen anschlüssen, und mit dvi hatte ich in den letzten 15 jahren noch nie ein problem.
mit hdmi dagegen gab es teilweise bildflackern und falsche erkennung des displays- daher werde ich mir gut überlegen ob, wenn die fury nano kommt, diese kaufe weil ich dann entweder hdmi benutzen müsste oder displayport-dvi adapter wenn es sowas geben sollte. ansonsten müsste wieder ein neuer monitor mit displayport her:ucrazy2:
aber irgendwie bin ich schon gespannt auf die fury nano, jenachdem wie gut die customdesigns sein werden;)

aufkrawall
2015-07-09, 14:38:19
AMD hat den Korea-Käufern ja schon immer gerne vor den Kopf gestoßen.

akuji13
2015-07-09, 14:45:46
Kurze frage, braucht man 2015/16 wirklich noch DVi?

Ich "brauche" bzw. möchte es wegen der alten Monitore.
Kein Beinbruch weil der Hauptmoni DP hat, lästig ist es aber dennoch.

Frosty
2015-07-09, 14:47:37
ist es denn generell ausgeschlossen, dass die fury nano von irgendeinem amd-boardpartner mit mindestens einem dvi-anschluss kommt oder ist das technisch unmöglich?

samm
2015-07-09, 14:53:59
Wieso muss denn DVI zwingend direkt unterstützt werden? Ist ja schon länger bekannt, dass dieser Anschluss ausstirbt. Ansonsten gibt es genug Adapter DP --> DVI, und der Fury X liegt offenbar eh einer bei.

Aber wenn Fury / Fury Nano nicht zwingende Referenz-Designs sind, dann kann man immer noch auf Boardpartner hoffen: Gab auch früher schon Karten mit vom Ref-Design abweichenden Ausgängen. Ist nicht technisch unmöglich, da was anderes zu verbauen.

aufkrawall
2015-07-09, 15:06:19
Ansonsten gibt es genug Adapter DP --> DVI, und der Fury X liegt offenbar eh einer bei.

Sicher?
Außerdem sind Adapter wahrscheinlich keine gute Wahl für Display-OC.

foenfrisur
2015-07-09, 15:07:18
ja es liegen "teilweise" "passive" adapter bei. bei sapphire z.b.

das dürfte auch einem teil ausreichen, aber mehr als FHD@60Hz ist nicht drin.
diejenigen, die aber mit 120/144Hz spielen wollen, können mit eben dem adapter offenbar nix anfangen und müssen sich einen aktiven zusätzlich kaufen.

mfg

aufkrawall
2015-07-09, 15:13:37
Die aktiven sind die mit den unverschämten Preisen?

Ex3cut3r
2015-07-09, 15:14:10
Ja, wenn man ein LCD hat, das mit DVI läuft. ;) Ich habe sowas beispielsweise noch. Dual-Link, um genau zu sein. Baujahr 2009, 2.560 × 1.600 native Pixel. Auf Teufel komm raus alles "wegfortschritten" bringt nichts, zumal DVI weniger Probleme bereitet als das nervige HDMI.

MfG,
Raff

Ach so ok, ist das noch der Samsung? ^^ Dachte du hättest dir einen 21:9 Monitor mit 3440x1440 Pixeln gekauft, lag ich wohl falsch. ;)

Ich "brauche" bzw. möchte es wegen der alten Monitore.
Kein Beinbruch weil der Hauptmoni DP hat, lästig ist es aber dennoch.

Ja, das verstehe ich dann.

Kartenlehrling
2015-07-09, 15:16:57
Sicher?
Außerdem sind Adapter wahrscheinlich keine gute Wahl für Display-OC.

Mit den 80€ teueren 330mhz Adapter, kann man max 2560x1600@75Hz, das sollte eigentlich jeden zufrieden stellen.



2560x1600@75Hz - 329mhz
2560x1440@80Hz - 325mhz

aufkrawall
2015-07-09, 15:18:18
Würden mir reichen, ja. Aber mehr als 20€ würd ich sicher nicht zahlen.

StefanV
2015-07-09, 18:42:41
AMD hat den Korea-Käufern ja schon immer gerne vor den Kopf gestoßen.
Wen interessieren irgendwelche Geräte, die in Hinterhöfen von Kindern zusammen gebastelt werden wirklich?!
Wie hoch schätzt du die Verbreitung daon ein?? 0,005%?!

Sorry, aber jeder halbwegs moderne Markenschirm der letzten paar Jahre hat entweder einen HDMI und/oder einen DP Port - oder kann ev. gar mit 'nem SL-DVI Auskommen...

Aber notfalls gäbs für solche Fälle auch noch Adapter, die man nutzen könnte...

Flusher
2015-07-09, 18:44:22
Gibt es schon Erkenntnisse bezüglich Fury Performance mit dem neuen Catalyst 15.7? Ich bezweifle, dass sich da in den zwei Wochen etwas nennenswertes getan hat, aber die Hoffnung stirbt bekanntlich zuletzt.

Frosty
2015-07-09, 19:41:42
wie sieht es eigentlich mit spulenfiepen bei der fury x aus? (hab mir dazu noch nichts durchgelesen)

foenfrisur
2015-07-09, 19:45:28
hat sie auch, aber eben wie alle "besseren" karten erst bei hohen FPS.
also nicht sonderlich auffällig.
ab bestimmten FPS haben das alle karten.

mfg

Peter Gräber
2015-07-09, 19:49:54
wie sieht es eigentlich mit spulenfiepen bei der fury x aus? (hab mir dazu noch nichts durchgelesen)

Nur bei sehr hohen Frames (ATi Tool z.B.) Fiepen die Spulen der Fury X - das tun aber alle Grafikkarten, zumindest erinnere ich mich an keine, die nicht fiepte.


Ich möchte in 4K zocken also zwei Furien rein und gut ist .
Netzteil ist auch geordert 1000 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum .

Denke mal das reicht für 2 Karten + übertakten .

Du kannst mit einer maximalen Last von bis zu 375 Watt im Worst Case pro Karte kalkulieren und in den Fällen vielleicht noch einmal im schlechten Fall mit max 100 Watt bei der CPU. Damit sollte dein Netzteil das auf dem Papier erst einmal mühelos stemmen können. Wie sich das Netzteil aber auf Dauer mit den Peak-Werten der Fury X arrangiert, kann ich schlecht beurteilen. Ich vermute mal, dass du aber gute Chancen hast.

Mit dem 700-Watt-NT solltest du aber keinesfalls arbeiten (spielen).

(del)
2015-07-09, 19:57:18
Ich möchte in 4K zocken also zwei Furien rein und gut ist .
Netzteil ist auch geordert 1000 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum . Denke mal das reicht für 2 Karten + übertakten .

Es reicht locker. Ich habe eines gerade zur Probe im Testsystem (Ersatz für das 1200W DPP 10) und es läuft mit 2x Fury XT zzgl. übertaktetem X99 System bestens. BQ lässt zudem wie immer 20% Luft bei der Nennleistung, so dass man auch nicht knapp auf Kante rumeiert. :) Solange Meister Rex die Dinge vor Ort für BQ finalisiert, habe ich da auch keine Angst.

Ex3cut3r
2015-07-09, 20:01:58
Oh mann. :facepalm: Da wurde ich lieber 2xmal GTX 980 kaufen, beide auf 1450-1500Mhz übertakten und wäre gleich schnell, in einigen Titeln sogar schneller, und hätte im vergleich einiges an Strom gespart. Also der AMD Fetischismus geht teilweise wirklich zu weit.

fondness
2015-07-09, 20:12:48
Oh mann. :facepalm: Da wurde ich lieber 2xmal GTX 980 kaufen, beide auf 1450-1500Mhz übertakten und wäre gleich schnell, in einigen Titeln sogar schneller, und hätte im vergleich einiges an Strom gespart. Also der AMD Fetischismus geht teilweise wirklich zu weit.

Also manchmal fragt man sich wirklich. Erstens bist du bei 2x GTX980 @ 1450-1500Mhz auch schnell beim avg Verbrauch von 2x Fury X, in idle würdest du deutlich mehr Verbrauchen weil NV noch immer nicht die 2te GPU abschalten kann und bist im Schnitt langsamer.

akuji13
2015-07-09, 20:54:44
Oh mann. :facepalm: Da wurde ich lieber 2xmal GTX 980 kaufen

Ich würde da 2x 980 Ti kaufen. :D

Kann den Wunsch nach Fury gut nachvollziehen...ist halt was anderes, ich find sie interessant. =)

Ex3cut3r
2015-07-09, 21:04:31
Also manchmal fragt man sich wirklich. Erstens bist du bei 2x GTX980 @ 1450-1500Mhz auch schnell beim avg Verbrauch von 2x Fury X, in idle würdest du deutlich mehr Verbrauchen weil NV noch immer nicht die 2te GPU abschalten kann und bist im Schnitt langsamer.

Das sehe ich anders, aber gut wenn du das so sieht, ok kann ich mitleben. Habe auch kein Bock auf ein Diskussion mit Links usw. Zu faul :freak:

Gibts eigentlich schon die Rev. 2.0 von der FuryX? Das fiepen der Pumpe muss weg.

Digidi
2015-07-09, 21:49:36
@Ex3cut3r

Was du vergisst ist das die Fury X noch ganz am Anfang ihrer Optimierung steht. Ich schätze mal das hier das selbe passiert wie zwischen 290x und 780ti. Nvidia wird in Zukunft das nachsehen haben da immer irgendwo an der Hardware gespart wurde. Sei es am Speicherinterface oder an Texturunits oder Rasterizer.

AMD hat Hardwaremäßig immer das rundere Produkt abgelierft und so ist es auch mit der Fury X. Das sind 4.000 Shader gegen 3.000 da geht die Titan X Unter.

ilibilly
2015-07-09, 22:00:14
Als ob NVIDIA nicht optimiert,fast bei jedem neuen Game gibt's angepasste Treiber und man holt immer wieder paar fps raus,als an softwareoptimierung kann man bei nv nicht jammern,zugleich hat die Hardware immer enormes OC potential,nv fährt da imho immer sehr konservativ,man hätte auch als Referenz eine 1300mhz Titan oder ti bringen können,aber dann wäre Amd noch mehr ins Hintertreffen gelangt.
980 2000 vs 2800 Hawaii shader ,ähnlich fury vs gm200 ,aber Amd wieder die Rohrleitung nicht auf die Straße ,entweder bottlenecks oder einfach eine mieserable treiberabteilung.

Ätznatron
2015-07-09, 22:08:43
...nv fährt da imho immer sehr konservativ,man hätte auch als Referenz eine 1300mhz Titan oder ti bringen können,aber dann wäre Amd noch mehr ins Hintertreffen gelangt.


Genau!

Die Mutter Theresa unter den gewinnorientierten Unternehmen ist einfach *awesome*.

r3ptil3
2015-07-09, 22:10:29
Als ob NVIDIA nicht optimiert,fast bei jedem neuen Game gibt's angepasste Treiber und man holt immer wieder paar fps raus,als an softwareoptimierung kann man bei nv nicht jammern,zugleich hat die Hardware immer enormes OC potential,nv fährt da imho immer sehr konservativ,man hätte auch als Referenz eine 1300mhz Titan oder ti bringen können,aber dann wäre Amd noch mehr ins Hintertreffen gelangt.
980 2000 vs 2800 Hawaii shader ,ähnlich fury vs gm200 ,aber Amd wieder die Rohrleitung nicht auf die Straße ,entweder bottlenecks oder einfach eine mieserable treiberabteilung.

Nur ein paar Beispiele vom Stand heute (The Witcher läuft auf aktuellen Nv Karten ja grundsätzlich etwas besser):
http://www.guru3d.com/index.php?ct=articles&action=file&id=16819&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
http://www.guru3d.com/index.php?ct=articles&action=file&id=16815&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Man müsste mal wirklich auch die alten Karten mit neuen Treibern testen. Viele Reviewer kopieren einfach die alten Ergebnisse in aktuelle Reviews (z.B. Tomb Raider etc.).
Aber die beiden Beispiele wurden auch bei den alten Karten mit neuen Treibern getestet.

Digidi
2015-07-09, 22:11:26
AMD hatte aber bisher immer etwas mehr Optimierungsbedarf. Das Treiberteam bei AMD dürfte kleiner sein als bei Nvidia.

Aber mit Optimierung dürfte aus der AMD mehr herauszuholen zu sein. Zudem hat Maxwell ja ein Halbes Jahr Optimierungs Vorsprung.

Zudem müssen sich die Entwickler bei der Fury auf den HBM Speicher noch einschießen. Sowas dauert.

Tja wer vor 2 Jahren auf eine 290x oder vor 4 Jahren auf eine 7970 gesetzt hat hat alles richtig gemacht.

ilibilly
2015-07-09, 22:18:32
Genau!

Die Mutter Theresa unter den gewinnorientierten Unternehmen ist einfach *awesome*.

Darum geht's doch nicht,natürlich will auch Amd Kohle machen ,natürlich hat NVIDIA enorme Margen, sieh dir die Anteile an,die Schere wird immer größer.
Wäre fury 8,6tflop gegen ti 6tflop auch in der Praxis 20-30% schneller ,dann wärs auch mit den horrenden ti Preisen für 700-800€ vorbei.
Woran liegt es denn das man die enorme theoretische Leistung nie auf die Straße bringt ?
Übrigens dasselbe auch bei Hawaii .

Schnoesel
2015-07-09, 22:21:29
Um mal zum Thema Fury und so zu kommen, falls es einige bereits vergessen haben sollten ... ;-) Ist sowas wie ne LCS von Powercolor angekündigt? Die Info von wegen dass der Interposer sehr empfindlich sein soll lässt mich grübeln... Normalerweise hab ich keine Bedenken nen Kühlblock draufzumachen.

maximus_hertus
2015-07-09, 23:31:45
Oh mann. :facepalm: Da wurde ich lieber 2xmal GTX 980 kaufen, beide auf 1450-1500Mhz übertakten und wäre gleich schnell, in einigen Titeln sogar schneller, und hätte im vergleich einiges an Strom gespart. Also der AMD Fetischismus geht teilweise wirklich zu weit.

Gibts eine Garantie für 1500 MHz? Eher nicht, oder?
Die Karten mit 1400+ MHz verbrauchen auch gerne 220 - 250W+, ergo gleiches Level wie die Fury X. Und komm mir nicht mit 10 oder 20W Differenz. Dafür brauchen die nVs mehr im Idle ;)

Dazu muss man gucken, ob man 2 GTX 980 @ 1500 MHz auch leise gekühlt bekommt, ohne Kühlerwechsel. Wasser FTW sage ich nur ;)

Bei der PErformance wird die Fury X wohl vorne sein, wobei es immer mal ein oder zwei Games geben kann / wird, bei dem die nV Karten wesentlich besser als im Schnitt aussehen und natürlich auch umgekehrt.

aufkrawall
2015-07-09, 23:45:13
Die Karten mit 1400+ MHz verbrauchen auch gerne 220 - 250W+, ergo gleiches Level wie die Fury X.

220W reichen, das sind immer noch 30-80W mehr für die FuryX.


Dazu muss man gucken, ob man 2 GTX 980 @ 1500 MHz auch leise gekühlt bekommt, ohne Kühlerwechsel. Wasser FTW sage ich nur ;)

Der Tinnitus wird in Stereo auch nicht gerade besser.

Nah, 980 SLI würd ich auch nicht machen. Jetzt kauft man für viel Geld keine 4GB Karte mehr, wenn man schlau ist. Und zwei schon mal gar nicht.

Digidi
2015-07-09, 23:58:14
Darum geht's doch nicht,natürlich will auch Amd Kohle machen ,natürlich hat NVIDIA enorme Margen, sieh dir die Anteile an,die Schere wird immer größer.
Wäre fury 8,6tflop gegen ti 6tflop auch in der Praxis 20-30% schneller ,dann wärs auch mit den horrenden ti Preisen für 700-800€ vorbei.
Woran liegt es denn das man die enorme theoretische Leistung nie auf die Straße bringt ?
Übrigens dasselbe auch bei Hawaii .

Das liegt an der Marktmacht NVIDIA! Das ist nicht mehr lukrative auf 2 Systeme zu optimieren wenn das 2 im Markt kaum noch existent ist. Leider bekommen Kidies das erst später in der Schule beigegebracht und das sind die hauptkäufer.

Da gibt es Kids im Forum die glauben wirklich das die Titan Black noch eine 980ti schlägt. Die meisten Käufer sind sowieso nicht technisch versiert und kaufen das Produkt mit dem besten Prolmarketing! Siehe NVIDIA, da fressen die Käufer alles um dabei zu sein nur um "cool" zu sein.

Jeder mit etwas Grips im Gehirn sieht das Potential der fury x und es ist an uns zu entscheiden wohin die Reise geht! Wo ist eigentlich mal ein Bericht der Magazine die die vergangene Generation von Grafikkarten beurteilt und welcher Hersteller mit seiner Auslegung besser gefahren ist?

Da stellt man dann fest das AMD sehr Zukunftssichere Produkte hat. Das Desaster von Nvidias 780ti in Witcher 3 spricht Bände!

Ist euch auch schon mal aufgefallen das bei NVIDIA Präsentationen immer wieder Proleten Vorträge in Lederjacke halten und bei AMD es immer Nerds sind? Das spricht Bände in der Unternehmenskultur und den Nerds traue ich mehr zu leider verkauft sich Proletentum besser :(

maximus_hertus
2015-07-10, 00:13:05
220W reichen, das sind immer noch 30-80W mehr für die FuryX.


Ich beziehe mich auf die PCGH-Werte: Die Palit Super Jetstream 980 zieht unter 3D 247W und beim "Power-Virus" 260W. Die Gainward Phantom GTX 980 steht bei 231 / 242W. Die Gigabyte GTX 980 G1 Gaming bei 240 / 300W. Alles Stock, kein OC.

aufkrawall
2015-07-10, 00:16:45
Kann sein, dass die ein hohes PT hat.
Ich habe die normale JetStream, und ich komme hier mit einem PT von 220W sehr gut mit mit manuellem OC aus, es wird nur leicht oder meist gar nicht limitiert.
Entsprechend drehen die Lüfter fast immer unter 1000rpm bei unter 80°C.

maximus_hertus
2015-07-10, 00:29:12
Das Glaube ich dir gerne, aber es gibt halt Karten, die einfach mehr "ziehen" und in Bereiche der Fury vorstossen. Ja, die Fury zieht dann immer noch etwas mehr unter Last, aber ob dann (mit OC) 250+ oder 275W dürfte wohl keine große Rolle mehr spielen.

Aber ja, ich würde mir weder 980 SLI, noch Fury X CF einbauen (außer geschenkt, da nehme ich alles :D ). Ich hoffe ja, dass die R400 Gerüchte wahr sind (Q2 2016). Davon erhoffe ich mir einiges ;) Zusammen mit Zen (den aber wohl erst in Q4 2016) gibts dann einen neuen Rechner / Infrastruktur ;)

Achill
2015-07-10, 00:34:15
Ich beziehe mich auf die PCGH-Werte: Die Palit Super Jetstream 980 zieht unter 3D 247W und beim "Power-Virus" 260W. Die Gainward Phantom GTX 980 steht bei 231 / 242W. Die Gigabyte GTX 980 G1 Gaming bei 240 / 300W. Alles Stock, kein OC.

Kann sein, dass die ein hohes PT hat.
Ich habe die normale JetStream, und ich komme hier mit einem PT von 220W sehr gut mit mit manuellem OC aus, es wird nur leicht oder meist gar nicht limitiert.
Entsprechend drehen die Lüfter fast immer unter 1000rpm bei unter 80°C.

Wir können also festhalten, dass es auf die "Güte" des Siliziums ankommt, bei welchen Werten man selbst raus kommt. Hatte man Glück und etwas gutes im Rechner, dann können natürlich ganz andere Aussagen zum Verbrauch entstehen als wenn z.B. eine schlechte Referenz-Karte bei Vorstellung getestet wurde.

Ich habe die gleiche Beobachtung mit einer zweiten Tri-X gemacht, diese ist ~9°C kühler als meine alte 290x und Verbaucht auch weniger (habe aber nur ein doofes Watt-Meter für die Steckdose).

DrFreaK666
2015-07-10, 07:50:00
Genug OT...

Exxtreme
2015-07-10, 09:15:09
Wie läuft die Karte denn mit dem neuen Catalyst?

Dural
2015-07-10, 09:21:27
Nur bei sehr hohen Frames (ATi Tool z.B.) Fiepen die Spulen der Fury X - das tun aber alle Grafikkarten, zumindest erinnere ich mich an keine, die nicht fiepte.


Komisch, da sagt meine und diverse Youtube Videos was ganz anderes.

Die Karten fiepen sehr, sogar im zweistelligen FPS Bereich, bei dreistellig wird es noch extremer.

Das Pumpen Theater kann ich gar nicht Nachvollziehen, da sind die SPW klar lauter. Eventuell verwechseln einige das Pumpen mit den SPW Geräusch :freak:

Armaq
2015-07-10, 09:36:25
Wie läuft die Karte denn mit dem neuen Catalyst?
Der war nur für Win10Preview. Meine Karte geht heute erstmal zurück an den Händler und dafür kommt dann eine neue Revision ins Haus.

akuji13
2015-07-10, 09:59:06
Das Pumpen Theater kann ich gar nicht Nachvollziehen, da sind die SPW klar lauter. Eventuell verwechseln einige das Pumpen mit den SPW Geräusch :freak:

Warum sollten SPW im idle auf dem desktop fiepen? ;)

Effe
2015-07-10, 10:36:43
Hatten wir das schon? 3xCrossfire- & 3xSLI- Skalierung zwischen Fury X und 980ti: http://www.pcper.com/reviews/Graphics-Cards/AMD-Fury-X-vs-NVIDIA-GTX-980-Ti-2-and-3-Way-Multi-GPU-Performance
Die 3. GraKa ist bei beiden Kandidaten überflüssig.

horn 12
2015-07-10, 10:45:17
Schaun was FURY mit Luftkühlung von Sapphire - Asus HEUTE reißt
Ansonsten wird die (meine) R9 290 Tri-X New Edition behalten.

Effe
2015-07-10, 10:54:31
Na die wird 10-20% schneller sein, bei doppeltem Kaufpreis. Wahnsinniges Upgrade!

PS: Seit wann releast AMD irgendwas am Freitag? Vor Dienstag 15Uhr erwarte ich nichts. (Ohne Gewähr)

M4xw0lf
2015-07-10, 10:55:37
Hatten wir das schon? 3xCrossfire- & 3xSLI- Skalierung zwischen Fury X und 980ti: http://www.pcper.com/reviews/Graphics-Cards/AMD-Fury-X-vs-NVIDIA-GTX-980-Ti-2-and-3-Way-Multi-GPU-Performance
Die 3. GraKa ist bei beiden Kandidaten überflüssig.
Abgesehen davon schlägt sich Crossfire sehr gut im Vergleich zu SLI.

anddill
2015-07-10, 10:55:48
Also ich kann Spannungswandler und Pumpe sehr deutlich unterscheiden. So ab 300fps hör ich auch die Spulen sirren. Aber das stört deutlich weniger, weil es nicht konstant ist und nur im Spiel auftritt, wenn man sowieso beschäftigt ist.

horn 12
2015-07-10, 11:00:34
HIER:

http://videocardz.com/57177/amd-radeon-r9-fury-launches-tomorrow

3 Stunden noch :-)

Matrix316
2015-07-10, 11:31:55
Ich glaube die Fury ohne X wird meine neue Karte. 700+ ist mir irgendwie doch zu viel, egal ob für Fury X oder 980TI. Die muss ja nur in 2560x1440 schneller und leiser als die 290X sein und 4K brauch ich erstmal net. Mal sehen...

Troyan
2015-07-10, 11:35:54
Abgesehen davon schlägt sich Crossfire sehr gut im Vergleich zu SLI.

GTA5 ist das einzige Spiel, dass nicht aus dem Jahr 2013 stammt und dort kann man Crossfire vergessen und SLI ist gerade so akzeptabel... :rolleyes:

fondness
2015-07-10, 12:04:50
AMD Fury X vs. NVIDIA GTX 980 Ti: 2- and 3-Way Multi-GPU Performance
http://www.pcper.com/reviews/Graphics-Cards/AMD-Fury-X-vs-NVIDIA-GTX-980-Ti-2-and-3-Way-Multi-GPU-Performance

But what about that direct AMD and NVIDIA comparisons? Despite what we might have expected going in, the AMD Radeon R9 Fury X actually scaled in CrossFire better than the NVIDIA GeForce GTX 980 Ti. This comes not only in terms of average frame rate increases, but also in lower frame time variances that result in a smoother gaming experience. In several cases the extra scalability demonstrated by the Fury X allowed its dual-GPU performance to surpass a pair of GTX 980 Ti cards even though in a single GPU configuration the GeForce card was the winner. GRID 2 at 4K is one example of this result as is Bioshock Infinite at 4K. And even in a game like Crysis 3 at 4K where we saw NVIDIA's card scale by a fantastic 84%, AMD's Fury X card scaled by 95%!

M4xw0lf
2015-07-10, 12:07:22
GTA5 ist das einzige Spiel, dass nicht aus dem Jahr 2013 stammt und dort kann man Crossfire vergessen und SLI ist gerade so akzeptabel... :rolleyes:
Blamabel für Nvidia, dass sie die Spiele nach zwei Jahren noch nicht im Griff haben! :eek:

Sorry, war ne Steilvorlage. :rolleyes:

DrFreaK666
2015-07-10, 12:10:12
GTA5 ist das einzige Spiel, dass nicht aus dem Jahr 2013 stammt und dort kann man Crossfire vergessen und SLI ist gerade so akzeptabel... :rolleyes:

Der neue Treiber soll die CF-Performance in GTA V verbessern

akuji13
2015-07-10, 12:18:43
Blamabel für Nvidia, dass sie die Spiele nach zwei Jahren noch nicht im Griff haben! :eek:

Blamabel für AMD das sie ihre spikes selbst mit einer GPU nicht im Griff haben. :D
Muss da gleich an jemanden denken. :D

Ich glaube ich greife zur Fury ohne X und baue die auf eine AiO um sofern die zügig lieferbar ist. :)

Exxtreme
2015-07-10, 12:40:30
Blamabel für Nvidia, dass sie die Spiele nach zwei Jahren noch nicht im Griff haben! :eek:

Sorry, war ne Steilvorlage. :rolleyes:
Die Problematik bekommt man nie richtig in den Griff. Deshalb werde ich mir auf keinen Fall ein AFR-System kaufen. Das ist viel zu viel Glücksspiel ob es hinterher auch ordentlich läuft.

foenfrisur
2015-07-10, 12:44:58
gibts ne erklärung, wieso es bei nv "fantastische" 84% sind und bei amd nur 95% skalierung? :biggrin::freak::rolleyes:

mfg

Loeschzwerg
2015-07-10, 13:05:04
Ich glaube ich greife zur Fury ohne X und baue die auf eine AiO um sofern die zügig lieferbar ist. :)

Duuuu... ich will umgekehrtes machen :) Sollen wir uns zusammentun? Ich kaufe die Fury X, überlasse dir die AiO und du eine Fury (non X) mit Lukü an mich.

akuji13
2015-07-10, 13:36:30
Bei der Sache gibts einen Haken: ich will die Fury X AiO nicht sondern eine Variante z. B. mit NZXT Kraken draufschnallen. :wink:

Ich brauche zügig eine Lösung und mag nicht mehr auf eine aktualisierte X warten.

r3ptil3
2015-07-10, 13:49:01
Bei der Sache gibts einen Haken: ich will die Fury X AiO nicht sondern eine Variante z. B. mit NZXT Kraken draufschnallen. :wink:

Ich brauche zügig eine Lösung und mag nicht mehr auf eine aktualisierte X warten.

Danke für die Idee.

Loeschzwerg
2015-07-10, 13:50:56
Ok, dann kannst mir ja evtl. immer noch den Lukü verhökern :D

Blediator16
2015-07-10, 14:11:47
Typischer NVper Test. Offener Benchtisch. Die besten der besten 980TI rausgekramt. :rolleyes::freak:
Läuft bei denen echt gut

akuji13
2015-07-10, 14:25:02
http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/

Ich finds gut. :)

DrFreaK666
2015-07-10, 15:54:48
~40% mehr in 4k.
Glaube damit könnte ich leben. Und leise ist sie auch 👍
Nur der Preis...

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-Test-Review-1164156/2/

iuno
2015-07-10, 15:57:50
Cycles schaue ich mir noch an. Ja, es wird ein Follow-Up geben[...]
Das Follow-Up ist ja gekommen, aber was ist aus Cycles geworden?

foenfrisur
2015-07-10, 17:18:40
@format_c

in deinen balkendiagrammen hast du ab und zu die rote farbe für die min-FPS vergessen (fc4 und bf4 z.b.) ;)

aber man kann festhalten, das das kleine frontend die geringere anzahl an einheiten etwas besser auslasten kann.

außerdem sieht man wieder mal wunderbar, das amd immernoch das cpu-overhead problem hat, weil die min-fps selbst dann geringer sind, wenn sie insgesamt schneller ist.

mfg

Schnoesel
2015-07-10, 21:45:07
NEU: kryographics FURY X

http://forum.aquacomputer.de/wasserk-hlung/106123-neu-kryographics-fury-x/

Screemer
2015-07-10, 22:18:57
NEU: kryographics FURY X

http://forum.aquacomputer.de/wasserk-hlung/106123-neu-kryographics-fury-x/
keine kühlung für den hbm?

Loeschzwerg
2015-07-11, 10:08:29
Ist doch bei der original AiO der Fury X ebenso, da wird nur viel WLP hingeklatscht.

Kartenlehrling
2015-07-11, 11:05:16
Ich hoffe auf besser aufgeräumte Custome-PCB, Asus zeigt es ja das es geht, sie haben bei der Fury (noX) alles auf der Vorderseite montiert, das wird für Wasserkühlung besser sein,
das ist das problem von dem AMD-PCB, das hier die Rückseite auch verbaut wurde und die Spannungsphase verteil über die ganze platte.

Auch hat Asus 12 Phase verbaut.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36032-asus-radeon-r9-fury-strix-im-test.html?start=3
hardwareluxx.de ASUS Radeon R9 Fury Strix

foenfrisur
2015-07-11, 14:03:55
und die asus hat dann ja nun doch den DVI.
d.h. ja dann auch, das es nicht so problematisch bzw. unmöglich ist, einen zu verbauen.

mfg

Digidi
2015-07-12, 01:37:15
Bandbreite limitiert mit HBM vermutlich nicht also hängst nur am Chip.Das Problem ist die Karte boostet nicht ansonsten würde die Pro wie die 980TI vieleicht besser dastehen als der volle Chip.
Das würde viel Sinn machen wenn man sieht wie schlecht Fury X über alle Cores skaliert,vermutlich würde mehr Takt mher bringen als die zusätzlichen Cores.

Und ob die Bandbreite Limitiert. Einfach mal die Tests von Matrix raussuchen. Da kahm erstaunliches zu Tage.
Hier der Link zur Threadseite, ganz Unten die erklärung:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564554&highlight=m%40trix&page=72

Knuddelbearli
2015-07-12, 01:58:43
NEIN!
man kann nicht sagen das die Bandbreite des Speichers limitiert da man nicht weiß was noch alles mit übertaktet wird. eventuell hängt auch der der L2 Cache da dran?

aufkrawall
2015-07-12, 02:00:59
Das könnte man doch gesondert benchmarken?
Zumindest geht das mit dem Cuda-Bandbreitentester aus der 970-Affäre.

Dural
2015-07-12, 10:02:42
meine fury x hat schon ein asus bios drauf, eventuell hat asus ja schon was geändert, fand auf die schnelle aber keine änderungen.

horn 12
2015-07-12, 10:08:49
Und wie zufrieden bist nun mit der Karte schlussendlich?

(del)
2015-07-14, 06:21:01
Das Follow-Up ist ja gekommen, aber was ist aus Cycles geworden?
War aus Zeitgründen leider nicht möglich, denn ich muss ja alle anderen Kollegen auch dazu überreden. Die Testsysteme in allen Ländern, die bei uns mit testen, sind identisch und ich kann nicht einfach die Leadplattform abändern. :(

Thunder99
2015-07-14, 09:03:04
[Quote=Strike]Ausgehend von einer 290(X) ist die Fury nur ein kleines Upgrade. Gemessen am Preis derzeit nicht empfehlenswert. Aber ansonsten mit den mächtigen Kühlern von Asus und Sapphire sehr gute Karten. Schade das die Karte derzeit man kaum übertakten kann.

Zu den Tests ansonsten finde ich gut das die Karte eine (für mich bedingte) Empfehlung bekommt. So besteht die Chance das AMD etwas Geld verdient um die getätigten Investitionen wieder rein zu bekommen[/Strike]

Edit: Sollte in den Fury Thread. Nicht Fury X :redface:

r3ptil3
2015-07-14, 14:52:43
Ich kann meine Club 3D FuryX heute abholen.
Sehr gespannt ob es die "ausgebesserte" Kühler-Version ist.

Armaq
2015-07-14, 14:55:18
Ich kann meine Club 3D FuryX heute abholen.
Sehr gespannt ob es die "ausgebesserte" Kühler-Version ist.
Berichte mal! :)

akuji13
2015-07-14, 15:20:19
Die Fury ist da. =)

https://www.alternate.de/Sapphire/AMD-Radeon-R9-FURY-OC-TRI-X-Grafikkarte/html/product/1214313?campaign=Grafikkarte/Sapphire/1214313

dargo
2015-07-14, 15:22:01
Falscher Thread. ;)

akuji13
2015-07-14, 15:22:22
Ups, stimmt! :D

r3ptil3
2015-07-14, 20:21:57
Erkennt man irgendwo an der Karte selber ob es der "leisere" Kühler ist oder nicht?

http://fs2.directupload.net/images/150714/kxhilzn8.jpg
http://fs2.directupload.net/images/150714/ex8q52k7.jpg

M4xw0lf
2015-07-14, 20:28:02
Ja, indem man sie anmacht :uup:

anddill
2015-07-14, 20:56:51
Mach zumindest mal den Frontdeckel auf. T6 oder 1,5mm Imbus.

r3ptil3
2015-07-14, 21:06:36
FuryX eingebaut:

Pumpenfiepen vorhanden
Bei offenem Gehäuse deutlich hörbar. Gehäuse ist nun geschlossen und man hört es noch immer.

Die Kühlung
Den Kühler kann ich nicht richtig montieren. Ich kann lediglich eine Schraube anziehen. Und wer denkt ich hätte ein zu kleines oder altes Gehäuse, der irrt. Cooler Master Cosmos II - gibt glaube ich kaum was grösseres.
http://fs2.directupload.net/images/150714/wkofyqiw.jpg

anddill
2015-07-14, 21:14:44
Lass mich raten: Der Radiator sitzt unten auf dem Bereich der die Slotblenden umfasst auf. Ich musste auch neue Löcher 8mm höher bohren.

r3ptil3
2015-07-14, 21:17:03
Lass mich raten: Der Radiator sitzt unten auf dem Bereich der die Slotblenden umfasst auf. Ich musste auch neue Löcher 8mm höher bohren.

Genau so ist es...

Bei mir hat es zwar schön rein gepasst, das Gewicht des Kühlers liegt auf der Kante der Slotblende, nur die Löcher sind an der falschen Stelle. Eine Schraube genügt bei mir aber problemlos.

akuji13
2015-07-14, 21:47:20
Die Größe ist also doch nicht entscheidend! :D

Es scheitert erstaunlicherweise an der innenen Aufteilung der Gehäuse.
Mein NZXT H630 war nur etwas eng wegen dem Radi oben, in anderen deutlich kleineren Gehäusen gibts gar keine Probleme.

Das das keinem beim Design der Karte aufgefallen ist ist schon verwunderlich.

anddill
2015-07-14, 21:50:52
Auf der einen Seite ist der Schlauchkasten, auf der anderen der Ausdehnungsbehälter, das macht den Radi etwa 5cm höher als ein normaler Lüfter ist, für den die Gehäuse ausgelegt sind.
Das fällt im offenen Testaufbau natürlich nicht auf.

akuji13
2015-07-14, 21:59:43
Also ich setze schon voraus das man sowas auch in ein paar Gehäusen austestet. ;)

StefanV
2015-07-14, 23:16:02
Habt ihr mal versucht den Lüfter auf der anderen Seite zu montieren?

Wär aber natürlich aufgrund diverser Zustände nicht sonderlich empfehlenswert...
Aber dadurch könnte man den Lüfter als Abstandshalter missbrauchen, so dass der Kühler letztendlich eventuell doch nutzbar ist...

PS: habt ihr alle keine Gehäuse, bei denen 140mm Lüfter vorgesehen sind und 120mm auch möglich??

r3ptil3
2015-07-14, 23:40:43
Habt ihr mal versucht den Lüfter auf der anderen Seite zu montieren?

Wär aber natürlich aufgrund diverser Zustände nicht sonderlich empfehlenswert...
Aber dadurch könnte man den Lüfter als Abstandshalter missbrauchen, so dass der Kühler letztendlich eventuell doch nutzbar ist...

PS: habt ihr alle keine Gehäuse, bei denen 140mm Lüfter vorgesehen sind und 120mm auch möglich??

Bei meinem Gehäuse hätte es sogar Löcher für die Schläuche, nur dafür sind die Schläuche der FuryX viel zu kurz - ganz gut gemacht.

Es hat bei mir auch Löcher für 120mm und 140mm Lüfter, nur der FuryX Kühler passt nicht drauf, da er einfach - wie von Andill erwähnt - im Bereich der Slotblenden angelangt.

Thunder99
2015-07-14, 23:43:02
Deckel ist keine Option?

StefanV
2015-07-14, 23:44:22
Ja, genau deswegen ja die Idee, den Lüfter umzudrehen und als Abstandshalter zu missbrauchen, in der Hoffnung, dass der Kühler nicht mehr an den Slotblenden anstößt sondern drüber ragen kann.

r3ptil3
2015-07-15, 00:18:33
Das Problem ist der Kühler der CPU ist oben und der Kühler der FuryX passte nur knapp dazwischen (hat sogar Kontakt). Siehe Bild in der vorherigen Seite.

dargo
2015-07-15, 10:08:22
Weiß einer eigentlich warum die Fury X in CoD: AW gegenüber NV so schlecht performt?
52570

Ich meine die kommt ja nicht mal an die GTX 980 ran. In Bioshock Infinite schafft sie locker die GTX980 TI.
52571

Treibergeschichte oder irgendein besonderer Flaschenhals in der Hardware?

Air Force One
2015-07-15, 10:12:49
Oder Flaschenhals in Software.

MartinRiggs
2015-07-15, 11:14:23
Würde auch am ehesten auf die Software tippen, COD ist ja nun nicht grad für herausragende Technik bekannt.

Air Force One
2015-07-15, 11:29:49
Das Game ist nicht zufällig ein GW Titel oder?

Weil so ein perverses Problem hatte ich in The Crew mit einer 290X:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560634

Mit einer nVidia kein Thema (die ich jetzt habe).

dildo4u
2015-07-15, 11:33:36
Weiß einer eigentlich warum die Fury X in CoD: AW gegenüber NV so schlecht performt?
52570

Ich meine die kommt ja nicht mal an die GTX 980 ran. In Bioshock Infinite schafft sie locker die GTX980 TI.
52571

Treibergeschichte oder irgendein besonderer Flaschenhals in der Hardware?
Das Game verschlinkt Vram und manchmal ist dort die Vramverwaltung selbst bei der 980 besser als Fury.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10700364&postcount=24

COD 11GB Belegung auf Titan X.

https://youtu.be/j0gXoGjTIP4

Thunder99
2015-07-15, 11:43:09
Zwischen Belegung und Reservierung gibt es einen Unterschied. 11GB werden reserviert obwohl sie nicht zwingend gebraucht werden. Ansonsten würde es ja extrem schlecht auf allen anderen Karten laufen.

Was da im Argen ist bei der Fury X kann man nur spekulieren

dargo
2015-07-15, 11:52:11
Das Game verschlinkt Vram und manchmal ist dort die Vramverwaltung selbst bei der 980 besser als Fury.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10700364&postcount=24

COD 11GB Belegung auf Titan X.

https://youtu.be/j0gXoGjTIP4
An Vram kann es nicht liegen. Laut CB werden bloß 2,7GB in 1440p belegt.
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/11/#diagramm-speicherverbrauch-2560-1440

Wobei es schon seltsam ist, dass GDDR5 4GB belegt. :|


Was da im Argen ist bei der Fury X kann man nur spekulieren
Ist ja nicht nur Fury. Im Prinzip trifft das auf die gesamte AMD-Reihe zu.

captain_drink
2015-07-15, 12:35:54
Weiß einer eigentlich warum die Fury X in CoD: AW gegenüber NV so schlecht performt?

Die IW-Engine performt schon seit Jahren auf NV schneller. Bei MW3 oder BLOPS2 fiel das weniger stark auf, da man schneller ins CPU-Limit kam, seit Ghosts ist der Vorsprung jedoch deutlicher.
Zudem ist das Spiel stellenweise recht CPU-intensiv, womit der NV-Treiber eben weniger Probleme hat.

FastAndy
2015-07-15, 12:51:35
Hat schon jemand einen Accelero auf die Karte geschnallt? Oder ist das DIE zu groß?

anddill
2015-07-15, 12:56:16
Deckel ist keine Option?

Deckel geht nicht. Radiator soll hochkant stehen, mit Schläuchen unten. Außerdem mag der Lüfter liegende Montage nicht.

Schaffe89
2015-07-15, 13:17:49
Das Game verschlinkt Vram und manchmal ist dort die Vramverwaltung selbst bei der 980 besser als Fury.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10700364&postcount=24

COD 11GB Belegung auf Titan X.

https://youtu.be/j0gXoGjTIP4

Also am V-ram liegt es ganz sicher, nicht.:rolleyes:
Das wird wohl einfach eine Treibergeschichte sein, oder irgend ne Gameworks Treiberbremse.
So ein großer Leistungsunterschied ist schon heftig, ich hoffe das ist mit Directx12 Geschichte, dann sollte es für AMD auch reichen, ne 980 Ti zu überholen.
Jedenfalls macht alleine das Spiel im Parcours schon rund 2% aus. Die Fury müsste hier schlicht 40% schneller sein.

Sieht auch nicht nach einer CPU Limit schwäche aus.
Dann ansonsten müsste ja die Fury unter 4K deutlicher aufholen, tut sie aber nur im Rahmen der normalen Verbesserungen wegen des Frontends.

dargo
2015-07-15, 13:53:33
Sieht auch nicht nach einer CPU Limit schwäche aus.

Wenn ich die anderen Ergebnisse sowohl bei NV als auch AMD @1080p so betrachte sieht das wirklich auch nicht nach einem starken CPU-Limit aus. :) Ganz minimal ja, das erklärt aber nicht den großen Unterschied bei den fps.

Sweepi
2015-07-15, 14:03:26
-ich war mir eigentlich ziemlich sicher, mich hier schonmal registriert zu haben-

Hi,

wollte hier noch meinen kleinen Erfahrungsbericht anfügen:

Habe am Freitag meine XFX Fury X bekommen.

System:
-3930k
-32GB RAM
-zu viele SSDs
-Gehäuse offen
-vorher eine GTX680 4GB
-Wakü mit CPU/GPU, Chipsatz, MB-Spannungswandler, 1x 360mm + 1x 480mm Radiator.
-Fury X kommt in den Kreislauf, wenn ich mir einen Kühlblock ausgesucht habe.

Monitore:
-Asus MG279Q (muss ich noch einschicken für das fw update...)
-Korea IPS 1440p DVI only, werde mir wohl ein Club 3d CAC-1051 (http://geizhals.de/club-3d-aktiver-displayport-dual-link-dvi-adapter-330mhz-cac-1051-a675897.html) besorgen, die benutzen wir auch @work, nachdem Intel auf die glorreiche Idee kam, ihre IGP nur noch per Single-Link DVI anzuschließen....
-irgendein Acer 1080p crap für mehr Platz

Meine Erfahrungen:
- Pumpe mit halbgeschlossenen Kopfhörer (BT-770) nicht zu hören.
- Geräusch im idle (z.B. mit Lautsprechern) mMn nicht akzeptabel, aber nicht ganz so katastrophal wie z.T. beschrieben (Tinitus/unerträglich) (ich persönlich bin ein KH only Mensch)
- Fury X lässt sich unter Win 8.0 absolut nicht betreiben. Treiberinstallation läuft durch, findet aber keine Karte. AMD Tool erkennt eine AMD Firestream (?!)
- Unter Win 8.1 kein Problem
- Kabel zwischen GPU und Radiator mMn ein wenig kurz

Falls sich irgendjemand noch einen speziellen Test / Benchmark wünscht, einfach Bescheid geben, ich schaue dann was sich machen lässt.

Ex3cut3r
2015-07-15, 14:07:59
ich bin ja doch erstaunt, dass sich so viele eine Fury XT holen, hätte gedacht, dass mehr zur Pro greifen, aber anscheinend geht Leistung gegenüber Lautstärke vor.

akuji13
2015-07-15, 14:11:13
Ich bevorzuge weniger Lautstärke.

Aber ein Pro Argument bei der X ist die kurze PCB Länge für den Einbau in kleine Gehäuse.

Sweepi
2015-07-15, 14:24:54
aber anscheinend geht Leistung gegenüber Lautstärke vor.


Custom Wakü -> letztendlich kein Lautstärke Unterschied zwischen Fury / Fury X
Fury Pro wäre für mich nur interessant gewesen, wenn die Karte sich besser takten lässt als Fury XT. Laut den Tests ist aber das Gegenteil der Fall.

anddill
2015-07-15, 14:39:48
Für Win8.0 gibts nur noch einen älteren Treiber der die neuen Karten nicht unterstützt. Win 8.0 ist tot.

dargo
2015-07-15, 15:15:12
- Fury X lässt sich unter Win 8.0 absolut nicht betreiben. Treiberinstallation läuft durch, findet aber keine Karte. AMD Tool erkennt eine AMD Firestream (?!)
- Unter Win 8.1 kein Problem

Win 8.0 Support wurde schon länger von AMD eingestellt. Macht auch Sinn da das Upgrade zu Win 8.1 kostenlos ist. Wäre einfach Ressourcenverschwendung.

Schnoesel
2015-07-15, 15:22:54
Die EK Water blocks sind jetzt beim Käsekönig lieferbar:

https://www.caseking.de/ek-water-blocks-ek-fc-r9-fury-x-nickel-waek-1099.html?campaign=psm/geizhals

Lendox
2015-07-15, 17:36:25
Weiß irgendjemand, was man tun müsste, um das BIOS einer Fury X zu verändern (Spannung, Taktraten, etc.)?

Kartenlehrling
2015-07-15, 17:50:45
Wirklich Erster Beitrag und Du willst eine 700€ Grafikkarte gleich mal über den Jordan schicken?
Hier sind 133 Seiten, die man wenigsten überfliegen kann.

Hübie
2015-07-15, 18:16:45
Weiß irgendjemand, was man tun müsste, um das BIOS einer Fury X zu verändern (Spannung, Taktraten, etc.)?

Erst mal willkommen hier im Forum. :up:

Es hängt davon ab wie versiert du bist. Meistens sind die Werte in kHz, mV und mW gespeichert und dann auch noch rückwärts in DWORD oder so. Also ich beneide die Leute die entsprechend Geduld und Zeit aufbringen.

Lendox
2015-07-15, 20:19:59
Wirklich Erster Beitrag und Du willst eine 700€ Grafikkarte gleich mal über den Jordan schicken?
Hier sind 133 Seiten, die man wenigsten überfliegen kann.
Erst mal willkommen hier im Forum. :up:

Es hängt davon ab wie versiert du bist. Meistens sind die Werte in kHz, mV und mW gespeichert und dann auch noch rückwärts in DWORD oder so. Also ich beneide die Leute die entsprechend Geduld und Zeit aufbringen.

Ich bin mir der Gefahren bewusst, blah blah blah. 133 Seiten überfliegen - bist du sicher, dass ich dann wirklich etwas über BIOS-Veränderungen finden werde?

Wenn es eine klare Anleitung gibt, und ich nicht im Code stundenlang dastehe ohne genau zu wissen, was ich machen soll, wäre ich für meine zwei Fury X "sehr versiert".

Ja, es ist mein erster Beitrag. Ich habe zwei Fury X, die ich mit Wasserkühlern von Aqua Computer kühlen möchte (sollen in ca. einer Woche geliefert werden). Ich kenne mich mit dem ganzen recht gut aus, es ist zwar mein erster Beitrag hier, aber nicht mein erster überhaupt, haha.

Meine Frage war eben, ob irgendjemand weiß, was zu tun wäre. Die ewige Warterei und das verschenkte Potential meiner Grafikkarten gehen mir nämlich sehr am *rsch. Wenn es nicht anders geht, wäre ich auch bereit, tief zu gehen.
Das neueste, was ich weiß, ist dass Unwinder von MSI Afterburner keine Fury X bekommt und dass Sapphire Strixx wahrscheinlich als erstes eine Erhöhung der Spannung erlauben wird. Das ist zwar grundsätzlich für mich nützlich, aber wenn ich zurückdenke war mir das schon immer zu wenig. Wer viel Geld für eine Wasserkühlung ausgibt, der möchte die Spannung auch um einiges höher einstellen können (angenommen das geht mit der Fury X, es gibt ja leider bei Grafikkarten ein bestimmtes Spannungslimit der Hardware selber).

Flusher
2015-07-15, 22:59:48
Ehrlich? Der Entwickler des Rivatuners und MSI Afterburners bekommt keine Fury X? Das ist doch ausgemachter Blödsinn. MSI wird selber daran Interesse haben die Spannungseinstellungen in den Afterburner einzupflegen. Da wird es sicher nicht daran scheitern, dass es für "Unwinder" keine Fury X gibt.

Edit: Habe den betreffenden Post aus dem Guru3D Forum gefischt

Yes, but not in the nearest few weeks. MSI didn't send the card to me yet.

http://forums.guru3d.com/showpost.php?p=5106990&postcount=44

Von wegen er bekommt keine Fury X.

Screemer
2015-07-15, 23:08:56
Ehrlich? Der Entwickler des Rivatuners und MSI Afterburners bekommt keine Fury X? Das ist doch ausgemachter Blödsinn. MSI wird selber daran Interesse haben die Spannungseinstellungen in den Afterburner einzupflegen. Da wird es sicher nicht daran scheitern, dass es für "Unwinder" keine Fury X gibt.

das gleiche problem hatte unwinder doch schon bei tahiti und hawaii release. er hatte schlicht keine karten und es hat ewig gedauert bis er welche hatte. das ist für mich sowieso ein schlechter witz. leute wie unwinder, orbmuk, ua. sollten am besten schon mit engineering samples ausgestattet werden, damit der mist schon funktioniert, wenn die karten auf den markt kommen. nv schafft das ja auch, nur amd nicht.

Lendox
2015-07-15, 23:27:14
Ehrlich? Der Entwickler des Rivatuners und MSI Afterburners bekommt keine Fury X? Das ist doch ausgemachter Blödsinn. MSI wird selber daran Interesse haben die Spannungseinstellungen in den Afterburner einzupflegen. Da wird es sicher nicht daran scheitern, dass es für "Unwinder" keine Fury X gibt.

Edit: Habe den betreffenden Post aus dem Guru3D Forum gefischt



http://forums.guru3d.com/showpost.php?p=5106990&postcount=44

Von wegen er bekommt keine Fury X.

Ich habe ihm eine private Nachricht geschickt, auf die er nur geantwortet hat, dass das, was er geschrieben hat alles das ist, was er dazu zu sagen hat. Das klingt für mich zwar irgendwie nach einer LMAA-Antwort, oder er hat meine Frage nicht verstanden, aber basierend auf dem was er bisher im Guru3D Forum geschrieben hat, scheint er noch keine Fury X bekommen zu haben.

Deswegen habe ich hier gefragt, ob jemand weiß, wie man dort vom BIOS her herangehen könnte, was mir ja sowieso lieber als ein Programm zum Übertakten/Übervolten wäre.

Dural
2015-07-15, 23:57:10
AMD hat noch nie viel wert auf die übertakter gegeben.

zudem ich mich ernsthaft frage was du genau erwartest, ich nehme nicht an das fiji mit mehr spannung deutlich besser zu takten ist, und falls doch die bandbreite dank festem hbm takt den chip wahrscheinlich ausbremsen wird. wenn du so viel wert aufs übertakten legst, hast du wohl einen ziemlichen fehlkauf getätigt.

gedi
2015-07-16, 00:02:50
Das stimmt so aber nicht - die 7870 (WimbledonXT) von meinem Sohn läuft ohne Spannungserhöhung mit 1.25G
Und die 390xen lassen sich wohl auch ohne Probleme auf über 1.2G prügeln.

von Richthofen
2015-07-16, 00:23:26
(O)Thema CoD:AW und schwache AMD Performance:

Die initialen Benchmarks sahen da weit freundlicher aus.

Beispielsweise hier:

http://gamegpu.ru/action-/-fps-/-tps/call-of-duty-advanced-warfare-test-gpu.html

nV muss da zwischendurch mit einem Treiber massiv nachgelegt haben.
Bei Bioshock isses wohl genau andersrum.

Digidi
2015-07-16, 10:55:18
Ich wäre da vorsichtig ob das nicht wieder so eine Gameworks-Masche wie in Witcher 3 ist wo einfach ohne Qualitätsgewinn total übertesselliert wird.

Nvidia hat 6 Rasterizer verbaut AMD nur 4. Deshalb kann Nvidia 33% mehr Tesselationleistung liefern. Aber es bringt in der Qualität gar nichts wenn die Dreiecke schon kleiner sind als das Pixel welches sie darstellen sollen! Das ist der Trick dem sich Nvidia bedient.

Man sieht es auch schön an Tessmark und dem Direct X11 SDK Test bis x16 Tesselation sind die AMD Karten gleichauf erst bei höheren werten bricht der Wert ein. Aber dort kann man dann kaum noch Bildverbesserungen feststellen.

captain_drink
2015-07-16, 13:09:39
(O)Thema CoD:AW und schwache AMD Performance:

Die initialen Benchmarks sahen da weit freundlicher aus.

Beispielsweise hier:

http://gamegpu.ru/action-/-fps-/-tps/call-of-duty-advanced-warfare-test-gpu.html

nV muss da zwischendurch mit einem Treiber massiv nachgelegt haben.
Bei Bioshock isses wohl genau andersrum.

Was sieht da weit freundlicher aus? Die 980 liegt jeweils weit vor der 290X, auch die 970 liegt selbst in WQHD davor.

B:I lässt sich einfach dadurch erklären, dass damals viel auf Kepler optimiert wurde, mittlerweile aber eben auf Maxwell gebencht wird. Der Vorsprung, den sich NV gg. dem anfänglichen Vorsprung von AMD via Treiber erarbeitet hat, ist damit wieder perdu.

Ich wäre da vorsichtig ob das nicht wieder so eine Gameworks-Masche wie in Witcher 3 ist wo einfach ohne Qualitätsgewinn total übertesselliert wird.

Nvidia hat 6 Rasterizer verbaut AMD nur 4. Deshalb kann Nvidia 33% mehr Tesselationleistung liefern. Aber es bringt in der Qualität gar nichts wenn die Dreiecke schon kleiner sind als das Pixel welches sie darstellen sollen! Das ist der Trick dem sich Nvidia bedient.

Man sieht es auch schön an Tessmark und dem Direct X11 SDK Test bis x16 Tesselation sind die AMD Karten gleichauf erst bei höheren werten bricht der Wert ein. Aber dort kann man dann kaum noch Bildverbesserungen feststellen.

AW ist nicht Teil des GW-Programms und nutzt m.W. auch keine Tessellation; wenn überhaupt, dann in geringem Umfang.

Dass nicht jedes Mal, wenn AMD eine unterdurchschnittliche Performance aufweist, GW/NV schuld und damit indirekt AMD selbst unschuldig ist, kann man erkennen, wenn man sich Benchmarks älterer IW-Titel ansieht:
http://www.pcgameshardware.de/Call-of-Duty-Black-Ops-Spiel-19647/Tests/CoD-7-798662/
http://www.pcgameshardware.de/Call-of-Duty-Black-Ops-2-Spiel-19648/Tests/CoD-Black-Ops-2-im-Test-mit-20-Grafikkarten-1035541/
http://www.pcgameshardware.de/Call-of-Duty-Ghosts-Spiel-19649/Specials/Call-of-Duty-Ghosts-Test-Benchmarks-1095801/

Sofern die CPU nicht limitiert, ist NV immer in Front. Die fairerweise zu erwähnende Ausnahme ist übrigens MW3, da war AMD gleichauf. Ansonsten war die NV-Tendenz bereits vor GW u.ä. Verschwörungstheorien eindeutig erkennbar.

Kartenlehrling
2015-07-16, 13:32:21
Ich kann es nicht reproduzieren da ich dieses Spiel nicht habe,
aber ich glaube es liegt bei COD:AW an ihren Licht und Schattenberechnung das AMD so schlecht bzw. Nvidia so gut abscheindet.

Kann mal einer den DLL ordner als screenshot posten?

http://www.computerbase.de/forum/attachment.php?attachmentid=474932&d=1415465824
Weil wenn ich sehe das eine gtx titan solch einen Schatten wirft ist da mit sicherheit was an der Berechnung falsch.

von Richthofen
2015-07-16, 14:30:06
Was sieht da weit freundlicher aus? Die 980 liegt jeweils weit vor der 290X, auch die 970 liegt selbst in WQHD davor.


Na weil der Vorsprung der 980 von einstmals "nur" 23 % auf aktuell 72 % ggü. der 290X OC angewachsen ist.

Thunder99
2015-07-16, 14:35:26
könnten auch unterschiedliche Settigns/AA Variationen sein das der Abstand so massiv gewachsen ist. Da könnte der Treiberoverhead mal wieder voll zuschlagen

dargo
2015-07-16, 14:39:21
Na weil der Vorsprung der 980 von einstmals "nur" 23 % auf aktuell 72 % ggü. der 290X OC angewachsen ist.
Lol... das ist schon heftig. Oder verwendet CB eine Szene die NV extrem gut schmeckt? Wobei der Unterschied schon groß ist.

@Thunder99
Beides ist max. Details. Und SMAA T2x ist günstig.

@von Richthofen
Sehe jetzt erst beim genaueren Blick, dass es bei CB 51%, keine 72% sind.

Thunder99
2015-07-16, 14:45:03
ok, nur hat der Bench einmal "1600p" 16:10, einmal 1440p 16:9 :D

blaidd
2015-07-16, 15:24:29
Naja, AW ist so eine Sache. Es blendet bei zu wenig Speicher Texturen aus, da reicht es schon bei 4 GiByte-Modellen zusätzliches Supersampling zu nutzen. Ein paar andere Details sind auch ein bisschen seltsam: In Call of Duty: AW sind beispielsweise sogar noch ein Haufen Gameworks-Dlls drin. Z.B. Hairworks. außerdem noch Shadowworks (HBAO+, PCSS), GPU-Physx (z.B. Turbulence), TXAA etc. ;) Das ist wahrscheinlich noch irgendein altes Geraffel aus Ghosts, ob's verwendet bzw. geladen wird oder nicht, kann man nur schwer erkennen. Und Ghosts lief auch nicht gerade toll auf AMD.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52582&stc=1&d=1437052801

Wahrscheinlich steht hier Gameworks nicht im Zusammenhang mit schlechter AMD-Performance, einen sonderlich sauberen und verlässlichen Eindruck macht CoD: AW allerdings auch nicht auf mich.

Raff
2015-07-16, 15:38:36
Apropos: Weiß noch jemand, woher das Zitat "Gute Grafikkarten brauchen keine Wasserkühlung" stammt? (unübersetzte Originalquelle)

MfG,
Raff

aufkrawall
2015-07-16, 15:54:31
außerdem noch Shadowworks (HBAO+, PCSS)
PCSS seh ich da nicht.

Unicous
2015-07-16, 15:55:43
@Raff

Gab es da eine unübersetze Originalquelle (also ein Zitat)? Das kam doch von HWL. Ich glaube es gibt da nur Paraphrasierungen. Er hat wohl auch gesagt, dass die 980 Ti bzw. GM200 so kühl ist und daher keine Wasserkühlung braucht. Ich bin mir ziemlich sicher, dass HWL da mal wieder falsch oder unsauber übersetzt hat um clickbait Artikel generieren zu können(ansonsten hätten sie ja das Originalzitat hinschreiben können).

Hier steht:

The GeForce GTX 980 Ti uses the same Maxwell GPU, known internally as the GM200, as the company's $1,000 Titan X. That means it delivers high performance, but is "quiet and cool" with no need for liquid cooling, Huang joked. (This week rival AMD is expected to introduce a new high-end GPU, most likely the Radeon R9 390X, which will reportedly rely on liquid cooling.)

http://www.zdnet.com/article/computex-2015-nvidia-talks-geforce-gtx-980-ti-android-gaming-and-self-driving-cars/

Kartenlehrling
2015-07-16, 15:56:14
Kann mal einer den DLL ordner als screenshot posten?



Danke @blaidd, haben sich meine vermutunge also bestätigt.

blaidd
2015-07-16, 16:05:57
PCSS seh ich da nicht.

Ja, hast recht. Das wäre die GFSDK_ShadowLib.win64.dll. HBAO+ und PCSS Gehören aber beide zu Shadowworks, das meinte ich ;)
Jedenfalls ist da jede Menge Kram drin, der da eigentlich nicht dabei sein sollte. Ob das mit der AMD-Peformance zu tun hat, ist aber eine ganz andere Sache. Es macht aber generell einen etwas flapsigen Eindruck.

Troyan
2015-07-16, 16:10:41
Das Spiel unterstützt HBAO+.

Raff
2015-07-16, 16:51:58
@Raff

Gab es da eine unübersetze Originalquelle (also ein Zitat)? Das kam doch von HWL. Ich glaube es gibt da nur Paraphrasierungen. Er hat wohl auch gesagt, dass die 980 Ti bzw. GM200 so kühl ist und daher keine Wasserkühlung braucht. Ich bin mir ziemlich sicher, dass HWL da mal wieder falsch oder unsauber übersetzt hat um clickbait Artikel generieren zu können(ansonsten hätten sie ja das Originalzitat hinschreiben können).

Hier steht:

http://www.zdnet.com/article/computex-2015-nvidia-talks-geforce-gtx-980-ti-android-gaming-and-self-driving-cars/

Hmm, schade. Ich dachte, da gab's vielleicht einen Mitschnitt, wo man das Zitat hören kann. Aber danke. :)

MfG,
Raff

Kartenlehrling
2015-07-16, 16:57:34
Und hinter welche DLL verbirgt sich HBAO+ @Troyan?
Vielleicht sind einige sachen für den Multiplay, trotzdem kann man sich fragen wieso sie den "DLL-Abfall!!!" ins Spiel packen wenn er nicht gebraucht wird.
Darum sollte man solche DLL-Blackboxen immer hinterfragen, ein test ohne SSAO sollte auf jedenfall mal gemacht werden.

Troyan
2015-07-16, 17:09:20
Hinter SSAO.

Thunder99
2015-07-16, 17:20:56
in dem Fall kostet aber HBAO+ kaum mehr Leistung weder auf Geforce noch auf AMD HW im Vergleich zum klassischen SSAO. Bei den anderen Sachen läufts wohl auf nvdia besser, da angepasste dlls vorhanden sind? :confused:

captain_drink
2015-07-16, 19:14:07
Bei den anderen Sachen läufts wohl auf nvdia besser, da angepasste dlls vorhanden sind? :confused:

Ich wüsste nicht, wo die in dem Spiel genutzt werden, insofern kann auch niemand Vorteile haben. Vorhanden und im Optionsmenü anwählbar ist lediglich HBAO+.

Dass überflüssiges Material in den Dateien sein kann, ist ja nichts Unübliches. In den Configs vieler UE3-Spiele sind teils auch noch unzählige Befehle vorhanden, die gar nicht mehr funktionsfähig sind.

Kartenlehrling
2015-07-16, 20:06:37
Laut PCGH.de ist Cod:AW nicht wirklich CPU-Limiter, aber anscheinen gibts auffällige Fehler beim Streaming, im Test schreiben sie von gtx980 wo Texturen fehlen oder schlechter präsentiert werden.
Wenn das bei einem Benchmark wo man sowieso nicht auf jede Kleinigkeit achte wegen Termindruck auch passiert, dann sind solche unterschiede wohl reproduzierbar.

Somit müsste Computerbase eigentlich einen Nachtest starten,
da sie aber die Fury schon wieder abgeben mussten sieht es wohl schlecht aus,
obwohl ja eigentlich die Nvidia Karten zuviele FPS anzeigen und nur diese nachgeteste werden müssten.
HBAO+ und Texture-Streaming muss bei COD:AW kontrolliert werden.

Tatsächlich war unser allererster Eindruck eher durchwachsen, das Problem lag aber nicht an den Texturen direkt, sondern am Streaming, das mit unserer anfangs ausgewählten Grafikkarte für Ärger sorgte. Mit einer GTX 980 wollten einige der Pixeltapeten partout nicht die höchste Qualitätsstufe laden, selbst nachdem wir im Optionsmenü mit den Einstellungen für das Caching sowie dem Supersampling herumexperimentiert hatten, um Speicher zu sparen. Einige andere Texturen blendeten beim Näherkommen sichtbar eine höhere Mip-Map-Stufe ein, bei wiederum anderen lud die eigentlich oftmals vorhandene Detailtextur nicht. Beim Wechsel auf eine R9 290X waren die Probleme verschwunden, die Texturen zeigten sich in ihrer vollen Pracht. Ob diese Problematik ein vereinzelter Fehler war oder es generelle Schwierigkeiten beim Streaming gibt, werden wir im Verlauf des Tages zu klären versuchen.

...
Erst bei Zuschaltung von (4x) SSAA sind 3 GiByte ratsam und 4/6 GiByte empfehlenswert, damit das Streaming nicht zwischenzeitlich die höchste Qualitätsstufe unterschlägt.
http://www.pcgameshardware.de/Call-of-Duty-Advanced-Warfare-Spiel-54257/Specials/Test-Technik-1141322/

captain_drink
2015-07-16, 20:13:47
Texturen kosten außer Speicher doch faktisch nichts.
Der Leistungsverlust bei HBAO+ war bei allen bisherigen Implemtneirungen zwischen AMD und NV identisch.

von Richthofen
2015-07-16, 20:15:13
Sehe jetzt erst beim genaueren Blick, dass es bei CB 51%, keine 72% sind.

Also ohne das Obst zu mixen, also OC vs. OC, bleibt's bei leider horrenden 72 %.

Naja, AW ist so eine Sache. Es blendet bei zu wenig Speicher Texturen aus, da reicht es schon bei 4 GiByte-Modellen zusätzliches Supersampling zu nutzen.

Raff hatte zuletzt schon einmal ein ähnliches Verhalten unter AC:U erwähnt.

Weglassen von Bildinformationen aufgrund mangelnden Speichers ist ja leider bisher weitgehend unentdecktes Land.
Nur 4 GB VRAM im High End Bereich (980, Fury) bei gleichzeitigen Preisen von um die 700 € für Letztere sind jedenfalls abseits allen Enthusiasmus kaum vermittelbar.

Kartenlehrling
2015-07-16, 20:33:24
Aber eigentlich sagt es mir nur das Nvidia in Spielereinstellunge eingreift ohne darauf aufmerksam zu machen.
Und wenn soche Test als Beleg rangezogen werden um Furys 4gb HBM schlecht aussehen zu lassen hat es funktioniert, ich nenne es schummeln.

dargo
2015-07-16, 20:50:20
ok, nur hat der Bench einmal "1600p" 16:10, einmal 1440p 16:9 :D
Das dürfte irrelevant sein.

Also ohne das Obst zu mixen, also OC vs. OC, bleibt's bei leider horrenden 72 %.

R9 290X OC heißt bei CB nur, dass Hawaii nicht drosselt und die 1000Mhz gehalten werden. Mit GTX980 OC vergleichst du aber zwei verschiedene Sachen was CB und GameGPU angeht. Beim letzteren beziehen sich die 23% auf eine non OC GTX980.

dargo
2015-07-16, 20:52:11
doppelpost

uweskw
2015-07-16, 21:13:02
Aber eigentlich sagt es mir nur das Nvidia in Spielereinstellunge eingreift ohne darauf aufmerksam zu machen.
Und wenn soche Test als Beleg rangezogen werden um Furys 4gb HBM schlecht aussehen zu lassen hat es funktioniert, ich nenne es schummeln.

schummeln ist noch nett ausgedrückt.
Aber sind halt so cool, dass sie sich halt alles erlauben können.:freak:
Gibt es diesen Trend bei NV auch bei anderen Spielen? Wenn nicht, könnte es ja noch ein Versehen sein.

greetz
US

Thunder99
2015-07-16, 21:16:27
Wenn aber Details reduziert sind durch das komische Streaming kann man den Bench in die Tonne treten. Daher sehe ich es eher als ein Problem/Fehler vom COD an.

aufkrawall
2015-07-16, 21:22:05
So funktioniert Texturstreaming einfach, das kann man in zig Spielen sehen.

captain_drink
2015-07-16, 23:06:23
Wenn aber Details reduziert sind durch das komische Streaming kann man den Bench in die Tonne treten. Daher sehe ich es eher als ein Problem/Fehler vom COD an.

Wie gesagt: Außer Texturen kosten Texturen faktisch nichts, und mehr wird nicht reduziert. Du kannst dir ja bei den Benchmarks 1% bei AMD dazudenken, wenn es das für dich fair macht...

fondness
2015-07-17, 10:06:03
Auch bei einem Rennspiel kein CPU-Limit bei AMD, da scheint sich der neue Catalyst positiv auszuwirken, der erstmals den neuen Branch von Win10 verwendet:
http://www.pcgameshardware.de/F1-2015-Spiel-55277/Specials/F1-2015-Techniktest-und-Benchmarks-1164779/

Schaffe89
2015-07-17, 10:11:06
Ich frage mich wann die Custommodelle der Fury X kommen, die dann schneller sind wie eine Fury X @ Stock.
Das dürfte ja nicht mehr lange dauern.
AMD sollte das auf jeden Fall zulassen, damit man man näher an die OC 980 Ti Karten rankommt.

Optimierungen beim Takt --> 1120mhz, sowie bei der anderen Taktdomäne kann man da ruhig noch draufpacken.
5 bis 10% Merhleistung kann man da immernoch rausquetschen.

Aber schon krass wie PCGH eine massiv übertaktete 980 Ti in den Parcour nimmt.
Die ist fast 25% übertaktet und läuft wohl mit 1300mhz.
Muss sie auch wenn sie 15% vor einer Titan X rangiert, da fehlen ja noch die Shader.

fondness
2015-07-17, 10:20:21
Die kann so stock gekauft werden, von daher geht das schon in Ordnung, auch wenn man immer wieder Berichte ließt, das die Dinger dann doch nicht so stabil sind:
http://www.computerbase.de/2015-07/evga-geforce-gtx-980-ftw-abstuerze-last-bestaetigung/

ilibilly
2015-07-17, 11:03:45
Wird schwer viel schneller custom furys zu bringen,die fury x hat schon ne wakü und bringt teilweise nur 70-100mhz mehr,eine stock 980ti mit wakü hat aber 25-30% Potenzial ,von daher meine ich das fury x schon sogut wie am Limit läuft mit 5%puffer nach oben .
Würde mich wundern wenn wirklich ähnliche Steigerungen Richtung 1300-1400mhz bei fury möglich sind.
Aber vielleicht kommt ja noch die Special souce ,Stichwort OC Monster

dildo4u
2015-07-17, 11:17:11
Ich frage mich wann die Custommodelle der Fury X kommen, die dann schneller sind wie eine Fury X @ Stock.
Das dürfte ja nicht mehr lange dauern.
AMD sollte das auf jeden Fall zulassen, damit man man näher an die OC 980 Ti Karten rankommt.

Optimierungen beim Takt --> 1120mhz, sowie bei der anderen Taktdomäne kann man da ruhig noch draufpacken.
5 bis 10% Merhleistung kann man da immernoch rausquetschen.

Aber schon krass wie PCGH eine massiv übertaktete 980 Ti in den Parcour nimmt.
Die ist fast 25% übertaktet und läuft wohl mit 1300mhz.
Muss sie auch wenn sie 15% vor einer Titan X rangiert, da fehlen ja noch die Shader.
Die EVGA hat nur das Standard Power Limit eine krasse 980 TI wäre die Gigabyte G1 oder AMP Extreme.

http://abload.de/img/980tiamppjkxd.png

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/69824-zotac-gtx-980-ti-amp-extreme-review-17.html

von Richthofen
2015-07-17, 12:25:08
R9 290X OC heißt bei CB nur, dass Hawaii nicht drosselt und die 1000Mhz gehalten werden.

Nein, es wird auch für die "290X OC" ein Durchschnittstakt aller am Markt verfügbaren OC-Modelle verwendet. Dieser beträgt 1030 MHz.

Der von CB kürzlich eingeführte "OC-Karte" -Ansatz soll helfen, die im Markt befindlichen, oftmals höher getakteten Custom-Modelle, realitätsnäher einzuordnen.

http://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/2/

dargo
2015-07-17, 13:01:17
Auch bei einem Rennspiel kein CPU-Limit bei AMD, da scheint sich der neue Catalyst positiv auszuwirken, der erstmals den neuen Branch von Win10 verwendet:
http://www.pcgameshardware.de/F1-2015-Spiel-55277/Specials/F1-2015-Techniktest-und-Benchmarks-1164779/
Na endlich. :cool:

Unter Windows 10 sollte das noch ein Stück besser aussehen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10706040&postcount=1301

Finde es merkwürdig, dass keine Redaktion das genauer untersucht hat bisher. Windows 10 kommt zwar offiziell erst am 29.07, die aktuelle Build 10240 soll aber angeblich der finalen entsprechen. Ich hoffe da kommt also noch was. PCGH? :wave2:

Nein, es wird auch für die "290X OC" ein Durchschnittstakt aller am Markt verfügbaren OC-Modelle verwendet. Dieser beträgt 1030 MHz.

Der von CB kürzlich eingeführte "OC-Karte" -Ansatz soll helfen, die im Markt befindlichen, oftmals höher getakteten Custom-Modelle, realitätsnäher einzuordnen.

http://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/2/
Ah, ok. Dann hatte ich das falsch in Erinnerung. Aber ob jetzt 1000 oder 1030Mhz ist im Prinzip auch egal. Wir wollen doch nicht ernsthaft über 3% mehr GPU-Takt diskutieren oder? :)

dildo4u
2015-07-17, 13:05:30
Wo seht ihr da kein CPU Limit die Fury X ist langsamer als die 980 unter 1080p.

dargo
2015-07-17, 13:18:02
Irgendwas schmeckt der Fury in diesem Spiel eh nicht so besonders gut. Die kann sich selbst in 4k nur um 31% von der 290X absetzen.

fondness
2015-07-17, 13:22:41
Es ist "normal", dass die Fury ihre Leistung erst in hohen Auflösungen ausspielen kann. Daraus würde ich kein CPU-limit konstruieren, zumal auch die min-fps absolut im Rahmen sind.

Kartenlehrling
2015-07-17, 13:26:45
Ich finde ca.85fps bei 720p schon wenig für ein Rennspiel.

dildo4u
2015-07-17, 13:27:30
Was soll dort limitieren wenn nicht der Treiber?Tesselation wird's nicht sein.

So lange keine CPU Last vorhanden ist scheint sie normal zu performen auch in 1080p.

http://abload.de/img/metrofg9nszr.png

dargo
2015-07-17, 13:37:09
Ich finde ca.85fps bei 720p schon wenig für ein Rennspiel.
Da liegen bloß 2,5Ghz bei der CPU an. ;) Wenn die Titan X nicht weiter oben limitiert sollten es mit 4,5Ghz @4C/8T grob 153fps sein.

Es ist "normal", dass die Fury ihre Leistung erst in hohen Auflösungen ausspielen kann. Daraus würde ich kein CPU-limit konstruieren, zumal auch die min-fps absolut im Rahmen sind.
Wie kommst du jetzt auf CPU-Limit? Bei 4k ist man schon lange im vollständigen GPU-Limit den fps nach. Und trotzdem sinds bloß +31% für die Fury X gegenüber 290X. Ich hätte da eher +45-50% erwartet.

fondness
2015-07-17, 13:41:08
Sorry, das bezog sich auf dildo der was von CPU-Limit faselte.

Schaffe89
2015-07-17, 13:44:10
Wo seht ihr da kein CPU Limit die Fury X ist langsamer als die 980 unter 1080p.

Die anderen Karten verhalten sich alle normal und die Fury ist in Full HD schlicht und einfach unterfordert.
Für ein CPU Limit gibts gar keinen Anhaltspunkt.

blaidd
2015-07-17, 13:48:39
Ich finde ca.85fps bei 720p schon wenig für ein Rennspiel.

Das wäre der Wert mit einer Titan X und einem i7-5820K @ 4C/4T und 2,5 GHz. Find ich Performance-technisch eigentlich ganz okay. ;)

Nehmen wir die Benchmarks und 1440p, da macht die Fury X 80 Fps und bei einer sehr gleichmäßigen Bildausgabe, das ist schon nett. Die GTX 980 Ti packt da 90, das ist noch ein bisschen netter und wirkt auch noch einen kleinen Tick flüssiger. Die R9 290X schafft dagegen nur 60 Fps, das ist schon ein Unterschied, der recht deutlich spürbar ausfällt. Knapp 45 Fps in Ultra HD wäre mir etwas zu wenig, aber da ist die Fury X doch auch ganz gut positioniert, die (relativ moderat) übertaktete GTX 980 Ti liegt da keine 10 % vorn, mit Standard-Takt läge sowohl die GTX Titan X als auch die GTX 980 Ti hinter der Fury X.

Für 1080p braucht keiner eine Titan X, GTX 980 Ti oder Fury (X). Maximal, wenn man auf 120/144 Hz bzw. Fps abzielen würde, aber dann käme ständig die CPU in die Quere, so hohe Bildraten bekommt man in kaum einem aktuellen Spiel hin. In F1 könnt's mit etwas reduzierten Details klappen, aber auch da kommt in 1080p zumindest den Geforce-GPUs die zu geringe CPU-Leistung in die Quere, erkennbar beispielsweise an der großen Differenz zwischen min. und avg.-Fps bei diesen Karten, die ansonsten sehr nahe beieinanderliegen.

dargo
2015-07-17, 13:49:36
Sorry, das bezog sich auf dildo der was von CPU-Limit faselte.
Naja... so ganz unrecht hat der ja nicht. Man kann aus den Benches der PCGH nicht genau bestimmen ob AMD im vollständigen CPU-Limit in etwa gleichauf mit NV aktuell liegt. Rein rechnerisch müsste die Titan X mit 4,5Ghz ca. 153fps liefern. Sie liefert aber 119fps in Full-HD (Voraussetzung GPU- und CPU-Benches mit gleicher Szene). Ergo limitiert hier schon die GPU nicht unerheblich. Ist aber für dieses Spiel offenbar egal da eh schon genug fps generiert werden. Und Windows 8.1 Benches sind langweilig. :cool:

Kartenlehrling
2015-07-17, 14:11:59
Das wäre der Wert mit einer Titan X und einem i7-5820K @ 4C/4T und 2,5 GHz. Find ich Performance-technisch eigentlich ganz okay. ;)


weiss nicht wie ich darauf gekommen bin, ...
Ich kann den welchsel auf Win10+DX12 auch kaum noch erwarten,
wir haben 6 Jahre mit einem vermurksten Betriebsystem "gearbeite" und keiner hats gemerkt ... ausser Roy Taylor.

akuji13
2015-07-17, 14:39:20
Für 1080p braucht keiner eine Titan X, GTX 980 Ti oder Fury (X).

Werde ich nächsten Monat so für jemanden verbauen.

Grund: das System wird erst in 5-6 Jahren erneuert und soll bis dahin so brauchbare fps (wie möglich) liefern.
Außerdem will er seine Ruhe haben und nicht irgendwann wieder aufrüsten.

Das hatte ich schon häufiger, obwohl es oft klüger wäre eine kleinere Karte zu nehmen die später getauscht wird.
Aber wer nicht will der hat schon. ;)

phoenix887
2015-07-17, 15:21:32
Außer man will in Full HD einen 144hz Monitor bedienen. Dann kann es schon sinnvoll ein.

Pirx
2015-07-17, 15:22:09
Vor allem wenn nächstes Jahr das nächste Strukturgrößenlevel erreicht wird - ist es jetzt nicht sinnvoll.;)

Raff
2015-07-17, 15:51:28
Da liegen bloß 2,5Ghz bei der CPU an. ;) Wenn die Titan X nicht weiter oben limitiert sollten es mit 4,5Ghz @4C/8T grob 153fps sein.

Ich kann an dieser Stelle versichern, dass die zum Test verwendete TX dank der ungesunden Übertaktung auf 1.500/4.200 MHz – das entspricht fast 40 Prozent über dem "typischen" Boost knapp unter 1.100 MHz – so schnell nicht limitiert.

MfG,
Raff

dargo
2015-07-17, 15:53:20
Vor allem wenn nächstes Jahr das nächste Strukturgrößenlevel erreicht wird - ist es jetzt nicht sinnvoll.;)
Na hoffentlich erlebst du nicht dein blaues Wunder bei 14/16nm was die Preise angeht. :whistle:

Thomas Gräf
2015-07-17, 17:14:20
Na hoffentlich erlebst du nicht dein blaues Wunder bei 14/16nm was die Preise angeht. :whistle:

Und nochwas, Leo in den News vom 16.Juli2014...sorry 2015 ;)
Zitat
"an keinem der aktuellen und noch kommenden 14/16nm-Chips ist irgendetwas bedeutsames nur 14 oder 16 Nanometer groß."
Zitat Ende

Isen
2015-07-17, 17:23:48
Kostet trotzdem mehr Geld als 28nm :)

Dr.Doom
2015-07-17, 17:24:38
Na hoffentlich erlebst du nicht dein blaues Wunder bei 14/16nm was die Preise angeht. :whistle:Man müsste die Leuts nur dazu bringen, den Kram nicht zu kaufen für diese Preise. *schnell 980 non_ti aus Sys-Profil lösch* :freak:

ilibilly
2015-07-17, 17:46:52
Hmm könnte ja evtl günstiger sein wenn man in 14nm nur noch einen mInichip entwickelt ,sagen wir mit 2000shader und dan einfach mehrere Chips auf den interposer klatscht zB so
1xchip 2000shader,200€ 2gb
2x. 4000 shader 350€ 4gb
3x 6000 shader 499€ 6gb
4x 8000 shader topdog 8gb 699€
Quasi wie ein baukastensystem,keine Ahnung ob das dann in de Praxis umsetzbar ist :)
Wäre eigentlich multigpu aber evtl ansprechbar wie eine singlegpu auf einem interposer

Distroia
2015-07-17, 18:26:19
Hmm könnte ja evtl günstiger sein wenn man in 14nm nur noch einen mInichip entwickelt ,sagen wir mit 2000shader und dan einfach mehrere Chips auf den interposer klatscht zB so
1xchip 2000shader,200€ 2gb
2x. 4000 shader 350€ 4gb
3x 6000 shader 499€ 6gb
4x 8000 shader topdog 8gb 699€
Quasi wie ein baukastensystem,keine Ahnung ob das dann in de Praxis umsetzbar ist :)
Wäre eigentlich multigpu aber evtl ansprechbar wie eine singlegpu auf einem interposer

Auf so etwas in der Richtung wird es wohl hinauslaufen, wenn in 14 nm die Kosten für ein einziges Tape-out bei mehreren 100 Millionen liegen...

dargo
2015-07-17, 18:52:00
Und wer soll diesen AFR-Quatsch dann kaufen? Die 0,001% die sich jetzt dafür interessieren?

aufkrawall
2015-07-17, 18:55:02
Und wer soll diesen AFR-Quatsch dann kaufen? Die 0,001% die sich jetzt dafür interessieren?
Immer das Gleiche: Erst hyped man den AFR-Schrott, um ihn dann später wieder zu zerreißen.
Neuland halt.

fondness
2015-07-17, 18:59:39
Es ist schade, das mittlerweile niemand mehr AFR haben will, AMD investiert da viele Ressourcen rein um bei den Enthusiasten anzukommen. Nicht umsonst zeigen Tests immer wieder, dass Crossfire besser läuft als SLI:

But what about that direct AMD and NVIDIA comparisons? Despite what we might have expected going in, the AMD Radeon R9 Fury X actually scaled in CrossFire better than the NVIDIA GeForce GTX 980 Ti. This comes not only in terms of average frame rate increases, but also in lower frame time variances that result in a smoother gaming experience. In several cases the extra scalability demonstrated by the Fury X allowed its dual-GPU performance to surpass a pair of GTX 980 Ti cards even though in a single GPU configuration the GeForce card was the winner. GRID 2 at 4K is one example of this result as is Bioshock Infinite at 4K. And even in a game like Crysis 3 at 4K where we saw NVIDIA's card scale by a fantastic 84%, AMD's Fury X card scaled by 95%!

http://www.pcper.com/reviews/Graphics-Cards/AMD-Fury-X-vs-NVIDIA-GTX-980-Ti-2-and-3-Way-Multi-GPU-Performance/Power-Consu

aufkrawall
2015-07-17, 19:00:30
Erzähl das doch Blaire.
AFR suckt, Ende.

dargo
2015-07-17, 19:07:51
Es ist schade, das mittlerweile niemand mehr AFR haben will, AMD investiert da viele Ressourcen rein um bei den Enthusiasten anzukommen. Nicht umsonst zeigen Tests immer wieder, dass Crossfire besser läuft als SLI:

AFR ist leider mit vielen Problemen verbunden. Da ist es quasi egal wo es besser läuft. Das größte Problem für mich persönlich (selbst wenn Frametimes in Ordnung wären) ist bsw. die Tatsache, dass AFR in quasi allen Spielen mit temporalem Post-AA entweder erst gar nicht funktioniert. Oder wo es angeboten wird fehlerhaft. Gerade das sehe ich als ein riesen Problem an. Denn SLI/CF kauft man sich quasi für hohe Auflösungen wie zb. 4k. Und dort reicht T-AA vollkommen aus.

aufkrawall
2015-07-17, 19:17:33
Du holst dir tausend neue Probleme für eine fragwürdige Mehrleistung ins Haus.
Prinzipbedingt. Ob SLI oder CFX draufsteht, ist wumpe.
Wahrscheinlich hatte fondness auch noch nie CFX im Einsatz und lobt es hier trotzdem über den Klee. Einfach, weil es von AMD ist...

fondness
2015-07-17, 19:55:49
Wahrscheinlich hatte fondness auch noch nie CFX im Einsatz und lobt es hier trotzdem über den Klee. Einfach, weil es von AMD ist...

Ich verlinke hier unabhängige Tests, während du nichts anders machst als blöd gegen mich zu trollen.

aufkrawall
2015-07-17, 20:00:48
Entwickler hassen AFR. nuff said.

Thomas Gräf
2015-07-17, 20:35:10
Ja stimmt wohl, aber trotzdem muß iwie multi GPU kommen, bei Valve möchten sie eine GPU pro Auge was VR betrifft. Grund ist geringere Latenz, und bei VR und Latenz hört ja der Spass bekanntlich auf.
Der Vortrag is im Rift Fred verlinkt.

samm
2015-07-17, 21:16:58
Nicht nur Valve. Auf das fb Rift profitiert davon, sofern was Gescheites aus LiquidVR und VR-SLi (wie heisst das noch mittlerweile?) wird.

Loeschzwerg
2015-07-17, 21:27:58
Ja, nur wird das in nächster Zeit ebenfalls ein Nischenmarkt bleiben. Also müsste es eine andere Technik retten. Aktuelles AFR ist leider nicht der Hit... mir haben da meine EVGA 2WIN Ausflüge gereicht. Tolle HW und Sammlerstücke, aber das Spielerlebnis... naja.

Evtl. geht was unter DX12 und Vulkan, aber da habe ich gerade nicht den Überblick.

StefanV
2015-07-17, 21:44:18
Das alles ändert aber mal überhaupt nichts an dem Zustand, dass man gerade volle Kanne gegen die Wand rennt und man nur noch mehrere Chips kombinieren kann...

Und gerade mit HBM hat man sehr viel Platz gewonnen...

samm
2015-07-17, 21:48:05
Evtl. geht was unter DX12 und Vulkan, aber da habe ich gerade nicht den Überblick.Nicht automatisch. Müssen die Engine-Entwickler sauber vorsehen. Vermutlich ist das zwar einfacher, als das Feature IGP Archtektur 1 mit dGPU Architektur 2 kombinieren zu können, aber dennoch muss bestimmt viel Hand angelegt werden.

Thunder99
2015-07-18, 01:26:27
Obwohl man es nicht direkt vergleichen kann aber denkt mal an 3dfx ;). Sollte nun wohl heute im Prinzip gehen, oder?

dargo
2015-07-18, 07:19:33
Obwohl man es nicht direkt vergleichen kann aber denkt mal an 3dfx ;).
Gerade weil man es zu Zeiten von 3dfx nicht vergleichen kann macht es keinen Sinn nur einen Gedanken daran zu verschwenden.

Kartenlehrling
2015-07-18, 10:56:42
Problem ist einfach das "split-frame rendering" nicht einfach rückwirkend ohne eingriff der Spieleentwickler funktioniert.
Und selbst bei neuen Spielen muss es warscheinlich entwickelt werden, und dafür haben sie keine Leute und Zeit ... wie immer.

Das AMD und SQUARE ENIX es nichtmal geschaft hat der Tomb Raider 2013 PC-version tressFX2.x oder gar 3.0 nachzureichen finde ich lächerlich.

Thunder99
2015-07-18, 11:09:42
Wieso sollten sie auch TressFX 2.0/3.0 für das "alte" Spiel implementieren? Der Zug ist abgefahren das sie damit noch Geld verdienen. Außerdem langt in dem Setup auch 1.0 :)

horn 12
2015-07-18, 16:26:10
http://wccftech.com/amd-confirms-taping-finfet-chips/

Lohnt sich wohl echt auf diesen Prozess zu warten,
Fury X und 40% sind wohl mindestens drinn, sprich dann wäre 4K wohl endlich tragbar mit 50 bis 60 fps @Maximal Settings.

Digidi
2015-07-18, 16:39:26
Ich glaube das der Gewinn von 14nm in grenzen halten wird. Da treten kleine 14nm Dies gegen große 28nm Dies an. Da wird sich vielleicht was um die 10-20% bewegen.

Isen
2015-07-18, 16:53:03
Eigentlich völlig egal.
Merkt das keiner? - es wird jetzt schon mit Zahlen um sich geworfen, Presse haut ein Gerücht nach dem anderen raus, fertig ist der Hypertrain.... es wird echt langweilig....

Elite_Warrior
2015-07-18, 16:55:13
Da AMD irgendwas von 2x Perf/Watt bei der nächsten Graka Generation angekündigt hat, wäre eine neue GPU mit 225 Watt TDP doch genau bei diesen 50% gegenüber den alten 28nm, 300Watt Karten. Jetzt mal Milchmädchenhaft ausgedrückt.
Wobei die Frage nun lautet ob sich die 2x Perf/Watt auf Hawaii oder Fiji beziehen. Finde diese Aussage leider nicht mehr.

Isen
2015-07-18, 17:12:59
Die bezieht sich auf die 290x - exakt ausgedrückt sogar Signifikant - so lautete die Aussage jedenfalls.

Kartenlehrling
2015-07-18, 17:14:18
Stand doch in der Fussnote .... bezogen auf einer R9290X.

compared to Radeon R9 290x

Screemer
2015-07-18, 18:48:04
Da AMD irgendwas von 2x Perf/Watt bei der nächsten Graka Generation angekündigt hat, wäre eine neue GPU mit 225 Watt TDP doch genau bei diesen 50% gegenüber den alten 28nm, 300Watt Karten. Jetzt mal Milchmädchenhaft ausgedrückt.
Wobei die Frage nun lautet ob sich die 2x Perf/Watt auf Hawaii oder Fiji beziehen. Finde diese Aussage leider nicht mehr.
Das war bezogen auf die nano und die Vorgängergeneration, wenn ich mich recht erinnere.

gedi
2015-07-19, 23:20:05
Wie sieht es mit den VSR-Optionen ausgehend von einem FHD-Monitor bei der FuryX aus? Sind ohne Gefrickel 1440p, 1620p 1800p und UHD ohne Weiteres machbar?

Frosty
2015-07-19, 23:22:04
Wie sieht es mit den VSR-Optionen ausgehend von einem FHD-Monitor bei der FuryX aus? Sind ohne Gefrickel 1440p, 1620p 1800p und UHD ohne Weiteres machbar?


1620p sind bislang nicht möglich, soweit ich weiss. 1440p, 1800p und uhd sind bisher drin. ist das gleiche wie bei meiner r9 380, ist ja genau wie fury (x) gcn 1.2.

Kartenlehrling
2015-07-19, 23:23:05
in der letzten Treiber Notiz war doch eine Tabelle.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10670855&postcount=408

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564951
VSR / Zusätzliche Auflösungen

gedi
2015-07-19, 23:24:00
Dann sieht es diesbezüglich doch nicht so düster aus, wie ich dachte. Danke für die Info ;)

@Kartenlehrling

Ich habe derzeit keine AMD verbaut, von daher wusste ich noch nicht einmal, dass so eine Notiz existiert.

Frosty
2015-07-19, 23:29:56
meiner meinung nach ist aber grade die tatsache, dass es bisher nicht möglich ist ohne bastelei 1620p einzustellen, ein großer nachteil gegenüber ähnlich schnellen gm204-gpu's weil ultra hd in den meisten neueren grafisch aufwendigen spielen zb mit einer gtx 980 meist nicht spielbar ist, 1620p aber durchaus, wenn man antialiasing reduziert oder weglässt. deswegen kommt fury pro bzw. fury nano auch wahrscheinlich nicht für mich infrage, zusätzlich sind mir die karten zu teuer (ordentliche gtx 980 gibts für ~480-500), aktuell zu schlecht verfügbar und sapphire werd ich erstmal nicht mehr verbauen.

Armaq
2015-07-19, 23:38:57
meiner meinung nach ist aber grade die tatsache, dass es bisher nicht möglich ist ohne bastelei 1620p einzustellen, ein großer nachteil gegenüber ähnlich schnellen gm204-gpu's weil ultra hd in den meisten neueren grafisch aufwendigen spielen zb mit einer gtx 980 meist nicht spielbar ist, 1620p aber durchaus, wenn man antialiasing reduziert oder weglässt. deswegen kommt fury pro bzw. fury nano auch wahrscheinlich nicht für mich infrage, zusätzlich sind mir die karten zu teuer (ordentliche gtx 980 gibts für ~480-500), aktuell zu schlecht verfügbar und sapphire werd ich erstmal nicht mehr verbauen.
Sapphire ist doch sowas wie der Gipfel der Karten? Ich immer bunt von Nvidia zu AMD gewechselt, seit der VaporX 290 bin ich mehr oder minder Sapphire Jünger.

Frosty
2015-07-19, 23:42:33
Sapphire ist doch sowas wie der Gipfel der Karten? Ich immer bunt von Nvidia zu AMD gewechselt, seit der VaporX 290 bin ich mehr oder minder Sapphire Jünger.


die erste sapphire die ich nach fast 10 jahren hatte (nitro r9 380 4gb) hat nach 1 woche betrieb angefangen rumzuspinnen, lüftersteuerung fehlerhaft programmiert oder lüfter kaputt, bei anderen herstellern ist mir dergleichen noch nie untergekommen.

gedi
2015-07-20, 00:03:52
meiner meinung nach ist aber grade die tatsache, dass es bisher nicht möglich ist ohne bastelei 1620p einzustellen, ein großer nachteil gegenüber ähnlich schnellen gm204-gpu's weil ultra hd in den meisten neueren grafisch aufwendigen spielen zb mit einer gtx 980 meist nicht spielbar ist, 1620p aber durchaus, wenn man antialiasing reduziert oder weglässt. deswegen kommt fury pro bzw. fury nano auch wahrscheinlich nicht für mich infrage, zusätzlich sind mir die karten zu teuer (ordentliche gtx 980 gibts für ~480-500), aktuell zu schlecht verfügbar und sapphire werd ich erstmal nicht mehr verbauen.

Ich denke, dass FuryX in der Lage sein sollte 1800p in manchen Situationen zu stemmen. Generell sollten 1440p möglich sein und hier sollte es auch keine Probleme bez. der Performance geben. Eine Karte, welche durchweg UHD stemmt gibt es derzeit sowieso nicht. Naja - ich warte WinX und neue Treiber ab und entscheide dann. Wenn es allerdings die Tage genauso warm bleibt, dann baue ich meine 980ti um und somit ist ein Wechsel zu FuryX eh obsolet.

Frosty
2015-07-20, 00:10:46
Ich denke, dass FuryX in der Lage sein sollte 1800p in manchen Situationen zu stemmen. Generell sollten 1440p möglich sein und hier sollte es auch keine Probleme bez. der Performance geben. Eine Karte, welche durchweg UHD stemmt gibt es derzeit sowieso nicht. Naja - ich warte WinX und neue Treiber ab und entscheide dann. Wenn es allerdings die Tage genauso warm bleibt, dann baue ich meine 980ti um und somit ist ein Wechsel zu FuryX eh obsolet.


würd mir auch gerne eine 980ti leisten, hab aber nur einen fhd bildschirm (und das geld nicht dafür), außerdem reicht mir eine 980 non-ti absolut aus weil ich eh weiss das selbst die ti in den neuesten spielen nicht schnell genug für uhd ist, genau wie fury x. wqhd mit etwas aa und 16x hq af wäre was nettes:) wird wahrscheinlich die jetstream 980

gedi
2015-07-20, 00:27:48
Was spricht gegen eine Fury non X? Ah, der Preis wahrscheinlich :redface:

Frosty
2015-07-20, 00:33:55
Was spricht gegen eine Fury non X? Ah, der Preis wahrscheinlich :redface:

ja ist zu teuer:mad: ich würd gerne amd weiter unterstützen, aber ich kann die palit jetstream 980 für 480-500€ kriegen und mehr kann und will ich auch nicht ausgeben, und für die fury non x gibt es auch aktuell kein gutes design zb von msi mit dual-lüfter, ich will keine monströse triple lüfter karte verbauen mein gehäuse lässt das gar nicht zu:)

KingBert
2015-07-20, 10:58:04
Es ist schade, das mittlerweile niemand mehr AFR haben will, AMD investiert da viele Ressourcen rein um bei den Enthusiasten anzukommen. Nicht umsonst zeigen Tests immer wieder, dass Crossfire besser läuft als SLI:
Naja, "besser" heißt hier wohl maximal längere Balken:


http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/BF43Way_2560x1440_PLOT_0_0.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/Bioshock_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/Crysis33Way_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/GRID23Way_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/MetroLL3Way_2560x1440_PLOT.png

Die Fury spikt immer häufiger und stärker, als die GTX. Das Prinzip hat AMD immer noch nicht gefixt, nur längere Balken.

Und GTA ist eh der Hammer :freak:
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/GTAV_3840x2160_PLOT.png

M4xw0lf
2015-07-20, 11:01:09
Naja, "besser" heißt hier wohl maximal längere Balken:


http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/BF43Way_2560x1440_PLOT_0_0.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/Bioshock_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/Crysis33Way_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/GRID23Way_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/MetroLL3Way_2560x1440_PLOT.png

Die Fury spikt immer häufiger und stärker, als die GTX. Das Prinzip hat AMD immer noch nicht gefixt, nur längere Balken.

Und GTA ist eh der Hammer :freak:
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/GTAV_3840x2160_PLOT.png
BS. GTA ist der einzige deutliche Ausreißer, ansonsten sehe ich keine nennenswerten unterschiede zwischen 980TI-SLI und Fury-CF.

fondness
2015-07-20, 11:04:11
Naja, "besser" heißt hier wohl maximal längere Balken:


http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/BF43Way_2560x1440_PLOT_0_0.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/Bioshock_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/Crysis33Way_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/GRID23Way_3840x2160_PLOT.png
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/MetroLL3Way_2560x1440_PLOT.png

Die Fury spikt immer häufiger und stärker, als die GTX. Das Prinzip hat AMD immer noch nicht gefixt, nur längere Balken.

Und GTA ist eh der Hammer :freak:
http://www.pcper.com/files/imagecache/article_max_width/review/2015-07-09/GTAV_3840x2160_PLOT.png

Sorry, aber ich kann Leute nicht ernst nehmen, die cherry picking betreiben und damit etwas behaupten wollen das ganz offensichtlich dem Artikel widerspricht:

But what about that direct AMD and NVIDIA comparisons? Despite what we might have expected going in, the AMD Radeon R9 Fury X actually scaled in CrossFire better than the NVIDIA GeForce GTX 980 Ti. This comes not only in terms of average frame rate increases, but also in lower frame time variances that result in a smoother gaming experience. In several cases the extra scalability demonstrated by the Fury X allowed its dual-GPU performance to surpass a pair of GTX 980 Ti cards even though in a single GPU configuration the GeForce card was the winner. GRID 2 at 4K is one example of this result as is Bioshock Infinite at 4K. And even in a game like Crysis 3 at 4K where we saw NVIDIA's card scale by a fantastic 84%, AMD's Fury X card scaled by 95%!

Ausnahmen gibt es zweifellos immer.

KingBert
2015-07-20, 11:09:09
Sorry, aber ich kann Leute nicht ernst nehmen, die cherry picking betreiben und damit etwas behaupten wollen das ganz offensichtlich dem Artikel widerspricht:

Ausnahmen gibt es zweifellos immer.
Unfug, habe da alle Spiele, die getestet wurden, verlinkt. Was hat das mit Cherry Picking zu tun? Du hast den Test verlinkt.

Abgesehen von ein paar Battlefield und Bioshock-Ergebnissen sind die Fury Karten im Graphen "Frame Variance" grundsätzlich vor der NV-Karte. Warum man dann auf das Fazit kommt? Keine Ahnung. Daher lese ich eben ungern Fazite, sondern schaue mir lieber die Daten an. Und die sprechen eine sehr eindeutige Sprache.

Und selbst wenn die GTX in "nur" 50 der Fällen besser wäre, widerspräche das deiner Behauptung bezüglich CFX wäre besser als SLI. Ein Beleg ist der von dir zitierte Test auf jeden Fall nicht, der belegt das Gegenteil.