PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14

Ex3cut3r
2015-06-26, 20:18:43
Ich finde der Name passt doch, eine Furie die nur Schreit. ;D

Armaq
2015-06-26, 20:23:13
Hm, wo sind die Themen:

Idle Verbrauch, neuartiger Speicher, Größe und damit "Verbaubarkeit"

Ich überlege, ob ich Sie mir kaufe, einfach weil es mal was wirklich Neues ist.

Wie kommt golem.de auf dieses Fazit:

Die Geschwindigkeit von AMDs neuer Radeon-Karte ist in der hohen Ultra-HD-Auflösung (3.840 x 2.160 Pixel) Nvidias Geforce GTX Titan X durchweg überlegen: Egal ob Assassin's Creed Unity, Dragon Inquisition, Grand Theft Auto 5, Ryse oder The Witcher 3 - die Fury X rendert immer ein paar Bilder pro Sekunde mehr.

So deutlich ist keine andere Seite.

(del)
2015-06-26, 20:24:41
Es hat also seine Gründe warum du bei THG sitzt statt bei AMDs Controlling (was ich durchaus nicht negativ meine ;);))

Ich würde es auch gar nicht wollen. Das meine ich im Ernst. :)

Nur ist es eben so, dass ich hier im Labor auch andere Dinge mache, als allein für TH Artikel zu schreiben. Glaubst Du wirklich, für eine Redaktion allein würde sich das ganze Equipment rentierten? Aber diese Dinge gehen außer dem Finanzamt keinen was an. Du darfst aber sicher sein, dass ich die Preise kenne. ;)

Schaffe89
2015-06-26, 20:24:45
Eine billige AIO kostet im Zukauf keine 40 Dollar, ein guter Luftkühler mit Frame und Backplate teilweise sogar mehr. Wir reden da über Unterschiede von maximal 10-20 Dollar im EK. Die Karte hätte man zwischen 970 und 980 platzieren sollen, um im 400-500 Euro Segment mitspielen zu können. Je nach Gusto weiter oben oder nicht. Die Fanbase hätte schon zugeschlagen :)


Sry, aber ich hab noch nie so einen Unsinn gelesen, man platziere eine 600mm² Karte untertaktet gegen diese Karten, wie will man da preislich mitgehen?
Und das was du forderst kommt eh mit der Nano ( wo man dann auch mehr Geld nehmen kann), also ich sehe hier argumentativ nur ne ganz schwache Substanz.
Der Launch ist in Ordnung bis auf das leichte Fiepen, kommt mal wieder runter.
Die Karte wird ja nurnoch kaputtgeredet.:(

(del)
2015-06-26, 20:26:24
Sry, aber ich hab noch nie so einen Unsinn gelesen.
Der Launch ist in Ordnung bis auf das leichte Fiepen, kommt mal wieder runter.
Die Karte wird ja nurnoch kaputtgeredet.:(

Die Karte ist an sich nicht schlecht, wie oft denn nun noch? Nur Aufmachung, Präsentation und Interpretation sind leicht daneben gegangen :)

Ich schrieb nur, dass ich eher mit dem Level der Pro angefangen hätte, um Kohle und Erfahrung zu sammeln. Gleich unter Einbindung der Boardpartner. Die Pro sind genauso lange fertig und es wäre ein Leichtes gewesen, den Launch umzudrehen. Mehr sage ich jetzt erst mal nicht, lass Dich überraschen ;)

Schaffe89
2015-06-26, 20:34:07
Ok, mhm.. was ist denn jetzt eigentlich mit dem Lanchtreiber, war das nun der richtige oder der falsche?

(del)
2015-06-26, 20:35:24
Der richtige :)

Hübie
2015-06-26, 20:43:40
Ich würde es auch gar nicht wollen. Das meine ich im Ernst. :)

Nur ist es eben so, dass ich hier im Labor auch andere Dinge mache, als allein für TH Artikel zu schreiben. Glaubst Du wirklich, für eine Redaktion allein würde sich das ganze Equipment rentierten? Aber diese Dinge gehen außer dem Finanzamt keinen was an. Du darfst aber sicher sein, dass ich die Preise kenne. ;)

Glauben kann man in der Kirche. Und was du sonst mit allem Equipment machst geht mich nichts an bzw. interessiert mich nicht mal.
Bei der Pro ists nun wieder entscheiden ob die ein cut down is oder full fat. Wie gesagt räume ich AMD da in der Situation nicht viel Spielraum ein.

Was gar nicht geht ist Reviewpolitik die Transparenz missen lässt und Argwohn schürt sowie Ignoranz jeglicher Kritik, wie halt mit der Pumpe. Damals hatte Peter ärger mit nV was - zum Glück - die Kontakte zu AIB einigermaßen gut kompensieren konnten. Einen faden Beigeschmack hatte Peter dennoch im Mund (was jedoch nicht seine Testergebnisse beeinflußte).
Dass es dir gerade ähnlich geht kann ich sehr gut nachvollziehen und ich bin mir sicher, dass ein alter Hase wie du da ebenfalls keine Einflüsse in die Ergebnisse fließen lässt um ein Produkt herabzusetzen.

Zur Problematik mit der Pumpe:
Hat denn jemand das Fiepen eindämmen / eleminieren können? Schaumstoff sollte da kaum ausreichend sein (auf lange Sicht wohl eh nicht). Wird die Pumpe gepulst (PWM)?

fondness
2015-06-26, 20:48:09
Ein paar nette Zahlenspiele von Timothy Lottes:


AMD Fury X (aka Fiji) is a Beast of a GPU Compute Platform

Compute Raw Specs:
Raw specs from wikipedia adjusted to per millisecond: comparing what the two vendors built around 600 mm^2 on 28 nm,

AMD FURY X: 8.6 GFlop/ms, 0.5 GB/ms, 0.27 GTex/ms
NV TITAN X: 6.1 GFlop/ms, 0.3 GB/ms, 0.19 GTex/ms

Or the same numbers in operations per pixel at 1920x1080 at 60 Hz,

AMD FURY X: 69 KFlop/pix, 4.0 KB/pix, 2.2 KTex/pix
NV TITAN X: 49 KFlop/pix, 2.4 KB/pix, 1.5 KTex/pix

Think about what is possible with 69 thousand flops per pixel per frame.

HBM
HBM definitely represents the future of bandwidth scaling for GPUs: a change which brings the memory clocks down and bus width up (512 bytes wide on Fury X vs 48 bytes wide on Titan X). This will have side effects on ideal algorithm design: ideal access granularity gets larger. Things like random access global atomics and random access 16-byte vector load/store operations become much less interesting (bad idea before, worse idea now). Working in LDS with shared atomics, staying in cache, etc, becomes more rewarding.

http://timothylottes.blogspot.co.at/

(del)
2015-06-26, 20:52:16
Glauben kann man in der Kirche. Und was du sonst mit allem Equipment machst geht mich nichts an bzw. interessiert mich nicht mal.

Muss es auch nicht. Aber es eröffnet im Gesamtumfang doch sehr viele Möglichkeiten, um auch mal hinter die Kulissen zu sehen, wo der normale Reviewer gar nicht erst reinkommt oder an bestimmten Dingen Anteil zu nehmen, die man dann ausnahmsweise (und aus Anstand) mal nicht testet. Man kann ein Produkt und die Umstände am besten verstehen, wenn man auch Entwicklung und Produktion kennt. Und Neugier ist immer noch die beste Motivation. dann schwitze ich mir in Asien auch mal ein paar Wochen den Allerwertesten blutig :)

Ich betrachte die Karte absolut emotionslos und habe sie mir mangels AMD Support sogar selbst noch einmal bestellt. Nicht, weil ich sie zum Zocken bräuchte, sondern weil es mich einfach interessiert. :)

fondness
2015-06-26, 20:54:26
Was IMO auch völlig unterging, die Videoeinheiten der Fury sind denen von GM200 überlegen:

Unter Full HD ist die Geschwindigkeit beim Abspielen beeindruckend. Keine andere Grafikkarte ist schneller. Beim Decodieren ohne Ausgabe liegt die AMD-Karte dann bei H.264 mit Nvidia Maxwell und bei H.265 mit dem GM206 der GeForce GTX 960 gleich auf.

Auch in der Ultra-HD-Auflösung ist die Radeon R9 Fury X schnell, kommt aber nicht mehr an die sehr guten Ergebnisse der kleineren Auflösung heran. So ist die Karte im Schnitt langsamer als die GeForce GTX 960, vor allem bei H.265-Videos den anderen Maxwell-Modellen aber immer noch überlegen.

Dabei ist auch die Energieeffizienz nicht schlecht. So benötigt das Testsystem mit der Fiji-Karte beim H.265-Codes weniger Energie als die Nvidia-Karten, von der GeForce GTX 960 einmal abgesehen. Schlussendlich ist die Radeon R9 Fury X damit nach der GeForce GTX 960 die zweitbeste Grafikkarte in puncto Video-Wiedergabe.

http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/8/#diagramm-videos-abspielen-h264-lav-filters

cobra38
2015-06-26, 20:58:51
Leider bringt der Schaumstoff zwischen Pumpengehäuse und Frontplatte für mich keine merkliche Besserung.
Ich finde die Karte wirklich gelungen und die Pumpe ist wirklich nicht laut.
Das Problem ist nur, dass anscheinend die Frequenz in einem Bereich liegt den viele Leute als sehr störend empfindet. Mich stört es auf jedenfalls im Idle Betrieb.
Daher werde ich wohl oder übel auf die luftgekühlte Version warten.

@Format_C
Lohnt sich das Warten auf die Pro?

Raff
2015-06-26, 21:00:37
Ein paar nette Zahlenspiele von Timothy Lottes:

http://timothylottes.blogspot.co.at/

Arbeitet der Gute eigentlich noch bei Nvidia? Ich warte seit Jahren auf FXAA 4.0. :ulol:

Recht hat er, in Sachen Roh-Spec pro Flächeneinheit ist Fiji ein Kracher. Zu dumm, dass das beim Spielen nicht hilft.

@Format_C
Lohnt sich das Warten auf die Pro?

Das zeigt sich erst in drei Wochen. Die wird's wenigstens in verschiedenen Geschmacksrichtungen geben.

MfG,
Raff

Menace
2015-06-26, 21:00:48
Gleich unter Einbindung der Boardpartner. Die Pro sind genauso lange fertig und es wäre ein Leichtes gewesen, den Launch umzudrehen. Mehr sage ich jetzt erst mal nicht, lass Dich überraschen ;)

Hört sich doch einmal sehr gut an. Aber kann das nicht Absicht sein:

1. Fury X: Nicht schlecht, aber leider blöde WaPu.
2. Fury: Bessere Test, da unterschiedl. Custom Designs. Sapphire wird schon etwas bringen.
3. Nano: Beste Tests. Fury X ist schon wieder vergessen?

Bzgl. nicht nach der Krone schielen. Das kannst Du machen, wenn man ein aufgeklärtes Publikum hat, die eben nicht den längsten Balken benötigen. Aber ich fürchte, die kaufen sowieso selten bei den hochpreisigen Geräten und machen auch in den Foren nicht halbwegs so viel Lärm. Gerade bei den GraKas sind halt Jungs am Werke die weniger rationell das sehen, dafür aber viel mehr "Stimmung" machen. Die möchte AMD halt auch mitnehmen und könnte durch deren "Mundpropaganda" dafür sorgen, dass AMD nicht nur negativ betrachtet wird. Ich glaube, dass ist auch der Grund dass allein Mindfactory in den ersten Tagen > 90 Fury Karten verkauft hat (falls ich richtig mitgezählt habe).

dargo
2015-06-26, 21:01:30
Ich würde davon ausgehen, dass die average Board Power der Pro gleich hoch oder höher ist als bei der XT.
Nicht unbedingt wenn man die Power stärker limitiert.

Das mit dem Fiepen der Pumpe ist ja mal echt ärgerlich. Sowas darf einfach nicht passieren. Ich hoffe die kriegen das mit der nächsten Charge in den Griff. Ansonsten hat sich der ganze Aufwand mit der AiO nicht wirklich gelohnt.

fondness
2015-06-26, 21:08:45
Arbeitet der Gute eigentlich noch bei Nvidia? Ich warte seit Jahren auf FXAA 4.0. :ulol:


Nope arbeitet mittlerweile bei AMD an VR.

Hübie
2015-06-26, 21:09:03
Leider bringt der Schaumstoff zwischen Pumpengehäuse und Frontplatte für mich keine merkliche Besserung.
Ich finde die Karte wirklich gelungen und die Pumpe ist wirklich nicht laut.
Das Problem ist nur, dass anscheinend die Frequenz in einem Bereich liegt den viele Leute als sehr störend empfindet. Mich stört es auf jedenfalls im Idle Betrieb.
Daher werde ich wohl oder übel auf die luftgekühlte Version warten.

"Quetscht" der Schaumstoff bei dir auch oder ist der lose? Welche Art Schaumstoff? Versuch mal mit dieser Art welchen man in gedämmten Gehäusen findet. Der hat ja auf der Klebeseite sowas wie Bitum oder weiß der Geier welches Material dort verwendet wird.

@Format_C: Schon als ich deinen ersten Artikel bzgl. Leistungsaufnahme las war mir klar dass dieses Equipment nicht für Reviews angeschafft wurde ;)
Und übrigens: Auch wenn du keine Orden bekommst wissen sehr viele, auch deine Kollegen, deine / eure Arbeit zu schätzen, dessen bin ich mir sicher. Was die dämliche Kritik an Wolle/Volker von CB soll weiß ich allerdings nicht. Nur weil man Kritikpunkte kommuniziert muss man nicht gleich "gekauft" sein :rolleyes: Aber dann weiß man wenigstens wieviel Hirnschmalz und Emotionen bei solchen Aussagen zum "schreiben" veranlassen.

Foenfrisur: Teile uns doch mal deine Erkenntnisse mit dem DP->DVI-Adapter mit =)

Edit: Übrigens bin ich enttäuscht dass hier kaum einer Bilder präsentiert :mad: :P

dargo
2015-06-26, 21:15:45
Hm, wo sind die Themen:

Idle Verbrauch, neuartiger Speicher, Größe und damit "Verbaubarkeit"

Ich überlege, ob ich Sie mir kaufe, einfach weil es mal was wirklich Neues ist.

Wie kommt golem.de auf dieses Fazit:

Die Geschwindigkeit von AMDs neuer Radeon-Karte ist in der hohen Ultra-HD-Auflösung (3.840 x 2.160 Pixel) Nvidias Geforce GTX Titan X durchweg überlegen: Egal ob Assassin's Creed Unity, Dragon Inquisition, Grand Theft Auto 5, Ryse oder The Witcher 3 - die Fury X rendert immer ein paar Bilder pro Sekunde mehr.

So deutlich ist keine andere Seite.
Doch... bei IXBT schneidet die auch sehr gut ab. Immer vor der 980TI und auch oft vor der Titan X.
https://translate.google.com/translate?hl=en&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Ffiji-part3.shtml

Und nicht nur in 4k. Man schaue sich bsw. das hier an.
52385

Hier geht die ab wie ne Rakete gegenüber der R9 290X im Übermode.

Edit:
Auch in Watch Dogs kommt die verdammt gut weg.
52386

cobra38
2015-06-26, 21:27:04
@Raff, @Format_C
Ich habe halt nur gehofft, dass er vielleicht irgendwas in die Richtung "Ich würde warten" äußert.
Man kann es ja mal probieren. :biggrin:

@Hübie
Ich habe es so probiert, wie es bei PCGH beschrieben wird. Der Schaumstoff klemmte fest zwischen Frontplatte und Pumpengehäuse. Den Schaumstoff den ich verwendet habe, wird normalerweise zum Dämmen von Motorräumen verwendet. Etwas anderes hatte ich nicht zur Hand.

Unicous
2015-06-26, 21:27:07
Arbeitet der Gute eigentlich noch bei Nvidia?

:freak:


Ney. Bei AMD (seit ein paar Monaten, VR Gedöns).:freak:

Hübie
2015-06-26, 21:28:13
@Hübie
Ich habe es so probiert, wie es bei PCGH beschrieben wird. Der Schaumstoff klemmte fest zwischen Frontplatte und Pumpengehäuse. Den Schaumstoff den ich verwendet habe, wird normalerweise zum Dämmen von Motorräumen verwendet. Etwas anderes hatte ich nicht zur Hand.

Danke für die Rückmeldung :up: Kannst du die Pumpe steuern? Tausch doch einfach mal den Anschluß auf dem PCB und steuer mit dem CCC den "Lüfter" aka die Pumpe ;D

Doch... bei IXBT schneidet die auch sehr gut ab. Immer vor der 980TI und auch oft vor der Titan X.
https://translate.google.com/translate?hl=en&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Ffiji-part3.shtml

Und nicht nur in 4k. Man schaue sich bsw. das hier an.
52385

Hier geht die ab wie ne Rakete gegenüber der R9 290X im Übermode.

Edit:
Auch in Watch Dogs kommt die verdammt gut weg.
52386

Dann guck dir mal die Taktraten der TX / 980 Ti an. Hat man offenbar eingegrenzt. In keinem mir bekannten Test gehen die nur von 1000 bis 1075 Megahertz...

(del)
2015-06-26, 21:29:57
@Raff, @Format_C
Ich habe halt nur gehofft, dass er vielleicht irgendwas in die Richtung "Ich würde warten" äußert.
Man kann es ja mal probieren. :biggrin:

Wovon sprichst Du? Wir heißen alle Hase ;)

cobra38
2015-06-26, 21:40:25
Ich schrieb nur, dass ich eher mit dem Level der Pro angefangen hätte, um Kohle und Erfahrung zu sammeln. Gleich unter Einbindung der Boardpartner. Die Pro sind genauso lange fertig und es wäre ein Leichtes gewesen, den Launch umzudrehen. Mehr sage ich jetzt erst mal nicht, lass Dich überraschen ;)

Nach dieser Aussage habe ich vermutet, dass da jemand mehr weis als er im Moment sagen will (darf).
Daher meine Frage ob sich das Warten auf die Pro lohnt. :smile:

cobra38
2015-06-26, 21:44:41
Danke für die Rückmeldung :up: Kannst du die Pumpe steuern? Tausch doch einfach mal den Anschluß auf dem PCB und steuer mit dem CCC den "Lüfter" aka die Pumpe.
Da ich die Karte wegen dem Pumpengeräusch nicht behalten werde, habe ich die Karte bereits wieder ausgebaut und verpackt.
Die Drehzahl der Pumpe wird geregelt. Im Idle liegt die Drehzahl bei ca. 3.600 min-1. Unter Last bei ca. 5.600 min-1.
Der Stecker der Pumpe hat mehr Kontakte als der Stecker des Lüfters.

Ich warte jetzt einfach auf die Pro oder das AMD (Cooler Master) das Pumpengeräusch in den Griff bekommt.

dargo
2015-06-26, 21:50:44
Dann guck dir mal die Taktraten der TX / 980 Ti an. Hat man offenbar eingegrenzt. In keinem mir bekannten Test gehen die nur von 1000 bis 1075 Megahertz...
Doch... gibt es. ;)
http://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/3/

Das könnten aber auch einfach nur die offiziellen Angaben sein.
http://www.nvidia.de/object/geforce-gtx-980-ti-de.html#pdpContent=2

Raff
2015-06-26, 21:58:50
:freak:

Ney. Bei AMD (seit ein paar Monaten, VR Gedöns).:freak:

Ergibt Sinn. Sonst würde der sich wohl kaum in diesem Tonfall äußern - wobei sein Blog ja schon immer seine eigene Meinung und nicht die seines Arbeitsgebers widerspiegelte.

Dann guck dir mal die Taktraten der TX / 980 Ti an. Hat man offenbar eingegrenzt. In keinem mir bekannten Test gehen die nur von 1000 bis 1075 Megahertz...

PCGH bencht in Referenztests auch mit den von Nvidia angegebenen, typischen Boosts. Das heißt in diesem Fall: 1.075 MHz Kerntakt für beide GM200-Karten - und trotzdem sieht die Fury X erst in Ultra HD gut aus.

MfG,
Raff

Hübie
2015-06-26, 22:00:44
Hä?? :|

http://abload.de/img/gm200_taktratenc4sp7.png (http://abload.de/image.php?img=gm200_taktratenc4sp7.png)

Im Test von IXBT kommen die auf 1000-1075. Bei CB nach 20 Minuten ab 1075 - und das als Einzelfall von TT begrenzt *hust*

dargo
2015-06-26, 22:06:30
Im Test von IXBT kommen die auf 1000-1075.
Wo steht das? Ich finde dazu keine genauen Angaben. Wie gesagt... das kann genauso nur die offizielle Hersteller Angabe sein.

Hübie
2015-06-26, 22:08:54
Steht neben dem Modell. Also wenn das nur eine sinnfreie Angabe ist braucht man die nicht reinpacken. Würde aber erklären warum die da langsamer ist, das wollte ich sagen. Sonst erklär du das mal ;D

dargo
2015-06-26, 22:11:57
Steht neben dem Modell. Also wenn das nur eine sinnfreie Angabe ist braucht man die nicht reinpacken.
Klar kann man die reinmachen, um eben die offiziellen Herstellerangaben beizufügen.

gedi
2015-06-26, 22:13:01
Dürften die offiziellen Angaben seitens NV sein. Und dass die Geforces erst nach editiertem Bios was taugen, sollte eigentlich bekannt sein.

Troyan
2015-06-26, 22:14:27
Die Karte auf den "angegebenen" Boost-Takt zu limitieren ist einfach falsch.
Der reale Takt liegt meisten höher, siehe dazu auch Hardware.fr: http://www.hardware.fr/articles/935-21/specifications-gpu-boost-pratique-oc.html

Wieso man das überhaupt machen sollte, erschließt sich mir auch nicht.

Grestorn
2015-06-26, 22:17:44
Die Karte auf den "angegebenen" Boost-Takt zu limitieren ist einfach falsch.

Es ist schlicht eine Worst-Case Betrachtung und als solches legitim. Man möchte ja auch im Sommer bei 35° eventuell noch spielen...

von Richthofen
2015-06-26, 22:18:34
Gerade bei den GraKas sind halt Jungs am Werke die weniger rationell das sehen, dafür aber viel mehr "Stimmung" machen. Die möchte AMD halt auch mitnehmen und könnte durch deren "Mundpropaganda" dafür sorgen, dass AMD nicht nur negativ betrachtet wird. Ich glaube, dass ist auch der Grund dass allein Mindfactory in den ersten Tagen > 90 Fury Karten verkauft hat (falls ich richtig mitgezählt habe).

K.A. wie sowas einzuordnen ist. Hört sich im Vergleich mit
>345 Titan X
>445 980 Ti

nicht mal so schlecht an.
Bei den Ti's hätte man durchaus höhere Zahlen annehmen können - vllt. wollten viele Fury abwarten.

Unicous
2015-06-26, 22:22:59
Ergibt Sinn. Sonst würde der sich wohl kaum in diesem Tonfall äußern - wobei sein Blog ja schon immer seine eigene Meinung und nicht die seines Arbeitsgebers widerspiegelte.


Als er nach Nvidia bei Epic arbeitete hat er sich auch schon positiv zu AMD geäußert. ;)

Ansonsten wollte er wohl einfach in Richtung VR gehen, sonst hätte er ja nicht bei AMD unterschrieben.

Troyan
2015-06-26, 22:33:17
Es ist schlicht eine Worst-Case Betrachtung und als solches legitim. Man möchte ja auch im Sommer bei 35° eventuell noch spielen...

Bei 35°C im Zimmer hat man andere Sorgen als den Boost seiner nVidia-Karte... :freak:

(del)
2015-06-26, 22:58:03
35°C im Zimmer? Ich würde sofort aus- und umziehen.

Demnächst gibts einen Nachtest einer Retail-Karte. Mal sehen ob ich die Hotbox wieder auspacke. Das war eine Idee, die ich bei Jon Gerow abgekupfert habe.

Disco_STFU
2015-06-26, 22:58:06
Bei 35°C im Zimmer hat man andere Sorgen als den Boost seiner nVidia-Karte... :freak:

Top! ;D

Raff
2015-06-26, 22:58:49
Ihr müsst einfach mal verstehen, dass nicht jede Wald-und-Wiesen-Referenzkarte geht wie Hölle. Ich hatte in den letzten Wochen einige 50er- und 60er-ASICs in den Flossen und die rennen eben nicht alle mit 1.100+ MHz, sondern belüftungs- und temperaturabhängig weit weniger. Nvidia veröffentlicht keine Selbstunterbewertung. Dass es diverse Custom-Designs (der 980 Ti) gibt, die mit weit mehr als 1.200 MHz arbeiten, ist eine ganz andere Baustelle.

MfG,
Raff

Armaq
2015-06-26, 23:04:19
Doch... bei IXBT schneidet die auch sehr gut ab. Immer vor der 980TI und auch oft vor der Titan X.
https://translate.google.com/translate?hl=en&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Ffiji-part3.shtml

Und nicht nur in 4k. Man schaue sich bsw. das hier an.
52385

Hier geht die ab wie ne Rakete gegenüber der R9 290X im Übermode.

Edit:
Auch in Watch Dogs kommt die verdammt gut weg.
52386
Wie kann das denn sein? Mit den Werten ist die Karte einfach nur "brudaal".

(del)
2015-06-26, 23:04:54
@Raff:
Recht hast Du, meine sieht auch nicht besser aus. Und sowohl TitanX und die Quadro M6000 schaffen nach Aufwärmen noch nicht mal 1000.

Hübie
2015-06-26, 23:06:28
Ihr müsst einfach mal verstehen, dass nicht jede Wald-und-Wiesen-Referenzkarte geht wie Hölle. Ich hatte in den letzten Wochen einige 50er- und 60er-ASICs in den Flossen und die rennen eben nicht alle mit 1.100+ MHz, sondern belüftungs- und temperaturabhängig weit weniger. Nvidia veröffentlicht keine Selbstunterbewertung. Dass es diverse Custom-Designs (der 980 Ti) gibt, die mit weit mehr als 1.200 MHz arbeiten, ist eine ganz andere Baustelle.

MfG,
Raff

Ich bezog mich explizit auf Reviews mit dem Ref-Design.

Grestorn
2015-06-26, 23:09:17
Ihr müsst einfach mal verstehen, dass nicht jede Wald-und-Wiesen-Referenzkarte geht wie Hölle. Ich hatte in den letzten Wochen einige 50er- und 60er-ASICs in den Flossen und die rennen eben nicht alle mit 1.100+ MHz, sondern belüftungs- und temperaturabhängig weit weniger. Nvidia veröffentlicht keine Selbstunterbewertung. Dass es diverse Custom-Designs (der 980 Ti) gibt, die mit weit mehr als 1.200 MHz arbeiten, ist eine ganz andere Baustelle.
Mit Deinen begeisterten Postings zur TX, die Du gleich auf 1,5GHz geprügelt hast, ist Dein Anteil an dem Selbstverständnis mit dem jeder erwartet, dass seine Karte ebenso hoch taktet, aber nicht gerade klein :)

(Und meine TX geht trotz WaKü nur bis 1460. Pah!)

joe kongo
2015-06-26, 23:33:16
Aktuell hat es die Karte verdient niedergemacht zu werden.
Wie blöd ist man bei AMD? So ein nervtötendes Geräusch ist lächerlich bei einer 700€ Karte, da hilft es auch nicht, mit späteren Chargen wird es besser.

Die Karte ansich ist ja nicht schlecht und eine echte Konkurrenz aber so kann man die aktuell nicht empfehlen. Aber man ist es ja von AMD gewohnt, einen Launch zu versauen.
Hat ja schon Tradition.

Das ist schon Extraklasse, x Millionen Dollar in einen Chip mit neuer Technologie zu investieren und dann absolut unfähig eine unhörbare Kühlung bei Idle draufzupappen. Der Trend essentielle Dinge outzusourcen und sich auf die vollmundigen Versprechen des Auftragnehmers zu verlassen, erlebe ich zurzeit auch am eigenen Leib in der Arbeit, mit sich anbahnender Katastrophe :D.

Peter Gräber
2015-06-26, 23:46:31
@Dawn on Titan:
Übrigens hatte ich die FuryX für ganze, reichlich alberne 5 Stunden bis zum Redaktionschluss, denn bei uns hängen ja auch noch die Übersetzungen in mindestens vier Sprachen dran, zeitsverschiebung von 6 bis 9 Stunden inklusive. Die anderen Karten waren dann der Rest des vorangegangenen Wochenendes und der angefangenen Woche. Da beibt einem dann kaum noch die Möglichkeit für tiefergenede Analysen, wenn man überlegt, dass Messungen ja nicht nur aus Leistungsaufnahme bestehen. Eine Range aus normaler Last und Extremsituation musste da reichen, auch wenn das vor allem diejenigen anders sehen, die diese Karte sowieso nie kaufen würden ;)


Da kommen wir der Sache doch schon einmal näher. Ich habe das Zeitlimit abgelehnt. Du hast eine korrekte Messung, aber eigentlich eine Fehlmessung, was dir in der kurzen Zeit nicht aufgefallen ist, weil Fury nicht ausgelastet wird. Wo bleibt die Qualität? Warum zum Henker werden die Resultate von PCGH hier klein geredet? Du ziehst durch Foren wie eine Wanderheuschrecke und erklärst eure Wahrhaftigkeit, welche dann mit unterschwelliger Überheblichkeit und teils Herablassung anderen Magazinen entgegenschlägt, aufgegriffen von Forenanwendern, die unterstellen müssen, dass ihr mit solch teurer Hardware keine Fehler machen könnt. Doch einmal ist die Hardware nicht perfekt, zum anderen kann einem durch die Lappen gehen, dass der auserkorene Benchmark überhaupt keine Last auf das Produkt erwirkt. Exakt das ist passiert.

Exakt das hat Carsten hier auch nur klargestellt - deine aufgenommenen Werte sind korrekt - die der PCGH sind aber auch korrekt und je länger ich hier messe, desto grotesker wird die THG-Darstellung.

Was nun? Magst du mir wieder erklären, mit wie vielen Leuten aus der Industrie du diese Themen diskutierst, oder kümmerst du dich mal um die internen Probleme? Abgesehen davon hast du in deinen Messungen Unwägbarkeiten - das weist du, und falls nicht erkläre ich es dir noch gerne.

Es stößt einem als Redakteur doch manchesmal schon Übel auf, wie THG agiert. Und mein Bart ist mindestens so grau wie deiner ;).

(del)
2015-06-27, 00:01:20
@Peter Gräber:D
Das kommentiere ich jetzt nicht, weil es ab einer gewissen Niveaugrenze schlichtweg albern wird. Der Ton macht die Musik. Aber bitte lass deine Verbitterung nicht an Dritten aus, es steht Dir frei, mich am Telefon vollzukotzen. Nummer steht im Telefonbuch.

Wenn mich etwas ärgert, dann sind es die Leute, die immer alles hinterher testen, aus den Reviews ihre Schlüsse ziehen und natürlich sowieso alles besser wissen. Aber das ist ein anderes Thema. Abgelehnt? Das ehrt Dich ungemein. Sehr nobel :)

Peter Gräber
2015-06-27, 00:10:06
Ich bin gestern auf Seite 40 oder 41 ausgestiegen, heute genau dort wieder eingestiegen. Die folgenden Seiten hatte ich noch nicht wahrgenommen. Ich habe gesehen und überflogen, dass du dort nachlegen wirst. Damit sorry für mein "wann tut ihr was" in dem Kontext - der geschilderte Ärger bleibt natürlich, der falsch informierte Leser auch, der hier fleißig seinen Senf zum Thema gab (glücklicherweise "gab").

Und nein, ich brauch dich nicht anzurufen um dich zuzutexten. Nein, ich muss dich auch nicht besuchen um die Anlage zu bewundern. Ist schon gut so, dass ihr nachlegt. Aber falls du Fragen hast, meine Nummer steht im Impressum.

(del)
2015-06-27, 00:15:52
Vergiss es einfach. :) Ich habe mir eine Retail-Karte besorgt, um nachzutesten. Die Bettelei ödet mich genauso an. Scheiß auf die Kohle.

BTW:
Ich habe lange an der Masse getüftelt, das Netzteil modifiziert, die Zangen vermessen lassen (echte Reaktionszeit bis zur analogen Signalausgabe), diese Werte entsprechend bei der Spannungsmessung des korrespondierenden Kanals voreingstellt und arbeite auch mit jeweils angepasstem High-Cut bei allen Kanälen. Wir haben den ganzen Spaß hier extern kalibriert und mit Drittgeräten gegengemessen. Messfehler hat man natürlich immer, selbst bei den tollsten Zangen. Aber Aliasing würde ich mittlerweile wirklich ausschließen. Im unteren Leistungsereich liegt der Messfehler knapp unterhalb von einem Watt. Hintenraus wird es eklig, darum auch die Splittung der zwei PCI-E-Anschlüsse. Full-Range kann man sich leider kaum leisten. Ab 100 KHz gibt es zudem leichte Messfehler, aber auch das bleibt noch ein ganzen Stück unter einem Prozent. So gesehen passt das schon. ich gehöre auch nicht zu denen, die etwas bekommen, auspacken und loslegen ohne zu fragen. ;)

Hübie
2015-06-27, 00:22:05
Darf ich die Herrn Redakteure daran erinnern dass wir zwar "unter uns" sind, aber es dennoch jedem frei zugänglich ist? Danke.

Ich verstehe nicht wo jetzt der Hund begraben ist, aber wenn man nur 5 Stunden hat, sollte man sagen: "Nein dass mache ich nicht, denn MEIN Name steht unter dem Review". Ich mag meinen Namen :smile:

Peter Gräber
2015-06-27, 00:29:05
Vergiss es einfach. Ich habe mir eine Retail-Karte besorgt, um nachzutesten. Die Bettelei ödet mich genauso an. Scheiß auf die Kohle.

Löblich, habe ich schon häufiger tun müssen, ist es aber nicht wert ;) (außer für das persönliche Wohlbefinden) Hier dankt es dir kaum keiner. Aber ich musste sie wegen Ausschluss (aus unterschiedlichen Gründen) besorgen. Davor und danach lag mein Blick aber immer auf Qualität. Vielleicht habe ich aber auch nur das bessere Bauchgefühl mit meinen zirka 200 Grafikkarten hier und meiner Messungen über??? 10 Jahre? Letzt endlich hört sich für mich so an: THG fängt endlich mal an nachzulegen. Igor, habe ich dich inspiriert? :D

Wenn das gelingt, kann ich endlich in Rente gehen und das ist mein Plan ;)

Peter Gräber
2015-06-27, 00:30:33
Darf ich die Herrn Redakteure daran erinnern dass wir zwar "unter uns" sind, aber es dennoch jedem frei zugänglich ist? Danke.

Ich verstehe nicht wo jetzt der Hund begraben ist, aber wenn man nur 5 Stunden hat, sollte man sagen: "Nein dass mache ich nicht, denn MEIN Name steht unter dem Review". Ich mag meinen Namen :smile:

Dein Problem habe ich nicht verstanden, aber vielleicht hast du den Thread auch nicht komplett gelesen. Meines ist geklärt.

Hübie
2015-06-27, 00:34:46
Peter. Hier wissen die Leute das zu schätzen. Ich lese dauernd: "Ich warte erst mal auf ein Review von ht4u". ;)
Das dumme ist: Du förderst auch mal unbequeme Themen zu Tage was nich massenmedientauglich ist und zudem Fanboys gleichermaßen verstört wie IHVs. Und eine Masse von Menschen ist nie schlau oder klug.

Das lass ich mal so stehen.

Edit: Ich denke dein Seitenhieb stößt manchen sauer auf, denn die Wahrheit ist nicht immer die bequeme Darstellung von Tatsachen.

mit unserer Ausstattung natürlich exakter als andere Magazine – auch wenn man gelegentlich was anderes lesen mag. ;)

gedi
2015-06-27, 00:42:01
[QUOTE=Peter Gräber;10682166... (aus unterschiedlichen Gründen)
[/QUOTE]

Genau das scheint der Grund zu sein, warum HT4U-Reviews mir als 0815-User plausibel und sich schlussendlich oft als richtig erweisen.

(del)
2015-06-27, 00:42:35
Vielleicht habe ich aber auch nur das bessere Bauchgefühl mit meinen zirka 200 Grafikkarten hier Das sieht hier übrigens mittlerweile ähnlich aus, zähle mal spaßenshalber allein die Charts 2014 und 2013 zusammen, aber egal :)

Ich bin auch nur von meinem Industriejob zu TH gewechselt, weil ich eine flexible Zeitgestaltung im Hinblick auf meine kleinen Kinder wollte. Dass mittlerweile wieder viele Dinge aktuell neben den Reviews laufen und TH eines der Standbeine ist, ist gut und gibt mir viele Freiheiten, wofür ich extrem dankbar bin. Ich würde mich auch nie wieder fest einstellen lassen, weil es ungemein einschränkt. Und: man kann objektiv bleiben, weil man sich nirgendwo andienen muss :)

Hübie
2015-06-27, 00:49:25
Schön. Können wir nun beim Thema bleiben und PS draußen lassen?

Wenn du so ein Ding hast bitte ich A) um hochaufgelöste Bilder und natürlich eine Analyse zum Fiepen. Den Kühler baust du eh ab. ;D

(del)
2015-06-27, 00:51:06
Den Kühler baust du eh ab.
*messerschleifmaschine*

Mich interessiert vor allem, welche Gehäusegröße auf die Vibrationen im ehesten anspringt, die ich auch schon bemerkt habe.

Hübie
2015-06-27, 00:52:13
X-D

Hast du die Möglichkeit den "trocken" zu testen? Hab bei dir so einige Labornetzteile gesehen...

Thowe
2015-06-27, 00:56:24
Eigentlich lese ich ja nur noch gelegentlich mit, ich bin ja ein Fan von Diskussionskultur und halte ansonsten nur noch meine Klappe. Eigentlich.

Aber für mich ist die Fury die 1. Karte, auf die ich mich seit der 9700 Pro wirklich freue. Sie hat den Funken Sexappeal den es braucht. Entsprechend werde ich sie mir kaufen, nur eben nicht die X und das eben durchaus auch wegen Wasserkühlung, da ich kein Fan davon bin und auch niemals sein werde (und bei meinem Gehäuse auch nicht sein muss). Dennoch halte ich den Schritt seitens AMD für mutig, konsequent und auch gut und wäre die Karte durch Lüfter lauter, hätte man auch ein Maskieren des störenden Geräusch. Die Problematik des immer leiser kenne ich seit Jahrzehnten mitsamt den nicht selten ungewollten Konsequenzen. Das als Fehler oder eben die gewählten Basisleistung als solche zu sehen, halte ich für falsch und akzeptiere sie einzig als Meinung, definitiv nicht meine und ich bin sehr AMD kritisch. Es hat eine gewisse Ironie, dass die 9700 Pro einst mich für ATI begeisterte, die GTX 970 (vor allem in den ersten Tagen) mich manchmal richtig ärgerte, sobald ich ein Spiel in UHD spielte und nicht mal unbedingt die aktuellsten. So dreist bin ich nicht. Heute, dank Treiber reifer, aber eben unschön. Letztendlich egal. Etwas Banane darf neues immer sein, soviel gestehe ich heute jeden Hersteller zu und übe mich dafür ein wenig in Geduld und angemessene Kritik.

(del)
2015-06-27, 00:58:47
Erst mal genauer reinschauen, ich dufte den Gaul ja bisher noch nicht mal aufmachen. Den Nidec-Lüfter habe ich so ähnlich sogar schon mal in den Händen gehabt, ich muss mal wühlen, wo der ist. Dann ergibt sichn der Plan von allein.

Was mich aber genauso brennend interessiert, ist mal die Skalierung vom Power Limt nach unten hin. Framelimit inklusive.

maguumo
2015-06-27, 01:05:17
Was mich aber genauso brennend interessiert, ist mal die Skalierung vom Power Limt nach unten hin. Framelimit inklusive.
Wie testet man sowas am besten? Du meintest ja das Setting für's Power Target im CCC ist nicht so wirklich das wahre... Gemoddetes BIOS?

Finde auf Anhieb gerade garnicht wie du das damals bei der 970 angestellt hattest...

cobra38
2015-06-27, 01:12:00
Gibt es eigentlich irgendwelche Informationen von AMD oder Cooler Master das Sie an dem Geräuschproblem der Pumpe arbeiten?
Gab es solche Geräuschprobleme eigentlich auch bei der Radeon R9 295X2?

Hübie
2015-06-27, 01:19:29
Also Framelimter macht A) nur Sinn wenn man A) prerenderlimit anpasst B) variablen v-blank einsetzt und / oder C) V-Sync nutzt.
Ansonsten sollte der Limiter eher vom Spiel genutzt werden, weil dann die Engine "weiß" dass nicht mehr gerendert werden soll.

4000 fps in Menüs kann man so zwar beikommen, aber erfährt u. U. andere Nachteile (inputlag, Ruckeln, Zuckeln, Stottern...)

(del)
2015-06-27, 06:20:55
@Hübie
Mich machte nur die Beobachtung von Frame-Drops und die Antwort eines AMD-Insiders stutzig, der meinte, dass man damit das Power Limit kontrollieren würde. Inwieweit und ob diese Frame-Bremse zusammen mit der Power-Estimation-Engine den Arbitrator wirklich zum Runterregeln veranlasst (Interaktion Treiber <-> Firmware), oder ob man eben nicht regelt, sondern einfach nur dropt (Treiber), das würde ich schon ganz gern genauer wissen. So lange da Luft zum Regeln bleibt, weil schwankende Lasten vorausgesehen werden können, genau so lange ist der aufgepeppte Tonga nämlich (mindestens) genauso fix beim Schalten, wie Maxwell. Das geht erst dann grandios in die Hose, wenn dort in der Prognose nichts mehr zu holen ist und leider keinere weiteren Limits helfend eingreifen, um wirklich smooth zu begrenzen. Ergo wird das Spielchen mit dem stufenweise veränderten Power Limit sicher interessant. Das ist zwar eine stupide Arbeit, weil man ja maximal in 5% Schritten arbeiten kann und jede Messung mindestens dreimal machen muss, aber es scheint es mir durchaus wert zu sein.

Digidi
2015-06-27, 07:22:22
Mal eine Frage ich habe diese Folie gefunden im Internet als ich mal nach Front End geschaut habe.
http://de.slideshare.net/mobile/DevCentralAMD/gs4106-the-amd-gcn-architecture-a-crash-course-by-layla-mah
Ab Seite 50-65 geht's um die Chip power und um auch das Frontend,und das bei übergroßer tesselation die Effizienz des Rasterizer auf ca. 5%sinkt. Das wären dann aber immer noch 3.2 gigapixel/s und bei UHD Auflösung dan ca 380 fps/s. (3.2*1000*1000*1000/3840/2160) wo limitiert da das Frontend?
Was auch auffällt ist das hohe Teselation garnis bring. Wenn die Dreiecke kleiner sind als der Pixel macht das ja keinen Sinn mehr da irgend etwas am Dreieck zu berechnen(siehe Seite 62)

Leonidas
2015-06-27, 08:33:04
Zitat von Leonidas
Aber einen Artikel von Marketing-Benches vs. Realität darf ich zu AMD nicht bringen, da werd ich gelyncht.

Allerdings hat auch NV schon diverse Stilblüten geliefert, bis hin zu vergessenen Zertifizierungen im Workstationbereich. Das geht 1:1 aus, glaubs mir :D


Klar geht das 1:1 aus. Keiner ist da ein Unschuldslamm.

Danke für deine überaus bereichernden Beträge im übrigen.

(del)
2015-06-27, 08:45:32
Gern geschehen, auch wenn ich seit Jahren mitlese und mich erst nach langer Überlegung überhaupt registriert habe. Es ist einfach eine Zeitfrage. Leider legen das manche jetzt recht eigenartig aus, aber wenn, dann gleiches Recht für alle. Auch für vermeintliche Heuschrecken :)
Nur mal so - 48 Posts in 2 Tagen sind persönlicher Rekord, bei PCGH habe ich es in den letzten acht Jahren noch nicht mal auf 600 Posts gebracht.

dargo
2015-06-27, 08:48:47
Wie kann das denn sein? Mit den Werten ist die Karte einfach nur "brudaal".
Angeblich soll ixbt einen anderen Cat. 15.15 genommen haben, nämlich den vom 18.06.15. Ob da was dran ist... mal weitere Treiber abwarten. Die Frage ist bloß ob sich jemand nachträglich die Mühe macht und alles wieder von vorne durchtestet? Der Ersteindruck ist ja bereits da. Warum die Fury X dort teilweise so weit vor der R9 290X liegt kann ich mir nur so erklären, dass Hawaii durch einen älteren Treiber noch nicht diese Optimierungen abbekommen hat. Nur schreibt ixbt hier.
drivers AMD version 15.15-180612a-18565BE (obtained from AMD 18 June)
https://translate.google.com/translate?hl=en&sl=ru&tl=en&u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Ffiji-part3.shtml

Also gehe ich davon aus, dass alle AMD Karten mit diesen Treiber getestet wurden, sprich der Treiber wurde dafür modifiziert. Jedenfalls sehe ich keinen Hinweis, dass alles außer der Fury X mit anderem Treiber getestet wurde. Wie dem auch sei... ich warte erstmal den Omega 2 Treiber ab der für den 07.07.15 angekündigt ist. Der wird sicherlich auch mit einigen Performanceverbesserungen beworben. Vielleicht schaut sich die PCGH den dann sehr genau an, so dass wir einen guten Vergleich zu dem Releasetreiber haben.

(del)
2015-06-27, 09:00:16
Der Presse-Treiber, den AMD weltweit zum Download zur Verfügung gestellt hat, ist älter, datiert auf den 15.06.2015 und ist auch nicht zwischendurch ausgetauscht worden. Da dies die einzige wirklich offizielle Quelle ist, wurden die Tests halt alle mit diesem Treiber gemacht. Der war für die R300-Serie und Fury zusammen und ich habe auch die 390X, 380 und 370 damit getestet.

http://media.bestofmicro.com/E/0/507240/original/AMD-R300-Driver.jpg

Ich habe auch noch nichtoffizielle Engineering-Treiber, mit denen die Boardpartner rumgespielt haben, aber die Versionsnummern sind geradezu albern durcheinander. Schneller war allerdings keiner davon. Der oben abgebildete Treiber steht übrigens heute noch im Presse-Ordner von AMD als neueste Errungenschaft. :)

grobi
2015-06-27, 09:05:54
Die Direct3D-Version ist dem 15.20 Win10 Treiber gleich und funktioniert damit auch auf meiner 290'er. Ob der Omega2 da Verbesserungen bringt muss man abwarten.

Leonidas
2015-06-27, 09:09:43
Aber für mich ist die Fury die 1. Karte, auf die ich mich seit der 9700 Pro wirklich freue. Sie hat den Funken Sexappeal den es braucht.



Ist schön, auch mal so was zu lesen. Denn so war die Karte eigentlich geplant.

dargo
2015-06-27, 09:16:17
Der Presse-Treiber, den AMD weltweit zum Download zur Verfügung gestellt hat, ist älter, datiert auf den 15.06.2015 und ist auch nicht zwischendurch ausgetauscht worden. Da dies die einzige wirklich offizielle Quelle ist, wurden die Tests halt alle mit diesem Treiber gemacht. Der war für die R300-Serie und Fury zusammen und ich habe auch die 390X, 380 und 370 damit getestet.

http://media.bestofmicro.com/E/0/507240/original/AMD-R300-Driver.jpg

Ich habe auch noch nichtoffizielle Engineering-Treiber, mit denen die Boardpartner rumgespielt haben, aber die Versionsnummern sind geradezu albern durcheinander. Schneller war allerdings keiner davon. Der oben abgebildete Treiber steht übrigens heute noch im Presse-Ordner von AMD als neueste Errungenschaft. :)
Ich frage mich echt wie ixbt zu dem 15.15-180612a-18565BE kommt? War der Treiber kurz da und dann wieder weg? Oder haben die den selbst gebastelt? :D Kleiner Scherz.

Dawn on Titan
2015-06-27, 09:17:39
Erst mal genauer reinschauen, ich dufte den Gaul ja bisher noch nicht mal aufmachen. Den Nidec-Lüfter habe ich so ähnlich sogar schon mal in den Händen gehabt, ich muss mal wühlen, wo der ist. Dann ergibt sichn der Plan von allein.

Was mich aber genauso brennend interessiert, ist mal die Skalierung vom Power Limt nach unten hin. Framelimit inklusive.

Gentle Typhoon von Scythe

(del)
2015-06-27, 09:19:26
@dargo:
Nicht alles, was z.B. zwischen AMD und den Boardpartnern hin- und hergeschoben wird, bekommt auch Downloadstatus :)

(del)
2015-06-27, 09:21:28
Gentle Typhoon von ScytheNein, nicht ganz. Es ist aber etwas aus Nidecs D1225C serie. Meiner hier aus dem Archiv (der ist mit Scythe gelabelt) hat nämlich keine Lagergeräusche und auch nicht diese Vibrationen. Ich habe den mittlerweile auch mal schnell ans die Lüftersteuerung gehängt - klingt komplett anders. Das Teil auf der Fury ist sehr wohl von Nidec, aber irgendwie leicht Cost-Down. Wobei es die D1225C ja in zwei Produktlinien mit unterschiedlicher Charakteristik gibt. Ist fast schon wie mit den Pure Wings von be quiet! Sieht fast so aus wie was Besseres, aber ist es nicht. :)

Sorry für den Doppelpost, man kann ja leider nichts löschen. Oder ich bin zu blind :P

AtTheDriveIn
2015-06-27, 09:28:31
Im overclockers Forum wurde das wohl schon aufgeklärt. Es gibt keinen Treiber mit der Nummer. Das vermeintliche Erstellungsdatum deutet auf 2018 hin.

dargo
2015-06-27, 09:33:51
Im overclockers Forum wurde das wohl schon aufgeklärt. Es gibt keinen Treiber mit der Nummer. Das vermeintliche Erstellungsdatum deutet auf 2018 hin.
Das erklärt aber immer noch nicht warum die Fury X gerade bei ixbt so gut wegkommt.

(del)
2015-06-27, 09:39:55
Wenn ich Glück habe und der Zoll mitspielt, ist meine XFX-Karte am Montag oder Dienstag da :)
Retail und anonym gekauft. Es bleibt einem ja auch nichts anderes übrig.

Zumindest kann einem dann keiner vorwerfen, man wäre "biased". Maximal meine Frau. Rechnet das mal in Schuhe um... :P

M4xw0lf
2015-06-27, 09:42:15
Das erklärt aber immer noch nicht warum die Fury X gerade bei ixbt so gut wegkommt.
Vielleicht haben sie noch mehr erfunden als den Treiber.

AtTheDriveIn
2015-06-27, 09:46:11
Irgendwas ist da faul, denn sie konnten auch den HBM übertakten, um 20%.

Vielleicht einer der Boardpartner Treiber von denen Format_C berichtet? Wobei sie gleichzeitig behaupten den Treiber von AMD Russia erhalten zu haben.

dargo
2015-06-27, 09:50:00
Irgendwas ist da faul, denn sie konnten auch den HBM übertakten, um 20%.
Eben.

Wenn sie aber als einziger zu diesem ominösen Treiber gekommen sind könnte das wieder passen. Sprich... OC beim Speicher war nur mit diesem einen Treiber möglich. Die Frage ist bloß wie die zu diesem Treiber kommen?

AtTheDriveIn
2015-06-27, 09:58:58
Eben.

Wenn sie aber als einziger zu diesem ominösen Treiber gekommen sind könnte das wieder passen. Sprich... OC beim Speicher war nur mit diesem einen Treiber möglich. Die Frage ist bloß wie die zu diesem Treiber kommen?

vielleicht steht ja was in den Review Userkommentaren? Mein Russisch beschränkt sich auf 2-3 Wörter...

Armaq
2015-06-27, 09:59:16
Wenn Batman auf zukünftige Performance hindeutet, ist die FuryX ne sehr sehr geile Karte. Wenn ixbt sich das nicht zusammen reimte. Der Wert entspräche dann auch ihrer Rechenleistung.

(del)
2015-06-27, 10:04:01
Wenn sie aber als einziger zu diesem ominösen Treiber gekommen sind könnte das wieder passen. Sprich... OC beim Speicher war nur mit diesem einen Treiber möglich. Die Frage ist bloß wie die zu diesem Treiber kommen?

Eindeutig Putin. Die haben AMD höflich darauf hingewiesen, dass grüne Männchen nicht nur nebenan beim Mitbewerber anzutreffen, sondern auch recht mobil sind. Natürlich ungelabelt :P

@dargo:
Schick mal den Link bitte, ich habe da weniger Probleme ;)

fondness
2015-06-27, 10:06:42
Du hast eine korrekte Messung, aber eigentlich eine Fehlmessung, was dir in der kurzen Zeit nicht aufgefallen ist, weil Fury nicht ausgelastet wird.

Warum genau soll das eine Fehlmessung sein? Die Messung ist genauso valide wie die aller anderen. Es ist vollkommen logisch, dass eine Karten die den Takt hält je nach Auslastung starke Schwankungen bei der Leistungsaufnahme verursacht. Das kann wohl locker +- 50W ausgehend von den 275W sein. Im Schnitt über eine breite Palette an Anwendungen sollten die 275W trotzdem ganz gut hinkommen, das zeigt ja schon die Zusammenfassung von Leonidas, obwohl da überall nur max. Werter und keine avg Werte genommen werden. Maxwell Karten verwenden einen anderen Ansatz und boosten eben immer Richtung 250W. Im Schnitt bleiben 25W mehr für die Fury, die sich je nach Anwendung mehr oder weniger deutlich zeigen.

Troyan
2015-06-27, 10:20:30
Wie oft willst du noch diese falschen Aussagen wiederholen?!

Seit Boost 2.0 regelt das TempTarget sowie die Lüftersteuerung bei den Referenzkarten den Stromverbrauch. Der liegt bei GTX980TI und Titan X bei rund 22xW nach der Einwärmphase.

250W sind nur am Anfang für kurze Zeit vorhanden.

Fury X dagegen kann über 300W an Strom benötigen, wenn die Karte ausgelastet wird. Sie kann, wie auch Maxwell, weniger benötigen, wenn die Auslastung durch Limitierungen geringer wird.

Heaven lastet die AMD Karte nicht aus. Stromverbrauch sinkt, jedoch genauso auch die Leistung im Vergleich zur GTX980TI.

(del)
2015-06-27, 10:32:16
@dargo:
Ich habe mir jetzt die 12 Seiten im ixbt Forum durchgelesen, selbst die eigenen Leser glauben nicht an diesen Treiber. Neue Erkenntnisse ergibt es auch keine, auch keine genauere Quellenangabe. Sehr ominös, weil unser Freund Andrey Vorobiev immer dann nichts schreibt, wenn genau nach dem Treiber gefragt wird. :)

И драйвера на nv обновить при этом, а то для амд драйвера Special Andrey Vorobiev Edition, а для nv какие-то бабушкины
Der war köstlich, wo man sich wundert, dass man NV mit irgendwelchen alten "Großmüttchen" testet, während man für AMD gleich eine personalisierte eine Spezial-Edition hernimmt...


@Troyan:
Der Begriff Range ist Dir ganz offensichtlich fremd, denn es gibt auch bei uns zwei Werte. Es wird sich somit immer im Von-Bis-Bereich bewegen (je nach Situation und Applikation) und spätestens ab Dienstag habe ich zudem alle Zeit dieser Welt, das Ganze bis zum Erbrechen durchzukauen. Im Gegensatz zu vielen hier, die zwar eifrig auf die Karte einhacken, aber weder eine besitzen noch es wohl jemals werden, habe ich eine gekauft. Just for fun und Leute, die erst dann etwas akzeptieren, wenn sie die 30 Einzelergebnisse vom Papst persönlich auf einem Silbertablett überreicht bekommen. Und Strom kann man auch nicht verbrauchen, so viel Zeit muss sein. Energieerhaltungssatz und so, weil Du ja immer so extrem genau bist ;)

Seit Boost 2.0 regelt das TempTarget sowie die Lüftersteuerung bei den Referenzkarten den Stromverbrauch. Der liegt bei GTX980TI und Titan X bei rund 22xW nach der Einwärmphase.
250W sind nur am Anfang für kurze Zeit vorhanden

Das Power Target der TitanX liegt bei 250 Watt und man kann es auch im erwärmten Zustand erreichen, denn nicht nur Temperatursensoren und Lüftersteuerung hängen am Arbitrator, sondern auch der PWM-Chip samt Rückmeldungen über Spannungen und Stromfluss. Ich schaffe knapp 250 Watt sogar mit der Quadro M6000 im GPGPU, die unter Last nur 10 MHz niedriger taktet als TitanX. Dass es im Gaming fast immer weniger ist, liegt an der guten Vorauserkennung von Boost 2.0 - solange halt was zu prognostizieren ist. Es ist sogar möglich, diesen Wert der als Maximum vorgegeben Verlustleistung bei Messungen außerhalb der Karte noch deutlich zu übertreffen, wenn man die Spannungswandlerverluste mit einbezieht, die auch nicht von schlechten Eltern sind.

mironicus
2015-06-27, 10:35:04
Ja, sehr spannend. Wir befinden uns kurz vor der Aufklärung eines offensichtlichen Betruges! :)

Flusher
2015-06-27, 10:48:06
Arbeitet der Gute eigentlich noch bei Nvidia? Ich warte seit Jahren auf FXAA 4.0. :ulol:

Recht hat er, in Sachen Roh-Spec pro Flächeneinheit ist Fiji ein Kracher. Zu dumm, dass das beim Spielen nicht hilft.





Erinnert irgendwie an Bulldozer :freak:

DrFreaK666
2015-06-27, 10:48:18
Ja, sehr spannend. Wir befinden uns kurz vor der Aufklärung eines offensichtlichen Betruges! :)

Alle, bis auf einen, reviews sind falsch :D

Habe geträumt ich hätte mir eine Fury X gekauft und diese war flüsterleise... Vielleicht wird sie es noch

Troyan
2015-06-27, 10:52:12
@Troyan:
Der Begriff Range ist Dir ganz offensichtlich fremd, denn es gibt auch bei uns zwei Werte. Es wird sich somit immer im Von-Bis-Bereich bewegen (je nach Situation und Applikation) und spätestens ab Dienstag habe ich zudem alle Zeit dieser Welt, das Ganze bis zum Erbrechen durchzukauen. Im Gegensatz zu vielen hier, die zwar eifrig auf die Karte einhacken, aber weder eine besitzen noch es wohl jemals werden, habe ich eine gekauft. Just for fun und Leute, die erst dann etwas akzeptieren, wenn sie die 30 Einzelergebnisse vom Papst persönlich auf einem Silbertablett überreicht bekommen. Und Strom kann man auch nicht verbrauchen, so viel Zeit muss sein. Energieerhaltungssatz und so, weil Du ja immer so extrem genau bist ;)

Eigentlich kann man Strom verbrauchen solange man die entstehende Wärme nicht wiederum als Strom speichert bzw. 1:1 zur Stromerzeugung verwendet :freak:

mironicus
2015-06-27, 10:56:00
Habe geträumt ich hätte mir eine Fury X gekauft und diese war flüsterleise... Vielleicht wird sie es noch

Luftgekühlte Versionen der FuryPro mit Zero-Fan werden schon kommen. :freak:

(del)
2015-06-27, 10:57:39
Eigentlich kann man Strom verbrauchen solange man die entstehende Wärme nicht wiederum als Strom speichert bzw. 1:1 zur Stromerzeugung verwendet :freak:
Strom (https://de.wikipedia.org/wiki/Elektrischer_Strom), richtiger elektrische Energie, wird in Wärme(energie) umgewandelt, da wird nichts verbraucht, sondern es wird am Leistung aufgenommen und umgewandelt. Nachlässigkeiten der Umgangssprache sind kein Argument ;)
Außerden fließt der Strom ja genau genommen in die Grafikkarte hinein und dann auch wieder hinaus, sonst bräuchten wir ja keine Masse.

DrFreaK666
2015-06-27, 10:57:45
Eigentlich kann man Strom verbrauchen solange man die entstehende Wärme nicht wiederum als Strom speichert bzw. 1:1 zur Stromerzeugung verwendet :freak:

Verlustleistung...

(del)
2015-06-27, 11:02:57
Verlustleistung...Du weißt es :)

Effe
2015-06-27, 11:05:42
Strom (https://de.wikipedia.org/wiki/Elektrischer_Strom) (elektrische Energie) wird in Wärme(energie) umgewandelt, da wird nichts verbraucht, sondern es wird Leistung aufgenommen und umgewandelt. Nachlässigkeiten der Umgangssprache sind kein Argument ;)

Ich würde es begrüßen, wenn man in dem Zuge auch nicht mehr von VRAM-Verbrauch spräche. Das ist erst recht völliger Unsinn. Sonst müsste man den ständig einzeln nachkaufen.

Menace
2015-06-27, 11:06:31
Offtopic Thermodramatik: Wenn man denn schon genau sein möchte, dann wird nur Energie nicht verbraucht. Für uns nützliche Energie (z.B. elektrische Energie) wird in diesem Sinne schon verbraucht und in nicht/schlecht nutzbare Energie (Wärmeenergie/Entropie) gewandelt. Man sollte den 2. Hauptsatz der Thermodynamik da nicht unter den Tisch fallen lassen ansonsten wirbt AMD bald mit dem Perpetuum mobile.

MadManniMan
2015-06-27, 11:08:55
Eigentlich kann man Strom verbrauchen solange man die entstehende Wärme nicht wiederum als Strom speichert bzw. 1:1 zur Stromerzeugung verwendet :freak:

Kleine Feinheit: "Strom" bzw. die hier gemeinte "Stromstärke" ist Ladung (praktisch immer Elektronen), die pro Zeiteinheit einen zu definierenden Querschnitt passiert. Das selbst ist noch kein Ausdruck von Energie, die wiederum steckt im elektrischen Feld - zu dessen Erzeugung Arbeit aufgewandt bzw. Energie gebraucht wurde.

Troyan
2015-06-27, 11:12:52
Strom (https://de.wikipedia.org/wiki/Elektrischer_Strom) (elektrische Energie) wird in Wärme(energie) umgewandelt, da wird nichts verbraucht, sondern es wird Leistung aufgenommen und umgewandelt. Nachlässigkeiten der Umgangssprache sind kein Argument ;)

"Verbrauch" bedeutet, dass das Produkt nicht erneut verwendet werden kann.
Nach der Schaltung der Transistoren ist die benötigte Stromenergie in Form von Wärme ohne Umwandlung nicht erneut verwendbar. Sie wurde also für die Tätigkeit verbraucht.

(del)
2015-06-27, 11:19:07
"Verbrauch" bedeutet, dass das Produkt nicht erneut verwendet werden kann.
Nach der Schaltung der Transistoren ist die benötigte Stromenergie in Form von Wärme ohne Umwandlung nicht erneut verwendbar. Sie wurde also für die Tätigkeit verbraucht.

Der elektrische Strom fließt vom Netzteil durch die Halbleiter und auch nach der Grafikkarte wieder zurück zum Netzteil, er verbleibt also nicht in der Grafikkarte und verschwindet da auch nicht "irgendwie". Im Halbleiter erzeugt der fließende Strom über den Innenwiderstand des selbigen Wärme, also eine andere Energieform. Die Schaltvorgänge sind uninteressant, es könnte genauso gut ein einfacher ohmscher Widerstand sein. Es wird Energie von einer Form in eine andere umgewandelt, aber eben kein Strom verbraucht. In der sogenannten Leistung steckt dann ja auch noch der Faktor Zeit mit drin. Bisschen viel auf einmal, aber eigentlich Schulwissen. :)

Strom ist nicht gleich Energie. (MadManniMan hat völlig Recht, leider erst hinterher gesehen :P )

Ich bin wirklich kein Prinzipienreiter, aber wenn man auf der einen Seite maximale Akkuratesse und Exaktheit einfordert, dann muss man sich auf der anderen Seite auch selbst daran halten. Das fällt mir selbst oft schwer genug, aber man sollte sich schon wegen der Kinder Mühe geben ;)

dargo
2015-06-27, 11:37:34
vielleicht steht ja was in den Review Userkommentaren? Mein Russisch beschränkt sich auf 2-3 Wörter...
Meins auf Null. :usweet:

MadManniMan
2015-06-27, 11:43:28
Ich bin wirklich kein Prinzipienreiter, aber wenn man auf der einen Seite maximale Akkuratesse und Exaktheit einfordert, dann muss man sich auf der anderen Seite auch selbst daran halten. Das fällt mir selbst oft schwer genug, aber man sollte sich schon wegen der Kinder Mühe geben ;)

Nicht nur wegen derer, aber hier werden Fehlvorstellungen gesät, das stimmt schon.

Ich bin jetzt im 4. Physik-LA-Semester und habe noch immer riesige Schwierigkeiten, alle möglichen Fehlvorstellungen zur Elektrizität als solche zu identifizieren - und erst recht keine Idee, wie ich Strom™ von Anfang an so kommuniziere, dass die Schüler gar nicht erst Quatsch denken :usad: Nette OT-Party hier übrigens.

(del)
2015-06-27, 11:45:57
@dargo;
Da bin ich besser dran :) Ich hab das mal vor Urzeiten (auch in Russland und der Ukraine) als Zweitfach studiert und bin in zweiter Ehe mit einer Ukrainerin verheiratet. Meine armen Kinder wachsen viersprachig auf. :)

dargo
2015-06-27, 11:46:00
Eindeutig Putin.

:D


@dargo:
Schick mal den Link bitte, ich habe da weniger Probleme ;)
Welchen Link meinst du? Zu diesem ominösen Treiber? Wenn ich einen hätte wäre der schon längst hier zum Gegentesten verlinkt.

@dargo:
Ich habe mir jetzt die 12 Seiten im ixbt Forum durchgelesen, selbst die eigenen Leser glauben nicht an diesen Treiber. Neue Erkenntnisse ergibt es auch keine, auch keine genauere Quellenangabe. Sehr ominös, weil unser Freund Andrey Vorobiev immer dann nichts schreibt, wenn genau nach dem Treiber gefragt wird. :)

Das ist echt merkwürdig. Es gibt zwei Möglichkeiten.

1. ixbt kam an einen Treiber ran der gar nicht für die Presse vorgesehen war (eventuell kleiner Vorgeschmack auf den Omega 2)
2. Der gesamte Test ist ein Fake. Aber wer zum Teufel macht sich so einen Aufwand? :|

Knuddelbearli
2015-06-27, 11:49:58
nichtmal njet und da? tztz

Troyan
2015-06-27, 12:13:37
Ich schaue mir gerade die Video auf Youtube an, wo mit Afterburner in 4K Spiele getestet werden.
AMD lässt wohl nicht mehr als ~3,7GB in den Speicher zu - hier z.B. in Batman:AK, dass mehr als 6GB nehmen kann:
https://www.youtube.com/watch?v=ZQMmfHbGOmE

Korvaun
2015-06-27, 12:24:58
Wenn ich Glück habe und der Zoll mitspielt, ist meine XFX-Karte am Montag oder Dienstag da :)
Retail und anonym gekauft. Es bleibt einem ja auch nichts anderes übrig.

Zumindest kann einem dann keiner vorwerfen, man wäre "biased". Maximal meine Frau. Rechnet das mal in Schuhe um... :P

Ich hoffe ja du hälst uns hier über deine Tests/Basteleien/Erkenntnisse in bezug auf FuryX detailiert auf dem laufenden. Wäre toll, denn trotz der nicht so ganz geglückten Vorstellung ist die FuryX mit Abstand die interessanteste Karte der letzten Zeit!

Hübie
2015-06-27, 12:37:16
@Format_C: Versuch mal bitte herauszubekommen in welchem Intervall der Arbitrator versucht sein Budget zu begrenzen. Das ging mit einem Tool dass die Karte zu 99% auslastet und 300+ fps erzeugt. Oder halt mit deinem lustigen Equipment.
Was genau meinst du mit Schaltgeschwindigkeit? Die der Transistoren oder die der Kontrolllogik für die Spannungsversorgen? Ich meine mich daran erinnern zu können dass Kepler mit ~400 kHz switcht. Das ist jetzt aber ohne Gewähr (und sicher findest du das schnell heraus).

Ich bitte wie gesagt noch einmal um hochaufgelöste und scharfe Bilder. Ich kann mir keine Karte "just for fun" leisten (Papa & Student ;)) also muss ich mich auf Jemanden wie dich verlassen.
Leider sind ja die bisherigen Käufer nicht in der Lage vernünftige Bilder abzulichten bevor die zurückgesandt wurden. :P

Dawn on Titan
2015-06-27, 12:38:52
Ich schaue mir gerade die Video auf Youtube an, wo mit Afterburner in 4K Spiele getestet werden.
AMD lässt wohl nicht mehr als ~3,7GB in den Speicher zu - hier z.B. in Batman:AK, dass mehr als 6GB nehmen kann:
https://www.youtube.com/watch?v=ZQMmfHbGOmE

Nochmal. nur weil eine 980ti 6GB nimmt oder eine Titan evtl. 8GB bedeutet es nicht, dass man diese braucht es bedeutet, nur dass der Treiber natürlich so viel wie möglich in den VRAM packt um das Risiko von Nachladerucklern zu minimieren. Ein gut optimiertes Spiel kommt aber auch mit echten 4GB aus.

Die russischen Ergebnisse sind interessant, da ist die Fury X absolut dominant und auf diesen Niveau habe ich sie auch erwartet. Ich denke mal die hatten einen besseren Treiber, die Frage ist aber warum nur die?

Digidi
2015-06-27, 12:44:46
Mal eine Frage ich habe diese Folie gefunden im Internet als ich mal nach Front End geschaut habe.
http://de.slideshare.net/mobile/DevCentralAMD/gs4106-the-amd-gcn-architecture-a-crash-course-by-layla-mah
Ab Seite 50-65 geht's um die Chip power und um auch das Frontend,und das bei übergroßer tesselation die Effizienz des Rasterizer auf ca. 5%sinkt. Das wären dann aber immer noch 3.2 gigapixel/s und bei UHD Auflösung dan ca 380 fps/s. (3.2*1000*1000*1000/3840/2160) wo limitiert da das Frontend?
Was auch auffällt ist das hohe Teselation garnis bring. Wenn die Dreiecke kleiner sind als der Pixel macht das ja keinen Sinn mehr da irgend etwas am Dreieck zu berechnen(siehe Seite 62)

Hat keiner darauf eine Antwort?
Hier liest so viel Fachpersonal mit aber wenns mal ein bisschen theoretischer wird hört man nur schweigen!!! Sagt dann wohl alles zu unserer Medienlandschaft! Alles nur heiße Luft!

(del)
2015-06-27, 12:50:13
@Hübie:
Ich bin auch Papa, zweifacher sogar (1 + 3) und so etwas geht nur, wenn man es als Betriebsausgabe auch sinnvoll verbuchen kann. Sonst hätte mir meine Frau sicher die Hölle heiß gemacht. Es ist aber trotzdem erst einmal ein finanzieller Verlust, wenn man die Karte nicht selbst zum Zocken braucht. Aber es lässt sich ja über Reviews auch wieder nett kompensieren ;)

Punkt Eins der Betrachtung wird die Pumpe sein, meinetwegen auch der Lüfter. Vorher werde ich allerdings so viel messen, wie nötig.

Das, was die PWM-Chips (Digital Multi-Phase Redundant & GPU Controller) theoretisch können und das, was die Karte am Ende in der Firmware umsetzt, sind leider zwei Paar Schuhe. Hawaii liegt im Durchschnitt, je nach Typ der Last, m.E. nur zwischen 100 und 120 KHz, deshalb sind sie auch auch im Average bei niedrieren Lasten so schrottig. Ich hatte das Gefühl, das hat sich jetzt mindestens verdoppelt, wenn nicht sogar noch mehr. Maxwell ist zwar schnell, aber auch nicht konstant und durchgängig. Allerdings driften meine Zangen ab ca. 200 KHz in Bereiche ab, die ich nicht mehr als richtig genau bezeichnen würde. Das müssen wir erst mal checken, ob so etwas wirklich Sinn macht und richtig belastbar ist.

Thunder99
2015-06-27, 12:51:05
Zum ominösen Treiber könnte es ein experimenteller pre Alpha Treiber sein. Kam halt mal in die "falschen" Hände :freak:. Ergo ein möglicher Ausblick was derzeit geplant ist? :confused:

Format_C: kompetente User sind immer willkommen, egal wann sie sich registriert haben :wink: , willkommen :wave2:

Mancko
2015-06-27, 12:53:56
Ich finde es recht grausam, wie die Karte hier niedergemacht wird. Das hat sie m.W. nicht verdient. Ja, es gibt valide Kritikpunkte, aber hier wird ja so getan, als wär die Fury ein absoluter Fail, den nur die extremsten Fanboys kaufen würden. Das wird ihr sicher nicht gerecht.


Wie Raff schon gesagt hat liegt das zum einem an der überzogenen Erwartungshaltung im Vorfeld. Hier muss man aber mal grundsätzlich zwei Dinge sagen:

1) AMD hat diese Erwartungshaltung selber massig geschürt und ordentlich Tam Tam gemacht und auf die Kacke gehauen, insbesondere die üblichen Twitterverdächtigen dieser Firma.

2) Insbesondere AMD User und Fans, auch hier in diesem Forum, haben dafür gesorgt. Mir ist das jetzt zu aufwändig hier so die einzelnen Threads und Postings herauszusuchen aber nur auf Grund der Tatsache, dass AMD HBM nutzt und plant einen großen Chip zu bauen kamen hier schon die abentheuerlichsten Postings.

Ein anderer Grund wieso die Karte, insbesondere aber der Launch, in Summe eher als Fail bezeichnet wird ist, dass AMD später als Nvidia gekommen ist und eben nur eben heran kommt aber eben nicht vernünftig überholt. Ich habe schon im Vorfeld gesagt, dass AMD einen klaren und eindeutigen Sieg benötigt um an der Marktsituation etwas zu ändern. Das hat AMD eindeutig nicht geschafft. Nvidia ist vorne geblieben. Ich hatte ja gehofft, dass AMD wenigsten so viel vorbei zieht, dass Nvidia gezwungen wird nochmal nachzulegen. So wird Nvidia es wohl den AIBs überlassen entsprechende 980TI Karten vom Stapel zu lassen. Richtiger Druck kommt da leider nicht auf.

Was aus meiner Sicht aber in Summe der größte Fail ist, und da rede ich jetzt mal nicht von der reinen Performance, ist der Aufwand der von AMD getrieben wird um in die Performance Region der 980Ti und Titan X zu kommen. Wirtschaftlich betrachtet ist hier AMD eigentlich überall im Nachteil, auch bei der 390x vs. GTX980. Es gab ja schon die Kommentare, dass AMD die Fiji Karte hätte einfach für 500 bis 550 anbieten sollen. Problem ist hier aber eben ob die das überhaupt können.

Ich habe ja bereits gesagt, dass AMD wenn sie nicht entscheidend vorbei kommen lieber versuchen sollte preislich im Fahrwasser mitzuschwimmen. Das versuchen die zumindest aktuell. Bei einem Preiskampf haben die keine Chance. Nvidia's Margen sind deutlich höher und die Produkte auch kostengünstiger. Dazu muss man kein Halbleiterexperte sein. Das sieht auch der Ahnungsloseste, dass der Aufwand bei AMD, insbesondere bei Fiji, enorm ist. Und in Relation dazu ist die Leistung einfach dünn. Aus der Ferne betrachtet sehe ich an vielen Stellen deutliche Anzeichen dafür, dass es an allen Ecken und Enden an R&D fehlt. Es rächt sich halt jetzt, dass das R&D überall in den letzten 12 Monaten deutlich heruntergefahren wurde um einigermaßen die Quartalsberichterstattung zu überleben. M.E. wird sich das sogar noch verschärfen.

In Summe ist eigentlich der ganze Launch sehr vergleichbar mit NV30 damals bei Nvidia. Damals war es der neue Fertitungsprozess und dieses Mal halt der große DIE mit enormer Leistungsaufnahme in Kombination mit HBM. Das Ergebnis rechtfertigt halt nicht den Aufwand. Hinzu gesellen sich ein paar vermeidbare Patzer, die Treiberprobleme und ein Problem in der Vermarktung. Es wird sehr schwierig sein dem Verbraucher zu erklären, wieso eine 390x 8GB bekommt und das High End Produkt 4GB während die Konkurrenz mit 6 und 12GB aufwartet.

Ob das nun rechtfertigt die Karte komplett nieder zu machen kann ja jeder für sich beurteilen. Enttäuschen ist es allemal und für mich steht fest, dass AMD damit keine Trendwende bekommen wird. Lisa Su wird sich vermutlich bei den Q3/Q4 Quartalszahlen wieder an ihre Aussage in Q1/Q2 erinnern müssen. Klar werden die Zahlen der GPU Abteilung besser aber eben nicht so viel besser wie sie geglaubt hat. Bin mir auch nicht sicher, ob man ihr im Vorfeld intern aus der Entwicklungsabteilung heraus reinen Wein eingeschenkt hat. Wenn ja, dann hätte Sie diese Aussage niemals machen dürfen. Ich gehe fest davon aus, das es nicht reichen wird um Nividia unter Druck zu bringen.

radical83
2015-06-27, 12:58:36
Ich verstehe nicht wieso sich einige an der Wahl des Heaven Benchmarks stören.
Mit meinem laienhaften Sachverstand und mit Hilfe eines Strommessgeräts habe ich die Leistungsaufnahme im Benchmark und 3 Spielen (Tomb Raider, Watch Dogs und Grid Autosport) für mein System verglichen.
Hierbei hatte ich die höchste Leistungsaufnahme in Heaven mit ca. 305 bis 325 Watt.
Watch Dogs hatte annähernd die gleichen Werte, Tomb Raider etwas drunter mit maximal 310 Watt. Grid hingegen war durchgängig unter 290 Watt.
Natürlich sind dies keine fundierten Werte die unter Laborbedingungen entstanden sind.
Es steht jedoch für mich außer Frage, dass Heaven geeignet ist die Typische Last von Spielen aus dem Mainstream zu simulieren.
Das dieser Wert nicht überschritten werden kann wurde doch von niemandem behauptet.

Hübie
2015-06-27, 13:00:08
@Hübie:
Ich bin auch Papa

Aber kein Student :P Ich kann die Karte (noch) nicht dem Finanzamt unterjubeln.

Punkt Eins der Betrachtung wird die Pumpe sein, meinetwegen auch der Lüfter. Vorher werde ich allerdings so viel messen, wie nötig.

Das, was die PWM-Chips (Digital Multi-Phase Redundant & GPU Controller) theoretisch können und das, was die Karte am Ende in der Firmware umsetzt, sind leider zwei Paar Schuhe. Hawaii liegt im Durchschnitt, je nach Typ der Last, m.E. nur zwischen 100 und 120 KHz, deshalb sind sie auch auch im Average bei niedrieren Lasten so schrottig. Ich hatte das Gefühl, das hat sich jetzt mindestens verdoppelt, wenn nicht sogar noch mehr. Maxwell ist zwar schnell, aber auch nicht konstant und durchgängig. Allerdings driften meine Zangen ab ca. 200 KHz in Bereiche ab, die ich nicht mehr als richtig genau bezeichnen würde. Das müssen wir erst mal checken, ab so etwas wirklich Sinn macht.

Da bin ich wie gesagt gespannt. Also nicht nur switching frquency sondern auch wie die Logik das Budget in Intervallen halten will. Beim Sandy Bridge waren das um die 15,6 ms. Das kann man aber im MSR überschreiben (UEFI-Settings halt). Bei GPUs dürfte das auch übers BIOS gehen. Da endet dann aber meine Expertise, weil so ein BIOS mal umgedreht programmiert ist, mal kodiert, mal Kilohertz speichert, mal Teiler oder oder oder. Bin also immer erstaunt wenn Leute das so per Hex-Editor herausfinden (vor allem die Zeit und Geduld erstmal aufbringen). :smile:

(del)
2015-06-27, 13:05:43
Da bin ich wie gesagt gespannt. Also nicht nur switching frquency sondern auch wie die Logik das Budget in Intervallen halten will. Beim Sandy Bridge waren das um die 15,6 ms. Das kann man aber im MSR überschreiben (UEFI-Settings halt). Bei GPUs dürfte das auch übers BIOS gehen. Da endet dann aber meine Expertise, weil so ein BIOS mal umgedreht programmiert ist, mal kodiert, mal Kilohertz speichert, mal Teiler oder oder oder. Bin also immer erstaunt wenn Leute das so per Hex-Editor herausfinden (vor allem die Zeit und Geduld erstmal aufbringen). :smile:

Bevor ich mir hier einen Wolf messe, frage ich am Montag mal die, die solche BIOSe schreiben. Die Boardpartner haben zwar meist nur begrenzte Möglichkeiten, aber da sitzen Leute, die wissen das garantiert besser als ich. Man muss sie nur dazu bringen, das auch preiszugeben :D

@Digidi:
Es ist immer die Frage, wozu man das aufpolierte Mesh als Gesamtkunstwerk überhaupt und später (vielleicht noch) benötigt. Es sind ja nicht nur einzelne, zusammenhangslose Dreiecke mit drei Vertices, die man einfach mal weglässt, sondern es ist ein echtes Mesh, bei denen sich die Eigenschaften gemeinsam genutzer Vertices dieser Dreiecke auch wieder auswirken (Textureinstige, Oberflächeneigenschaften usw.). Ein pixelgroßes Dreieck hat trotzdem drei solcher Punkte, die wieder mit anderen interagieren. So lange es kein Null-Dreieck mit absolut identischen Koordinaten aller drei Vertices ist, wäre es auch schwer, das einfach mal so auszusortieren. Man muss auch ein Mesh nicht ständig neu berechnen, wenn es nicht nötig ist. Da wir den Treiber nicht programmiert haben, können wir in vielen Bereichen eben auch nur spekulieren. Dann ist keine Antwort oft besser als eine falsche. :)

Angiesan
2015-06-27, 13:09:13
Aber kein Student :P Ich kann die Karte (noch) nicht dem Finanzamt unterjubeln.
:

Da bist Du ja selbst dran schuld, jetzt nicht weinen sondern durchhalten :biggrin:

Menace
2015-06-27, 13:09:15
@Mancko: Sobald irgendjemand "fail" für eine komplette Karte schreibt, zweifle ich an dessen Differenzierungsmöglichkeiten und den Rest des postings eigentlich ignoriert. Selbst wenn für die Mehrheit die Karte eine uninteressante Karte wird, gibt es genug Anwendungsmöglichkeiten oder Gründe so eine Karte zu kaufen.

Offtopic: Haben sich eigentlich einmal die Menschen hier, die das Wort "fail" benutzen, einmal um die Bedeutung dessen gekümmert. :freak:

@radical83: Eigentlich müssten es die Fachpersonen genau erklären können. Ich kann mir vorstellen, dass je nach Tes.-Einstellung manche Karten einfach nicht genug ausgelastet werden, d.h. dass die kartenlimitierende Faktor dafür sorgt, dass die Karte nicht wirklich ausgelastet wird. Aber kann man das eigentlich nicht mit dem Benchmarkergebnis gegenrechnen, so dass man einen Stromverbrauch (ja, ja, ich weiß, Strom wird nicht verbraucht, geschenkt; vor mir aus auch Energieumwandlung, Stromkosten, ...) pro Performance damit errechnen kann, der halbwegs stimmt? :confused:

Digidi
2015-06-27, 13:21:09
Danke für die Antwort Format_C. Was mich halt wundert ist wo die ganze Leistung hingeht und überhaupt. Was passiert den mit den 400fps? Es kann ja dann nur daran liegen das die Pipline danach nicht so viel abnimmt?

2.) Wer programmiert solch einen hohen gerad an Teselation welches kleiner Dreiecke als ein Pixel erzeugt! Dadurch wird doch der detailgrad nicht höher. Der wird durch die Auflösung dan wieder verschluckt. Erinnert mich an Gameworks. Man verbaut viele Rasterizer und legt alles auf Teselation aus dann gibt man dazu einen Code raus der hauptsächlich dieses benutzt ohne das es Bildvorteile bringt aber die Konkurentz läuft langsamer. Sieht man ja an The Wischer 3 ab tesselation x16 sieht man kaum einen Unterschied als zu x64 aber dafür sinkt die Leistung dann bei der Konkurenz dramatisch

BlacKi
2015-06-27, 13:21:45
wie kann man den russentest ernst nehmen?

ein unbekannter treiber, der offensichtlich mogelt.

massiv höhere benchmark ergebnisse, die nicht nur mit dem übertakten zu erklären sind.


Die Fury ohne X mit luftkühlung wird dieselben probleme bekommen wie sie hawai durchweg hat, nur schlimmer.

fury x hat bereits einen niedrigeren verbrauch durch die wakü, welche bei der non x wegfällt.

ich hatte mir von hbm mehr erhofft.

radical83
2015-06-27, 13:25:17
@Manace
Wie bereits von mir beschrieben, die Werte zwischen den Spielen und Heaven unterscheiden sich bei mir nicht sonderlich.
Was ich als Argument jedoch nachvollziehen kann, ist es in Betracht zu ziehen, dass eine nVidia Grafikkarte in Heaven höhere Leistungsaufnahme erreicht als in diesen Spielen.

Vielleicht liege ich aber auch mit meiner Schlussfolgerung völlig daneben.

cobra38
2015-06-27, 13:26:38
Leider sind ja die bisherigen Käufer nicht in der Lage vernünftige Bilder abzulichten bevor die zurückgesandt wurden. :P
Ich habe meine Karte nur verpackt aber noch nicht zurückgeschickt, da ich immer noch auf eine Lösung mit der Pumpe hoffe.
Welche speziellen Bilder hättest Du gerne?
Gibt ja eigentlich genug im Netz oder willst Du nur wissen wer so eine Karte wirklich besitzt?

Grestorn
2015-06-27, 13:30:17
Offtopic: Haben sich eigentlich einmal die Menschen hier, die das Wort "fail" benutzen, einmal um die Bedeutung dessen gekümmert. :freak:

Du sprichst mir damit so aus der Seele... :up:

(del)
2015-06-27, 13:57:22
Du sprichst mir damit so aus der Seele... :up:
Es wird auch gern noch mit Epic gesteigert. :D

@Cobra38:
Es geht ums Öffnen und Zerlegen. Mach das bitte nicht, wenn Du sie vielleicht doch noch zurückschicken willst. Er fragt aus berechtigter Neugier und nicht um jemanden zu kontrollieren. :wink:

Menace
2015-06-27, 14:03:14
bei mir

Ich habe leider überlesen, welche Grafikkarte Du hast. Die FuryX?

@Grestorn: :eek: Das wir mal einer Meinung sind?! :wink:

Leonidas
2015-06-27, 14:08:41
Performance-Kurve zwischen den drei Auflösungen nunmehr in Bildform:

http://www.3dcenter.org/dateien/abbildungen/Performance-Vergleich-Enthusiasten-Grafikkarten-Ende-Juni-2015.png

Thunder99
2015-06-27, 14:14:00
Nice, danke
Dann hat das Marketing von AMD gar nicht mal gelogen das sie die Karte als 4k Karte beworben haben. Das stimmt ja, nur das darunter halt die bekannte GCN Schwäche noch vorhanden ist (welche wirklich nicht schlimm ist)

fondness
2015-06-27, 14:14:14
Performance-Kurve zwischen den drei Auflösungen nunmehr in Bildform:

http://www.3dcenter.org/dateien/abbildungen/Performance-Vergleich-Enthusiasten-Grafikkarten-Ende-Juni-2015.png

Sehr schöne Darstellung, viel deutlicher kann man die klare Fokussierung auf hohe Auflösungen der Fury nicht zeigen.

Lowkey
2015-06-27, 14:15:07
Fehlt nur noch die 970 und dann kann man die Highendgrafikkarten in zwei Klassen einordnen.

radical83
2015-06-27, 14:16:35
@Menace

Nein, ist nur "nur" eine R9 290. Hätte ich besser direkt erwähnen sollen.

(del)
2015-06-27, 14:16:43
Ja, die Grafik hat was :up:

cobra38
2015-06-27, 14:18:53
@FormatC:
Zerlegen werde ich die Karte natürlich nur wenn ich Sie auch behalte.
Jemand der die Karte zurückschickt wird Sie kaum davor zerlegen.
Aber er hat halt immer wieder nach Bildern gefragt und von der kompletten Karte kann ich Ihm gerne ein paar Bilder schicken.
Gibt es eigentlich irgendwelche Informationen von AMD oder Cooler Master das Sie an dem Geräuschproblem der Pumpe arbeiten?

Menace
2015-06-27, 14:20:46
@Leonidas.

Nicht schlecht. Danke schön. Könnte man das aber nicht in fps auch angeben? Was nützt es mir, wenn bei hohen Auflösungen die fps unspielbar, dafür die hohen fps in niedrigen Auflösungen unnötig sind?

Matrix316
2015-06-27, 14:23:31
Wobei es etwas in die falsche Richtung deutet, weil es

a) bei 50% anfängt und damit den Unterschied zwischen den schnellsten und weniger schnellen größer anzeigt, als er eigentlich ist

und

b) die FPS nicht steigen, wenn man von Full HD auf 4K geht, sondern ALLE Karten in 4K eher so niedrigere FPS haben, selbst wenn die Fury in der Nähe der 980TI ist, haben beide nur so um die 3x FPS.

dildo4u
2015-06-27, 14:23:34
@Leonidas.

Nicht schlecht. Danke schön. Könnte man das aber nicht in fps auch angeben? Was nützt es mir, wenn bei hohen Auflösungen die fps unspielbar, dafür die hohen fps in niedrigen Auflösungen unnötig sind?
Es gibt nicht ein fps Wert für alle Games.Für 4k ist die Karte zu langsam es sei denn man zockt mit Konsolen fps was natürlich die Maus als genaue Eingabe Methode wertlos macht.Nvidia's näste Titan wird vermutlich die erste echte 4k Karte.

DrFreaK666
2015-06-27, 14:26:56
Performance-Kurve zwischen den drei Auflösungen nunmehr in Bildform:

http://www.3dcenter.org/dateien/abbildungen/Performance-Vergleich-Enthusiasten-Grafikkarten-Ende-Juni-2015.png

Fehlt noch die GTX970, aber es sieht doch recht gut aus :)

... Für 4k ist die Karte zu langsam es sei denn man zockt mit Konsolen fps was natürlich die Maus als genaue Eingabe Methode wertlos macht.Nvidia's näste Titan wird vermutlich die erste echte 4k Karte.

Die Karte ist für 4k nicht zu langsam. Original Sin läuft gerade noch annehmbar bei mir. Mit der Fury X wird es viel besser laufen.

(del)
2015-06-27, 14:27:39
Gibt es eigentlich irgendwelche Informationen von AMD oder Cooler Master das Sie an dem Geräuschproblem der Pumpe arbeiten?


Außer diesem Standardtext gab es nichts:

We have received feedback that during open bench testing some cards emit a mild “whining” noise. This is normal for most high speed liquid cooling pumps; usually the end user cannot hear the noise as the pumps are installed in the chassis, and the radiator fan is louder than the pump. Since the AMD Radeon™ R9 FuryX radiator fan is near silent, this pump noise is more noticeable.

The issue is limited to a very small batch of initial production samples and we have worked with the manufacturer to improve the acoustic profile of the pump. This problem has been resolved and fix added to production parts and is not issue.


Was für einen Hersteller hast Du? Ich habe mir eine XFX besorgt, die einzige, die noch zu haben war, wo ich gekauft habe. Es ist Retail und erst wieder nachgeliefert worden. Man sollte somit davon ausgehen können, dass es gefixt ist. Falls überhaupt was zu fixen ist. :)
Wenn mich die Pumpe nervt, fliegt der ganze billige AIO-Klimbim nach den Tests runter und es kommt ein echtes Männerspielzeug drauf. Open Loop ist immer noch das einzig Wahre :tongue:

joe kongo
2015-06-27, 14:28:07
basiert die Grafik auf den Tests für den 3DC Performance Index ?

gedi
2015-06-27, 14:29:14
Ich empfinde das Diagramm/ die Grafik als absolut nichtssagend - ohne Angabe der Settings - für was soll das Ding taugen :confused:

DrFreaK666
2015-06-27, 14:30:00
Ich empfinde das Diagramm/ die Grafik als absolut nichtssagend - ohne Angabe der Settings - für was soll das Ding taugen :confused:

Durchschnitt aller settings

M4xw0lf
2015-06-27, 14:30:51
Performance-Kurve zwischen den drei Auflösungen nunmehr in Bildform:

http://www.3dcenter.org/dateien/abbildungen/Performance-Vergleich-Enthusiasten-Grafikkarten-Ende-Juni-2015.png
Wenn das mal nicht eindrucksvoll einen Mangel an Frontend-Power darstellt. AMD y u no double Tonga? :motz:

Menace
2015-06-27, 14:36:17
fps-Bereich gestaffelt würde mir ja schon reichen. Und jeden Punkt kann man auch einen Bereich angeben, wie bei Naturwissenschaftlichen Modellrechnungen gemacht wird. Es geht ja darum, in welchem Bereichen die Karte etwas taugt.

gedi
2015-06-27, 14:38:45
Durchschnitt aller settings

Welche denn da wären? Ich meine, für ein Produkt welches mehr als 700€ kostet, brauche ich keine 1440p+1600p ohne AA+HQAF zu testen. Es könnte ja möglich sein, dass FuryX gar nicht für Kikilalla-Settings konzipiert wurde und erst unter höheren Settings ihre Rohpower auf die Straße bringt.

Thunder99
2015-06-27, 14:47:21
Verstehe die Grafik so, dass Fury X bzw alle Karten im Verhältnis zur 980Ti gezeigt werden. Und weiter wie sich alle Karten bei den verschiedenen Auflösungen zur 980Ti verhalten. Nicht mehr nicht weniger ;). Und es zeigt das Fiji erst richtig auf blüht wenn die Auflösung >1080p liegt. Ob es dann noch ausreichend fps gibt steht auf einen anderen Blatt. Je nach Spiel und Setting mal mehr mal weniger

DrFreaK666
2015-06-27, 14:57:40
Welche denn da wären? Ich meine, für ein Produkt welches mehr als 700€ kostet, brauche ich keine 1440p+1600p ohne AA+HQAF zu testen. Es könnte ja möglich sein, dass FuryX gar nicht für Kikilalla-Settings konzipiert wurde und erst unter höheren Settings ihre Rohpower auf die Straße bringt.

Leonidas Artikel hast nicht überflogen, bzw. kennst die artikel davor nicht. Würde helfen 😉
Zumindest den Fury X Artikel
3D-Center ist nicht nur ein Forum :)

Leonidas
2015-06-27, 14:58:50
basiert die Grafik auf den Tests für den 3DC Performance Index ?


Logo.



Durchschnitt aller settings


Richtig. Unter 19x10 und 25x14 natürlich mit Konzentration auf 4xMSAA, soweit vorhanden.



Verstehe die Grafik so, dass Fury X bzw alle Karten im Verhältnis zur 980Ti gezeigt werden. Und weiter wie sich alle Karten bei den verschiedenen Auflösungen zur 980Ti verhalten. Nicht mehr nicht weniger ;).


Exakt. Es handelt sich um eine rein relative Performance-Angabe. fps-Werte haben da nix zu suchen, es wurden rund ein Dutzend Tests mit insgesamt hunderten Benchmark-Werten hierfür verrechnet. Da ist leider nix mehr mit einzelnen fps-Angaben machbar.

dargo
2015-06-27, 15:41:57
Nice, danke
Dann hat das Marketing von AMD gar nicht mal gelogen das sie die Karte als 4k Karte beworben haben. Das stimmt ja, nur das darunter halt die bekannte GCN Schwäche noch vorhanden ist (welche wirklich nicht schlimm ist)
Ich bin immer noch der festen Überzeugung, dass das nichts mit GCN Schwäche zu tun hat sondern einfach zum größten Teil dem stärkeren CPU-Limit dank kleineren Auflösungen geschuldet ist. Das sieht man auch ganz gut daran, dass Hawaii und Grenada nicht diese kontinuierliche Kurve zeigen weil die GPUs allgemein einiges schwächer sind und somit bereits in den kleineren Auflösungen stark bis vollständig im GPU-Limit liegen. Hätten wir deutlich stärkere CPUs (also irgendwas wie Haswell @6+Ghz) könnte man das höchstwahrscheinlich bereits @DX11 sehen. Ansonsten müssen wir auf DX12 warten damit das CPU-Limit ein gutes Stück wieder nachlässt. Oder AMD feilt weiter am DX11 Treiber.

Wenn das mal nicht eindrucksvoll einen Mangel an Frontend-Power darstellt. AMD y u no double Tonga? :motz:
Das lässt sich von dieser Grafik nicht ableiten solange beide IHVs eine (je nach Spiel und Szene) stark abweichende CPU-Leistung dank unterschiedlichem Treiberoverhead haben.

DrFreaK666
2015-06-27, 15:52:34
CB haben doch auch mit einer schwächeren CPU getestet, oder?

ilibilly
2015-06-27, 15:55:25
Ich denk für die meisten wird wohl 1440p relevant sein ,die meisten würden wohl 60fps den 30-40 fps bei 4 k vorziehen.
Die flüssigere Darstellung ist mehr wert als Paar Pixel mehr,der Sprung von 1080p zu 1440p ist schon deutlich sichtbar.
Bei 4k müsste man schon vieles runterschrauben um an die 60fps zu kommen,und runterschrauben ist keine Option für enthusiasten :)
Denke auch das 4k Gaming erst mit Pascal und fury 2 8gb in 14nm salonfähig wird.dann wären auch 600€ ein super Deal

Ps: ist echt komisch das kein Magazin die fury auf bestimmte CPUs getestet hat oder die fury mal runtergetaktet ,dann würde man auch sehn ob doch der hbm limitiert,denn ansonsten kann ich die 20% Mehrleistung durch 600mhz hbm immerfort nicht erklären.
Auch wenn die ganzen Seiten sei es thg,pcgh nur für ein paar Tage testsamples haben sollte man sich halt auf dem freien Markt bedienen ,zu kaufen gabs ja genügend und für ne Zeitschrift sollten wohl 700€ irgendwo rumliegen :) im Budget

dildo4u
2015-06-27, 15:55:52
Ich bin immer noch der festen Überzeugung, dass das nichts mit GCN Schwäche zu tun hat sondern einfach zum größten Teil dem stärkeren CPU-Limit dank kleineren Auflösungen geschuldet ist. Das sieht man auch ganz gut daran, dass Hawaii und Grenada nicht diese kontinuierliche Kurve zeigen weil die GPUs allgemein einiges schwächer sind und somit bereits in den kleineren Auflösungen stark bis vollständig im GPU-Limit liegen. Hätten wir deutlich stärkere CPUs (also irgendwas wie Haswell @6+Ghz) könnte man das höchstwahrscheinlich bereits @DX11 sehen. Ansonsten müssen wir auf DX12 warten damit das CPU-Limit ein gutes Stück wieder nachlässt. Oder AMD feilt weiter am DX11 Treiber.


Es fehlt auch Geometrie Leistung Sniper Elite 3 erzeugt so gut wie keine CPU Last nutzt aber Tesselation.
Die 390X scheint genug für ihre Rohleistung zu haben sie liegt in 1440p vor der Asus 980 ,Fury X dagegen kommt nicht an die 980 Ti.

http://www.overclock3d.net/reviews/gpu_displays/amd_r9_fury_x_review/16

Unter 1080p sind's mit der Fury X 180fps,fury X hätte also in 1440p das Potenzial an die 980 TI ranzukommen,die CPU ist nicht das Problem.

iuno
2015-06-27, 16:01:12
[...] die bekannte GCN Schwäche [...]
"GCN-Schwäche" sagt sich leicht. Normiert man an der Fury, gibt es plötzlich die "Nvidia-Schwäche", da die Karten bei höheren Auflösungen stärker einbrechen. Das könnte sich wiederum etwas ausgleichen, wenn man das PT auf Fury-Niveau hebt. Ist ja alles relativ, des einen Stärke ist des anderen Schwäche.
Ich bin wie dargo der Meinung, dass man Titel mit next-Gen API oder zumindest den nächsten Omega abwarten sollte. Wenn AMD eine echte Schwäche hat, ist das imho das CPU-Limit/insgesamt die Performance des Treibers unter DX11.
Natürlich kann es sein, dass für zukünftige Titel auch immer Geometrie Leistung fehlt, aber ob wirklich so viel mehr Wert auf Geometrie gelegt werden muss, bleibt erstmal offen. Vergleiche etwa optisch Witcher 3 mit Tess Faktor 64 vs 16 :rolleyes: Imho gibt es wichtigeres, vor allem lighting. Es kommt ganz darauf an, worauf die Entwickler Wert legen, dann kann man entscheiden ob das Design (un)ausgewogen ist.

aufkrawall
2015-06-27, 16:05:26
Es fehlt auch Geometrie Leistung Sniper Elite 3 erzeugt so gut wie keine CPU Last nutzt aber Tesselation.
Die 390X scheint genug für ihre Rohleistung zu haben sie liegt in 1440p vor der Asus 980 ,Fury X dagegen kommt nicht an die 980 Ti.

http://www.overclock3d.net/reviews/gpu_displays/amd_r9_fury_x_review/16

Unter 1080p sind's mit der Fury X 180fps,fury X hätte also in 1440p das Potenzial an die 980 TI zu kommen,die CPU ist nicht das Problem.
Es deutet wirklich einiges auf ein unrundes GPU-Design hin. :(
Edit: Oder wurde wieder Mantle getestet, das vielleicht auch bei Sniper Elite nicht richtig mit GCN 1.2 läuft?

M4xw0lf
2015-06-27, 16:12:50
Das lässt sich von dieser Grafik nicht ableiten solange beide IHVs eine (je nach Spiel und Szene) stark abweichende CPU-Leistung dank unterschiedlichem Treiberoverhead haben.
Nice try, dildo, dich als dargo auszugeben.
Ernsthaft, schau dir die Hawaiis an im Vergleich. Es liegt nicht am Treiber.

aufkrawall
2015-06-27, 16:14:45
Performance-Kurve zwischen den drei Auflösungen nunmehr in Bildform:

http://www.3dcenter.org/dateien/abbildungen/Performance-Vergleich-Enthusiasten-Grafikkarten-Ende-Juni-2015.png
Neat. Da sieht man jedenfalls, dass NV keine "HiRes-Schwäche" hat.

iuno
2015-06-27, 16:19:02
Neat. Da sieht man jedenfalls, dass NV keine "HiRes-Schwäche" hat.
Ja klar, weil die Grafik an der 980 Ti normiert ist ;D
Das sind doch nur relative Werte.

dildo4u
2015-06-27, 16:21:36
Edit: Oder wurde wieder Mantle getestet, das vielleicht auch bei Sniper Elite nicht richtig mit GCN 1.2 läuft?
Scheint normal zu laufen.

Using AMD's Mantle again gives some performance increases, with a 9.1% gain at medium presets and a 7.2% gain at Ultra presets with the R9 285 GPU.


http://www.overclock3d.net/reviews/gpu_displays/club3d_r9_285_royal_queen_review/7

An Mantle hatte ich gar nicht gedacht so kann der CPU Overhead nicht das Problem sein.

aufkrawall
2015-06-27, 16:22:09
Ay. :(

fondness
2015-06-27, 16:25:16
Es deutet wirklich einiges auf ein unrundes GPU-Design hin. :(

Was für eine seltsame Aussage. Was "rund" ist und was nicht hängt einzig und alleine von der Anwendung ab.

aufkrawall
2015-06-27, 16:28:48
Was für eine seltsame Aussage. Was "rund" ist und was nicht hängt einzig und alleine von der Anwendung ab.
Bis auf Ryse und Civ ist Maxwell aber einfach schneller.
Wenn die meisten Spiele einer GPU nicht optimal liegen, kann man sie ja wohl als "unrund" bezeichnen, ohne, dass das nicht objektiv wäre.

Auf dem PC hat man eh Cross Plattform mit der XB1, wahrscheinlich wirds etwas wie The Tomorrow Children eher selten dafür geben.
Abgesehen davon, dass das reine Zukunftsmusik ist und nächtes Jahr 16nm GPUs kommen.

Leonidas
2015-06-27, 16:39:22
Neat. Da sieht man jedenfalls, dass NV keine "HiRes-Schwäche" hat.


Jein. Alles unter 980Ti hat die in der Tat. Und ich würde eher aus der Grafik lesen wollen: FuryX hat eine bemerkenswerte 4K-Stärke.

Knuddelbearli
2015-06-27, 16:42:21
Es gibt nicht ein fps Wert für alle Games.Für 4k ist die Karte zu langsam es sei denn man zockt mit Konsolen fps was natürlich die Maus als genaue Eingabe Methode wertlos macht.Nvidia's näste Titan wird vermutlich die erste echte 4k Karte.

oder man reduziert 1-2 Einstellungen um 1 stufe was man eh 99,999% der Zeit nicht bemerkt.
Aber die Diskussion hatten wir ja schon sooft ...

fondness
2015-06-27, 16:42:27
Jein. Alles unter 980Ti hat die in der Tat. Und ich würde eher aus der Grafik lesen wollen: FuryX hat eine bemerkenswerte 4K-Stärke.

Alles eine Frage des Bezugspunktes. Faktum ist, die Fury verliert mit Abstand am wenigsten Leistung durch höhere Auflösungen.

Knuddelbearli
2015-06-27, 16:44:14
fps-Bereich gestaffelt würde mir ja schon reichen. Und jeden Punkt kann man auch einen Bereich angeben, wie bei Naturwissenschaftlichen Modellrechnungen gemacht wird. Es geht ja darum, in welchem Bereichen die Karte etwas taugt.

da hierfür ca 100 unterschiedliche Werte unterschiedlicher spiele von unterschiedlichen Testseiten verwertet werden wirst du da aber nicht mehr viel erkennen

M4xw0lf
2015-06-27, 16:46:16
Jein. Alles unter 980Ti hat die in der Tat. Und ich würde eher aus der Grafik lesen wollen: FuryX hat eine bemerkenswerte 4K-Stärke.Nö, das würde ich herauslesen, wenn die Fury bei FullHD mit 100% starten und unter 4k bei 120% enden würde.

Troyan
2015-06-27, 16:48:32
Bzgl. Mantle hat Ryan Smith von Anandtech Informationen im Beyond3d.com Forum veröffentlicht:

Mantle forward compatibility is essentially at a stand-still. AMD has shifted their resources to Vulkan and DX12. They have not made any Mantle optimizations for GCN 1.2, nor will they in the future from what I have been told. The existing Mantle games are essentially legacy experiments at this point, since Mantle has been all but supplanted by DX12/Vulkan.
https://forum.beyond3d.com/posts/1856590/


FWIW, my numbers are very much the opposite of that. In BF4 Mantle is much slower than D3D11 at lower resolutions, and in Civ:BE D3D11 has a slight lead (though Mantle's minimums are much, much better). Which according to AMD is what you'd expect to see, as they haven't done any optimizations.

(On a side note, personally I'm surprised Fury X even runs Mantle on Civ. The 285 crashes when you try to use Civ's Mantle renderer on it)

https://forum.beyond3d.com/posts/1856698/

Korvaun
2015-06-27, 16:53:00
Das Mantle "tot" ist war ja nicht anders zu erwarten. In 1 Monat kommt DX12, also was solls. Es ist wesentlich sinnvoller alle Manpower in DX12 zu investieren bei AMD, das sie ja offensichtlich eh sehr wenig davon haben...

Troyan
2015-06-27, 16:56:28
Das Problem ist, dass die vorhandenen Mantle-Spiele - speziell BF4 - Probleme mit GCN 1.2 haben. Wer von Tahiti/Hawaii auf Fiji ausrüstet, kann dann eine böse Überraschung erleben, wenn die Leistung schlechter ist als vorher.

Mantle selbst wird auch nicht mehr auf GCN 1.2 optimiert. Ist für Tonga und Fiji daher tot.

dildo4u
2015-06-27, 16:58:57
Mordor verhält sich auch wie Sniper Elite 3 nutzt aber keine Tesselation.390X vor 980,Fury X hinter 980Ti.

https://youtu.be/39PHDS-KYf0?t=4m2s

Schätze mal der Bench erzeugt wenig CPU Last,da keine KI brechnet wird.

aufkrawall
2015-06-27, 17:01:58
Das Problem ist, dass die vorhandenen Mantle-Spiele - speziell BF4 - Probleme mit GCN 1.2 haben. Wer von Tahiti/Hawaii auf Fiji ausrüstet, kann dann eine böse Überraschung erleben, wenn die Leistung schlechter ist als vorher.

Das setzt dem Ganzen echt schon wieder die Krone auf:
Erst vertröstet man die Kunden bei BF4 mit der miesen D3D11.1 CPU-Performance aufs kommende Mantle, was auch erst arge Anlaufschwierigkeiten hatte, und jetzt kann man das mit der neusten Hardware gar nicht mehr nutzen und den D3D11-Overhead hat man in der Zwischenzeit auch noch überhaupt nicht verbessert.
imho ist das eine ähnliche Kundenverarsche wie die 970-Geschichte.

joe kongo
2015-06-27, 17:03:27
Nö, das würde ich herauslesen, wenn die Fury bei FullHD mit 100% starten und unter 4k bei 120% enden würde.

Seh ich genau so.
Sie spielt ihre Stärken im Bereich aus wo es sowieso Wurst ist, und erreicht
dort eine Karte ohne HBM :freak:.

Troyan
2015-06-27, 17:20:39
Das setzt dem Ganzen echt schon wieder die Krone auf:
Erst vertröstet man die Kunden bei BF4 mit der miesen D3D11.1 CPU-Performance aufs kommende Mantle, was auch erst arge Anlaufschwierigkeiten hatte, und jetzt kann man das mit der neusten Hardware gar nicht mehr nutzen und den D3D11-Overhead hat man in der Zwischenzeit auch noch überhaupt nicht verbessert.
imho ist das eine ähnliche Kundenverarsche wie die 970-Geschichte.

Man sieht ja schon im Digitalfoundry Video, dass der Abstand im nicht so CPU-lästigen Single-Player bei 20% zur GTX980TI betragen kann.

Hardocp hat den Multiplayer getestet und dort ist die GTX980TI in 1440p mit 2xMSAA 35% schneller als Fury X unter D3D: http://hardocp.com/article/2015/06/24/amd_radeon_r9_fury_x_video_card_review/8#.VY6-04Ch0uU

Und Mantle soll 5-10FPS langsamer sein, wodurch sich der Abstand auf 48% (2xMSAA) und 60% (4xMSAA) erhöht...

RoughNeck
2015-06-27, 17:34:34
Wie jetzt?
Mit der Fury kann man kein Mantle nutzen?
Wird ja immer besser, was ist´n das für eine Scheiße?!

Troyan
2015-06-27, 17:36:41
Doch, du kannst den Mantle-Pfad benutzen.
Aber es ist nicht garantiert, dass der Effekt genauso ausgeprägt ist wie bei Hawaii oder Tahiti.

Generell ist Mantle für GCN 1.2 unoptimiert und es wird in Zukunft auch keine Anpassung geben. Sollte also nochmal irgendwas mit Mantle erscheinen, kann es sein, dass es garnicht oder schlecht auf GCN 1.2 Karten funktioniert.

Matthias2304
2015-06-27, 17:38:25
Das Mantle "tot" ist war ja nicht anders zu erwarten. In 1 Monat kommt DX12, also was solls. Es ist wesentlich sinnvoller alle Manpower in DX12 zu investieren bei AMD, das sie ja offensichtlich eh sehr wenig davon haben...
Stimme dir voll zu!
Was man mit Mantle erreichen wollte ist aus meiner Sicht eingetreten, den Entwickler mehr Deep Level Zugriffe zu ermöglichen. Und ich gehe soweit zu sagen, das Dx 12 auch ein Ergebnis und dem Erfolg von Mantle ist. Das Mantle jetzt hinten runterfällt ist sogar konsequent. Dx12 wird eine breitere Basis durch win10 erhalten und eher in den Focus rücken als es Mantle selbst schaffen kann.

aufkrawall
2015-06-27, 17:46:59
Ist ja nicht schlimm, dass Mantle nicht fortgeführt wird. Aber man kann nicht einfach so den Support (was auch die Zusammenarbeit mit den Entwickler-Teams für GCN 1.2 beinhaltet) für etwas derart neues abbrechen, wenn dem Kunden dadurch Nachteile (wie im immer noch sehr lebendigen BF4) entstehen.

cobra38
2015-06-27, 17:51:27
Was für einen Hersteller hast Du? Ich habe mir eine XFX besorgt, die einzige, die noch zu haben war, wo ich gekauft habe.
Ich habe eine Sapphire Radeon R9 Fury X.
Werde einfach mal abwarten was bei deinem Test herauskommt.

Matthias2304
2015-06-27, 17:53:57
Ist ja nicht schlimm, dass Mantle nicht fortgeführt wird. Aber man kann nicht einfach so den Support (was auch die Zusammenarbeit mit den Entwickler-Teams für GCN 1.2 beinhaltet) für etwas derart neues abbrechen, wenn dem Kunden dadurch Nachteile (wie im immer noch sehr lebendigen BF4) entstehen.

Hey,

Welche Nachteile meinst du? Ich nutz auch Mantle bei bf4, hab dadurch aber nix negatives festgestellt...jetzt nicht mehr. Am Anfang war es eine Qual.

woodsdog
2015-06-27, 17:54:44
Dann sollen die halt den DX11 Pfad nutzen wenn der schneller ist. Wo ist denn das Problem, wieso sollte das denn ein Nachteil sein?

Ist DX11@Fiji langsamer als Mantle@Tahiti/Hawaii?

Das Mantle keine ernsthaften Zukunftschancen hatte war doch von Anfang an klar.

(del)
2015-06-27, 17:55:53
Ich habe eine Sapphire Radeon R9 Fury X.
Werde einfach mal abwarten was bei deinem Test herauskommt.Es sind alles die gleichen Karten. Die Boardpartner labeln sie nur noch, kaufen sie aber bei AMD.

Troyan
2015-06-27, 17:57:24
AMDs Treiberoverhead unter DX11. Schau dir das Hardocp-Review an. Die GTX980TI ist 31% bzw. 35% schneller im MP unter DX11.

aufkrawall
2015-06-27, 17:57:41
Hey,

Welche Nachteile meinst du? Ich nutz auch Mantle bei bf4, hab dadurch aber nix negatives festgestellt...jetzt nicht mehr. Am Anfang war es eine Qual.
Darum geht es doch: Mit Fiji und Tonga läuft Mantle nicht mehr richtig bzw. die Spiele unterstützen mit dem Mantle-Pfad nicht GCN 1.2. Deshalb ist die PErformance dann mit Mantle sogar schlechter als mit D3D. Und mit Letzterem hast du das Overhead-Problem, aka niedrige fps im CPU-Limit.

dildo4u
2015-06-27, 17:58:17
Hey,

Welche Nachteile meinst du? Ich nutz auch Mantle bei bf4, hab dadurch aber nix negatives festgestellt...jetzt nicht mehr. Am Anfang war es eine Qual.
Fury X läuft mit Mantle schlechter als mit DX11,man muss also für die "beste" Performance DX11 nutzen.Nicht grad optimal da AMD natürlich bei dem Game nie an der DX11 Peformance geschraubt hat.

http://hardocp.com/article/2015/06/24/amd_radeon_r9_fury_x_video_card_review/8#.VY7H2Uaqkrd

Korvaun
2015-06-27, 18:09:46
Das die Mantle-Sache jetzt für AMD nicht gut läuft is klar, aber sie haben da glaube ich gar keine andere Wahl als einen "harten" Schnitt zu machen und alles auf DX12/Vulkan zu setzen. Der frühe Release-Termin für Win10 (inkl. dem "frei für alle") und die konsequente Reaktion von MS auf Mantle im Vorfeld hat AMD glaube ich seehhhr kalt erwischt...

dargo
2015-06-27, 18:11:17
Es fehlt auch Geometrie Leistung Sniper Elite 3 erzeugt so gut wie keine CPU Last nutzt aber Tesselation.
Die 390X scheint genug für ihre Rohleistung zu haben sie liegt in 1440p vor der Asus 980 ,Fury X dagegen kommt nicht an die 980 Ti.

http://www.overclock3d.net/reviews/gpu_displays/amd_r9_fury_x_review/16

Unter 1080p sind's mit der Fury X 180fps,fury X hätte also in 1440p das Potenzial an die 980 TI ranzukommen,die CPU ist nicht das Problem.
Die 980TI ist da bloß knapp 15% vor der Fury X. Da reicht schon ein leichtes CPU-Limit und die schwächere Tess-Leistung aus. Wurde das unter DX11 oder Mantle getestet? Wobei Mantle afaik erst angepasst werden muss oder bezog sich das nur auf BF4?

Bringhimup
2015-06-27, 18:12:42
Fury X läuft mit Mantle schlechter als mit DX11,man muss also für die "beste" Performance DX11 nutzen.Nicht grad optimal da AMD natürlich bei dem Game nie an der DX11 Peformance geschraubt hat

Und 66 FPS bzw. über 70 FPS reichen Dir bei den im Bench genutzten Settings nicht? Wie lange wird BF4 noch Relevanz haben (wann wird also BF5 erwartet, bzw. werden nicht eh die Meisten auf Battlefront wechseln, wo ne Beta schon im July erwartet wird)?

dildo4u
2015-06-27, 18:15:47
Es gibt massig Leute die BF4 mit 120fps zocken weil sie ein 120hz TFT haben.TurricanM3 hier im Forum z.b der kauft ständig neue Nvidia Karten und scheint nix anderes zu zocken.

Bringhimup
2015-06-27, 18:17:01
Es gibt massig Leute die BF4 mit 120hz zocken weil sie ein 120hz TFT haben.TurricanM3 hier im Forum z.b der kauft ständig neue Nvidia Karten und scheint nix anderes zu zocken.

Bei den im Bench benutzten Settings hat er doch aber auch mit keiner einzigen Nvidia Karte 120 FPS.

dildo4u
2015-06-27, 18:20:10
Die 980 TI kann man noch OC mit 1.4Ghz und 2XAA kommt man auf 120fps.Die Gigabyte G1 scheint das zu schaffen.

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_ti_g1_gaming_soc_review,35.html

samm
2015-06-27, 18:21:33
Schon amüsant, wie Leute, die selber Mantle nicht nutzen können durch falschen IHV, sich empören, dass doch Mantle nicht mehr richtig laufe und über angebliche Kundenverarsche etc., während die tatsächlichen Kunden keine Nachteile haben :)

Mit Mantle hat man nach wie vor die gleichmässigere Bildausgabe und weniger CPU-Limit-Probleme, obwohl man als Fury-X-Käufer ja wohl kaum die Karte extra für ein Spiel von gestern mit einer Low-Level-Schnittstelle spezifisch für die Grafikkarten von gestern kauft. Es ist ein netter Bonus, dass Mantle nach wie vor so gut läuft.

Troyan
2015-06-27, 18:30:43
Wer spielt auf dem PC auch Games, die älter als 16 Monate sind. :freak:

(del)
2015-06-27, 18:39:55
Wer spielt auf dem PC auch Games, die älter als 16 Monate sind. :freak:

Ich privat so einige. Weil jedes Spiel ganz offensichtlich erst mal 12 Monate braucht, um wirklich fertig zu werden. Und dann ist ja noch der Faktor der verfügbaren Zeit. :freak:

RoughNeck
2015-06-27, 18:52:05
Schon amüsant, wie Leute, die selber Mantle nicht nutzen können durch falschen IHV, sich empören, dass doch Mantle nicht mehr richtig laufe und über angebliche Kundenverarsche etc., während die tatsächlichen Kunden keine Nachteile haben :)

Woher willst wissen was ich sonst so an Rechnern habe?
So just 4 Info, im HTPC schlummer eine 290 non und als CPU kommt ein I3 zum Einsatz, da macht Mantle schon Sinn.
Hauptsache irgendwas posten, depp.



Mit Mantle hat man nach wie vor die gleichmässigere Bildausgabe und weniger CPU-Limit-Probleme, obwohl man als Fury-X-Käufer ja wohl kaum die Karte extra für ein Spiel von gestern mit einer Low-Level-Schnittstelle spezifisch für die Grafikkarten von gestern kauft. Es ist ein netter Bonus, dass Mantle nach wie vor so gut läuft.

So 100% funkt Mantle bei BF4 immer noch nicht, gelegentlich gibt es einen Ruck und dann läuft es wieder als wäre nie was gewesen.

dildo4u
2015-06-27, 18:54:52
Jup an Mantle in BF4 wurde seit Monaten nicht mher gearbeitet sonst gäbe es GCN 1.2 Support was komisch ist,da das Game selber noch ständig Patches bekommt.https://eaassets-a.akamaihd.net/dice-commerce/battlefield4/assets/patch_notes/Patchnotes_SpringPatch_%28R10%20DS%29.pdf
Sniper Elite 3 zeigt Gewinne mit einer 285 es ist also machbar.

R.I.P.
2015-06-27, 19:04:10
Also: was ist dran am neuen Driver vom 18.06? Wird in den Redaktionen nachgetestet, sollte was dran sein?

Menace
2015-06-27, 19:10:02
Bei einem Prä-Alpha-Version-Spiel mit mantle-Unterstützung wird momentan auch an DX12- und Vulkan-Versionen gearbeitet (Vulkan kommt aber später). Mantle wird noch angeboten und kommt wohl auch damit, aber das ist halt z.T. einige Mehrarbeit.

Die Leute, die sich mal wieder über mantle aufregen, beschwerten sich damals schon, als sich die Veröffentlichung um 2 Monate verspätet hat und es freut mich auch sie rechtzeitig hier auftauchen zu sehen. ;D

samm
2015-06-27, 19:13:06
Woher willst wissen was ich sonst so an Rechnern habe?
So just 4 Info, im HTPC schlummer eine 290 non und als CPU kommt ein I3 zum Einsatz, da macht Mantle schon Sinn.
Hauptsache irgendwas posten, depp.Ich wollte nicht so konkret "dildo" und "aufkrawall" schreiben und hatte dich nicht gemeint, depp ;) Immerhin noch eine konkrete Aussage zum aktuellen Stand mit BF4 Nachladeruckler (oder was das sind).

R.I.P.: Der "Treiber" und mithin der Test ist wohl fake, macht von der Versionsnummerierung keinen Sinn, soweit AMD_Matts Aussage.

Screemer
2015-06-27, 19:15:59
sind cpu-spikes. keine ahnung an was das liegt. sind bei mir und meiner 290 aber quasi verschwunden. hab aber auch coreparking deaktiviert, denn mir hatte ich cpu-spikes aus der hölle. könnten die die davon betroffen sind auch mal testen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=563559. während den spikes taktet dann auch die gpu runter.

(del)
2015-06-27, 19:28:31
Also: was ist dran am neuen Driver vom 18.06? Wird in den Redaktionen nachgetestet, sollte was dran sein?

Das dürfte wohl ein Fake und somit auch ein gefaktes Review sein. Er kann es ja noch nicht mal den Lesern seines eigenen Forums plausibel erklären. :)

Im Threadverlauf stehen weitere Posts dazu.

blaidd
2015-06-27, 19:47:45
Das Mantle "tot" ist war ja nicht anders zu erwarten. In 1 Monat kommt DX12, also was solls. Es ist wesentlich sinnvoller alle Manpower in DX12 zu investieren bei AMD, das sie ja offensichtlich eh sehr wenig davon haben...

Es gibt ein paar interessante Hinweise darauf, dass zur GC einige Spiele etwas zu der Entwicklung Mantle/Vulkan bringen könnten. Die ganze GPU könnte unter DX12/Vulkan einen ganz anderen Eindruck machen...

deekey777
2015-06-27, 19:55:10
Also: was ist dran am neuen Driver vom 18.06? Wird in den Redaktionen nachgetestet, sollte was dran sein?
Ein horn12-Treiber!

Hübie
2015-06-27, 19:55:21
Hab mir jetzt nicht alles durchgelesen, aber hieß es nicht dass BF4 ein großes Update samt neuem renderbackend auf die aktuellste Version erhalten soll? :| Vielleicht meldet sich ja unser Mr. Andersson diesbezüglich zu Wort.
Wieso testet eigentlich keiner das neue Battlefield. Wie hieß es doch gleich... ähm... Frontlines oder so? :|

aufkrawall
2015-06-27, 19:57:35
Mit Mantle hat man nach wie vor die gleichmässigere Bildausgabe und weniger CPU-Limit-Probleme
Ich habe gestern 4 Stunden BF4 gezockt und war nicht einmal im CPU-Limit und wahrnehmbar mikroruckeln tut hier auch nichts.
Besitzt du das Spiel überhaupt? Wenn nicht, solltest du mal einen Gang runterschalten.

samm
2015-06-27, 19:59:41
Hübie: Guru3D hatte BF Hardline mit DX 11 (http://www.guru3d.com/articles_pages/amd_radeon_r9_fury_x_review,21.html) im Parcours.

aufkrawall: Ja, ich besitze es (Steelbook bla), hatte es aber nur im SP gespielt und auf der 7970. Im CPU-Limit bin ich mit dem 8350er @4.2 vermutlich etwas schneller als mit einem i5 @4.8GHz (Sig). Das Verhalten dort (wesentlich smoother) ist zugegebenermassen wohl anders als es mit einer Fury im MP wäre.

(del)
2015-06-27, 19:59:59
Hab mir jetzt nicht alles durchgelesen, aber hieß es nicht dass BF4 ein großes Update samt neuem renderbackend auf die aktuellste Version erhalten soll? :| Vielleicht meldet sich ja unser Mr. Andersson diesbezüglich zu Wort.
Wieso testet eigentlich keiner das neue Battlefield. Wie hieß es doch gleich... ähm... Frontlines oder so? :|

Am besten gleich ein Call of Battlefront Duty Field Lines :freak:

Korvaun
2015-06-27, 20:01:38
Wenn jetzt noch Mantle-Games kommen/entwickelt werden ist das zwar nett, aber eigentlich verschwendete Ressourcen. Im Sommer komm Win10 mit DX12, alle die Win7/8/8.1 haben können kostenlos updaten. Alle Game-Engines werden wohl möglicht schnell umgestellt um die Vorteile zu nutzen/sich von der Konkurrenz abzuheben. DX12 hat 100% Priorität bei den Graka-Herstellern, alles andere wäre Wahnsinn (wobei anderes mich auch nicht wundern würde, bei dem Murks der teilweise passiert ;) ).

Kartenlehrling
2015-06-27, 20:06:36
Aber daran leiden AMD/ATI Karten immer, das sie Hardware-Features bringen die erst in 3-5 Jahren wirklich beim Kunden ankommen.
Nivida macht es richtig, lässt von AMD den Teppich ausrollen und gehen dann mit dicker Brust über diesen Teppich als Sieger raus,
genauso wird es auch nächestes Jahr sein dann gibt es die ersten Win10/DX12 Spiele und Benchmarks.

Wieviele glauben denn an einen 12gb HBM Grafikkarte von Nvidia für Gamer?

Menace
2015-06-27, 20:08:26
Gibt es eigentlich eine Information, welche Spiele gleich mit DX 12 und Vulkan Spiele und deren Veröffentlichung aufzeigt?

Bekommen ältere Spiele noch DX12?

samm
2015-06-27, 20:14:29
Wieviele glauben denn an einen 12gb HBM Grafikkarte von Nvidia für Gamer?Ich. Ende 2016/Anfang 2017, Titan XXX mit >=12GB HBM2. Ich glaube nicht, dass sie die Titan-Linie mit weniger RAM als die aktuelle prestigeträchtig weiterführen könnten.

Menace: Valve dürfte einige Source-Spiele portieren, die dann Vulkan nutzen :) Timelines weiss ich auch nicht. DX12 wird m.M.n. ziemlich sicher nirgends nachgeliefert. Irre mich aber gerne.

Hübie
2015-06-27, 20:24:48
Am besten gleich ein Call of Battlefront Duty Field Lines :freak:

Hahahaaaa. Erinnerst du dich an die Zeiten wo man Spielenamen mittels Generator erstellte und was da raus kam? X-D Daran musste ich eben denken...

sry4ot!

Edit: Übrigens klasse wie groß mantle angepriesen wurde und mittlerweile kaum eine Zeile dazu verfasst wird.
Also was ist nun: kommt da ein Update? Ich weiß nicht mehr wo ich davon gelesen habe und ob BF4 oder das neue Hardlines gemeint war. Wenn eine Rübe so voll ist würfelt man ja gerne was durcheinander (okay außer Gipsel ;D).

Kartenlehrling
2015-06-27, 20:43:09
Edit: Übrigens klasse wie groß mantle angepriesen wurde und mittlerweile kaum eine Zeile dazu verfasst wird.

Ich kann mich erinnern das es nur noch zum experimentieren genommen wird, was man immer darunter verstehen soll, aber nicht totgeschrieben.
Für Spiele ansich soll halt DX12, Vulkan und MacMetal herhalten.

mironicus
2015-06-27, 20:57:01
Die Karte übervolten mit Tools wie MSI Afterburner wird übrigens noch Wochen dauern, da der Programmierer des Tools noch keine Fury XT zum Testen erhalten hat.

ilibilly
2015-06-27, 21:23:40
Wieviele glauben denn an einen 12gb HBM Grafikkarte von Nvidia für Gamer?
12gb sicher nicht,aber imho wirds keine 4gb highendgpu mehr geben ,Minimum dürften 8gb mit Pascal sein und hbm 2 genauso wie bei Amd,Titan dürfte dann mit mächtigen 16gb daherkommen um die 1500€ zu rechtfertigen :)
Wäre halt interessant wie teuer 4gb hbm in Vergleich zu sehr schnellem gddr5 sind,ansonsten werden wir im performancebereich wohl RBrands von maxwells sehen.

Screemer
2015-06-27, 21:56:47
Die Karte übervolten mit Tools wie MSI Afterburner wird übrigens noch Wochen dauern, da der Programmierer des Tools noch keine Fury XT zum Testen erhalten hat.
das kann man ja jetzt nicht mehr amd anlasten. unwinder arbeitet immerhin für msi und die sind ja auch boardpartner von amd.

ich für meinen teil würde ihm zwar trotz dem eine schicken, aber ich bin ja auch nicht amd :freak:

dargo
2015-06-27, 22:43:36
DX12 wird m.M.n. ziemlich sicher nirgends nachgeliefert. Irre mich aber gerne.
Doch, bei pCars. Wo es auch dringend nötig ist.
http://www.pcgameshardware.de/Project-CARS-XboxOne-258051/News/DirectX-12-Patch-Leistungsplus-1160230/

BlacKi
2015-06-27, 22:55:57
Doch, bei pCars. Wo es auch dringend nötig ist.
http://www.pcgameshardware.de/Project-CARS-XboxOne-258051/News/DirectX-12-Patch-Leistungsplus-1160230/

"Hat man bereits eine High-End-CPU, sollte das Plus eher klein ausfallen."

hat man eine nvidia gpu darf man nicht allzuviel erwarten. nvidia treiber sind schon cpu overhead reduzierend.

Tamagothi
2015-06-27, 23:01:40
Ich möchte jetzt nicht den ganzen Thread durchstöbern aber warum wird der Leistungsaufnahme Messung von Tom's Hardware keinen glauben geschenkt?

http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

Bei PCGH und hier wird geglaubt das FuryX über 300 Watt verbraucht. Wenn ich aber Lese das Fury X 100000 mal in der Sekunde die Leistungsaufnahme ändert liegt es eher nahe das viele einfach zu ungenaue Messgeräte habe.

Bei der R9 290x war ja das gleiche Spiel.

Isen
2015-06-27, 23:07:47
Weil Toms keine Synthetischen-Heizer-Tools ala Furmark verwenden, sondern Heaven und co in loops verwendet und entsprechend ermittelt.

Hey. Ich spiele auch 4x die Woche Furmark. Extrem gehaltvoll, da den Verbrauch zu wissen.

HOT
2015-06-27, 23:20:36
Frag mich auch, warum immer noch so ungenaue Stromverbrauchsmessungen ernster genommen werden als die von THG und HT4U.

Tamagothi
2015-06-27, 23:21:23
Bei meiner R9 290X ist es ja nicht anders.

Furmark: Rechner+Moni = 350 Watt und ca. 940 Mhz GPU Takt

Witcher 3: Rechner+Moni = 310 Watt und immer 1000 Mhz GPU Takt


Das heißt das viele Seiten gewollt oder ungewollt AMD Grakas schlecht dar stehen lassen. Ist schon eine Frechheit ;(

MadManniMan
2015-06-27, 23:29:44
So einfach ist das nicht: THGs Messungen erscheinen zwar ob der Argumentation des Autors sehr genau, messen aber auch nur das, was sie messen, nämlich einen Loop im NICHT-Spiel Unigine Heaven. Dieser Benchmark liefert reliable Zahlen, mit der Validität ist es aber genauso weit her, wie mit allen anderen spezifischen Lastszenarien: sie bilden nur das ab, was gerade passiert.

Deshalb: PCGH misst höhere Leistungsaufnahmen, weil deren Szenen höhere Leistungen aufnehmen.

;(

Menace
2015-06-27, 23:42:22
Und die Schwierigkeiten gehen ja noch weiter. Die Nutzung der PCs ist doch sehr individuell (Hardware-Ausstattung, Softwaregebrauch, etc.). Die Realität für den einzelnen ist leider kaum möglich zu testen und abzubilden. Deshalb bin ich ganz froh, dass es so unterschiedliche Tests mit unterschiedlichen Anwendungen gibt (z.B. Multimonitorbetrieb).

Leider wird das zu selten gemacht. Hatte nicht das Testen eines AMD-FX-Prozessor beim Betrieb von vielen Programmen gleichzeitig den Prozessor doch "etwas" besser dastehen lassen?

Tamagothi
2015-06-27, 23:53:18
So einfach ist das nicht: THGs Messungen erscheinen zwar ob der Argumentation des Autors sehr genau, messen aber auch nur das, was sie messen, nämlich einen Loop im NICHT-Spiel Unigine Heaven. Dieser Benchmark liefert reliable Zahlen, mit der Validität ist es aber genauso weit her, wie mit allen anderen spezifischen Lastszenarien: sie bilden nur das ab, was gerade passiert.

Ich lese nichts von Unigine Heaven Benchmark.

Leistungsaufnahme beim Gaming-Loop

Minimum Maximum Durchschnitt
PCIe: 25,20 Watt 428,80 Watt 209,81 Watt
Mainboard 3,3V: 0,00 Watt 1,32 Watt 0,33 Watt
Mainboard 12V: 0,00 Watt 31,20 Watt 10,55 Watt
Grafikkarte insgesamt: 25,53 Watt 453,58 Watt 220,69 Watt


Deshalb: PCGH misst höhere Leistungsaufnahmen, weil deren Szenen höhere Leistungen aufnehmen.

;(

Deren Messungen nehme ich nicht ernst weil Peakmessungen :uattack4:

MadManniMan
2015-06-28, 00:12:04
Ich lese nichts von Unigine Heaven Benchmark.

Leistungsaufnahme beim Gaming-Loop

Das ist das Problem bei THG: sie kommunizieren das nicht direkt ersichtlich. Ist aber so, hat er hier im Forum erläutert. Also der Autor. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10679525#post10679525)


Deren Messungen nehme ich nicht ernst weil Peakmessungen :uattack4:

Was möchtest Du denn bitte dann wissen? Durchschnittliche Wattage in einem mäßig fordernden Durchschnittstitel? Gern, dann aber bei allen Karten.

Tamagothi
2015-06-28, 00:31:11
So bei Unigine Heaven verbraucht mein System 15 Watt weniger als in Witcher 3. Rechnen wir diese 15 Watt auf FuryX 220+15 sind wir bei 235 Watt und immer noch weit von den >300 Watt entfernt.

Ich werde gleich mal Anno 2070 testen schauen wir mal ( pcgh savegame)

Captain Future
2015-06-28, 00:32:19
AMDRTP on the loos?
Deren Messungen nehme ich nicht ernst weil Peakmessungen :uattack4:
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-post7502331.html#post7502331

Hohe Spielelast laut PCGH. Also nix Peak. Peak ist bei ~350-430 Watt, je nachdem welchen Peak du magst.

Heaven braucht bei PCGH gut 80 Watt weniger als Anno. Schon krass.

Achill
2015-06-28, 00:37:12
Was für Mantel Argumente sprechen hier für oder gegen die Furry? Mantel ist tot .. aber es hat zumindest indirekt DirectX 12 (http://www.pcworld.com/article/2891672/amds-mantle-10-is-dead-long-live-directx.html) und direkt Vulkan (http://www.pcworld.com/article/2894036/mantle-is-a-vulkan-amds-dead-graphics-api-rises-from-the-ashes-as-opengls-successor.html) (AMD hat den SoruceCode an die Khronos Group weiter gegeben) beeinflusst.

=> 1. Ziel erreicht, die zukünftig zumindest wichtigen APIs für Games (und auch andere prof. Anwendungen) richten sich an den Ideen von Mantel aus oder übernehmen diese sogar direkt. Da Mantel nicht gegen die GPU-Architektur von AMD arbeiten wird (gewagte Annahme), werden ähnliche (oder gar gleiche) APIs auch auch wieder gut auf die HW abbildbar sein.

=> 2. Das Investment in den DX12- und Vulkan vs Mantel und/oder DX11 Optimierung mag kurzfristig weh tun (auch in Verbindung mit Furry) und uns hier und jetzt negativ erscheinen, es sollte sich aber langfristiger (was wohl wichtiger ist) auszahlen, wenn die ersten DX12 & Vulkan Benchs / Spiele kommen. Dann kann ggf. einfach etwas "Boden gut gemacht werden" und man sich zumindest etwas vom Stigma "schlechte Treiber" lösen.

PS: Ich hoffe auf immer mindestens 2 Marktteilnehmer - egal ob CPU oder GPU ... damit ich beim günstigeren kaufen kann.

PSS: Die OpenSource Treiber für NV unter Linux haben zumindest früher nichts getaugt. Wer ein freies System zum Arbeiten benötigt und ab und zu Win von der 2. Platte zum Spielen startet, dem kann man eigentlich nur AMD empfehlen ;D

StefanV
2015-06-28, 00:46:09
Was möchtest Du denn bitte dann wissen? Durchschnittliche Wattage in einem mäßig fordernden Durchschnittstitel? Gern, dann aber bei allen Karten.
Aufgenommene Energie in einem bestimmten Zeitraum?!
ie man lässt einen Gameloop 5min laufen und misst in der Zeit die aufgenommene Energie des Gesamtsystemes.

Denn Peak Messungen sind mit aktuellen Karten einfach mal völliger Blödsinn, aufgrund der Funktionsweise der Stromsparmechanismen.

So kann es dann auch sein, dass die Karte, die auf dem Papier schlechter ausschaut, in der Praxis besser ist. Eben weil der Peak Wert deutlich über dem Durchschnitt liegt...

Captain Future
2015-06-28, 00:51:31
So bei Unigine Heaven verbraucht mein System 15 Watt weniger als in Witcher 3. Rechnen wir diese 15 Watt auf FuryX 220+15 sind wir bei 235 Watt und immer noch weit von den >300 Watt entfernt.

Ich werde gleich mal Anno 2070 testen schauen wir mal ( pcgh savegame)

Vregiß nicht die Settings. Das macht bestimmt auch viel aus.

Godmode
2015-06-28, 00:53:55
Aufgenommene Energie in einem bestimmten Zeitraum?!
ie man lässt einen Gameloop 5min laufen und misst in der Zeit die aufgenommene Energie des Gesamtsystemes.

Denn Peak Messungen sind mit aktuellen Karten einfach mal völliger Blödsinn, aufgrund der Funktionsweise der Stromsparmechanismen.

So kann es dann auch sein, dass die Karte, die auf dem Papier schlechter ausschaut, in der Praxis besser ist. Eben weil der Peak Wert deutlich über dem Durchschnitt liegt...

Optimal wäre ein Benchmarkschleife von mehreren Spielen und Synthis, die automatisch abläuft. Dieser Schleife dauert zb. 30min, in der alle möglichen Spiele getestet werden. Am Rechner sollte dann ein kWh-Messgerät hängen, dass den Verbrauch protokolliert und am besten noch eine Exportfunktion der Daten hätte. Ich weiß nicht wie PCGH und Co. arbeiten, aber wenn sie die Benchmarks händisch starten müssen, tun mir die Leute dort leid.

Kartenlehrling
2015-06-28, 01:06:12
http://images.hardwarecanucks.com/image/akg/Storage/HyperX_Savage/di.png
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/69682-amd-r9-fury-x-review-fiji-arrives.html

Isen
2015-06-28, 01:28:51
@Godmode,

hab ich da. Digitaler Stromzähler vom Versorger, wo man den Live Verbrauch inkl. Kostenanzeige auf einzelne Steckdosen beschränken kann. Ich kann was die 290x betrifft Toms nur beipflichten: Die Werte stimmen. Zwar etwas kleinere Abweichungen, aber unterm Strich doch eins der besten Richtwerte, im Gegensatz zu den Messungen per Steckdose mit - ich sage mal " Einfachen " - Gerätschaften.

Ich habe aber a) nicht die Zeit und b) das Geld derartige Messungen mit verschiedenen Karten durchzuführen, nur um dann einer Seite ein Thumps up zu geben... zudem bin ich nicht der einzige, der vom Versorger die neuen Digitalen Zähler bekommen hat und sich das Smart Kit dazu gekauft hat, wo man den Verbrauch selbst wunderbar nachvollziehen kann.

Im Übrigen verbraucht mein Herd und Kühlschrank ( trotz A+++ ) am meisten... ist doch eh sinnlos darüber zu diskutieren... die Steckdosen-Messungen sind aber leider von beiden IHVs indirekt beeinflussbar. Das sollte mal bedacht werden und derartige Steckdosen-Messungen nicht so hohen Anteil geben... das sind schrott Werte, nicht mal als Richtwert richtig.

Tamagothi
2015-06-28, 01:32:51
AMDRTP on the loos?

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/394785-radeon-r9-fury-x-im-test-die-leiseste-high-end-grafikkarte-seit-fast-einer-dekade-post7502331.html#post7502331

Hohe Spielelast laut PCGH. Also nix Peak. Peak ist bei ~350-430 Watt, je nachdem welchen Peak du magst.

Heaven braucht bei PCGH gut 80 Watt weniger als Anno. Schon krass.

Die Benchmarks Scene ist ein Witz. Es ist nichts weiter als eine Längere Peak Messung. Es wird Einfach auf eine größere Stadt gezeigt wo ne Atombome in die luft geht.

So und jetzt die Frage wie oft kommt das im spiel vor?

Ich habe ein Savegame geladen wo die Stad den Ganzen Bildschirm fühlt 2560*1600 und einen verbrauch von 355 Watt.
Gehe ich auf ne andere Insel 330 Watt und noch eine weiter 305 Watt.

Kannst dir selber denken ob der Test sinvoll ist. Eine stelle im Spiel finden wo die Graka (10 Sekunden lang) am meisten verbraucht und sagen so es sind 313 Watt ist super neutral :ufinger:

Das schlimmste ist aber das die das in einer Tabelle (Bild) mit 313 Watt aufführen obwohl das völlig an den Harren herbei gezogen ist.
Viele Menschen Lesen gar nicht den Text sondern gucken Bildchen an und sehen 313 Watt --> ey verbraucht viel, scheiß Karte.


Ich sage selber das Anno mehr verbraucht als andere spiele, vor allem AMD, aber so nicht.

Vregiß nicht die Settings. Das macht bestimmt auch viel aus.

Extreme Settings

dildo4u
2015-06-28, 01:54:48
Die Peak Werte von Anno und co sind interessant,weil man dort sieht was die Karte zieht wenn der schrottige Treiber nicht die CPU Leistung verschluckt.
Bei Heaven Limitiert der Tesselator daher wird der Chip nicht gescheit ausgelastet folge geringer Verbrauch,Fury X kommt dort nicht an die 980TI ran daher komplett Wertlos für ein Verbrauchsvergleich.

http://abload.de/img/bpa7wzbktx-jddoe8.jpg

Isen
2015-06-28, 01:56:27
Die sind nicht interessant... die zeigen das Worst Case im Müll Messen. Mehr auch nicht. Darauf auch noch zu Schlussfolgern ist der Hammer.
Aber egal. Diese Art hat sich ja quasi eingebürgert. Ist mir schnurz piepe.

stinki
2015-06-28, 02:51:26
Ich kann dieses seitenlange Gelaber um die Stromaufnahme nicht mehr hörn!
Wir reden hier über eine 700€ Karte, da interessiert MICH FPS, OC, Kühlung, Lautstärke!
Mein persönliches Fazit bis hierher:
Kühlung ist wohl das Beste was es je auf einer Referenzkarte gab
FPS ist in 4K ganz Okay, 4MB ist grenzwertig, Treiberperformance könnten besser sein, aber vielleicht wird das über die nächsten sechs Monate noch was vielleicht aber auch nicht
OC ist sehr bescheiden, aber wenn das mit den 1.22V default Spannung stimmen sollte dann erwarte ich da auch nicht viel mehr, leider schade
und Lautstärke ist eigentlich gut bis auf das Pumpen Geräusch was hoffentlich noch bei neueren Chargen gefixt werden kann

aufkrawall
2015-06-28, 03:03:02
Vregiß nicht die Settings. Das macht bestimmt auch viel aus.
Vor allen Dingen die Stelle und Auflösung. Dichte Wälder auf Skellige sind meist recht übel.
Aber er hat so gut wie gar keine Angaben gemacht, kann man leider nichts drauf geben.

Die Peak Werte von Anno und co sind interessant,weil man dort sieht was die Karte zieht wenn der schrottige Treiber nicht die CPU Leistung verschluckt.
Bei Heaven Limitiert der Tesselator daher wird der Chip nicht gescheit ausgelastet folge geringer Verbrauch,Fury X kommt dort nicht an die 980TI ran daher komplett Wertlos für ein Verbrauchsvergleich.

http://abload.de/img/bpa7wzbktx-jddoe8.jpg
Du übertreibst etwas, bei BF4 wird nicht so schrecklich viel mehr gezogen als bei Heaven. Allerdings hinkt man bei dem Spiel, auch ohne Tess, bei der Performance wieder mal meist etwas hinterher.
Wahrscheinlich bessere Perf/W als bei Anno/Risen, aber auch nicht toll.

Gut, dass Carsen das geklärt hat. Ich hab als Resultat eh nichts anderes erwartet.

(del)
2015-06-28, 07:39:31
Nun last doch mal die Leistungaufnahme kurz ihr Wochenende feiern :D

Ich bekomme Montag oder Dienstag endlich meine eigene Karte. Dann werden über die Woche noch zwei Folgeartikel entstehen. Einer, bei dem ich zusammen mit einem OEM für Kühlertechnik die Vibrationen analysieren will, die im Kühlsystem (nicht der Pumpe) entstehen und ein anderer, wo wir wirklich mal sehen wollen, wo genau der Sweet-Spot der Karte liegt ud natürlich auch die mittlere Leistungsaufnahme.

Schön Power-Limit vom Minimum zum Maximum verschieben und jeden der kleinen Schritte mit exakter Leistungsaufnahmemessung und Benchmark versehen. Genau so, wie ich es schon bei der GTX 970 gemacht habe (http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html). Ich glaube, ich lasse vier Loops Metro LL drüber laufen, das sind immerhin reichlich 10 Minuten. Sollte erst mal reichen. Metro liegt zudem etwas über dem Durchschnitt und bevorzugt weder AMD, noch Nvidia.

Korvaun
2015-06-28, 08:26:30
Das Leistungsaufnahme-Geheule hat sich AMD aber selbst zuzuschreiben. Würden sie es einfach wie NV machen (hartes Limit ala 250W und dann abregeln) dann gäbe es keinerlei Diskussion. Für die OC-Leute einfach im Treiber oder per kleinem Extra-Tool eine Wahlmöglichkeit bieten (PowerTarget +X%, Spannung +X%, etc...) dann wären alle glücklich. So wie es jetzt ist werden immer alle Tests z.T. stark unterschiedliche Ergebnisse bringen, da lässt sich prinzipiell nix dran machen aktuell.

Andererseits, vielleicht ändert sie die Ansicht der Leute ja mit der Zeit, ist ja bei den Taktfrequenzen auch schon geschehen. Keine fragt mer nach exakter Frequenz, alle haben sich mit dem geBooste arrangiert...

Knuddelbearli
2015-06-28, 08:34:44
So einfach ist das nicht: THGs Messungen erscheinen zwar ob der Argumentation des Autors sehr genau, messen aber auch nur das, was sie messen, nämlich einen Loop im NICHT-Spiel Unigine Heaven. Dieser Benchmark liefert reliable Zahlen, mit der Validität ist es aber genauso weit her, wie mit allen anderen spezifischen Lastszenarien: sie bilden nur das ab, was gerade passiert.

;(

Wo der Autor hier schon x mal geschrieben hat das Heaven genau dem entspricht was er als Durchschnitt in 5 anderen Spielen gemessen hat...

Als Verbrauch ist für mich damit das die Referenz! PCGH ist für mich nur dazu da damit man weiss wie groß das Netzteil dimensioniert sein sollte ( wobei eigentlich nichtmal das da den Swetspot eines Netzteiles bei rund 70% hat und da ist dann noch mehr als genug Buffer für die höheren Verbräuche bei PCGH )

Ich verstehe echt nicht wieso man da überhaupt Diskutieren muss... Bei der Leistung geben wir ja auch nicht nur das best / worst case an sondern den Durchschnitt wieso also nicht bei der Leistungsaufnahme?

akuji13
2015-06-28, 08:55:11
Ich kann dieses seitenlange Gelaber um die Stromaufnahme nicht mehr hörn!
Wir reden hier über eine 700€ Karte, da interessiert MICH FPS, OC, Kühlung, Lautstärke!

Es ist ist aber so, das durch eine hohe Stromaufnahme auch die Kühlung stärker gefordert wird.

Ich fand die Kühlung auch abseits des Pumpengeräusches nicht so prickelnd.

Im 22° Testraum oder im Wohnzimmer am TV ist noch alles wunderbar, in einem 30° Dachgeschoss das nach 2 Stunden zocken auf 35° erwärmt ist sieht das schon ganz anders aus.
Da ist der Unterschied zu einem guten Kühler wie einem iChill plötzlich sehr gering.

Marodeur
2015-06-28, 09:11:07
Mich interessiert durchaus peak (in Spielen) weil ich dadurch halt weis ob mein Netzteil noch reicht. ;)

Alle anderen Überlegungen sind mir relativ egal da ich eh nicht mehr so viel zum zocken komme wie früher. Da müsst ich erstmal durchrechnen was mein 10 Tonnen Spalter und meine Kreissäge so durch lassen... ;)

320 könnten bei meinem älteren 550er Dark Power Pro schon knapp werden, für eine 290x reicht es noch. Wenn für eine Fury 100 € für ein neues Netzteil nötig werden das man für eine 980 TI nicht braucht ist die Entscheidung auch schnell getroffen bei den aktuellen Fury Preisen.

Knuddelbearli
2015-06-28, 09:18:08
wo gibt es den so einen Test?

abgesehen davon das du eine custom mit fast 100€ Aufpreis mit Referenz vergleichst

Troyan
2015-06-28, 10:03:11
Schön Power-Limit vom Minimum zum Maximum verschieben und jeden der kleinen Schritte mit exakter Leistungsaufnahmemessung und Benchmark versehen. Genau so, wie ich es schon bei der GTX 970 gemacht habe (http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html). Ich glaube, ich lasse vier Loops Metro LL drüber laufen, das sind immerhin reichlich 10 Minuten. Sollte erst mal reichen. Metro liegt zudem etwas über dem Durchschnitt und bevorzugt weder AMD, noch Nvidia.

Metro: Last Light lastet die Karte genauso wenig aus:
http://www.techpowerup.com/reviews/AMD/R9_Fury_X/29.html

Nimm The Witcher 3 und das Savegame aus Skellige (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564281). Dort im Wald brennt eine nVidia-Karte förmlich. Ist auch wesentlich realitätsnäher, da Metro:Last Light ein Spiel der alten Konsolengeneration ist.

fondness
2015-06-28, 10:05:05
Das Leistungsaufnahme-Geheule hat sich AMD aber selbst zuzuschreiben. Würden sie es einfach wie NV machen (hartes Limit ala 250W und dann abregeln) dann gäbe es keinerlei Diskussion. Für die OC-Leute einfach im Treiber oder per kleinem Extra-Tool eine Wahlmöglichkeit bieten (PowerTarget +X%, Spannung +X%, etc...) dann wären alle glücklich. So wie es jetzt ist werden immer alle Tests z.T. stark unterschiedliche Ergebnisse bringen, da lässt sich prinzipiell nix dran machen aktuell.


Genau, denn man muss es immer so machen wie nvidia, alles andere ist aus Prinzip falsch.

Gleichzeitig will freilich niemand diesen Boost, sehr viele versuchen die NV-Karten so zu modifizieren, dass der Takt gehalten wird. Aber das muss man wohl nicht verstehen.

Troyan
2015-06-28, 10:13:19
Ich verstehe es auch nicht, wieso man die Fury X Karten noch zusätzlich einbremsen will. Mit einem Limit von 250W wäre man in Spielen, die <=250" benötigen weder schneller und in Spielen mit >250W wäre man langsamer.

Was genau soll dieses Limit also bringen? Die Architektur wird ineffizienter, wenn sie ausgelastet wird. Daran wird auch kein Limit etwas ändern.

DrFreaK666
2015-06-28, 10:17:03
Ich verstehe es auch nicht, wieso man die Fury X Karten noch zusätzlich einbremsen will. Mit einem Limit von 250W wäre man in Spielen, die <=250" benötigen weder schneller und in Spielen mit >250W wäre man langsamer.

Was genau soll dieses Limit also bringen? Die Architektur wird ineffizienter, wenn sie ausgelastet wird. Daran wird auch kein Limit etwas ändern.

Geht es hier um den zukünftigen Test von Format C??

uweskw
2015-06-28, 10:28:00
Metro: Last Light lastet die Karte genauso wenig aus:
http://www.techpowerup.com/reviews/AMD/R9_Fury_X/29.html

Nimm The Witcher 3 und das Savegame aus Skellige (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564281). Dort im Wald brennt eine nVidia-Karte förmlich. Ist auch wesentlich realitätsnäher, da Metro:Last Light ein Spiel der alten Konsolengeneration ist.

Käse, die NV wird gnadenlos bei 250W abgeregelt. Zur not wird halt der Takt wieder mal nicht gehalten. AMD hat deswegen so hohe Peak Werte, weil sie vesucht ihren Takt zu halten.

Greetz
US

Troyan
2015-06-28, 10:28:25
Nein, sondern um ein generelles Einbremsen durch ein standardmäßiges gesetztes Powerlimit von 250W. Die 300W in Anno2070, Risen und Co sind ja nicht das Problem.

Anandtech hat die Pixelfillrate-Werte von Vantage:
http://www.anandtech.com/bench/product/1513?vs=1496

Spiegeln das Ergebnis von Techreport wider. Von den 512gb/s kommt nicht alles an - wohl nur rund 66%. Der Test ist rein bandbreitenlimitiert und die Karte ist nur doppelt so schnell als Tonga, 33% schneller als die GTX980 (kann 64Pixel verarbeiten) und langsamer als Titan X (96 Pixel).

Käse, die NV wird gnadenlos bei 250W abgeregelt. Zur not wird halt der Takt wieder mal nicht gehalten. AMD hat deswegen so hohe Peak Werte, weil sie vesucht ihren Takt zu halten.

Greetz
US

Die nVidia-Karten im Referenzdesign laufen mit 22xW nach der Einwärmphase. Wir hatten das schon. AMD's Peakwerte sind dagegen auch "normal" zu sehen, da die Karten nicht gedrosselt werden.
nVidia-Karten werden auch nicht mit 250W gebencht, sondern mit den 22xW - siehe Hardware.fr. Es ist also vollkommen fair. Die eVGA Superclocked mit 250W in Anno2070 ist dadurch nochmal 10-12% schneller als die Referenzkarte: http://www.hardware.fr/articles/937-11/benchmark-anno-2070.html

(del)
2015-06-28, 10:30:57
Das Problem bei Witcher 3:
Man bekommt keine stabilen und wirklich reproduzierbaren Werte hin. Das schwankt, je nach Durchlauf, um bis zu 10%. Schließlich messe ich ja keine paar Sekunden, sondern einen längeren Zeitraum. Das bekommt man nie wirklich deckungsgleich hin. Außerdem hätten wir dann erneut einen Äpfel-Birnen-Vergleich mit provoziertem Wort Case, bei dem vor allem hohe Peak-Werte provoziert werden, die einem normalen Gaming-Abend kaum entsprechen.

Dann doch besser 3-4 verschiedene, wirklich reproduzierbare Szenen über jeweils eine Minute, diese dann einzeln ausweisen und noch einmal kumulieren. Und für einen Langzeittest überlegen wir uns noch was anderes. Ich kann mich nicht 30 Minuten vor den Monitor setzen und immer wieder völlig identisch durchs Gelände hoppeln. Nicht bei 200 Karten im Jahr.

Digidi
2015-06-28, 10:31:41
Danke für die Info mit der Pixelfüllrate. Bin auch auf eine Merkwürdigkeit gestoßen. Bei Metro Last light und aktiviertem 1xssaa bricht die Karte voll weg.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=16

sehr seltsam.

Wahrscheinlich bedarf der HBM Speicher mehr Treiberpflege und Anpassungen im Spiel als GDDR5

(del)
2015-06-28, 10:41:07
Das mit der Pixelfüllrate ist wirklich interessant und mit etwas mehr Zeit, die die Reviewer spätestend mit der bald erscheinenden Pro ja haben werden, weil sich die Boardpartner garantiert nicht wegen der Samples so divenhaft selbst zelebrieren, werden auch nähere Erkenntnise öffentlich. Wenn dann noch ein passender Treiber nachgeschoben wird, kann man wirklich anfangen, belastbare Fakten zu sammeln.