PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14

Digidi
2015-07-02, 19:49:33
Kommt wohl ganz auf die Engine/das Spiel an (z.b. ob das Spiel viele High-Poly-Modelle benutzt). Eigentlich sollte das aber kein grösseres Problem sein, zumindest nicht wenn das entsprechende Spiel auch auf den aktuellen Konsolen erscheint (und dann ja schon primär für GCN und dessen Stärken/Schwächen entwickelt wurde).

Ich frage halt nach Zukunftssicherheit. Star Citizen z.B. benutz für ein Schiff glaube ich 7.000.000 Polygonen. Bei 10 Schiffen wäre das dann gerade mal noch so 30 fps.

Raff
2015-07-02, 19:50:43
Wenn man die HBM-Arbeitsfrequenz nicht verändern kann, warum schmiert das Ding dann bei zu hohen Werten ab? ;) -> Geht.

MfG,
Raff

StefanV
2015-07-02, 19:54:47
Wie man ein Produkt vorstellt müssen die noch lernen, hoffe die fragen mal bei Intel oder NVIDIA nach.
...die eine entsprechende 'Fanbase' haben, die schon vor dem Launch das Produkt hypt...
Und wenn das Produkt schlechter ist, dann lässt man sich halt was einfallen, um es besser dastehen zu lassen...

Unicous
2015-07-02, 19:56:30
Wenn man die HBM-Arbeitsfrequenz nicht verändern kann, warum schmiert das Ding dann bei zu hohen Werten ab? ;) -> Geht.

MfG,
Raff


UPDATE : We’ve confirmed with Robert Hallock, technical PR lead at AMD, that while the GPU-Z tool is reporting an increase in memory frequency in reality the frequency did not change. As HBM’s frequency in the Radeon R9 Fury X is determined in hardware and cannot be changed through software.

Quelle: WTF-Tech.

Korvaun
2015-07-02, 19:56:56
Ich frage halt nach Zukunftssicherheit. Star Citizen z.B. benutz für ein Schiff glaube ich 7.000.000 Polygonen. Bei 10 Schiffen wäre das dann gerade mal noch so 30 fps.

Das ist ja nur die maximale Auflösung, die werden da ganz sicher nen gutes LOD einbauen. Wenn ich mir ansehe wie Dogfights in z.b. EVE-Online aussehen dann sieht man meistens nur nen rotes Kreuz für den Gegner, da bei einer realistischen Entfernungsdarstellung die Schiffe schnell nur 1 Pixel groß sind ;)

M4xw0lf
2015-07-02, 20:00:15
Quelle: WTF-Tech.
Messergebnisse und sonstige Beobachtungen (siehe Raff) legen das Gegenteil nahe. Aber wer weiß, möglicherweise ist HBM-OC zum jetzigen Zeitpunkt ein absoluter Killer für die Hardware, und AMD möchte deshalb dahingehende Versuche tunlichst unterbinden.

Korvaun
2015-07-02, 20:00:26
Wenn man die HBM-Arbeitsfrequenz nicht verändern kann, warum schmiert das Ding dann bei zu hohen Werten ab? ;) -> Geht.

MfG,
Raff

Irgend was wird übertaktet/geändert, was das ist ist derzeit unklar....

Screemer
2015-07-02, 20:01:17
Ich frage halt nach Zukunftssicherheit. Star Citizen z.B. benutz für ein Schiff glaube ich 7.000.000 Polygonen. Bei 10 Schiffen wäre das dann gerade mal noch so 30 fps.
auch in sc wirds ein lod-system geben, oder?

Loeschzwerg
2015-07-02, 20:09:35
Irgend was wird übertaktet/geändert, was das ist ist derzeit unklar....

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10684681#post10684681

Bei theoretischen Tests scheint es zumindest etwas zu bewirken.

Digidi
2015-07-02, 20:31:04
Na ja das LOD System ist ok. Aber der Polygonendurchsatz bei Strip wirklich Katastrophal. 3,5 fach Langsamer als eine Titan X da ist viel Holz.

Hübie
2015-07-02, 20:37:18
Schade interessiert sich wirklich keiner für die Polygonenleistung und die Pixelfüllrate?

Darum geht's nicht. Du versuchst irgendwie aus Pixelfüllrate, Bits pro Sekunde zu machen was so nicht funktioniert. Da liegt noch einiges auf dem Weg. Ich verstehe nach wie vor also nicht was deine Intention ist :redface: Die ist nach oben hin zumindest dadurch limitiert was ein raster operation processor an Pixeldaten in den Speicher schreiben kann. Und die hängt wieder von der Operation ab. Also DIE Antwort wird man darauf einfach nicht geben können :smile:
In den Füllratentests mit schwarzen Pixeln erreicht man das theoretische Maximum nur hat es mit der Realität halt soviel zu tun wie eine Kuh mit Fahrrad fahren. Und selbst alternierende Farben stellen nicht den "Spielealltag" dar, weil hier keine blend-operationen haben (also z.B. Pixel negieren, Muster drehen, übereinander legen mit semi-transparenz oder sowas in der Art). Also entweder ich verstehe dich falsch, gar nicht oder du hast eine andere Vorstellung wie das abläuft (was ja nicht schlimm ist).

Obwohl ich gerade zugeben muss den Test den Scott von techreport.com nutzt nicht zu kennen. Werde mir den mal eben ansehen ;)

Quelle: WTF-Tech.

Damit ist womöglich nicht mal der ASIC selber gemeint sondern eine MCU. Die hat idR ein Protokoll (;)) und dass wiederum kommuniziert ja mit "irgendwem". Der DRAM wird wohl kaum permanent mit 500 MHz angesteuert. Dann macht man sich ja auch wieder Effizienz über den Gebrauch hinweg kaputt. Gibt noch mehr Gründe warum diese Aussage also anders ausgelegt werden könnte.

Edit: Ich warte ja immer noch auf Bilder:whistle:

Digidi
2015-07-02, 20:48:05
@Hübie
was mich halt mal brennend interessiert was beim Polygonendurchsatz Strip und was List ist und welches von beiden denn mehr im realen Leben genutzt wird. Mich würde auch mal interessieren wie der Polygonendurchsatz mit der Pixelfüllrate zusammenhängt. Denn die ist bei Fury X nicht ganz so schlecht und bis erst einmal Pixel geschrieben werden können müssen dazu die Polygonen in Pixel zerlegt werden.

Armaq
2015-07-02, 20:51:27
Mal ne Frage an die bisherigen Käufer:
Laut einigen Händlern sollen zB. bei MSI oder Sapphire je ein HDMI und ein DP zu DVI-Kabel mit in der Packung liegen. Stimmt das?
Ja, hab meine vorhin abgeholt. Baue sie jetzt ein.

von Richthofen
2015-07-02, 20:59:11
Was ich ja nicht verstehe wenn Nvidia behaupte sie hätten 500 Angestellte für ihr gameworks,
wieso kann AMD nicht wenigsten 10 Leute für Mantle abstellen,
das Asien MOBA "King of Wushu" wurde in 6 Wochen mit 2!! Programieren in DX12 portiert, BF4 wurde auch in 8 Wochen von 4 Leuten geschrieben.


Also laut PCGH sind es eher (legendäre?) 300 - was selbstverständlich immer noch eine Armee darstellt.

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Gameworks-Interview-1163483/

Troyan
2015-07-02, 21:10:08
Hardware.fr hat nun auch Ergebnisse mit Übertaktung:
http://www.hardware.fr/articles/937-26/overclocking-gpu-fiji.html

Größte Gewinne beim Speicher gibt es in BF4, Batman:AO und Hitman. Die letzten beiden Spiele sind Deferred Renderer Games, die mit MSAA bandbreitenabhängig sind.

Man muss also den Speicher mitübertakten, um überhaupt den Core-Takt ausfahren zu können.

Kriton
2015-07-02, 21:18:29
@Kriton
Bedeutet für diesen Fall was?

Das ist der Hintergrund dessen was der Anwalt ausgeführt hat. Eine Besonderheit im deutschen Sachenrecht. Es trennt das Verpflichtungsgeschäft (z.B. Kaufvertrag vom Verfügungsgeschäft (Übereignung der gekauften Sache, sowie Übereignung des Geldes). D.h. der Eigentumsübergang (an der gekauften Sache, bzw. dem zur Bezahlung genutzten Geldes) ist unabhängig von der vertraglichen Verpflichtung das jeweilige Eigentum zu übereignen.

Wenn Du also beispielsweise auf dem Flohmarkt ein Buch kaufen willst, den Verkäufer fragst wieviel und der sagt: "2 Euro", du sagst: "Ok." Dann habt ihr beide einen Kaufvertrag bezüglich dieses Buches geschlossen. Das Verpflichtungsgeschäft ist damit beendet. Das Buch gehört aber noch nicht Dir (er ist lediglich verpflichtet Dir das Eigentum an dem Buch zu verschaffen, sowie Du verpflichtet bist ihm das Eigentum an einem entsprechenden Umfang an Geld zu verschaffen. Üblicherweise erst in dem Moment wo der Besitz (die tatsächliche Gewalt) übergeht, geht man dann auch von einer Eigentumsübertragung aus (es gibt auch andere Konstellationen).

Wenn es also auf den Vertragsschluss ankommt, dann ist das Verpflichtungsgeschäft gemeint. Wann und wo die Eigentumsübertragung (Verfügungsgeschäft) stattfindet ist irrelevant.

Kriton
2015-07-02, 21:19:41
Wie oft denn noch? Risen und Anno sind kein Worstcase, sondern gleichmäßig hohe Auslastung.

Eine bestimmte Szene aus dem Spiel mit besonderer Auslastung (auch für dieses Spiel) zu nehmen ist aber dann eben doch worst case.

Digidi
2015-07-02, 21:19:58
Aber der Core Takt bringt auch ganz schön viel Leistung!?

Ist Fiji dann jetzt Bandbreiten limitiert? Was halt komisch ist das durch reines Übertakten des Speichers sich bei den meisten sogut wie Garnichts ändert. Die meiste Steigerung erhält man durch die Erhöhung des Core Taktes

joni200
2015-07-02, 21:29:12
... ich würde nur keine weiteren Optimierungen oder gar neue Spiele mit Mantel Support erwarten, da DX12 und Vulkan die Zukunft (und dem Treiberteam) gehört.


Ashes of Singularity wird Mantle unterstützten

Hübie
2015-07-02, 21:34:54
@Hübie
was mich halt mal brennend interessiert was beim Polygonendurchsatz Strip und was List ist und welches von beiden denn mehr im realen Leben genutzt wird. Mich würde auch mal interessieren wie der Polygonendurchsatz mit der Pixelfüllrate zusammenhängt. Denn die ist bei Fury X nicht ganz so schlecht und bis erst einmal Pixel geschrieben werden können müssen dazu die Polygonen in Pixel zerlegt werden.

Ich kenne nur Strip: Das ist einfach eine Kette von Dreiecken. List könnte dann vielleicht das Gebilde als solches sein. Also z.B. 3D-Mensch->bestehend aus Armen, Beinen, Hals, Kopf und Torso. Arm=Strip, Bein=Strip und Mensch=List. Das können andere aber genauer sagen. Gipsel ist immer sehr gut im Erklären und weiß viel. Vielleicht meldet er sich hier ja mal ;)
Genutzt wird also beides. In direktem Zusammenhang stehen Polygondurchsatz und Pixelfüllrate eigentlich nicht, aber man sollte schon ein recht ausgewogenes Verhältnis haben, denn ein Polygon ist nichts weiter als eine Verbindung von (min) 3 Punkten (vertices) im Raum (ergibt in 3D-Grafik nur keinen Sinn ;D). Zwischen denen spannt man eine Fläche auf die schattiert wird und dann texturiert wird. Hier kommt dann eben Texelfüllrate zum Tragen. Nun wird die noch geglättet und weiß der Himmel was um anschließend exportiert (in den RAM geschrieben zu werden). Das macht der Raster Prozessor. Der füllt die Pixel auf dem Monitor.

Hoffe das ist soweit verständlich (und auch sachlich richtig). Da ich kein Experte bin hab ichs mal einfach gehalten. :D

Edit: Vielleicht sind auch diese unterschiedlichen Farben schon "Lists"

http://abload.de/thumb/faceworks_wireframemqu02.png (http://abload.de/image.php?img=faceworks_wireframemqu02.png)

Das rot markierte ist z.B. Strip (also da gehört noch mehr dazu aber bin zu faul):

http://abload.de/thumb/faceworks_polygon_strqeui4.png (http://abload.de/image.php?img=faceworks_polygon_strqeui4.png)

Digidi
2015-07-02, 21:36:55
Danke das hab ich mal verstanden. Was ich mich halt frage wie relevant dieser Wert ist. Immerhin ist er sehr sehr niedrig. Ob sich das wirklich auswirkt?
Was mich halt wundert ist das die Pixelfüllrate im Vantage ja nicht gerade gering ist und die hängt ja auch vom Polygonendurchsatz ab.

Hübie
2015-07-02, 21:52:33
Hm. Das ist von Spiel zu Spiel sehr unterschiedlich. In einem modernen RTSG müssen etliche Einheiten gleichzeitig dargestellt und bewegt werden. Sind dafür aber weniger detailliert und oft auch weniger effektvoll, als zum Beispiel ein Crysis 3 mit hochdetaillierten Charakteren und Vegetation per compute shader die sich bewegen wenn der Charakter hindurch läuft. Wie gesagt können dir andere mehr darüber sagen.

Ich kann dir nur sagen dass die so erst mal nicht viel Aussagekraft als einzelnen Wert haben. Das "Paket" muss stimmen. Und da hat nVidia mit Maxwell eine sehr gute Balance für Gamer gefunden. Kann man nicht wegdiskutieren.

Troyan
2015-07-02, 21:53:11
Aber der Core Takt bringt auch ganz schön viel Leistung!?

Nicht jede Anwendung wartet auf Daten. ;)


Ist Fiji dann jetzt Bandbreiten limitiert? Was halt komisch ist das durch reines Übertakten des Speichers sich bei den meisten sogut wie Garnichts ändert. Die meiste Steigerung erhält man durch die Erhöhung des Core Taktes

Die Karte an sich ist nach den Ergebnissen perfekt ausbalanciert, wenn man die theoretischen Zahlen ignoriert.

Aber anscheinend gibt es eine Limitierung, die verhindert, dass die 512Gb/s vom HBM auch wirklich verarbeitet werden können - das On- wie Off-Chip.
Weder kommen die 512Gb/s wirklich an, noch könnten sie intern verarbeitet werden.

Man muss abwarten, ob der Treiber das ganze in Zukunft verbessert.

Thunder99
2015-07-02, 21:54:28
Bei meiner Hawaii GPU kommen auch nur ca. 220GB/s an auf 1400MHz

Armaq
2015-07-02, 21:55:23
Hab die Sapphire FuryX eingebaut. Das Fiepen ist da, aber es schwankt mMn. oder mein Großstadtgehör filtert das einfach raus, weil Krach eh gewohnt.

Ich teste gleich mal ein bisschen rum, aber das Geräusch ist wirklich nicht von schlechten Eltern.

Ansonsten ist die Karte extrem stylisch, wirkt gut und passt auch vom Einbau her top.

Korvaun
2015-07-02, 21:58:04
Ich glaube du machst dir da zu viel Stress Digidi. FuryX ist bei höheren Auflösungen im Mittel fast so schnell wie ne 980Ti (5% vielleicht langsamer). Dabei sind die theoretischen Werte der TI in den Tests die dir wichtig sind besser als ne FuryX, noch dazu ist der Treiber von nV sicherlich aktuell um einiges ausgereifter und optimierter als der der Fury. Dafür ist die Leistung der Fury doch aber wirklich sehr gut, und wird bestimmt nicht schlechter in absehbarer Zukunft (1 Jahr).

Hübie
2015-07-02, 22:01:59
Was ich noch vergessen hab zu sagen ist natürlich dass viele Effekte keine Dreiecksdaten neu anfordern (ein Beispiel wäre PPAA).

uweskw
2015-07-02, 22:15:07
Eine bestimmte Szene aus dem Spiel mit besonderer Auslastung (auch für dieses Spiel) zu nehmen ist aber dann eben doch worst case.

Vor allem wenn ich, je nach gewähter Szene, mal AMD oder mal NV besser dastehen lassen kann. Deswegen sind die Durchschnittswerte für mich aussagekraftiger.

greetz
US

Digidi
2015-07-02, 22:18:04
@ Danke Hübie so langsam kommt man der Sache näher

Hier ist noch ein Artikel was List und was Strip genau ist:
http://voodoovb.vbgamer.com/dx85dgeometry.html

Ich habe eine Vermutung warum in dem Benchmark vielleicht die Hälfte der Polygondurchsatz im Strip ankommt. Denn Strip fasst ja mehrer Polygonen praktisch zusammen während bei List jedes einzelne berechnet wird. Vielleicht halbiert sich der Benchmark deshalb weil er 2 Triangels im Strip als 1 zählt.

Was mich dann doch etwas verwundert ist das List so schlecht abschneidet. Da es ja eigentlich weniger Daten enthält.

Flusher
2015-07-02, 22:26:55
Wenn man die HBM-Arbeitsfrequenz nicht verändern kann, warum schmiert das Ding dann bei zu hohen Werten ab? ;) -> Geht.

MfG,
Raff

Woher willst du denn wissen ob es sich tatsächlich um den Speicher handelt?

Flusher
2015-07-02, 22:35:56
Hardware.fr hat nun auch Ergebnisse mit Übertaktung:
http://www.hardware.fr/articles/937-26/overclocking-gpu-fiji.html

Größte Gewinne beim Speicher gibt es in BF4, Batman:AO und Hitman. Die letzten beiden Spiele sind Deferred Renderer Games, die mit MSAA bandbreitenabhängig sind.

Man muss also den Speicher mitübertakten, um überhaupt den Core-Takt ausfahren zu können.

Die absoluten Gewinne sind aber ziemlich armselig. Sorry, aber das interessiert doch wirklich keine Sau, ob jetzt ein Spiel mit 5 FPS im Schnitt mehr läuft oder nicht. Wenn es jetzt die MIN-FPS wären, wäre das beeindruckender.

Dafür den höheren Stromverbrauch in Kauf zu nehmen, ist doch wirklich lächerlich.

mironicus
2015-07-02, 22:40:08
Riesen-Bericht über das Fiepen.
http://www.pcper.com/reviews/Graphics-Cards/Retail-AMD-Fury-X-Sound-Testing-Pump-Whine-Investigation

Nightspider
2015-07-02, 22:40:25
Morgen kommt mein Fury X Mantle Test, hab 2T mit AMD geredet und gebencht. Kurz: GCN 1.2 hat Optimierungen und es kommen weitere, BF4 in UHD bzw mit MSAA ist ein Spezialfall.

Yeahaaaa, sehr schön. Bin schon gespannt.

Ich frage halt nach Zukunftssicherheit. Star Citizen z.B. benutz für ein Schiff glaube ich 7.000.000 Polygonen. Bei 10 Schiffen wäre das dann gerade mal noch so 30 fps.

So weit mir bekannt wird selbst Star Citizen nicht mal ansatzweise so viele Polygone nutzen als das eine Fury X da ins schwitzen kommt.

Die absoluten Gewinne sind aber ziemlich armselig. Sorry, aber das interessiert doch wirklich keine Sau, ob jetzt ein Spiel mit 5 FPS im Schnitt mehr läuft oder nicht. Wenn es jetzt die MIN-FPS wären, wäre das beeindruckender.

Dafür den höheren Stromverbrauch in Kauf zu nehmen, ist doch wirklich lächerlich.

Wat? 4-8% sind 4-8%. Haben oder nicht haben. Und mit haben liegt die Karte dann sogar öfter vor einer GTX980 ti.

Menace
2015-07-02, 22:46:18
Riesen-Bericht über das Fiepen.
http://www.pcper.com/reviews/Graphics-Cards/Retail-AMD-Fury-X-Sound-Testing-Pump-Whine-Investigation

"Riesen-Bericht" und eine Update-Zeile zum Schluss bzgl. dem möglichen Update (welches auch schon hier aufgezeigt wurde). Ich würde sagen, Riesen-Link. :rolleyes:

mironicus
2015-07-02, 22:47:30
Video dazu
https://youtu.be/j2-Zd2tmFsg?t=46m12s

Menace
2015-07-02, 22:57:45
:rolleyes: Die Frage ist doch, ob die Neuen nicht mehr Fiepen. Dass die Alten nervtötend fiepen wurde jetzt wirklich von fast jedem bestätigt, der die Karte hat. Also mironicus: Fiepen die mit neuem Aufkleber nicht mehr?

anddill
2015-07-02, 22:58:20
AnandTech hat sein Fury X Review fertig. Mal schauen ob die lange Verzögerung der Qualität gut getan hat.

http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review

Nightspider
2015-07-02, 23:00:04
Wurde schon mehrmals verlinkt einige Seiten zuvor. ;)

Armaq
2015-07-02, 23:09:21
Ich habe jetzt ein bisschen getestet und auch Witcher 3 gezockt, allerdings muss ich auch sagen, dass ich die Karte abgebe.

Ich finde die Performance zwar geil - 2560 mit VSR (3xxx) sieht brutal gut aus beim Witcher und es läuft sehr viel besser als mit der 290VaporX, auch Hairworks ist kein Thema - aber das Fiepgeräusch ist derartig prägnant und unangenehm, dass auch bei Straßenlärm nichts geht. Ich werde die Karte zurück geben, aber nicht auf eine 980Ti wechseln, sondern die nächste Charge abwarten und dann ggf. nochmal die Karte kaufen. Sie passt perfekt ins Gehäuse und ich kann den Wärmetauscher schön in den Deckel setzen, damit bleibt der Innenraum deutlich kühler als vorher.

Edit: Eins noch, auf dem Karton von Sapphire steht 450 GBytes als Merkmal für die Speicherperformance. Sonst lese ich immer 512 Gbytes?

Digidi
2015-07-02, 23:16:43
@Nightspider
Ich hab halt diese Info zum Polycount gefunden:
http://wccftech.com/ryse-polygon-count-comparision-aaa-titles-crysis-star-citizen/

Nightspider
2015-07-02, 23:17:10
Schon mal mit Schaumstoff probiert?

kruemelmonster
2015-07-02, 23:18:09
AnandTech hat sein Fury X Review fertig. Mal schauen ob die lange Verzögerung der Qualität gut getan hat.

Das war keine Absicht von AT sondern dem Kranksein des Redakteurs geschuldet:

For readers expecting the AMD Fury X review, unfortunately Ryan has been battling a virus this week and despite his best efforts it has taken its toll. The review is near completion but with a couple of key elements still to do - please keep your eyes peeled over the next few days for the full analysis.

Nightspider
2015-07-02, 23:48:56
@Nightspider
Ich hab halt diese Info zum Polycount gefunden:
http://wccftech.com/ryse-polygon-count-comparision-aaa-titles-crysis-star-citizen/

Die Entwickler haben sogar gesagt das sie in manchen Szenen 20 bis 30mio Polygone gleichzeitig dargestellt werden.

Aber selbst das ist noch viel zu wenig ob aktuelle GPUs in die Knie zu zwingen. Zumindest hat mir das hier mal so jemand erklärt.

Digidi
2015-07-03, 00:00:53
Na ja man kann es grob überschlagen:
Durchsatz 2,3 Gigpolygons/s = 2300.000.000 Polygons/s
Jetzt teilt man den Durchsatz durch die 30.000.000 Polygonen pro Bild

Heraus kommen dann ca 73 Bilder die Sekunde. Da das aber alles nicht optimal Läuft dürfte man von 30 Bildern ausgehen.

Hübie
2015-07-03, 00:05:23
Also bei 1000 MHz kann Fiji theoretisch 4*10^9 Dreiecke "rastern" (4 Engines á 1 Dreieck/s * 1000 *10^6 Hz). Da sind 7*10^6 nicht viel. Das sollte also weniger eine Beschränkung auf dem Papier sein. Wie gesagt ists eine ganze Kette die so eine Renderpipeline ausmacht und da macht dicke poly-Durchsatz nur Sinn wenn die auch davor hereinkommen und am Ende verarbeitet werden.

Edit: Taschenrechner (;D) sagt dass es 571 mal soviel theoretische Rechenkraft ist als das Beispiel mit dem Raumschiff (7 Mio Polygone).

Digidi
2015-07-03, 00:09:29
Bei Strip Lastigen Polygonen halbiert sich leider die Rate. (Siehe Techreport) also sind es nur 2*10^9 Dreiecke warum auch immer. Hoffe das dies mal jemand rausfindet warum das so ist :)

Und 30.Millionen ist dann schon eine Hausnummer die da erst mal durchmüssen.

Was auch mal interessant wäre zu wissen, ist ob nur die sichtbaren polygonen berechnet werden, oder auch diese die sich z.B. hinter einem Objekt verbergen.

Wenn die hinter einem Objekt nicht mitgerechnet werden dann sind die Maximale Sinvolle Polygonenzahl ca. 9Millonen. Das wäre dann 1Polygon pro Pixel bei UHD. Alles andere bringt keine höhere Auflösung.

Schaffe89
2015-07-03, 01:20:55
@solofox

Karten FURY (OHNE X) sind schon länsgt fertig wenn in etwa 10 Tagen bereits der Launch stattfindet...
Ob die Karte den Takt halten kann, Leise, kühl bleibt seht auf einem anderen Blatt

In ein paar Tagen dürften die Karten verfügbar sein, sprich die ersten Bilder ins Netz finden.
In Italien werden diese wie immer günstiger sein.
Jene Karten sollten übertaktet auf jeden Fall eine Fury X packen.

Ich schätze in ein bis zwei Tagen erfahren wir mehr.

N0Thing
2015-07-03, 01:30:30
Der Preis ist scheinbar festgemeisselt wenn ich mir Geizhals so ansehe. Da tut sich ja gar nix.

Für deutlich Preissenkungen ist es noch zu früh, dafür gibt es einfach zu wenige Exemplare bei den Händlern und zu Beginn will keiner die Preise kaputt machen.

Ashes of Singularity wird Mantle unterstützten

Gibt es dazu eine aktuelle gesicherte Aussage? Ich hätte ja eher DX11, DX12 und Vulkan als APIs erwartet, wobei frühere Mantle-Implementierungen nun vielleicht auf Vulkan portiert werden.


Jene Karten sollten übertaktet auf jeden Fall eine Fury X packen.

Das kann ich mir nicht vorstellen, dies würde das Konzept der Fury X ad absurdum führen, wenn die (vermutlich) abgespeckte, luftgekühlte Variante mit dem wassergekühlten Topmodell auf einer Höhe wäre.

Schaffe89
2015-07-03, 01:33:36
Wenn man die HBM-Arbeitsfrequenz nicht verändern kann, warum schmiert das Ding dann bei zu hohen Werten ab? ;) -> Geht.

MfG,
Raff


Klar gehts.:biggrin:

Hübie
2015-07-03, 01:35:49
Bei Strip Lastigen Polygonen halbiert sich leider die Rate. (Siehe Techreport) also sind es nur 2*10^9 Dreiecke warum auch immer. Hoffe das dies mal jemand rausfindet warum das so ist :)

Und 30.Millionen ist dann schon eine Hausnummer die da erst mal durchmüssen.

Was auch mal interessant wäre zu wissen, ist ob nur die sichtbaren polygonen berechnet werden, oder auch diese die sich z.B. hinter einem Objekt verbergen.

Wenn die hinter einem Objekt nicht mitgerechnet werden dann sind die Maximale Sinvolle Polygonenzahl ca. 9Millonen. Das wäre dann 1Polygon pro Pixel bei UHD. Alles andere bringt keine höhere Auflösung.

Das wird wohl etwas mit zurückgeben eines Wertes zu tun haben. Kann ich aber nicht wirklich beantworten ;) Finde ich nach wie vor auch gar nicht so wichtig, da wie gesagt genug umgesetzt wird. Mit Tesselation ists da etwas interessanter, da hier zwischen Punkten interpoliert wird und feste Algorithmen eingesetzt werden.

Weiß eigentlich jemand was Scott da benutzt? Ich finde dazu nirgends was :(

-/\-CruNcher-/\-
2015-07-03, 02:26:33
In ein paar Tagen dürften die Karten verfügbar sein, sprich die ersten Bilder ins Netz finden.
In Italien werden diese wie immer günstiger sein.
Jene Karten sollten übertaktet auf jeden Fall eine Fury X packen.

Ich schätze in ein bis zwei Tagen erfahren wir mehr.

Ja daselbe vorausichtlich wie bei Nvidia Shadertaktausgleich dafür aber Ineffizienter im Verbrauch.

Aber für Compute bringt dir der Shadertaktausgleich so gut wie garnichts

iuno
2015-07-03, 04:35:18
Cycles schaue ich mir noch an. Ja, es wird ein Follow-Up geben.
Wunderbar, vielen Dank. Darauf freue ich mich besonders ;) Bin sehr gespannt, wie Fiji dort abschneidet. Ist auch schön, hier wirklich mal wieder vergleichbare Ergebnisse zu haben. Den Berichten von usern kann man halt nur schwer trauen, alleine schon wegen unterschiedlichen settings, selbst wenn die Szene dieselbe ist (z.B. tile size)

horn 12
2015-07-03, 07:23:33
News zur Pumpe:

http://wccftech.com/amd-fury-x-pump-silent-solves-noise-issue/

Also Leise ist die Neue Version mit eingraviertem Logo auch nicht unbedingt :-(
Wäre mir zu laut ----> Lüfter und Pumpe, vor Allem unter IDLE
Last wäre akzeptabel, aber IDLE muss es nahelos lautlos sein!!!

Mal die Fury abwarten, sprich die Luftgekühlten neuen AMD Karten.
Hoffe da ist was sehr Gutes und Leises dabei, und auch um die 500+ Euro, vielleicht von Sapphire oder MSI!

Dawn on Titan
2015-07-03, 07:55:44
Ich fand die neue sehr leise. Gut der Lüfter ratterte, aber das ist nicht schlimm.

Korvaun
2015-07-03, 08:17:43
Ich habe meine Sapphire noch nicht geöffnet, aber vom Geräusch her ist meine nahe bei der verbesserten Version. Also eingebaut unterm Tisch nicht hörbar das fiepen/knattern... :)

Godmode
2015-07-03, 08:51:19
News zur Pumpe:

http://wccftech.com/amd-fury-x-pump-silent-solves-noise-issue/

Also Leise ist die Neue Version mit eingraviertem Logo auch nicht unbedingt :-(
Wäre mir zu laut ----> Lüfter und Pumpe, vor Allem unter IDLE
Last wäre akzeptabel, aber IDLE muss es nahelos lautlos sein!!!

Mal die Fury abwarten, sprich die Luftgekühlten neuen AMD Karten.
Hoffe da ist was sehr Gutes und Leises dabei, und auch um die 500+ Euro, vielleicht von Sapphire oder MSI!

Ich hatte eine Corsair H100 und die war eigentlich auch nie ganz leise zu bekommen. Daher bin ich dann überhaupt auf Custom-Loop Wakü umgestiegen. Gibt es überhaupt AiO Pumpen die leise genug sind?

AtTheDriveIn
2015-07-03, 09:09:58
News zur Pumpe:

http://wccftech.com/amd-fury-x-pump-silent-solves-noise-issue/

Also Leise ist die Neue Version mit eingraviertem Logo auch nicht unbedingt :-(
Wäre mir zu laut ----> Lüfter und Pumpe, vor Allem unter IDLE
Last wäre akzeptabel, aber IDLE muss es nahelos lautlos sein!!!

Mal die Fury abwarten, sprich die Luftgekühlten neuen AMD Karten.
Hoffe da ist was sehr Gutes und Leises dabei, und auch um die 500+ Euro, vielleicht von Sapphire oder MSI!
Das ist doch nahezu lautlos. 2cm neben dem Lüfter ist man in der Realität doch nicht. Für mich ist damit Pumpgate vorbei.

Jetzt noch etwas mehr Takt ~1200/600 und Attacke

Isen
2015-07-03, 09:17:01
Ja.. der Lüfter wie beim Kumpel... bestätigt meine Erfahrung mit der Karte. Da musste aber praktisch neben dem Rechner sitzen ( 10-20cm ) bei offenem Gehäuse.

y33H@
2015-07-03, 09:20:47
Hier die Mantle-Werte mit Fury X: http://www.golem.de/news/grafikkarte-auch-fury-x-rechnet-mit-der-mantle-schnittstelle-flotter-1507-115005.html

Leonidas
2015-07-03, 09:43:02
Die Taiwanesen sind mit ihren ganzen Klimaklappern von Geburt an immun gegen solche und andere Geräusche. Bei denen setzt der warnehmbare Geräuschpegel erst ab ca. 40 db(A) ein, der Rest ist Schwund. ;)


Gilt bei den Süd/Ost-Asiaten generell. Auch ohne Klimaanlagen-Gewöhnung. Die liegen seelenruhig vor der Glotze, während im Nebenraum (bei Witzwänden) mit dem Schlagbohrer gearbeitet wird.

Es existiert ja auch die generelle Empfehlung, im QM-Team immer wenigstens einen geräuschsensitiven Deutschen zu haben. Dann fallen solcherart Bugs weit vor Release auf und man kann rechtzeitig gegensteuern.

Daneben: Moderne Klimaanlagen sind inzwischen verdammt leise (wenn man sie nicht überdimensioniert kauft). Kein Vergleich zu den Modellen von vor 10 Jahren (und früher).




Kleiner Nachtrag zum Pumpengeräusch:

Ich hatte die Karte seit gestern Mittag fast ununterbrochen an, auch über Nacht für einen Langzeittest. Die Geräusche sind heute etwas leiser, aber noch lange nicht verschwunden. Eine Messung bestätigt das übrigens. Vielleicht muss man ja die Pumpe auch erst 48 Stunden oder mehr "einfahren"?


Sollte natürlich quantifiziert werden. Und dann die entscheidende Frage: Geht es mit der Zeit weiter herunter?




Interessant finde ich das sich die TX in 4K sogar steigern kann, die 980Ti jedoch etwas abfällt.


... um etwas weniger als einen Prozentpunkt. Ist nur knapp über der Meßungenauigkeit.

phoenix887
2015-07-03, 09:44:41
Ich hatte eine Corsair H100 und die war eigentlich auch nie ganz leise zu bekommen. Daher bin ich dann überhaupt auf Custom-Loop Wakü umgestiegen. Gibt es überhaupt AiO Pumpen die leise genug sind?

Habe die Corsair H100 oder H110. Müste ich nochmal genau schauen. Höre meine im idle nicht. Da sieht man wieder wie subjektiv Wahrnehmung ist

Nightspider
2015-07-03, 09:49:38
Hier die Mantle-Werte mit Fury X: http://www.golem.de/news/grafikkarte-auch-fury-x-rechnet-mit-der-mantle-schnittstelle-flotter-1507-115005.html

Also doch. Es kommen noch ein paar Mantle Optimierungen für Fury X mit den nächsten Treibern.

Wäre auch dumm gewesen wenn nicht. Und gerade Games wie BF4 und Dragon Age sind noch aktuell.

Thx für die Info.

(del)
2015-07-03, 09:58:53
Die detaillierten Nachfragen zur Pumpe, den offensichtlichen QM-Fehlern, zur wahrscheinlichen Ursache und den internen RMA-Konditionen für die Boardpartner habe ich mittlerweile auch abgeschlossen und zu einem kurzen Abriss zusammengefasst. Muss nur noch publiziert werden. Die neuen Pumpen sind besser und im geschlossenen Gehäuse sicher auch nicht mehr so störend. Aber der Rest ist kontruktionsbedingt, zumal der Druck im viel zu eng bemessenen System bei 60°C Wassertemperatur barbarisch sein muss. Diese winzigen Pumpen können einfach nicht lautlos sein.

Mit etwas Glück bekommen wir den Artikel samt Leistungsaufnahme und Pumpen-Background heute noch online. Darf ich den dann mal ausnahmsweise später zum Zerfleddern verlinken?

FuryNator
2015-07-03, 10:04:25
Darf ich den dann mal ausnahmsweise später zum Zerfleddern verlinken?
:ubash:

akuji13
2015-07-03, 10:12:52
Habe die Corsair H100 oder H110. Müste ich nochmal genau schauen. Höre meine im idle nicht. Da sieht man wieder wie subjektiv Wahrnehmung ist

Dank 7V und Dämmung höre ich meine auch nicht mehr.
Ist kein Unterschied zur D5 in der "richtigen" (?) WaKü.

Aber wie Format_C schon sagt, das ist auch was anderes.
Ein 240mm Radi für eine CPU mit 140W sind eine andere Hausnummer als 120mm bei 300W.
Da muss die Pumpe einfach mehr Dampf erzeugen um nicht selbst den Hitzetod zu sterben.

Hab ich im Eigenversuch auch feststellen müssen.

grobi
2015-07-03, 10:17:47
Ich hoffe man kann die überarbeitete Version bald kaufen. So gefällt mir die Karte ausgesprochen gut.

mironicus
2015-07-03, 10:21:45
Ich hoffe man kann die überarbeitete Version bald kaufen. So gefällt mir die Karte ausgesprochen gut.

Diese neue Version müsste noch vom Handel gekennzeichnet werden.

grobi
2015-07-03, 10:31:37
Diese neue Version müsste noch vom Handel gekennzeichnet werden.

Das wäre nur fair. Mit einem Sticker. :wink:

(del)
2015-07-03, 10:34:35
Werden sie nicht. Ich werde im Artikel auch schreiben warum, weil es etwas mit der internen RMA-Regelung tun haben dürfte (Teaser) :P

Thunder99
2015-07-03, 10:43:42
Aber top das sie so schnell reagiert haben :up: Nur hilft das wenig bei diejenigen die sofort zur Konkurrenz gegriffen haben :(

Isen
2015-07-03, 10:51:55
Entweder man wartet noch eine Weile, oder spielt Pingpong mit DHL und Händler :D

Zino
2015-07-03, 11:03:10
DHL? Die spielen selber Pingpong.

Ich werde einfach abwarten, irgendwann sind ja genug "neue" da.

Gruß

Zino

Thunder99
2015-07-03, 11:13:20
Einfach bei Shop bestellen wo keine auf Lager hat :freak:. Alternativ telefonisch versichern lassen das es die "neue" Revision ist

(del)
2015-07-03, 11:15:16
Die Stückzahlen bei den AIB sind wirklich fast schon homöopathisch. Manche Boardparter haben bisher nur an die 100 Karten bekommen, andere sogar noch weniger. Ich habe diese Woche mal etwas rumtelefoniert und es zeichnet sich auch ab, dass die Schäden bei den AIB im schlimmsten Fall kaum in sechsstelligen Bereich landen würden. Trotzdem sind es für kleinere Exklusivpartner noch erdrückende Summen. denn man muss ja trotz allem in Vorleistung gehen. :(

Allerdings verstehe ich nicht, warum ein erfahrener Zusammenschrauber wie Sapphire (PC-Partner) solche Wareneingänge nicht wenigstens stichprobenartig kontrolliert. Geiz frisst auch in Asien Hirn, keine Hunde und Katzen. :D

Thunder99
2015-07-03, 11:19:42
Das stimmt. Zumal sie ja nichts dafür können :(. Immerhin ist anscheinend die Charge klein genug das sich der Schaden in Grenzen hält (hoffentlich)

Isen
2015-07-03, 11:20:58
@Zino,

ich weiß... hab selbst nen paar Beamte. Gibt aber noch einige ZBs die noch nicht streiken. Die werden wohl bei den Heute stattfindenden Verhandlungen einberufen, keine Einigung usw zwecks Druck.Wird wohl noch 1-2 Wochen dauern der Streik.
Aber selbst danach wird es träge, die Pakete die allein in der NL Düsseldorf liegen, dazu brauchen die über ein halbes Jahr, um das aufzuarbeiten.

Dural
2015-07-03, 11:26:24
Hab mir eine Bestellt, jetzt habe ich TX und Fury, dabei wollte ich keine von beiden :freak:

y33H@
2015-07-03, 11:32:23
Hier die Mantle-Werte mit Fury X: http://www.golem.de/news/grafikkarte-auch-fury-x-rechnet-mit-der-mantle-schnittstelle-flotter-1507-115005.htmlAls Nachklapp: Bei mir sieht's so aus nach jeweils rund 10min quer über die komplette Map fahren/laufen.

BF4 D3D11 4K, BF4 D3D11 4K + 4x MSAA, BF4 Mantle 4K, BF4 Mantle 4K + 4x MSAA

http://abload.de/thumb/bf4-d3d11-4kn0a9j.jpg (http://abload.de/image.php?img=bf4-d3d11-4kn0a9j.jpg) http://abload.de/thumb/bf4-d3d11-4k-4x-msaalgxxt.jpg (http://abload.de/image.php?img=bf4-d3d11-4k-4x-msaalgxxt.jpg) http://abload.de/thumb/bf4-mantle-4kyeaak.jpg (http://abload.de/image.php?img=bf4-mantle-4kyeaak.jpg) http://abload.de/thumb/bf4-mantle-4k-4x-msaal2a4x.jpg (http://abload.de/image.php?img=bf4-mantle-4k-4x-msaal2a4x.jpg)

Und wir sehen, Mantle braucht weitaus mehr Videospeicher.

Thunder99
2015-07-03, 11:36:13
Nicht schön, bei nur 4GB @ Fury (X). Aber anscheinend sollen sie ja daran arbeiten :)

CB schreibt, das HBM unabhängig was die Tools anzeigen man nicht übertakten kann. Wieso wirft dann der OpenCL Bandbreiten Test höhere Werte aus? Da muss was schneller laufen, und wenn es nur die Caches sind :D

mironicus
2015-07-03, 11:43:46
Computerbase will es angeblich besser wissen:
http://www.computerbase.de/2015-07/amd-radeon-r9-fury-x-uebertaktung-des-hbm-speichers-weiterhin-unmoeglich/

Isen
2015-07-03, 11:44:18
Vermutlich doch der PCI-E, weswegen der zu Heiß heißer wird dabei :D

Thunder99
2015-07-03, 11:52:26
Wie schon heute geschrieben, da wird etwas beschleunigt. Meldung wahrscheinlich wegen einem Statement von AMD

Unicous
2015-07-03, 11:54:52
Damien Triolet (hardware.fr) ist sich auch nicht sicher, was da genau übertaktet wird.:wink:

Tridam

So as some people already pointed it out, it's actually possible to overclock the memory on the Fury X. I'm not sure what exactly is included in this clock domain though. Anyway it works after enabling "Extend official overclocking limits" in Afterburner. I could change the memory clock and the option actually appeared in the CCC Overdrive panel.

I couldn't push the memory higher than 550 MHz. It's 'stable' at 575 and 600 MHz but there are artifacts. I settled on 1134 / 540 Mhz to get the same 8% overclock on the memory and on the GPU (1134 MHz is just stable enough for benchmarking, the GPU prefers 1125 MHz). I've just published the results there : http://www.hardware.fr/articles/937-26/overclocking-gpu-fiji.html
https://forum.beyond3d.com/posts/1858018/

(del)
2015-07-03, 11:59:31
Im Übrigen hat AMD unsere Kleber-Recherche mittlerweile auch offiziell bestätigt :)

Mehr dann in Kürze.

Mr.Y
2015-07-03, 12:01:26
Apropos Hardware.fr, die haben da ja auch einen netten CF bzw. SLI-Test bei:
http://www.hardware.fr/focus/111/crossfire-radeon-r9-fury-x-fiji-vs-gm200-round-2.html

-> CF funktioniert besser, u.a. wohl dadurch, dass die Fury den Takt halten kann, was bei der 980 Ti im SLI nicht mehr gegeben ist
Aber nur kurz ueberflogen den Artikel, kann weder franzoesisch, noch ist google translate erlaubt :freak: ueberhaupt, Arbeit arbeit

Thx
2015-07-03, 12:02:33
Klar gehts.:biggrin:

"Wie AMD gegenüber WCCFtech klarstellte, werden die Frequenzen des Speichers in Hardware festgelegt, weshalb die Anpassung mit Hilfe einer Software unmöglich ist. Dies deckt sich mit den Benchmarkergebnissen der „übertakteten“ Karten, die bislang keinen Nutzen des „erhöhten“ Speichertaktes zeigen konnten. Auch eine Taktsteigerung von angeblichen 20 Prozent erscheint aufgrund der noch neuen Technologie hinter dem HBM-Speicher unwahrscheinlich."

http://www.computerbase.de/2015-07/amd-radeon-r9-fury-x-uebertaktung-des-hbm-speichers-weiterhin-unmoeglich/

raffa
2015-07-03, 12:03:54
Im Übrigen hat AMD unsere Kleber-Recherche mittlerweile auch offiziell bestätigt :)

Mehr dann in Kürze.

Hör auf zu teasern und bring den Artikel! :D

mironicus
2015-07-03, 12:05:19
Im Übrigen hat AMD unsere Kleber-Recherche mittlerweile auch offiziell bestätigt :)

Mehr dann in Kürze.

Danke! :D

Tja, und jetzt würde mich in dem Zusammenhang interessieren ob AMD es zugegeben hätte wenn nicht recherchiert worden wäre.

"Tut uns leid, wir hatten ein Problem mit dem Kleber in der Pumpe..."

Oder

"Das ist ein völlig normales Geräusch."

:freak:

Isen
2015-07-03, 12:05:24
@Thx,

wenn man es von der gegebenen Leistung dadurch ableitet, dann geht es schon... die Frage ist hier nun aber: Was wird denn da nun erhöht... irgendwas auf jeden Fall. Nur was...

Unicous
2015-07-03, 12:05:46
Im Übrigen hat AMD unsere Kleber-Recherche mittlerweile auch offiziell bestätigt :)

Mehr dann in Kürze.


:ulove3:


Finde dein Nachfragen/Nachhaken und Recherchieren einsame Spitze. Das fehlt leider so oft im "Online IT-Journalismus". Besonders im deutschen Bereich.

Das höchste der Gefühle ist oft: Hersteller X wurde wegen Gerücht Y angefragt, hat aber nicht geantwortet/wollte nicht kommentieren und wir waren zu faul mal in der Lieferkette nachzufragen.:frown:

raffa
2015-07-03, 12:11:09
"Wie AMD gegenüber WCCFtech klarstellte.. "

Wenn man sich die Ergebnisse http://www.hardware.fr/articles/937-26/overclocking-gpu-fiji.html ansieht, bekommt man eine nahezu perfekte Skalierung bei gleichmäßiger Anhebung beider Taktdomänen. Und weniger Zugewinn wenn man nur den Kerntakt erhöht.

Die Speicherbandbreite erhöht sich ebenfalls, wie wir schon gesehen haben. Da wirkt die Klarstellung schon etwas seltsam...

Botcruscher
2015-07-03, 12:12:01
Und wir sehen, Mantle braucht weitaus mehr Videospeicher.

Dewegen verstehe ich die Begeisterung über DX12 auch nicht. Ich erwarte nichts gutes wenn der Entwickler irgendwo Zeit reinstecken soll...

BlacKi
2015-07-03, 12:16:23
"Wie AMD gegenüber WCCFtech klarstellte, werden die Frequenzen des Speichers in Hardware festgelegt, weshalb die Anpassung mit Hilfe einer Software unmöglich ist. Dies deckt sich mit den Benchmarkergebnissen der „übertakteten“ Karten, die bislang keinen Nutzen des „erhöhten“ Speichertaktes zeigen konnten. Auch eine Taktsteigerung von angeblichen 20 Prozent erscheint aufgrund der noch neuen Technologie hinter dem HBM-Speicher unwahrscheinlich."

sie haben auch gesagt das die retailkarten leiser wären, oft sind sie sogar lauter als die testsamples. sie haben auch gesagt das die consumer ihre freude hätten beim übertakten. sie haben auch gesagt das fiji 1,5x effizienter als hawai ist. sie haben gesagt das die nano 2x so effizient ist wie hawai und hängen ein 175w schild raus.

hier siehst du doch das die bandbreite steigt, das ist das gewünschte ergebnis wenn man den speichertakt anhebt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10684681#post10684681

einfach dem marketing nix glauben...

(del)
2015-07-03, 12:16:39
So, endlich auch schlusskorrigiert:

Nachtest der Leistungsaufnahme und ein paar Recherchen und Kommentare von mir zur Pumpenproblematik, die wir dann wohl auch (bedingt) abhaken können.

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html

Matrix316
2015-07-03, 12:19:18
Wenn der Speichertakt nicht wirklich hochgehen würde, würde es ja keine Artefakte geben und sowas.

Birdman
2015-07-03, 12:32:52
http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html
Muss da bei den Legenden der FTP FPS Messungen "lower is better" stehen?

Azubi
2015-07-03, 12:35:46
Soeben ist die neue ct auf meinem Schreibtisch gelandet mit deren Review zur Fury X. Das Fazit ist sehr ernüchternd bei denen ausgefallen...

[Auszüge]
... trotz der enorm hohen Speicherbandbreite und 1000 zusätzlicher Shader-Kerne gerade so das Niveau der effizienten GTX980 Ti erreicht, die ihre Performance aus althergebrachtem GDDR5-Speicher zieht.

... AMD verzichtet bei seiner neuen Grafikkarten-Generation auf HDMI 2.0 und damit auf die Möglichkeit, 4K-Fernseher mit 60hz anzusteuern. Ohne HDMI 2.0 eignet sich sie künftige Fury Nano nicht für den Einsatz in Spielekonsolen-PCs - wie beispielsweise den Steam Machines.

... Kopierschutz HDCP 2.2 unterstützt die Fury-Serie ebenfalls nicht und wird deshalb keine 4K-Blue-rays abspielen können.

... fehlenden Features HDMI 2.0, DHCP2.2 und Direct3D 12.1 lassen an der Zukunfssicherheit zweifeln - das ist für eine brandneue Grafikkarten-Generation nicht akzeptabel.

... Nvidias Maxwell 2.0 GPU weiterhin das Maß der Dinge.

(del)
2015-07-03, 12:35:50
Muss da bei den Legenden der FTP Messungen "lower is better" stehen?
Steht eigentlich in jeder Grafik drin. Links oben, hinter der Achsenbeschriftung

grobi
2015-07-03, 12:50:11
@Azubi

Ich finde die Ct ist schon eine Weile nicht mehr ernst zu nehmen.

Birdman
2015-07-03, 12:50:13
Steht eigentlich in jeder Grafik drin. Links oben, hinter der Achsenbeschriftung
Ich meinte es so, dass da "higher is better" stehen sollte und nicht "lower is besser" wie bei den Watt Messungen.

(del)
2015-07-03, 12:50:37
... AMD verzichtet bei seiner neuen Grafikkarten-Generation auf HDMI 2.0 und damit auf die Möglichkeit, 4K-Fernseher mit 60hz anzusteuern. Ohne HDMI 2.0 eignet sich sie künftige Fury Nano nicht für den Einsatz in Spielekonsolen-PCs - wie beispielsweise den Steam Machines.
... Kopierschutz HDCP 2.2 unterstützt die Fury-Serie ebenfalls nicht und wird deshalb keine 4K-Blue-rays abspielen können.
... fehlenden Features HDMI 2.0, DHCP2.2 und Direct3D 12.1 lassen an der Zukunfssicherheit zweifeln - das ist für eine brandneue Grafikkarten-Generation nicht akzeptabel.
... Nvidias Maxwell 2.0 GPU weiterhin das Maß der Dinge.

Erstens wurde die Fury X und nicht die Nano getestet (Glaskugel?), da gleich von der ganzen Serie zu sprechen halte ich für mutig. Außerdem ist die Anzahl von 4K-TVs mit HDMI 2.0 ja nun wirklich extrem überschaubar, kaum jemand dürfte so ein Teil haben. 4K-Blu-rays? Interessiert doch keine Sau mehr. Scheibe ist mausetot. Ich habe mein gesamtes 4K-Matrial auf dem Medienserver ;)

Zumindest in Bezug auf die FuryX sind das alles Totschagargumente, die nur einen klitzekleinen Personenkreis betreffen. Falls überhaupt. Sau-->Dorf

Unicous
2015-07-03, 12:54:28
Besonders wenn man bedenkt, dass GM204/200 auch kein HDCP 2.2 können.:wink:

Also, wenn dann ist GM206 das Maß aller Dinge.:freak:


Und es scheint sich immer weiter herauszukristallisieren, dass DX 12.1 ein Marketing-Stunt von Nvidia ist. Ich warte sehnsüchtig auf das erste Spiel, dass FL 12_1 unterstützt. Im Zweifelsfall wird es in zwei Jahren 12.1a geben, das sowohl Intel und AMD unterstützen.

Digidi
2015-07-03, 12:57:07
Danke für den Test Format C. Was ich beachtlich finde das unter UHD die Karte auf einmal 25% mehr verbraucht als zu HD. GM200 bleibt da relative gleich vom Verbrauch.

Ist bei HD eine Drossel drin? Oder limitiert was bei HD?

(del)
2015-07-03, 12:57:16
Ich meinte es so, dass da "higher is better" stehen sollte und nicht "lower is besser" wie bei den Watt Messungen.

Jetzt habe ich es auch kapiert. Du schriebst FTP, nicht FPS ;) Ist gefixt, Danke für den Hinweis. Nun muss nur noch der Cache auf dem Server geflusht werden.

Danke für den Test Format C. Was ich beachtlich finde das unter UHD die Karte auf einmal 25% mehr verbraucht als zu HD. Ist bei HD eine Drossel drin? Oder limitiert was bei HD?

Genau das war doch Inhalt vieler Diskussionen hier im Thread. In FHD bekommt die Karte dank diverser Bottlenecks keinen echten Vorteil.

Thunder99
2015-07-03, 13:01:00
CT schreibt kritisch. Müsste man über prüfen ob sie auch so kritisch waren bei Kepler. Nur DX11_0 damals...

Fury ist eine gute Karte mit Ecken und Kanten. Das sind aber andere Karten auch ;)

Digidi
2015-07-03, 13:03:08
Können diese Bottelnecks beseitigt werden? Es wäre mal ein Artikel wert über die Bottelnecks von AMD und Nvidia zu berichten.

Super Test danke Format_C

Birdman
2015-07-03, 13:05:19
Jetzt habe ich es auch kapiert. Du schriebst FTP, nicht FPS ;) Ist gefixt, Danke für den Hinweis. Nun muss nur noch der Cache auf dem Server geflusht werden.
Fuuuuu, duch die Arbeit bei einem ISP und mit den täglichen File-Upload Problemen von Kunden konfrontiert, hat sich mir hier mal wieder ein brutaler Legastenie-Dreher zwischen Hirn und Hand eingeschlichen.

(del)
2015-07-03, 13:07:45
Ein gutes, möglichst objektives Fazit, wichtet immer Pro und Kontra gegeneinander auf. Am besten noch unterschieden nach Anwendergruppen. Man kann es nie allen Recht machen, auch das ist ein Umstand, der einen als Redakteur in den Wahnsinn treiben kann. Schwierig auch, wenn nur Pro oder Kontra später in Zitaten verwendet werden und der Gesamtkontext flöten geht.

Eiserne Regel, schreibe Sätze immer im "Einerseits-Andererseits"-Stil. Nie ganze, getrennte Blöcke für Pro und Kontra. Das macht es dann auch den Marketingleuten schwerer, die Zitate entfremdet und einseitig zu gebrauchen. Weglassung ist auch eine Art der Lüge :P

Fuuuuu, duch die Arbeit bei einem ISP und mit den täglichen File-Upload Problemen von Kunden konfrontiert, hat sich mir hier mal wieder ein brutaler Legastenie-Dreher zwischen Hirn und Hand eingeschlichen.

Kenne ich. Bei mir gehen die ersten Benchmark-Charts nach zwei Tagen Audio-Lab auch immer in dB(A) über die Bühne, vor allem dann, wenn man sich nebenher noch mit den Firmen am Telefon übers Audio-Fazit streiten muss.

horn 12
2015-07-03, 13:40:35
http://videocardz.com/57005/amd-radeon-r9-fury-to-feature-3584-stream-processors

Somit wohl ca. 10-15% langsamer als die FURY X
wenn die Fury den Takt halten kann bei ca. 75 Grad / aber bei welcher Lautstärke...
Zudem werden die Kühler wohl vom 19cm PCB vorragen, was suboptimal sein dürfte!

(del)
2015-07-03, 13:42:58
http://videocardz.com/57005/amd-radeon-r9-fury-to-feature-3584-stream-processors
Zudem werden die Kühler wohl vom 19cm PCB vorragen, was suboptimal sein dürfte!
Warum? Lange Heapipes sind auch auf langen PCBs keine Lösung ;)

dildo4u
2015-07-03, 13:47:26
http://videocardz.com/57005/amd-radeon-r9-fury-to-feature-3584-stream-processors

Somit wohl ca. 10-15% langsamer als die FURY X
wenn die Fury den Takt halten kann bei ca. 75 Grad / aber bei welcher Lautstärke...
Zudem werden die Kühler wohl vom 19cm PCB vorragen, was suboptimal sein dürfte!
Es ist besser wenn der Kühler überragt,da die Luft ohne Wiederstand durch den Kühler geht.

Troyan
2015-07-03, 13:49:23
Erstens wurde die Fury X und nicht die Nano getestet (Glaskugel?), da gleich von der ganzen Serie zu sprechen halte ich für mutig. Außerdem ist die Anzahl von 4K-TVs mit HDMI 2.0 ja nun wirklich extrem überschaubar, kaum jemand dürfte so ein Teil haben. 4K-Blu-rays? Interessiert doch keine Sau mehr. Scheibe ist mausetot. Ich habe mein gesamtes 4K-Matrial auf dem Medienserver ;)

Zumindest in Bezug auf die FuryX sind das alles Totschagargumente, die nur einen klitzekleinen Personenkreis betreffen. Falls überhaupt. Sau-->Dorf

236 4K TVs werden zur Zeit bei Geizhals gelistet, die HDMI 2.0 unterstützen:
http://geizhals.de/?cat=tvlcd&xf=122_HDMI+2.0~34_3840x2160#xf_top

Und GM200 unterstützt anscheinend auch HDCP2.2:
https://forums.geforce.com/default/topic/845270/gpus-with-hdcp-2-2-support/?offset=8

(del)
2015-07-03, 14:00:24
Die Relevanz geht trotzdem gegen Null. Zocken am 4K-TV ist reichlich albern (Lag) und 4K-Blu-rays sind auch nicht gerade absolute Mainstream-Ware. Ich sehe es privat trotz kompatiblem 4K-TV eher entspannt. :)

y33H@
2015-07-03, 14:28:42
Und GM200 unterstützt anscheinend auch HDCP2.2: https://forums.geforce.com/default/topic/845270/gpus-with-hdcp-2-2-support/?offset=8Hmmm ...
I got a response today (6/30/2015) from the rep I spoke to on 6/29/2015. He said the GeForce GTX 980 and the 970 (GM204 GPUs) do not support HDCP 2.2.

Armaq
2015-07-03, 14:29:12
So, endlich auch schlusskorrigiert:

Nachtest der Leistungsaufnahme und ein paar Recherchen und Kommentare von mir zur Pumpenproblematik, die wir dann wohl auch (bedingt) abhaken können.

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html
Meinst du das Geräusch ist nach 150 Stunden noch geringer?

mironicus
2015-07-03, 14:30:10
Die Relevanz geht trotzdem gegen Null. Zocken am 4K-TV ist reichlich albern (Lag)

Gaming-Modus? Hunderte von Millionen Konsolenspieler...? :freak:

Thunder99
2015-07-03, 14:35:11
Wieviele der Konsolen Nutzer haben ein 4k Display? :wink: Wir wissen es nicht aber es ist klar das Fiji besser dran wäre wenn es supportet werden würde :)

y33H@
2015-07-03, 14:38:49
Gaming-Modus? Hunderte von Millionen Konsolenspieler?720p auf 4K hochblasen, geile Sache ... NOT :frown:

ilibilly
2015-07-03, 14:39:00
Albern find ichs nicht, ich spiele seit herbst auf meinem 65" uhd , und das ist bisher nur mit maxwell chips möglich,nicht jeder ist als progamer unterwegs und braucht lag <10ms
Meiner hat ca 35ms im pc mode das merkt man je nach genre auch , aber bei spielen wie dragon age oder witcher 3 ist es nivht relevant auch schnelle racer merk ich nicht viel von.
Wir reden hier vielleicht von 1-2% der 4k tv käufer due auch spielen wollen,
Aber auch fury x oder 980ti käufer sind "nur" freaks , die masse gbt wohl 150-350€ für ne karte aus.
Hdmi 2.0 muss soviel ich gelesen habe im chip selber integriert sein von daher kann man schon davon ausgehen das nano dieselben Spezifikationen haben wird.
Bei den steammachines kann man savon ausgehen, das da maxwelll zum einsatz kommt.
Auch wenn man das alles nicht gelten läßt , bei pro und contra gibts nicht vieles zugunsten der fury ,mir fällt da nur die lautstärke (neue pumpen)ein , und evtl 50€ günstiger was enthusiasten wohl weniger interessiert.
Das wars performance ist in 4k hübsch gleich , treiber support punktet nvidia + hdmi 2.0 + 2gb + ganeworks (wenn auch minimal).
Für einen nichtfanboy , wird due entscheidung leicht fallen .....
Wird man dann auch in den verksufszahlen wieder sehen.

mironicus
2015-07-03, 14:52:14
Die Meldung das GM200 auch HDCP 2.2 unterstützt lässt sich wohl kaum überprüfen, da es meines Wissens noch gar keine Anwendung auf dem PC gibt die das voraussetzt. :D

(del)
2015-07-03, 14:58:14
Die Meldung das GM200 auch HDCP 2.2 unterstützt lässt sich wohl kaum überprüfen, da es meines Wissens noch gar keine Anwendung auf dem PC gibt die das voraussetzt. :D
Das wiederum würde erst einmal auch ein 4K-fähiges Laufwerk voraussetzen ;)

Außerdem ist das Thema mit Konsolen und 60Hz @ 4K ja auch irgendwie albern.

mironicus
2015-07-03, 15:04:31
Wieviel Prozent der Leute mit PC am TV nutzen wohl tatsächlich HDCP und haben noch nie etwas von MKV gehört? :D

AngelDust 32
2015-07-03, 15:06:39
@FormatC
Bei dem Luxmark wiederprechen sich doch die Verbrauchswerte beim Graphen und dem Balkendiagramm

Mit dem Mäusekino getippt

(del)
2015-07-03, 15:10:49
@FormatC
Bei dem Luxmark wiederprechen sich doch die Verbrauchswerte beim Graphen und dem Balkendiagramm
Mit dem Mäusekino getippt

Es ist Watt/Performance. Da stehen satte 3435 Punke bei 137W für die Fury gegen 1984 Punkte bei 102 Watt für die 980 Ti :)

Thowe
2015-07-03, 15:13:09
Die Relevanz geht trotzdem gegen Null. Zocken am 4K-TV ist reichlich albern (Lag) und 4K-Blu-rays sind auch nicht gerade absolute Mainstream-Ware. Ich sehe es privat trotz kompatiblem 4K-TV eher entspannt. :)


Eben. Im Kern hat die c't nicht unrecht, in der Praxis ist die Relevanz aber eher im 0,x% Bereich. Solange die an meinem Monitor ein 4K Bild liefert, tut sie mehr, als meine GTX 970 die wegen eines BIOS Problems dazu nicht immer Lust hatte. Und selbst das nervt mich weniger als die kleinen PCs die ich gerade in Reihe hier habe die ein nicht so seltenes Problem haben: Nach Installation des INTEL Treibers kein Bild über HDMI sondern nur über DP, weil der automatisch auf primär steht und im BIOS keine Umschaltmöglichkeit vorhanden. Das sind Probleme, die mich richtig ärgern.

mironicus
2015-07-03, 15:18:16
Ja, und DVI ist natürlich auch nicht wichtig bei einer Grafikkarte. Bin ja nicht betroffen, ist also nicht wichtig. :D

Sven77
2015-07-03, 15:22:35
Ja, und DVI ist natürlich auch nicht wichtig bei einer Grafikkarte.

Wir haben 2015

Dural
2015-07-03, 15:24:47
Die kritikpunkte der c't stimmen ja, ich sehe nicht was es da zu bemängeln gibt.

und wenn man es genau nimmt ist Fury so wie so nicht Zukunft orientiert, nächstes Jahr wird sich kein Mensch mehr nach einer 4GB Karte umsehen.

MadManniMan
2015-07-03, 15:26:54
Format,

wie kommt es, das die idle-Werte der fury jetzt doch über 5 East liegen?

Großartiger test dennoch!

AtTheDriveIn
2015-07-03, 15:27:31
So, endlich auch schlusskorrigiert:

Nachtest der Leistungsaufnahme und ein paar Recherchen und Kommentare von mir zur Pumpenproblematik, die wir dann wohl auch (bedingt) abhaken können.

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html
Eine 290x mit rein so als Vergleich wie sich AMD entwickelt hat. Ist aber meckern auf hohem Niveau. Sehr interessanter Artikel. Danke

(del)
2015-07-03, 15:30:12
Format,
wie kommt es, das die idle-Werte der fury jetzt doch über 5 East liegen?
Großartiger test dennoch!

Steht im Intro ;)

Kriton
2015-07-03, 15:32:15
Auch wenn man das alles nicht gelten läßt , bei pro und contra gibts nicht vieles zugunsten der fury ,mir fällt da nur die lautstärke (neue pumpen)ein , und evtl 50€ günstiger was enthusiasten wohl weniger interessiert.
Das wars performance ist in 4k hübsch gleich , treiber support punktet nvidia + hdmi 2.0 + 2gb + ganeworks (wenn auch minimal).
Für einen nichtfanboy , wird due entscheidung leicht fallen .....
Wird man dann auch in den verksufszahlen wieder sehen.

- Eyefinity
- LiquidVR
- FreeSync
- TrueAudio

Wie stark man die diversen Unterschiede für sich gewichtet muss jeder selbst wissen, aber deine Aufzählung ist definitiv nicht vollständig.

Korvaun
2015-07-03, 15:33:12
@Format_C: Toller Artikel, bitte mehr davon :)

Die Kritik zwecks der Anschlüsse ist zwar berechtigt, wird mMn. aber doch ordentlich aufgebauscht. DP sollte der Anschluss der Wahl sein als "Computerbenutzer", insbesondere bei großen Monitoren mit hohen Auflösungen.

Kriton
2015-07-03, 15:33:49
Ja, und DVI ist natürlich auch nicht wichtig bei einer Grafikkarte. Bin ja nicht betroffen, ist also nicht wichtig. :D

Adapter.

fondness
2015-07-03, 15:35:04
So, endlich auch schlusskorrigiert:

Nachtest der Leistungsaufnahme und ein paar Recherchen und Kommentare von mir zur Pumpenproblematik, die wir dann wohl auch (bedingt) abhaken können.

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html

Vielen dank dafür, das zeigt eigentlich wie sinnlos heute übliche Messungen der Leistungsaufnahme sind, welche nur Max-Werte in einer fordernden Spielszene abbilden.

mironicus
2015-07-03, 15:38:05
Die kritikpunkte der c't stimmen ja, ich sehe nicht was es da zu bemängeln gibt.

Die c't ist eigentlich immer sehr kritisch, und weit davon entfernt NVidia-lastig zu sein. In dem Bericht sehe ich aber auch eine gewisse Enttäuschung gegenüber AMD, der Autor hat wohl auch etwas mehr erwartet.

Kurz vor Release der Karte konnte ich anhand von Raffs Kommentaren im Forum schon erahnen, dass er sich die Fury XT aus eigener Überzeugung heraus nicht zulegen würde. :freak:

MadManniMan
2015-07-03, 15:41:26
Steht im Intro ;)

Ah, alles aller! :)

aufkrawall
2015-07-03, 15:42:31
So, endlich auch schlusskorrigiert:

Nachtest der Leistungsaufnahme und ein paar Recherchen und Kommentare von mir zur Pumpenproblematik, die wir dann wohl auch (bedingt) abhaken können.

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html
Hab ich das richtig verstanden? GTA V soll auf Fiji ~50% schneller als auf der 980 Ti laufen (60 vs 89fps)?

mironicus
2015-07-03, 15:46:36
Hab ich das richtig verstanden? GTA V soll auf Fiji ~50% schneller als auf der 980 Ti laufen (60 vs 89fps)?

Vsync war an. :freak:

(del)
2015-07-03, 15:46:54
Vielen dank dafür, das zeigt eigentlich wie sinnlos heute übliche Messungen der Leistungsaufnahme sind, welche nur Max-Werte in einer fordernden Spielszene abbilden.

Das setzt sich auch weiter fort auf andere Komponenten, wie z.B. CPUs. Extreme Momentaufnahmen sind immer gefährlich, aber andererseits auch wichtig, wie es Carsten ja richtig formuliert hat. Es ist am Ende die Range, die man wissen muss.

Natürlich kann man diesen Riesenaufwand nicht für jede Pupsretailkarte machen, aber bei Launches und wichtigen Karten werde ich zukünftig gern darauf zurück greifen. Die Templates sind da, ein SSD-Image auch und die Software für die Oszis ist neu geschrieben. Übers Ethernet geht es jetzt endlich einfacher und auch synchron. Den Rest macht die Software sowieso beim Zusammensetzen wie jetzt auch.

(del)
2015-07-03, 15:48:34
Vsync war an. :freak:Das würde mich jetzt wundern :D Wenn ich die Settings entschärfe, liegen die FPS bei beiden karten höher, aber das Verhältnis bleibt in ungefähr. Ich nutze im Mix u.a. eine Nachtfahrtszene, bei der die GTX 980 Ti regelrecht wegkackt. Warum auch immer. Tags ein bissl rumcruisen ist ja albern :)

mironicus
2015-07-03, 15:50:38
Der Stromverbrauch ist total gering bei den 60 FPS, nur 120 Watt. Die Karte läuft offensichtlich gedrosselt bei dem Spiel. ^^

Digidi
2015-07-03, 15:52:57
Ich glaube GTA V wurde unheimlich gut von AMD optimiert da AAA Titel der von vielen als Referenz herangezogen wird. Das zeigt ja auch den Test der 390x (zur 290x) das da der neue Treiber Hawaii sehr gut zugelegt hat.

Ich glaube GTA V und FarCry 4 zeigen am Besten was FIJI im stande ist zu leisten weil diese halt auf FIJI optimiert wurden.

@micronicus
Da hat wohl die 980ti ein Bottleneck. Wo verbraucht den GTA V am meisten?

BiG OnE
2015-07-03, 15:53:56
Die Relevanz geht trotzdem gegen Null. Zocken am 4K-TV ist reichlich albern (Lag) und 4K-Blu-rays sind auch nicht gerade absolute Mainstream-Ware. Ich sehe es privat trotz kompatiblem 4K-TV eher entspannt. :)
Och Vorsicht, Du darfst von Dir nicht unbedingt auf andere schließen. Ein Arbeitskollege und ich standen vor der Frage 4K@40". Ich hab mich für den Philips Monitor entschieden, er hat einen Panasonic Fernseher gewählt. Mich hat der Spaß 800€ gekostet, ihn bloß 600. Er spielt gerne Autorennenspiele und sagt das er keine Probleme mit dem Inputlag oder Schlieren hätte. Also ich könnte mir vorstellen das die Bedeutung von HDMI 2.0 in Zukunft nicht unbedingt kleiner werden wird.

aufkrawall
2015-07-03, 15:54:54
Welchen Sinn macht es, so etwas (ja, was eigentlich?) zu messen? Meine 980 zieht gerne 200w bei dem spiel in wqhd, wie aussagekräftig können da 120w für eine ti schon sein...

(del)
2015-07-03, 15:54:58
Genau deshalb ist es ja nur ein Spiel von vielen. Und da sich die Leistungsaufnahme im Vergleich zur Performance auch schön einpendelt, haut es noch nicht einmal die Statistik durcheinander :)

Exxtreme
2015-07-03, 15:55:22
Die Fury X kann aber DisplayPort. Und das Ding kann offenbar 60 Hz @ 4K. Von daher kann man fehlendes HDMI 2.0 IMHO verschmerzen.

(del)
2015-07-03, 15:56:52
Welchen Sinn macht es, so etwas (ja, was eigentlich?) zu messen? Meine 980 zieht gerne 200w bei dem spiel in wqhd, wie aussagekräftig können da 120w für eine ti schon sein...
Misst Du die Karte einzeln? In UHD sind es nur 143 Watt, weil die Karte als solche irgendwie nicht mehr mitkommt, in WQHD, also an meinem 34-Zöller mit 21:9 sind es ca. 150-160 Watt, mal auf die Schnelle angeklemmt und abgelesen. WQHD ist eine schöne Lücke zwischen FHD und UHD, nur haben außer uns nur wenige solche Monitore.

ilibilly
2015-07-03, 15:57:53
- Eyefinity
- LiquidVR
- FreeSync
- TrueAudio

Wie stark man die diversen Unterschiede für sich gewichtet muss jeder selbst wissen, aber deine Aufzählung ist definitiv nicht vollständig.

Du sagst es jeder muss es für seine bedürfnisse abwägen , mein 65" tv hat kein freesync, deshslb ist 4k@60hz ein muss.
Ich hab das aufgezählt was mir vorteile bringt, einzig was ich mir bei nvidia wünschen würde das sie gsync entsorgen und ebenfalls auf freesync setzen, virlleicht setzen dann auch die tv hersteller auf den standard.

BlacKi
2015-07-03, 16:02:03
Die Fury X kann aber DisplayPort. Und das Ding kann offenbar 60 Hz @ 4K. Von daher kann man fehlendes HDMI 2.0 IMHO verschmerzen.

3x DP machen aber noch lange kein HDMI2.0. wenn jemand mit einem 4ktv 4k60hz möchte, ist aber eigentlich kein beinbruch, da man ja immernoch die 980ti kaufen kann. umgekehrt wäre es schlimmer. stellt euch mal vor gm200 könnte auch kein hdmi2.0... dann käme der fixer und amd würde als held dastehen.

aufkrawall
2015-07-03, 16:02:04
Misst Du die Karte einzeln?
Ich messe gar nicht, sondern lese nur das pt ab. Bei 120w verbrauch einer 980ti würde er ~45% anzeigen. Das ist extrem wenig, irgendwas stimmt bei dir nicht.
in 1080p müsste fiji auch viel cpu-limitierter sein.

-/\-CruNcher-/\-
2015-07-03, 16:02:16
So, endlich auch schlusskorrigiert:

Nachtest der Leistungsaufnahme und ein paar Recherchen und Kommentare von mir zur Pumpenproblematik, die wir dann wohl auch (bedingt) abhaken können.

http://www.tomshardware.de/fury-x-leistungsaufnahme-effizienz-benchmark-pumpe,testberichte-241853.html

Bei Luxmark 3.0 fehlen von Nvidia Engineers empfohlene Anpassungen im Render Core die befinden sich in LuxMark v3.1 beta1 im Render Core von LuxRender v1.5RC1 ;)

http://www.luxrender.net/forum/viewtopic.php?f=34&t=12223

For the record, NVIDIA has kindly donated a couple of GTX980 to LuxRender project in order to test this and further optimizations.
Thanks to the above optimization, I have measured a 10-20% increase in LuxMark scores in Windows with a GTX980 and a 20-25% on Linux. Your mileage may vary as the improvement is strictly related to the hardware and driver version used.

Du solltest schon etwas genauer sein ;)

ein wenig mehr up2date ansonsten kann das schon an deiner reputation nagen ;)

Das sind generische von Intel vorgeschlagene OpenCL Optimierungen btw (keine von Nvidia direkt)

https://bitbucket.org/luxrender/luxrays/commits/2c88fb60e64f04f7fcf393a31e661793594a33f6

Birdman
2015-07-03, 16:31:38
@Format_C

Besteht die Möglichkeit dass noch eine 2D-Desktop/idle Stromverbrauchsmessung mit drei (3) angeschlossenen Monitoren durchgeführt und nachgereicht wird?

(del)
2015-07-03, 16:40:59
Ich messe gar nicht, sondern lese nur das pt ab. Bei 120w verbrauch einer 980ti würde er ~45% anzeigen. Das ist extrem wenig, irgendwas stimmt bei dir nicht.
in 1080p müsste fiji auch viel cpu-limitierter sein.
Ablesen oder Messen? GPU-Z kann nur alle 0.5 Sekunden irgend etwas anzeigen, aber schon gar keine Leistungsaufnahmen. Wenn GPU-Z gerade dann mal was ausliest/rechnet, wenn Spikes anliegen... Die Last ist nicht konstant und schon gar nicht gleichmäißg. Bei mir ist alles auf max. Settings, Schatten inklusive. Ich werde es aber trotzdem noch mal checken...

Wie viele FPS hast Du denn?

(del)
2015-07-03, 16:42:01
@Format_C
Besteht die Möglichkeit dass noch eine 2D-Desktop/idle Stromverbrauchsmessung mit drei (3) angeschlossenen Monitoren durchgeführt und nachgereicht wird?

Muss mal sehen, wo ich den auf die Schnelle mal hinstelle. Ich machs nachher:)

Sorry für den Doppelpost... :(

Troyan
2015-07-03, 16:42:50
Vielen dank dafür, das zeigt eigentlich wie sinnlos heute übliche Messungen der Leistungsaufnahme sind, welche nur Max-Werte in einer fordernden Spielszene abbilden.

Sinnlos ist es Verbrauchswerte aus Anno2070 mit anderen Spielen zu vergleichen. :freak:

Format_C hat kein Anno2070 oder Risen3 getestet. Trotzdem sieht man, dass auch andere Spiele bzw. Anwendungen die Karte deutlich auslasten können.

-/\-CruNcher-/\-
2015-07-03, 16:43:32
Ablesen oder Messen? GPU-Z kann nur alle 0.5 Sekunden irgend etwas anzeigen, aber schon gar keine Leistungsaufnahmen. Wenn GPU-Z gerade dann mal was ausliest/rechnet, wenn Spikes anliegen... Die Last ist nicht konstant und schon gar nicht gleichmäig. Mir wollte das schon mal jemand erklären, dass GPU-Z die bessere "Messmethode" wäre. Im direkten Vergleich war es dann aber schon reichlich albern. ;)

Wie viele FPS hast Du denn? Bei mir ist alles auf max. Settings, Schatten inklusive.

Hmm welchen Schatten typ ?

der Fairness halber solltest du die Interne Soft Shadow Implementation von Rockstars Entwicklern zum Testen nutzen, die allerdings teils auch AMD optimiert ist aber besser als AMDs oder Nvidias Soft Shadow Implementation auf AMD und Nvidia zu mixen ;)


oder aber AMD CHS auf AMD und Nvidia PCCS auf Nvidia ;)

Da Nvidias aber etwas komplexer ist könnte sie etwas mehr Power benötigen und eine etwas höhere latenz verursachen ;)

Im Night Cycle jedoch spielt das fast keine Rolle da die meisten schatten dort dann low resolution sind, wundert mich das er bei dir so einbricht normal ist es nicht ;)

Es sei denn du bist über den selben Bug gestoßen ;)

Thunder99
2015-07-03, 16:45:17
...
Bei den steammachines kann man savon ausgehen, das da maxwelll zum einsatz kommt. ...
Kommen beide soweit ich weiß zum Einsatz, sogar Intel only

... treiber support punktet nvidia + hdmi 2.0 + 2gb + ganeworks (wenn auch minimal).
Für einen nichtfanboy , wird due entscheidung leicht fallen .....
Wird man dann auch in den verksufszahlen wieder sehen.
Stimmt so nicht ganz. Treibersupport ist ähnlich. Fehler werden gemeldet und dann zeitlich nah gefixed, sofern es auf der Agenda/Prio Liste oben ist. Dies ist bei nvidia nicht anders

horn 12
2015-07-03, 16:46:49
Update von Sapphire R9 290 Tri-X New Edition @1100 Mhz auf:

R9 390X Nitro für 440 Euro
R9 Fury 540 bis 570 Euro
R9 FURY X für 680 Euro

Meine Sapphire New Ed. 290 Karte wäre etwa noch 200+ Euro wert...
Habe 26 Zoll Full HD Monitor, Modell: LG 2600HP-BF Monitor.

DrFreaK666
2015-07-03, 16:47:54
Und Gameworks ist für mich bei Contra. Da hat nicht jeder Spieler was davon.
Fast so schlimm wie damals: wenn keine Voodoo-Karte hast, dann musst dich mit dem Software-Modus zufrieden geben

Dawn on Titan
2015-07-03, 16:49:41
Fury X - was sonst?

Thunder99
2015-07-03, 16:52:15
Update von Sapphire R9 290 Tri-X New Edition @1100 Mhz auf:

R9 390X Nitro für 440 Euro
R9 Fury 540 bis 570 Euro
R9 FURY X für 680 Euro

Meine Sapphire New Ed. 290 Karte wäre etwa noch 200+ Euro wert...
Habe 26 Zoll Full HD Monitor, Modell: LG 2600HP-BF Monitor.
390x wäre etwas mehr als Sidegrade, Fury nur 20-30% schneller, ergo wenn dann Fury X :wink:, außer die Fury lässt sich auf Fury X Niveau takten was ich nach dem derzeitigen Stand eher bezweifel

Matrix316
2015-07-03, 16:54:15
Update von Sapphire R9 290 Tri-X New Edition @1100 Mhz auf:

R9 390X Nitro für 440 Euro
R9 Fury 540 bis 570 Euro
R9 FURY X für 680 Euro

Meine Sapphire New Ed. 290 Karte wäre etwa noch 200+ Euro wert...
Habe 26 Zoll Full HD Monitor, Modell: LG 2600HP-BF Monitor.

Das Problem ist:

Die 390X ist nicht schneller genug um 200 Euro Aufpreis auszugeben.
Die GTX 980 ist nicht schneller genug um 250 Euro Aufpreis auszugeben.
Die Fury 540 ist vielleicht auch nicht schnell genug um 300 Euro Aufpreis auszugeben, könnte aber der "Sweetspot" sein.
Die Fury X ist schnell genug, aber auch 400 Euro schneller?
Die 980TI ist schnell genug, aber auch 450 Euro schneller?

Eigentlich MUSS man von einer 290(x) auf eine Fury X oder 980TI wechseln, weil alles drunter ist eigentlich zu langsam, aber immer noch zu teuer relativ gesehen. Aber 700 Euro für eine Grafikkarte ist schon eigentlich zu viel. Normalerweise sollte der Nachfolger eines Topmodells nicht unbedingt viel teurer sein als das Topmodell zu beginn gekostet hat.

(del)
2015-07-03, 16:57:20
Hmm welchen Schatten typ ?
der Fairness halber solltest du die Interne Soft Shadow Implementation von Rockstars Entwicklern zum Testen nutzen, die allerdings teils auch AMD optimiert ist aber besser als AMDs oder Nvidias Soft Shadow Implementation auf AMD und Nvidia zu mixen ;)
oder aber AMD CHS auf AMD und Nvidia PCCS auf Nvidia ;)
Da Nvidias aber etwas komplexer ist könnte sie etwas mehr Power benötigen und eine etwas höhere latenz verursachen ;)

Ich checke es noch einmal. Da ich die Tage so unter Strom stand und ständig die Treiber gewechselt habe, kann schon mal was schief gangen sein. Update folgt, falls nötig.

Schatten habe ich von AMD genommen, da sie einfach besser aussehen und die Geforce bisher auch nicht benachteiligt haben. Aber auch das lässt sich ändern...

-/\-CruNcher-/\-
2015-07-03, 17:03:04
Vielleicht hat dich das hier erwischt ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10683280&postcount=13

Mit 353.30 WHQL ist das aber bis jetzt nicht mehr aufgetretten

Nvidia ist gerade in einer instabilen Treiber Phase (aufgrund tiefgreifender veränderungen allen voran G-syncs) mit 353.30 WHQL sind sie schon wieder ein wenig raus aber davor würde ich keinen Treiber für Maxwell tests ernsthaft in Betracht ziehen ;)

Vor allem bringt er ein paar sehr schöne Latenz optimierungen mit sich :)

(del)
2015-07-03, 17:09:10
Vielleicht hat dich das hier erwischt ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10683280&postcount=13

Mit 353.30 WHQL ist das aber bis jetzt nicht mehr aufgetretten

Ich sitze gerade drüber. Frisches Image und Treiber noch mal drauf. Sieht deutlich besser aus, obwohl ich an den Settings nichts geändert habe. Allerdings hatte ich gestern VOR dem GTA V Test noch mal Treiber gewechselt um etwas anderes zu benchmarken. Der GTA V war dann der letzte Test. Ich werde auf alle Fälle das noch mal updaten. Das sah auch gar zu komisch aus :D

aufkrawall
2015-07-03, 17:15:27
Ich checke es noch einmal. Da ich die Tage so unter Strom stand und ständig die Treiber gewechselt habe, kann schon mal was schief gangen sein. Update folgt, falls nötig.

Schatten habe ich von AMD genommen, da sie einfach besser aussehen und die Geforce bisher auch nicht benachteiligt haben. Aber auch das lässt sich ändern...
Wenn ich Einstellungen vorschlagen dürfte:
-im advanced-Tab nur HiRes-Schatten und besseres Streaming aktivieren, long shadows off und alle Regler ganz links (frisst sonst wie irre und sieht nicht wirklich besser aus, teilweise sogar schlechter)
-MSAA aus, unsinnig teuer
-Gras-Details nur auf high, sonst sind unverhältnismäßig fressende Grasschatten aktiv
-Schatten-Typ auf softest, sowohl AMD- als auch NV-Schatten machen in bestimmten Situationen Fehler
-Reflexions-MSAA maximal 4x oder aus

Mit den Einstellungen läuft es mit der 980 auch in 4k ohne VRAM-Stocker, sofern keine Anwendungen wie Firefox geöffnet sind.
Strom messen würd ich in WQHD, die fps sind dabei sicher die repräsentativsten.

Thunder99
2015-07-03, 17:16:20
Das Problem ist:

Die 390X ist nicht schneller genug um 200 Euro Aufpreis auszugeben.
Die GTX 980 ist nicht schneller genug um 250 Euro Aufpreis auszugeben.
Die Fury 540 ist vielleicht auch nicht schnell genug um 300 Euro Aufpreis auszugeben, könnte aber der "Sweetspot" sein.
Die Fury X ist schnell genug, aber auch 400 Euro schneller?
Die 980TI ist schnell genug, aber auch 450 Euro schneller?

Eigentlich MUSS man von einer 290(x) auf eine Fury X oder 980TI wechseln, weil alles drunter ist eigentlich zu langsam, aber immer noch zu teuer relativ gesehen. Aber 700 Euro für eine Grafikkarte ist schon eigentlich zu viel. Normalerweise sollte der Nachfolger eines Topmodells nicht unbedingt viel teurer sein als das Topmodell zu beginn gekostet hat.
So sieht es aus, wobei schon immer die letzten Prozente überproportional man mehr gezahlt hat :D (Titan ausgenommen, das ist eine eigene Sache/Liga)

Letzter Wechsel hatte mich effektiv ca. 150€ gekostet. Davor war es etwas mehr. Ansonsten begibst du dich in eine andere Preisklasse weil du die Performance jetzt unbedingt brauchst. D.h. wenn es dir 400€+ Wert ist dann mache es, ansonsten nicht :wink:

-/\-CruNcher-/\-
2015-07-03, 17:17:33
Ich sitze gerade drüber. Frisches Image und Treiber noch mal drauf. Sieht deutlich besser aus, obwohl ich an den Settings nichts geändert habe. Allerdings hatte ich gestern VOR dem GTA V Test noch mal Treiber gewechselt um etwas anderes zu benchmarken. Der GTA V war dann der letzte Test. Ich werde auf alle Fälle das noch mal updaten. Das sah auch gar zu komisch aus :D

Währe cool wenn du den Luxmark updaten könntest und die 20%-25% mitnimmst auf Maxwell ;)

Und mal schaust ob Fiji genauso von Intels OpenCL Optimierungen profetiert :)

Wenn ich Einstellungen vorschlagen dürfte:
-im advanced-Tab nur HiRes-Schatten und besseres Streaming aktivieren, long shadows off und alle Regler ganz links (frisst sonst wie irre und sieht nicht wirklich besser aus, teilweise sogar schlechter)
-MSAA aus, unsinnig teuer
-Gras-Details nur auf high, sonst sind unverhältnismäßig fressende Grasschatten aktiv
-Schatten-Typ auf softest, sowohl AMD- als auch NV-Schatten machen in bestimmten Situationen Fehler
-Reflexions-MSAA maximal 4x oder aus

Mit den Einstellungen läuft es mit der 980 auch in 4k ohne VRAM-Stocker, sofern keine Anwendungen wie Firefox geöffnet sind.
Strom messen würd ich in WQHD, die fps sind dabei sicher die repräsentativsten.

Stimme ich vollstens zu :)

Und mit Tesellation varieren wobei über Normal ist für GTA V ziemlich schwachsinn also plastischere Palmen kostet auf Nvidia fast nix aber in diesem Use case reicht visuell Normal auch vollkommen :)

(del)
2015-07-03, 17:40:29
So, GTA V ist durch und eingepflegt. Musste ja alle Grafiken tauschen. Das Bild stimmt jetzt. Scheißstress zum Freitagabend :)

Das Lustige daran:
Nun nehmen Fury X und Nvidia im Durchschnitt bei FHD exakt 202 Watt auf, in UHD ist es bei NV im Mittel deutlich mehr geworden. Da stehen jetzt 255W für AMD und 220W für Nvidia. Wegen 35 Watt im Mittel würde ich da jetzt keinen Pups mehr lassen :D Nimmt man noch die Performance mit hinzu, dann wäre Fury für unter 650 Euro glatt ein Schnäppchen. 700 sind allerdings zu viel.

@aufkrawall:
Die 220 Watt erreiche auf auf UHD nicht ganz, aber es liegt sehr deutlich über 200.

aufkrawall
2015-07-03, 17:44:09
Thx, so ist das ziemlich aufschlussreich.
Ich les es mir nochmal von vorne durch.

Troyan
2015-07-03, 17:49:13
GTA5 zeigt das gleiche Verhalten wie Anno2070: Deutlich höherer Verbrauch gepaart mit deutlich geringerer Leistung zur GTX980TI...

M4xw0lf
2015-07-03, 17:54:07
GTA5 zeigt das gleiche Verhalten wie Anno2070: Deutlich höherer Verbrauch gepaart mit deutlich geringerer Leistung zur GTX980TI...
Und Total War:Attila zeigt das genaue Gegenteil...

(del)
2015-07-03, 17:59:04
Und Total War:Attila zeigt das genaue Gegenteil...
Das ist ja auch der Sinn hinter bestimmten Suiten, wo man nicht nur ein Spiel betrachtet. Man muss beide Seiten letztendlich ausgewogen betrachten und beteiligen. Aber vielleicht fummelt ja NV noch am Treiber? ;)

M4xw0lf
2015-07-03, 18:01:56
Das ist ja auch der Sinn hinter bestimmten Suiten, wo man nicht nur ein Spiel betrachtet. Man muss beide Seiten letztendlich ausgewogen betrachten und beteiligen.
Korrekt. Aber dennoch werden dann bestimmte Personen die Rosinen herauspicken und ihre Sätze mit bedeutungsschwangeren Punkten beenden...

Troyan
2015-07-03, 18:06:21
In 1080p soll die nVidia-Karte langsamer sein und mehr Strom benötigen. Sieht unglaubwürdig aus.
Ich gehe davon aus, dass hier der interne Benchmark verwendet wurde. Anandtech kommt in 1440p auf einen minimalen Vorsprung der GTX980TI: http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/20
Techspot ebenso: http://www.techspot.com/review/1024-and-radeon-r9-fury-x/page8.html

Das wird in 1080p nicht anders aussehen.

aufkrawall
2015-07-03, 18:06:31
*edit* Troyan hat mein Post kaputt gemacht. :(

Raff
2015-07-03, 18:07:31
Igor: Schöne Werte und Erkenntnisse, gefällt mir! Sieht alles plausibel aus (nun auch die Idle-Leistungsaufnahme) und verpasst der Geschichte einen Rahmen, in dem man sich bewegen kann.

MfG,
Raff

-/\-CruNcher-/\-
2015-07-03, 18:11:43
Und Total War:Attila zeigt das genaue Gegenteil...
Ein Gaming Evolved Titel oder etwa nicht ? ;)

zumal wir reden hier von 1 FPS und 8 Watt unterschied dafür ;)

Ohne richtige zusätzliche FCAT Analyse ist das aber immernoch zu wenig resolution ;)

(del)
2015-07-03, 18:33:29
In 1080p soll die nVidia-Karte langsamer sein und mehr Strom benötigen. Sieht unglaubwürdig aus.

http://youtu.be/0Qv0UzBubRQ

Die Youtube-Einbinderei geht mir hier auf den Sack...

Hübie
2015-07-03, 18:50:18
Du musst nur den code einbinden. Keinen Link :smile:

Sag mal was nutzt Scott Wasson eigentlich für eine Testsuite (da steht nur Beyond3D Testsuite). Kennst du das? Wo gibt's das???

fondness
2015-07-03, 18:56:13
http://youtu.be/0Qv0UzBubRQ

Die Youtube-Einbinderei geht mir hier auf den Sack...

Bitteschön:

0Qv0UzBubRQ

(del)
2015-07-03, 19:01:47
In 1080p soll die nVidia-Karte langsamer sein und mehr Strom benötigen. Sieht unglaubwürdig aus.
Ich gehe davon aus, dass hier der interne Benchmark verwendet wurde. Anandtech kommt in 1440p auf einen minimalen Vorsprung der GTX980TI: http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/20
Techspot ebenso: http://www.techspot.com/review/1024-and-radeon-r9-fury-x/page8.html
Das wird in 1080p nicht anders aussehen.

Ist doch längst geupdatet. 6 Grafiken, alle hochgeladen und neu eingebunden. NV ist schneller. :D Drück mal F5

BTW:
Mal spaßeshalber zwei Furys reingehängt - oszillierende Tinnitus-Androhung. Schaumer mal, wann die neuen Pumpen kommen.

Blediator16
2015-07-03, 20:40:56
Und Gameworks ist für mich bei Contra. Da hat nicht jeder Spieler was davon.
Fast so schlimm wie damals: wenn keine Voodoo-Karte hast, dann musst dich mit dem Software-Modus zufrieden geben

Nicht schlimm. Nichmal Nvidia Kunden haben was von dem Müll, da man optimalerweise eine 500€ Karte dafür braucht, um in den Genuss von 30fps Konsolenfeeling zu kommen :biggrin:

SamLombardo
2015-07-03, 20:51:51
Nicht schlimm. Nichmal Nvidia Kunden haben was von dem Müll, da man optimalerweise eine 500€ Karte dafür braucht, um in den Genuss von 30fps Konsolenfeeling zu kommen :biggrin:
Da spricht der Neid:tongue:.

Tamagothi
2015-07-03, 21:03:29
Gameworks ist einfach nur eine Pest.

Dadurch sind die Engine Entwickler zu Faul die Effekte selber in die Engine einzubinden. Man nimmt lieber irgendeinen Externen Code und Spart sich Arbeit. Ergo Bezahlt Nvidia die Entwickler (indirekt) damit es auf ihren Grakas besser läuft.

Wer was anderes behauptet der lügt.

horn 12
2015-07-03, 21:04:07
FURY mit Dual Slot und 3x Axial-Lüfter
http://geizhals.de/asus-strix-r9fury-dc3-4g-gaming-90yv08k0-m0nm00-a1291570.html?hloc=at&hloc=de

y33H@
2015-07-03, 21:17:52
*verguckt*

uweskw
2015-07-03, 22:04:49
Wenn ich Einstellungen vorschlagen dürfte:
-im advanced-Tab nur HiRes-Schatten und besseres Streaming aktivieren, long shadows off und alle Regler ganz links (frisst sonst wie irre und sieht nicht wirklich besser aus, teilweise sogar schlechter)
-MSAA aus, unsinnig teuer
-Gras-Details nur auf high, sonst sind unverhältnismäßig fressende Grasschatten aktiv
-Schatten-Typ auf softest, sowohl AMD- als auch NV-Schatten machen in bestimmten Situationen Fehler
-Reflexions-MSAA maximal 4x oder aus

Mit den Einstellungen läuft es mit der 980 auch in 4k ohne VRAM-Stocker, sofern keine Anwendungen wie Firefox geöffnet sind.
Strom messen würd ich in WQHD, die fps sind dabei sicher die repräsentativsten.

Schade, dass es keine AMD Fanboys gibt, die sich die Zeit nehmen und die Arbeit machen um Settings zu finden in denen Fury in Anno 2070 besser abschneidet.:freak:
Mir ist der Leistungsgewinn zu meiner 780Ti@ 1250MHz zu gering. Drum gibts keine Fury für mich.

greetz
US

aufkrawall
2015-07-03, 22:07:06
Wie verpeilt muss man sein, um zu schlussfolgern, AMD würden diese Settings benachteiligen?

uweskw
2015-07-03, 22:22:11
Wie verpeilt muss man sein, um zu schlussfolgern, AMD würden diese Settings benachteiligen?

??? darum gehts doch gar nicht ???

greetz
US

Thowe
2015-07-03, 22:27:11
FURY mit Dual Slot und 3x Axial-Lüfter
http://geizhals.de/asus-strix-r9fury-dc3-4g-gaming-90yv08k0-m0nm00-a1291570.html?hloc=at&hloc=de

Ist anscheinend ein Symbolfoto. Die Strix hat bislang noch keine hinterlegten Bilder. Vermutlich wird es aber wohl tatsächlich der DirectCU III und somit ähnlich dem Foto werden, also wie bei der 980TI, nun ja, auch dort hat er ja schon das passende Rot. ^^

aufkrawall
2015-07-03, 22:39:28
??? darum gehts doch gar nicht ???

greetz
US
Verlesen.

Schaffe89
2015-07-03, 22:50:42
GTA5 zeigt das gleiche Verhalten wie Anno2070: Deutlich höherer Verbrauch gepaart mit deutlich geringerer Leistung zur GTX980TI...

Der Sinn ist es mehrere Spiele zu testen, um daraus einen Durchschnitssverbrauch zu errechnen.
Und da sieht es nunmal so aus, dass AMD kaum mehr als Nvidia zieht, finde dich damit ab.:rolleyes:

anddill
2015-07-03, 22:53:13
Falls die Nano die GTX 970 schlagen kann und dabei noch 0,2W weniger verbraucht... das gibt ein Geheule :)

Bringhimup
2015-07-03, 22:53:27
Ist doch längst geupdatet. 6 Grafiken, alle hochgeladen und neu eingebunden. NV ist schneller. :D Drück mal F5

Das hier auch schon?

http://img.techpowerup.org/150703/ATI-Leitung.jpg

Menace
2015-07-03, 22:57:14
Falls die Nano die GTX 970 schlagen kann und dabei noch 0,2W weniger verbraucht... das gibt ein Geheule :)

:eek: Aber die Zukunftsfähigkeit da nur 4 GB HBM ist doch nicht ausreichend.... ach halt. :freak: :wink:

Von mir aus muss die Nano die GTX 970 gar nicht schlagen.

(del)
2015-07-03, 23:03:46
@Bringhimup:
Der Text war falsch, es muss "Ohne" heißen. Auch gefixt - schlecht halt, wenn nachträglich noch Dritte drin rumkorrigieren. ;) Die Diagramme sind ok.

Bringhimup
2015-07-03, 23:11:04
@Bringhimup:
Der Text war falsch, es muss "Ohne" heißen. Auch gefixt - schlecht halt, wenn nachträglich noch Dritte drin rumkorrigieren. ;) Die Diagramme sind ok.

Hehe, sowas kenne ich nur zu gut.;D

Thowe
2015-07-03, 23:13:33
Falls die Nano die GTX 970 schlagen kann und dabei noch 0,2W weniger verbraucht... das gibt ein Geheule :)

Gerade in UHD hochwahrscheinlich und erfreulich ebenso. Und dann ist sie auch noch niedlich :ulove:

Unicous
2015-07-03, 23:15:34
Und min. 200 Euro teurer?:confused: Habe ich irgendetwas verpasst oder warum vergleicht ihr gerade zwei unterschiedliche Preissegmente?

Nightspider
2015-07-03, 23:17:36
Dewegen verstehe ich die Begeisterung über DX12 auch nicht. Ich erwarte nichts gutes wenn der Entwickler irgendwo Zeit reinstecken soll...

Ach komm, das ist 1,5 Jahre und Mantle wurde auch nur nachträglich in BF4 reingeklatscht. Da geht noch deutlich mehr wenn DX12 und Vulkan von Anfang an sauber eingebaut und ausgereizt werden.

Menace
2015-07-03, 23:22:37
Habe ich irgendetwas verpasst oder warum vergleicht ihr gerade zwei unterschiedliche Preissegmente?

Die Preise, die man bereit ist für etwas ungewöhnliches zu bezahlen sind doch recht unterschiedlich. Warum sollte das ab und an nicht auch bei AMD funktionieren (sofern ungewöhnlich zutrifft).

dildo4u
2015-07-03, 23:26:27
Man bekomt vergleichbar kleine 970 für 320€,selbst wenn die nano dann ein paar Prozent schneller ist bleibst für 500€+ immer noch ein Fail.

https://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~132_4096~2612_170#xf_top

Menace
2015-07-03, 23:31:10
immer noch ein Fail.

:rolleyes: Stimmt. Was die 970 auf gar kein Fall war. Ich verstehe diesen Missionierungseifer mancher nicht. Wenn es doch Leute gibt, die sich auf diese Karte freuen, bezahlen und nutzen werden, was stört Dich daran und lässt Dich das Modewort "fail" schreiben. Ich missioniere doch auch niemanden, der eine 970 kauft [blöde Religionen]. Wäre mit Deiner Begründung Titan X nicht auch ein "fail", da Mehrpreis sich nicht in Mehrleistung widerspiegelt? Oder reicht schon das Wort "nvidia" für "Failfreiheit".

Thowe
2015-07-03, 23:38:08
Man bekomt vergleichbar kleine 970 für 320€,selbst wenn die nano dann ein paar Prozent schneller ist bleibst für 500€+ immer noch ein Fail.

https://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~132_4096~2612_170#xf_top

Ach was. Die 970er wird ja eh schon von anderen Karten in die Tasche gesteckt, außerdem brauche ich keine zweite und würde immer wieder die Strix nehmen, wenn ich noch mal eine 970er nehmen würde. Würde ich aber nicht. Die Nano würde ich auch nicht wegen der physikalischen Größe nehmen, ich habe ein Fortress 2, da ist wahrlich einiges an Platz drin. Da sehen selbst die 27,5cm der ASUS noch niedlich drin aus.

Die Nano wird eher auf dem Niveau der 980 liegen und in UHD darüber, ergo ist ein ähnlicher Preis auch durchaus berechtigt. Persönlich reizt mich eh die normale Fury, aber da warte ich ab bis diverse Hersteller ihre Karten platziert haben. Bis dahin reicht mir noch die 970 aus, wenn sie mich auch oft genug nervte.

dildo4u
2015-07-03, 23:39:52
Nano wird keine massiv bessere Effizenz als Maxwell haben daher sind die gesetzten 175 einfach zu wenig das ziehen schon Custom 970.

aufkrawall
2015-07-03, 23:42:47
So bescheiden, wie der Takt bei der X skaliert, könnte die Nano schon recht fix bei niedrigerem Takt sein.

MartinRiggs
2015-07-03, 23:44:27
Nano wird keine massiv bessere Effizenz als Maxwell haben daher sind die gesetzten 175 einfach zu wenig das ziehen schon Custom 970.

Nur gut das du das schon alles weißt:freak:

Thowe
2015-07-03, 23:54:14
So bescheiden, wie der Takt bei der X skaliert, könnte die Nano schon recht fix bei niedrigerem Takt sein.

Stimme ich zu, nur das könnte würde ich streichen. :smile:


EDIT:

Jetzt erst gesehen:

Und min. 200 Euro teurer? Habe ich irgendetwas verpasst oder warum vergleicht ihr gerade zwei unterschiedliche Preissegmente?

Nun, ich war rund 10 Jahre lang hier Moderator, habe viel Zeit damit verbracht darüber zu rätseln ob wer und wie ein Troll ist etc. und ja, ich gebe es zu, es macht auch mir Spaß zu sehen wie ein "NV-Fan" (der ich selbst sogar eher bin als AMD/ATI) freundlich gesagt agiert. Die 970er passt schon deshalb für mich auf der Vorseite, weil hier der, nennen wir es imaginäre NV-Fan die Nano sehen will und notfalls genau den Benchmark findet, der das "belegt". Die abstrusen Konstrukte die, wohlgemerkt von beiden Seiten, aufgebaut werden, sind manchmal schon arg Aua. Vermutlich macht es deshalb auch Spaß.

Wie dem auch sei, es gibt ein Faktum: Die Fury ist eine tolle Karte. Die Maxwell auch. Die Fury hat aber da Stärken wo für mich die 9er Serie versagt. Und sicher bin ich mir bei einem weiteren Punkt: So "ungar" die Fury auch im Moment noch ist, enttäuschender als die 970er und meine Ersterfahrungen mit dieser, wird sie vermutlich nicht sein. Ob X oder Y am Ende ein wenig mehr Strom verbraucht ist mir ehrlich egal, so wenig wie ich spiele, spielt es keine echte Rolle und wird alleine durch den Anschaffungspreis kompensiert.

HOT
2015-07-04, 00:01:29
Man bekomt vergleichbar kleine 970 für 320€,selbst wenn die nano dann ein paar Prozent schneller ist bleibst für 500€+ immer noch ein Fail.

https://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~132_4096~2612_170#xf_top
Ich nehm mal die andere Extremposition ein: Diesen Speicherkrüppel würd ich meinen ärgsten Feinden nicht empfehlen, sry.
Vielleicht sollte man etwas neutraler zu Werke gehen.

Knuddelbearli
2015-07-04, 01:53:57
Mann konnte ja bei AMD schonmal Salvagekarten voll freischalten. geht das eigentlich auch umgekehrt? um zB eine FuryX bei den Shadern zu halbieren und dann zu gucken wie die skaliert?

maguumo
2015-07-04, 03:16:47
Mann konnte ja bei AMD schonmal Salvagekarten voll freischalten. geht das eigentlich auch umgekehrt? um zB eine FuryX bei den Shadern zu halbieren und dann zu gucken wie die skaliert?
Wenn du das BIOS der beschnittenen Karte hast und die mit dem gleichen PCB kommen bestimmt. Ohne das BIOS der beschnittenen Karte müsstest du halt das der voll freigeschalteten selbst dementsprechend bearbeiten. Geht bestimmt, ist aber mit Sicherheit deutlich schwerer als das rumfrickeln an Power Targets o.Ä....

aufkrawall
2015-07-04, 03:19:16
Die Signatur wird dadurch ungültig, der Treiber will dann nicht starten.

maguumo
2015-07-04, 03:23:21
Dürfte man umgehen können, ähnlich wie man den 15.15er auf der 200er Serie oder SLI ohne zertifiziertes Board zum laufen bekommen kann? Würde ich zumindest erwarten.

Eigentlich irrelevant, sowohl das rumstochern im BIOS als auch das tweaken des Treibers dürfte ziemlich ätzend sein...

(del)
2015-07-04, 06:23:27
Dürfte man umgehen können, ähnlich wie man den 15.15er auf der 200er Serie oder SLI ohne zertifiziertes Board zum laufen bekommen kann? Würde ich zumindest erwarten.
Eigentlich irrelevant, sowohl das rumstochern im BIOS als auch das tweaken des Treibers dürfte ziemlich ätzend sein...

Treiber ist vergleichsweise einfach, BIOS nahezu unmöglich. Deshalb gibt es ja auch aktuell keine Mod-BIOSe für Workstation-Karten, obwohl die fast immer 1:1 Kopien sind. Die TitanX ist eine Kopie der Quadro M6000, die es schon vorher gab. Sogar das PCB trägt beide Optionen für die Stromanschlüsse. Trotzdem liegen zwischen beiden Karten 5000 Dollar ;)

-/\-CruNcher-/\-
2015-07-04, 06:35:18
Bitteschön:

http://youtu.be/0Qv0UzBubRQ

Scene 1 und 3 sind sehr gut ausgewählt Lob @ Format_C :)

Scene 1 ist genau neben Scene 3 btw dieses Sumpf Areal da hat Rockstar nicht gegeizt ;)

Scene 1 im Day Cycle ist aber nochmal anspruchsvoller als im Night Cycle

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10654806#post10654806


Hier noch mit 2x MSAA einbruch ;)

(del)
2015-07-04, 06:48:50
Szene 4 ist übrigens am fordernsten, zumindest ist die Leistungsaufgnahme am höchsten und die FPS gehen deutlich nach unten. Die Szene mit dem Trecker hat es wegen der ab und zu auftauchenden Fernsicht auch in sich weil man ja die Richtung wechselt. Unterm Strich sind die 2:43 deutlich repräsentativer als der alberne Ingame-Benchmark.

Vorteil: 100% reproduzierbar. Da das Spiel ja eigentlich in einer dynamischen Welt abläuft, käme immer was anderes raus (Traffic, KI, Uhrzeit, Wetter usw.)
Nachteil: Viele Settings sind in den Records fest verankert, d.h. man kann im Nachhinein z.B. keine Grasoptionen etc. mehr ändern. Was drin ist, ist drin.

-/\-CruNcher-/\-
2015-07-04, 06:54:14
Hier stand ich mit der GTX 970 ohne aussetzer mit dem neuen Treiber hat es sich nochmal verbessert ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10664938&postcount=4715

Mein System ist ein non OCed i5-2400 nur mal so nebenbei ;)

NT 6.1 WDDM 1.1

Du solltest Witcher 3 aber hinzufügen es ist momentan einer der Aufwendigsten Realtime Multithread titeln der Windows und den Treibern alles abverlangt und er ist balanciert optimiert auf der einen Seite saßen die Nvidia jungs dran auf der anderen wurde er auf AMD konsolen optimiert, das selbe gilt für Ac Unity ;)

Rage kommt doch ein wenig in die Jahre was das Lighting angeht ;)

Diese vergleiche sind sehr passend wo die reise hingeht (auch bei Rockstar) :)

Und bitte vergiss nicht den Luxmark zu updaten 20% improvement solltest du Maxwell bei Compute nicht unterschlagen gegen Fiji

6WfHq6NEKmI
0ZZquVylLEo
FqRnTRDXCZk
5KQVr_IK7R4

(del)
2015-07-04, 08:37:41
Und bitte vergiss nicht den Luxmark zu updaten 20% improvement solltest du Maxwell bei Compute nicht unterschlagen gegen FijiIch habe eigentlich die aktuelle Version. Oder gibt es schon wieder eine neue?

DrFreaK666
2015-07-04, 08:44:35
Ich habe eigentlich die aktuelle Version. Oder gibt es schon wieder eine neue?

Er meint wohl eine Beta. Am Besten benchst jn Zukunft auch nur mit early access Titeln XD

aufkrawall
2015-07-04, 08:55:05
Bei mir sind die Werte damit jetzt nicht wundersam höher.
Liegt halt GCN besser.

Menace
2015-07-04, 09:19:29
:rolleyes: Sollte man so lange benchen (mit beta und alpha) bis Maxwell in allen Balken-Diagrammen die beste GPU ist? 3dcenter verkommt "langsam" zum Marketing-Instrument (@ Format_C: Ich meine nicht Dich und Deine sehr gute Arbeit und Aufklärung hier ), wenn man mal quer in den AMD-Threads liest. :freak:

(del)
2015-07-04, 09:34:18
Es kommt natürlich auch auf die installierte OpenCL-Version an. Das Problem beim blauen Setup ist immer, dass sehr vieles crasht. Da ich viel mit Adobe arbeiten muss, ist das seit der Zusammenarbeit von Adobe mit AMD keine sonderlich gute Idee mehr. ;)

Selbst für Iris Pro ist es keine perfekte Lösung, denn die Broadwell- und xxxxxxx-IGP laufen mit AMDs OpenCL meist besser. Unter Linux sieht es jedoch oft anders aus, nur dass da keiner solche Gamer-Karten braucht :)

-/\-CruNcher-/\-
2015-07-04, 10:32:10
Ich habe eigentlich die aktuelle Version. Oder gibt es schon wieder eine neue?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10691600#post10691600

Bei mir sind die Werte damit jetzt nicht wundersam höher.
Liegt halt GCN besser.

Naja da warte ich lieber Format_C sein Ergebniss ab da der Main Entwickler von Luxmark selbst ja diesen 20% improvement sieht, vor allem in der komplexen Hotel Scene sollte das sichtbar werden ;)

(del)
2015-07-04, 10:34:42
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10691600#post10691600
den Link kenne ich durchaus, aber ich teste aber generell nicht mit Beta-Versionen :)

-/\-CruNcher-/\-
2015-07-04, 10:39:48
Gut kann ich durchaus verstehen :)

Nvidia setzt ihre ganze Entwicklungs Abteilung an ihre eigene Render Optimierung (Optix) leider ist extern da nicht im Fokus, das sieh hier jetzt mal einen Vorschlag gemacht haben fand ich aber eine nette geste wohl auch im Zuge von Fiji tests (nicht ganz uneigennützig) ;)

:rolleyes: Sollte man so lange benchen (mit beta und alpha) bis Maxwell in allen Balken-Diagrammen die beste GPU ist? 3dcenter verkommt "langsam" zum Marketing-Instrument (@ Format_C: Ich meine nicht Dich und Deine sehr gute Arbeit und Aufklärung hier ), wenn man mal quer in den AMD-Threads liest. :freak:

Nvidia hat den Entwicklern hier geholfen zu verbessern sorry du erzählst mist es mag sich nicht auf AMD Hardware zeigen da dort schon genug optimiert aber auf Maxwell sieht man einen Gewinn.

Vorsorglich hat Nvidia hier geschaltet und sich mal die mühe gemacht den externen Entwicklern etwas unter die Arme zu greifen ;)

Und gleichzeitig Maxwells spendiert was du natürlich dann als Korruptionsversuch auslegen würdest ;)

Eher bedenklich ist es das Nvidia externe Entwickler absolut ignoriert da müssen sie wieder aktiver werden und nicht nur ihr Produkt und Performance im Fokus sehen :)

(del)
2015-07-04, 11:29:00
Nvidia und OpenCL - das wird so lange nicht optimal funktionieren, so lange man sich seitens NVidias nur primär auf CUDA fokussiert. Das ist durchaus legitim, aber extrem schlecht für den Kunden. Ich mag auch keine "optimierten" Benchmarks, weil es am Ende alles total verzerrt. Wenn Intel verstärkt auf den OpenCL-Whatever-Zug aufspringt, da die eigenen iGP mittlerweile richtige kleine Kraftmaxen sind, wird sich bei den Anwendungen sowiso noch einiges tun. Proprietärer Mist bleibt ein solcher, egal wie man ihn anstreicht. :)

Effe
2015-07-04, 11:34:09
@Cruncher: Kannst Du bitte mal Satzzeichen verwenden bei Deinen Posts? Diese kann man so kaum lesen. Smilies sind keine Satzzeichen.

Arcanoxer
2015-07-04, 11:42:28
Er meint wohl eine Beta. Am Besten benchst jn Zukunft auch nur mit early access Titeln XDWenn es danach geht, dürfte man ja gar keine AMD Grafikkarten mehr testen. :freak:

BlacKi
2015-07-04, 12:59:49
Falls die Nano die GTX 970 schlagen kann und dabei noch 0,2W weniger verbraucht... das gibt ein Geheule :)

@ Format C

kannst du eine nano simulieren?

die daten die für die nano angenommen werden auf die fury x zu übertragen und die fps leistung zu messen.

das dass mit dem powertune nicht geht wisser wir jetzt ja, aber vermutlich wird das einfach über den takt geregelt. 750-800mhz sollten für 175w avg verbrauch reichen. möglich das die nano auch später in spielen keine 175w verbrauchen wird, sondern eher 150w im spielealltag verbraucht.

das wäre man interessant zu erfahren. es muss ja nicht direkt in 2 tage arbeit ausarten, ein benchmark im vergleich zur fury x würden schon reichen.

Hübie
2015-07-04, 13:54:08
Nvidia und OpenCL - das wird so lange nicht optimal funktionieren, so lange man sich seitens NVidias nur primär auf CUDA fokussiert. Das ist durchaus legitim, aber extrem schlecht für den Kunden. Ich mag auch keine "optimierten" Benchmarks, weil es am Ende alles total verzerrt. Wenn Intel verstärkt auf den OpenCL-Whatever-Zug aufspringt, da die eigenen iGP mittlerweile richtige kleine Kraftmaxen sind, wird sich bei den Anwendungen sowiso noch einiges tun. Proprietärer Mist bleibt ein solcher, egal wie man ihn anstreicht. :)

Nach vielen Meinungen hier ist OpenCL besser. Nach vielen Gesprächen und meiner Beobachtung draußen ists genau nicht der Fall. Aus dem Grund dass nVidia hervorragende Dokus anbietet, Workshops und Support. Und da kann keiner reinpfuschen wie bei OpenCL. Such dir da mal anständige Dokus zusammen. Das ist ein Krampf und kostet ne Menge Zeit. Dann fehlt hier was, dann is das nich richtig eindeutig geklärt und und und.
Der Faktor ist etwa 2:1. Brauchst du zwei Wochen um OpenCL zu lernen ists bei CUDA nur eine (eigentlich sogar weniger). Es ist halt nicht immer gut wenn etwas offen für jeden ist.
Ökonomisch betrachtet ist CUDA natürlich eine schlechte Wahl, da man sich bindet. Betrachet man aber die Kette bis ans Ende kommt man meistens zum Ergebnis dass es sich nichts nimmt. Jetzt rate mal warum in unserer IT massig FirePro liegen :freak:

ChaosTM
2015-07-04, 13:54:53
Meine 290X erreicht bei ca. 175 Watt noch gut 80% des Originaltakts. Arbeitet die Furie ähnlich, sollte man knapp über der 980er herauskommen.

StefanV
2015-07-04, 14:05:40
Wenn es danach geht, dürfte man ja gar keine AMD Grafikkarten mehr testen. :freak:
...weil du mal wieder AMD flamen musst und es ja auf gar keinen Fall sein kann, dass AMD irgendwo besser sein könnte.

Oh und by the way:
Wenn Intel mal wirklich OpenCL unterstützt und das auch pusht, schaut es für nVidia auch relativ blöde aus.
Denn dann gibt es einen gewaltigen Anreiz, das auch wirklich zu unterstützen...

Tja, wenn nVidia da nicht mit macht, schaut es blöd aus.

Ganz nebenbei:
Es ist völliger Humbug, irgendwelche Alpha und Beta Versionen zu testen, grundsätzlich.
Bei Treibern kann das unter Umständen sinnvoll sein, bei Anwendungen aber nicht.

BlacKi
2015-07-04, 14:09:07
Meine 290X erreicht bei ca. 175 Watt noch gut 80% des Originaltakts. Arbeitet die Furie ähnlich, sollte man knapp über der 980er herauskommen.
wenn ich ich 80% von der furieX nehme, sollte die nano bei 528% fhd performance index, und 76% 4k performance index.

damit langsamer als die 390x aber schneller als die 290x, aber langsamer als die 980. die nano dürfte von der leistung her ca. 400€ kosten. das wäre dann eine interessante karte.

anddill
2015-07-04, 14:53:45
Puh, ist das ein riesen Karton. Und der Innenkarton war kaum rauszubekommen. Ein kurzer Blick unter die Abdeckung zeigt daß ich noch eine der Pumpen mit Coolermaster-Aufkleber erwischt hab. Na da bin ich ja mal gespannt.

Hübie
2015-07-04, 15:08:48
Ich drück die Daumen, Andy :up: Endlich ein Fachkundiger =)

samm
2015-07-04, 15:16:42
Na unter den Reviewern hat es garantiert auch Fachkundige ;) Viel Glück anddill, möge eine sauber geklebte Pumpe mit dir sein - oder hm... vielleicht, auch nicht, dann resultieren evt. interessante Forschungsberichte (wie beim Cougar-NT damals) ;)

(del)
2015-07-04, 15:40:02
Also entweder ist er jetzt mit funktionierender Karte zu beschäftigt, um uns Bescheid zu geben, oder er ist bereits dem Tinnitus erlegen. Da ich mittlerweile zwei solcher Cooler-Master-Pfeifen hier habe, warte ich eigentlich nur noch auf zwei schöne schöne Acryl-Blöcke von EK.

Dann fliegen die hier vielleicht sogar raus und ich habe mehr Platz im Tisch :)

http://media.bestofmicro.com/Z/H/478205/gallery/Tubes-02_w_600.jpg

Michalito
2015-07-04, 15:59:57
Alter Angeber...,-)

Einen gewisen Neid kann ich nicht verheimlichen..





€: Auf die Hardware, der Tisch wäre nichts für mich.. zweimal Fury aber sicherlich..

(del)
2015-07-04, 16:04:59
Alter Angeber...,-)
Einen gewisen Neid kann ich nicht verheimlichen..
€: Aud die Hardware, der Tisch wäre nichts für mich..

In meinem Museum stehen noch andere Raritäten, wie z.B. eine Drone Station und diverse Unikate und Prototypen. Das Tristellar habe ich aus Platzgründen verschenkt ;)

anddill
2015-07-04, 16:09:40
Den Tinnitus hab ich schon und allzu geräuschempfindlich bin ich auch nicht dank 20 Jahren Arbeit in der Industrie.
Fachkundig ist schön und gut, aber da ja nun inzwischen klar ist daß das Geräusch eine rein mechanische Ursache hat nutzen mir meine elektronischen Tricksereien auch nichts. Was ich allerdings tun werde ist mal auszumessen was da über die Leitungen zur Pumpe geht, vielleicht findet sich da eine Möglichkeit zumindest die Drehzahl zu beeinflussen.
Meine Furie benimmt sich jedenfalls wie erwartet ihrem Namen entsprechend. Eine erste interessante Erkenntnis: Hauptschallquelle ist die verschraubte Abdeckung, gar nicht die Pumpe selbst. Die Pumpe erzeugt Vibrationen, die dann erst die Abdeckung anregen. Schon ein Finger leicht an die Mitte der Abdeckung gehalten dämpfet das Geräusch deutlich. Und bei abgenommener Abdeckung höre ich nur noch ein leises Sirren. Welches interessanterweise wieder deutlich lauter wird, sobald ich auf die Pumpe drücke. Anscheinend leite ich dadurch die Schwingungen kräftiger an das PCB weiter.
Muss mal schauen, wie man da den maximalen Effekt erzielen kann. Wenn ich meine Erfahrung verallgemeiner, dann hilft das Stück Schaumstoff auf der Pumpe zwar gegen die Anregung der Frontplatte, aber drückt andererseits auf die Pumpe und verstärkt damit das Geräusch, das an die Platine geleitet wird wieder.
Im Moment sieht es so aus, daß ich die Karte ohne Abdeckung problemlos betreiben könnte, obwohl mein PC rechts neben mir steht und seitlich große Gitter hat. Aktuell sitzt sie offen auf einem alten Mainboard (idelt im BIOS) ca 1m links von mir, und ich muss sehr genau hinhören um das Laufgeräusch wahrzunehmen.
Als nächstes werd ich mal probieren die Abdeckung so zu dämmen, daß nichts auf die Pumpe drückt.

Raff
2015-07-04, 16:16:09
Interessant – bei PCGH hat Druck auf die Pumpe das Geräusch reduziert, womit die Lösung "Schaustoff zur Dämmung und als Druckmittel" optimal klang.

MfG,
Raff

anddill
2015-07-04, 16:32:49
Ich hab hier so eine Spektrumanalyseapp fürs Handy. Halte ich das Mic direkt vor die freiliegende Pumpe kann ich die Spitze bei 1,9kHz mit -50dB knapp über dem Geräuschteppich erkennen. Sobald ich auf die Pumpe drücke sticht die Spitze aus dem Gekrissel hervor und liegt bei -45dB.

Jetzt schraub ich die blanke Abdeckung nochmal drauf und mess nochmal. Irgendwie sollte es möglich sein einen screenshot zu machen, die alte Methode mit Leiser + Power ging nur nicht (wg neuem Android 5 vielleicht). Wenn ich das noch irgendwie hinbekomme kann ich da mal Messungen posten.

ilibilly
2015-07-04, 16:35:37
Den deckel braucht mann ja dann nicht , vielleicht reicht es den deckel nur noch leicht zu fixieren ohne die schrauben fest anzuziehen.
Wäre interessant wenn andere user mal ohne deckel dieselben erfahrungen mavhen

(del)
2015-07-04, 16:48:50
Das Spektrum hatte ich auch schon mal hier gepostet. Der Fiep ist exakt die Pumpendrehzahl, so dass man sich so einen geilen akustischen Drehzahlmesser basteln könnte. Hat auch nicht jeder :D

anddill
2015-07-04, 16:57:20
Hier die Spektren.

Bei der Messung mit Deckel hab ich das Mic vor den Deckel gehalten. Bei den anderen beiden Bildern hab ich das Handy vor der Karte auf den Tisch legen müssen, da mir einfach die Hände ausgegangen sind. Handy halten, mit Quickmemo rumwischen und auf die Pumpe drücken, das war dann etwas zu viel.

Die Pegelverhältnisse stimmen aber trotzdem etwa, eher war die Messung mit auf dem Tisch liegendem Handy sogar noch sensibler, dank der Schallführung durch die Tischplatte.

Bei der Messung mit Deckel sieht man viel mechanisches Gerumpel im Bereich von 150-600Hz, und dann den Peak vom Pumpenrotor. Ohne Deckel ist der Peak kaum noch zu erahnen, im höheren Frequenzbereich sind dann noch ein paar Oberwellen, die das Sirren erzeugen.

Bei der Messung mit Druck auf die Pumpe steht der Spike deutlich raus. Irgendwas wird da viel stärker angeregt. Wobei es nach Gehör immer noch minimal leiser ist als mit aufgesetztem Deckel, nur sehr deutlich definiert, von nichts überdeckt und richtig nervig.
Beim ersten Druck auf die Pumpe verschwand das Geräusch übrigens praktisch völlig. Der Grund? Ich hab einfach zufällig auf eine andere Stelle gedrückt. Drück ich in der Mitte oder weiter oben, dann wird es lauter, drücke ich unten links dann wird es leiser.

Zur Belegung der Pumpe: Es gibt tatsächlich nur eine 12V-Leitung, die oberste, rote. Keine PWM oder sonstigen digitalen Signale. Ein paar Leitungen führen 3,3V, das sieht nach einem Sensor, Freigabesignal, Überwachung oä. aus, jedenfalls irgendwas auf einer üblichen µC Spannungsebene. Der Spannungswandler für die Displaybeleuchtung meines Scopes ist übrigens lauter als die Pumpe meiner Fury :D

Digidi
2015-07-04, 17:11:59
Mal ne frage könnte Ihr die Effizienz auch noch mal mit Mantle benchen? Das bringt ja echt noch mal gewinne gerade in FullHD. Mal sehen ob die Effizienz dann besser wird. Bei Civ legt Mantle ja 30% in WQHD

http://www.golem.de/news/grafikkarte-auch-fury-x-rechnet-mit-der-mantle-schnittstelle-flotter-1507-115005.html

Aber genießt heute mal alle das schöne Wetter Ihr habt genug gebencht :-)

Wobei schön ist die Hitze auch nicht mehr. Ob der Kühler von der Fury X als Klimaanlage taugt? Das Kühlpett abschrauben und dann auf die Stirn legen :)

anddill
2015-07-04, 17:32:29
So, Ruhe ist. Wobei ich jetzt mit aufgesetzter gedämmter Front wieder das tiefere Summen höre.
Und noch zwei Anmerkungen:
Für die Schräubchen passt auch ein T6 Torx perfekt. Macht sich besser als mit einem fiddeligen 1,5mm Imbus oder einem Bit.
Und der DP zu DVI Adapter scheint standardmäßig beizuliegen. Damit dürfte die Kritik am fehlenden DP doch hinfällig sein.

Jetzt schnell noch nen Kaffee kippen, dann alten Treiber runter, R7-240 :ulol: Notkarte raus und Fury rein :ujump:

Digidi
2015-07-04, 17:57:10
Kaffee bei der Hitze bist du Verrückt? :) Leitest gerade die Körperliche Kernschmelze ein :uexplode: