PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury: (P)Review-Thread


Seiten : [1] 2 3 4 5 6 7

Raff
2015-07-10, 14:05:09
PCGH: Radeon R9 Fury im PCGH-Test: AMDs Angriff auf die Geforce GTX 980 (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-Test-Review-1164156/)
CB: AMDs kleiner Fiji von Sapphire perfekt interpretiert (http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/)
Tom's: Sapphire Radeon R9 Fury Tri-X im Test: Der kleine Bruder der Fury X (http://www.tomshardware.de/sapphire-amd-radeon-r9-fury-tri-x,testberichte-241864.html)

Weitere Sprachen:
HardOCP (http://www.hardocp.com/article/2015/07/10/asus_strix_r9_fury_dc3_video_card_review)
Hardware Canucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/69792-amd-r9-fury-performance-review.html)
Hexus (http://hexus.net/tech/reviews/graphics/84512-sapphire-radeon-r9-fury-tri-x-oc/)
Hot Hardware (http://hothardware.com/reviews/amd-radeon-r9-fury-review)
Overclock (http://www.overclock3d.net/reviews/gpu_displays/amd_r9_fury_x_review/1)
TweakTown (http://www.tweaktown.com/reviews/7241/sapphire-tri-radeon-r9-fury-video-card-review-hbm-water-cooler/index.html)
Vortez Hardware (http://www.vortez.net/articles_pages/sapphire_r9_fury_x_review,1.html)
Hardware.fr (http://www.hardware.fr/news/14284/amd-lance-radeon-r9-fury-4-go-preview.html)

Also ich mag sie.

MfG,
Raff

r3ptil3
2015-07-10, 14:09:56
Rein von der Performance dürfte so mancher beim spielen keinen Unterschied zur Fury X bemerken. Das Teil wird lediglich etwas heiss.

y33H@
2015-07-10, 14:12:29
DF: http://www.eurogamer.net/articles/digitalfoundry-2015-amd-reveals-full-spec-for-cut-down-air-cooled-r9-fury-blog

Also ich mag sie.Ich hätte sie gerne gemocht :P :biggrin:

Raff
2015-07-10, 14:13:25
Beschwerden wie gesagt an fauleschweine@dhl.de. ;)

MfG,
Raff

Botcruscher
2015-07-10, 14:14:17
Für die Leistung zu teuer und der große Abstand in 4K überrascht dann doch.

dildo4u
2015-07-10, 14:14:18
CB hat sie unter 1440p direkt auf Höhe mit einer OC 980 scheint mir 100€ zu teuer,wobei die 980 ja schon kein gutes Preis Leistungverhältniss hat.

Mr.Y
2015-07-10, 14:17:21
Ja, gut, aber nachwievor ist Fury mir zu teuer... Dennoch IMHO eine bessere Karte als die Fury X, gerade weil kein Fiepen, bisschen Sparsamer, leiser, ... Wobei letzteres ja vor allem wohl Sapphire "zu verdanken" ist.

Leonidas
2015-07-10, 14:18:20
Weitere Testberichte:

HardOCP (http://www.hardocp.com/article/2015/07/10/asus_strix_r9_fury_dc3_video_card_review)
Hardware Canucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/69792-amd-r9-fury-performance-review.html)
Hexus (http://hexus.net/tech/reviews/graphics/84512-sapphire-radeon-r9-fury-tri-x-oc/)
Hot Hardware (http://hothardware.com/reviews/amd-radeon-r9-fury-review)
Overclock (http://www.overclock3d.net/reviews/gpu_displays/amd_r9_fury_x_review/1)
TweakTown (http://www.tweaktown.com/reviews/7241/sapphire-tri-radeon-r9-fury-video-card-review-hbm-water-cooler/index.html)
Vortez Hardware (http://www.vortez.net/articles_pages/sapphire_r9_fury_x_review,1.html)
Hardware.fr (http://www.hardware.fr/news/14284/amd-lance-radeon-r9-fury-4-go-preview.html)

horn 12
2015-07-10, 14:23:35
Wie heiss wird die Karte im geschlossenen Gehäuse, da eben auf Arbeit bin :-(

Unyu
2015-07-10, 14:25:33
Alle Welt testet die Sapphire, gibt offenbar keine anderen Hersteller mehr. Oder hat man sich geeinigt die beste Herstellerkarte ins Rennen zu schicken?

Frosty
2015-07-10, 14:25:47
ist eigentlich das referenzdesign von amd immer grundlage aller partnerdesigns von fiji karten, oder dürfen die (zb. von msi, asus usw.) auch eigene platinenlayouts entwerfen?:confused:

Botcruscher
2015-07-10, 14:26:19
Wie heiss wird die Karte im geschlossenen Gehäuse, da eben auf Arbeit bin :-(

80° Im CB Backofen.

Cooler Master 690 III Fractal Design Define R4
Sapphire Radeon R9 Fury Tri-X OC
Lautstärke
Messwert 31,5 dB 32 dB
Lüfterdrehzahl 1.200 U/min 1.245 U/min
Temperatur
GPU 80 °C 80 °C
GPU-Takt
Taktbereich 1.040 MHz 1.040 MHz

Die Kühlkonstruktion auf der Sapphire-Grafikkarte ist offenbar nicht anfällig für unterschiedliche Gehäusebelüftung. Ob das klassisch gekühlte Cooler Master 690 III oder das gedämmte und damit tendenziell wärmere Fractal Design Define R4 spielt bei der Radeon R9 Fury Tri-X OC keine Rolle. Die Lüfterdrehzahl ist im R4 minimal höher, jedoch lassen sich die gemessenen 0,5 Dezibel Lautstärkeunterschied nicht hören.

Raff
2015-07-10, 14:26:46
Alle Welt testet die Sapphire, gibt offenbar keine anderen Hersteller mehr. Oder hat man sich geeinigt die beste Herstellerkarte ins Rennen zu schicken?

Die anderen können nicht liefern. Asus folgt die Tage, beim Rest sieht's derzeit noch düster aus.

MfG,
Raff

fondness
2015-07-10, 14:27:47
Nice die Sapphire Fury Karte:

Unter Last lässt der Messwert dann erst an einen Tippfehler denken, aber es ist keiner. Die Sapphire Radeon R9 Fury Tri-X OC in der Tat nicht lauter als 31,5 Dezibel. Für eine High-End-Grafikkarte ist dieser Wert atemberaubend gut. Selbst die sehr leise und konkurrierende Palit GeForce GTX 980 SuperJetstream arbeitet ein wenig lauter.

http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/7/

Die Sapphire Radeon R9 Fury Tri-X OC interpretiert die von AMD gesetzte Partitur perfekt. Auch wenn das Kühlsystem denselben Namen trägt, mit der Variante auf der Sapphire Radeon R9 390X Tri-X hat es nur noch wenig gemein. Mit 31,5 Dezibel unter Dauerlast in einem geschlossenen Gehäuse erreicht die Grafikkarte einen atemberaubend guten Wert. Selbst die besten Modelle der GeForce GTX 980, die zuvor Rekordwerte aufgestellt haben, erreichen dieses Niveau nicht.

http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/11/

Da macht sich wohl auch das kurze PCB positiv bemerkbar, wodurch der Luftstrom hinten nicht vom PCB blockiert wird.

dildo4u
2015-07-10, 14:30:30
So viel zu kompackten Bauweise dank HBM,die Sapphire ist länger als die vergleichbaren Nvidia Karten. :lol:

https://youtu.be/O2sFN7OQivs?t=3m41s

r3ptil3
2015-07-10, 14:31:50
Wie heiss wird die Karte im geschlossenen Gehäuse, da eben auf Arbeit bin :-(

Die Asus Strix bei 71°. Zum Vergleich die GTX 980 liegt bei 81°.
War in dem Test aber ein offenes Gehäuse. (Hardocp)

Loeschzwerg
2015-07-10, 14:33:09
Bitte den Sapphire Kühler auf eine Fury X :D Ganz ehrlich, da kann AMD den AiO in die Tonne treten, außer man braucht den Platz im Gehäuse. Klasse Leistung von Sapphire.

Mal schauen wie jetzt die Preise ausfallen, dann bin ich dabei :)

Edit: Aber die VRM Temperaturen (gezeigt bei THG) sind schon krass :freak:

Raff
2015-07-10, 14:34:11
Bitte den Sapphire Kühler auf eine Fury X :D Ganz ehrlich, da kann AMD den AiO in die Tonne treten, außer man braucht den Platz im Gehäuse. Klasse Leistung von Sapphire.

Mal schauen wie jetzt die Preise ausfallen, dann bin ich dabei :)

Genau meine Meinung. :up: Eine Fury X mit diesem Kühler und einer Prise OC – wie wär's mit 1.100 MHz? – wäre klasse.

MfG,
Raff

y33H@
2015-07-10, 14:34:19
@ Loeschzwerg

Kauf die Sapphire und ne Fury X und bau um, PCB ist das gleiche ;D

r3ptil3
2015-07-10, 14:35:39
http://hothardware.com/ContentImages/Article/2347/content/fury_power.png

Loeschzwerg
2015-07-10, 14:36:10
@Raff/y33H@: Ist mein Plan, aber der Geldbeutel fängt schon an zu heulen ;) (Wo bleibt meine Steuerrückzahlung!!!)

Korvaun
2015-07-10, 14:36:41
Schöne Karte, vor allem die Lautstärke ist top, der (UVP-)Preis dagegen ist viel zu hoch. Max. 599€ Startpreis wären noch mit Bauchschmerzen ok, ~560€ wären sehr gut.

Für die nahe Zukunft wird interessant wie Win10/DX12-Treiber die Ergebnisse beeinflusst. Wenn da AMD noch mal nen bisschen gegenüber nV zulegen kann wäre das nicht schlecht.

fondness
2015-07-10, 14:38:15
http://hothardware.com/ContentImages/Article/2347/content/fury_power.png

Ja klar, bei der Leistung mit OC-Herstellerdesigns vergleichen und bei der Leistungsaufnahme dann mit den NV-Referenzkarten, so hätte wir es gerne. :rolleyes:

dildo4u
2015-07-10, 14:38:24
Die Karte hat Probleme wenn der Vram ausgeht,die 980 scheint ne bessere Verwaltung zu haben.

http://www.hardocp.com/article/2015/07/10/asus_strix_r9_fury_dc3_video_card_review/5

At maximum settings the ASUS STRIX R9 Fury is being bottlenecked by the VRAM capacity. The GeForce GTX 980 however, isn't being held back so much.

When we lowered settings in this game to "Best Quality" lowering shadow map size to "Very High" and reducing the view distance to half we saw a large power increase out of the ASUS STRIX R9 Fury. How much you ask? 50 watts! That's right, by reducing settings the video card increased its total wattage by 50W. That means the video card was working harder and accelerating the game faster.

Our theory is that the video card is running out of VRAM at maximum settings in this game and thus capping or bottlenecking performance. It is keeping the video card from fully showing its performance potential since the VRAM capacity is too small. The GeForce GTX 980 however doesn't seem to have this issue, its wattage doesn't change and it seems to be showing its full potential.

What does this all really mean? It is an example where VRAM capacity of 4GB is already not enough in a game at 1440p. A sign of times to come? Of course we cannot predict, but it is here now in Dying Light.

Unyu
2015-07-10, 14:38:52
Die anderen können nicht liefern.
Auch nicht schlecht. ;D
Viel Spass die Kunden zu bedienen, wenns nichtmal für die Presse reicht.

So viel zu kompackten Bauweise dank HBM,die Sapphire ist länger als die vergleichbaren Nvidia Karten. :lol:

https://youtu.be/O2sFN7OQivs?t=3m41s
Welche kompakte Bauweise? Die GTX 670 war ein Stück kürzer, ganz ohne HBM.

MilesEdgeworth
2015-07-10, 14:40:10
Mit Spannungsänderungen (insbesondere nach unten) sieht es auch bei der Fury ohne X bisher schlecht aus? Mich würde interessieren, was da noch an Effizienz herauszuholen ist.

Schnoesel
2015-07-10, 14:41:37
Ich mach mal mit beim picken :biggrin:


Die 980 hat Probleme wenn der Vram ausgeht,die Fury scheint ne bessere Verwaltung zu haben.

http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/5/#abschnitt_so_schnell_ist_die_sapphire_radeon_r9_fury_trix_oc

Obwohl Assassin's Creed: Unity auf Grafikkarten von Nvidia eigentlich etwas besser läuft, dreht sich das Bild in 3.840 × 2.160 um. Der GeForce GTX 980 geht mess- und spürbar der 4.096 MB große Speicher aus und das Bild friert kurzzeitig reproduzierbar ein. Auch die Radeon R9 Fury zeigt Ausschläge, einfrieren tut das Bild allerdings nicht.

fondness
2015-07-10, 14:42:22
Ich mach mal mit beim picken :biggrin:


Die 980 hat Probleme wenn der Vram ausgeht,die Fury scheint ne bessere Verwaltung zu haben.

http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/5/#abschnitt_so_schnell_ist_die_sapphire_radeon_r9_fury_trix_oc

Wer dildo noch ernst nimmt...ach lassen wir das.

r3ptil3
2015-07-10, 14:43:11
Ja klar, bei der Leistung mit Herstellerdesigns vergleichen und bei der Leistungsaufnahme dann mit den NV-Referenzkarten, so hätte wir es gerne. :rolleyes:

Interessanter ist hier wohl eher, dass die Fury mehr verbraucht als die Fury X.

Wo siehst du bei dem Review Herstellerkarten von Nv?

Schnoesel
2015-07-10, 14:43:24
Lass mich halt auch mal trollen :P

dildo4u
2015-07-10, 14:44:24
Ich mach mal mit beim picken :biggrin:


Die 980 hat Probleme wenn der Vram ausgeht,die Fury scheint ne bessere Verwaltung zu haben.

http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/5/#abschnitt_so_schnell_ist_die_sapphire_radeon_r9_fury_trix_oc
Es gab ja ein Sprung bei AC Unity dort hat AMD also Hand angelegt.Bei Dying Light scheint das nicht der Fall.Natürlich problematisch wenn sie es pro Game anpassen müssen,da AMD weniger Ressourcen als Nvidia hat.

Ex3cut3r
2015-07-10, 14:46:03
Scheint nett zu sein die Karte, schön leise zumindest die Sapphire 1,5 Sone laut pcgh. Allerrdings ziemlich hoher Stromverbrauch und und zu wenig OC Potenzial. Zusätzlich ist der Preis noch viel zu hoch, ein Preis in 980 Regionen wäre angebracht.

BlacKi
2015-07-10, 14:46:26
der test von overclock ist aber ein test der X.

Unicous
2015-07-10, 14:47:49
Es gab ja ein Sprung bei AC Unity

Es heißt einEN.

:uattack4:

fondness
2015-07-10, 14:50:05
Mit Spannungsänderungen (insbesondere nach unten) sieht es auch bei der Fury ohne X bisher schlecht aus? Mich würde interessieren, was da noch an Effizienz herauszuholen ist.

Das wird man dann wohl mit der Nano sehen.

Exxtreme
2015-07-10, 14:50:56
Wenn es das Ding mit Wasserkühlung gäbe dann wäre sie lecker. Naja, dann wird's wohl doch ne Fury X.

Troyan
2015-07-10, 14:53:40
Es gab ja ein Sprung bei AC Unity dort hat AMD also Hand angelegt.Bei Dying Light scheint das nicht der Fall.Natürlich problematisch wenn sie es pro Game anpassen müssen,da AMD weniger Ressourcen als Nvidia hat.

Sie haben überall per Hand angepasst. Nur bringt das aggressive Rein- und Rausladen von Daten nichts, wenn die Spiele plötzlich mehr Daten anfragen, als der Treiber vorhergesehen hat.

Unity funktioniert, GTA5 und Dying Light dagegen nicht.

Ravenhearth
2015-07-10, 14:54:08
Gegenüber der 980 vergleichbar schnell, aber 100€ zu teuer und zu hoher Stromverbrauch. :( Leider gar nicht sexy.

fondness
2015-07-10, 14:54:32
Zusätzlich ist der Preis noch viel zu hoch, ein Preis in 980 Regionen wäre angebracht.

Tja Nvidia muss die GTX980 eben so billig anbieten, damit sie jemand kauft. *scnr*
So oder so ähnlich dröhnten zumindest immer die NV-Fanboys wenn AMD einen besseren Preis bieten konnte.

Raff
2015-07-10, 14:54:59
Wenn es das Ding mit Wasserkühlung gäbe dann wäre sie lecker. Naja, dann wird's wohl doch ne Fury X.

Da gibt's mal einen echt fetten, leisen Luftkühler ... und dann will jemand Wasser. Gerade die Sapphire-Karte braucht kein Wasser. ;)

MfG,
Raff

BlacKi
2015-07-10, 14:58:59
Tja Nvidia muss die GTX980 eben so billig anbieten, damit sie jemand kauft. *scnr*
So oder so ähnlich dröhnten zumindest immer die NV-Fanboys wenn AMD einen besseren Preis bieten konnte.
und die amd und nv fraktion hat immer gesagt dass die 980 zu teuer ist für den preis. jetzt kommt die fury mit der 980 leistung und verlangt nochmals 100-150€ mehr.

am kühler darf man eigendlich nicht meckern ausser das er "etwas" lang ist.

dildo4u
2015-07-10, 15:01:01
Die 980 TI ist die einzige sinvolle High-End Karte hats das selbe Preis/Leistung Verhältniss wie eine GTX 970.

fondness
2015-07-10, 15:01:15
und die amd und nv fraktion hat immer gesagt dass die 980 zu teuer ist für den preis. jetzt kommt die fury mit der 980 leistung und verlangt nochmals 100-150€ mehr.


Naja, ab 1440p hat man klar über GTX980-Leistung, in 4K kommt auch eine OC GTX980 nur noch schwer hin.

BlacKi
2015-07-10, 15:03:09
Naja, ab 1440p hat man klar über GTX980-Leistung.
vergleichst du wieder amd custom karten mit nv referenzkarten? sollst du doch nicht machen pöser pöser fondness^^

Die 980 TI ist die einzige sinvolle High-End Karte hats das selbe Preis/Leistung Verhältniss wie eine GTX 970.

ja, sehe ich auch so, ich bin allerdings auf die nano gespannt. da kann man nicht allen ernstes mehr als 550$ verlangen, eher 400-450.

Ravenhearth
2015-07-10, 15:03:16
Die 980 TI ist die einzige sinvolle High-End Karte hats das selbe Preis/Leistung Verhältniss wie eine GTX 970.

Witz? Doppelter Preis für 40-50% mehr Leistung ist NICHT das gleiche P/L-Verhältnis.

aufkrawall
2015-07-10, 15:05:11
Wenn die Ti bei W3 bei hohem Takt schon 40% schneller als die 980 ist, sinds zur 970 eher 50-60%.

Zum Thema: Eine weitere unsinnig teure 4GB Karte.

Troyan
2015-07-10, 15:06:52
Naja, ab 1440p hat man klar über GTX980-Leistung, in 4K kommt auch eine OC GTX980 nur noch schwer hin.

"Klar über GTX980" ist lustig, wenn man langsamer ist. :freak:

fondness
2015-07-10, 15:09:01
AnandTech-Review mit ASUS und Sapphire-Karte:
http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus

Um es kurz zu machen: Die ASUS ist klar lauter unter Last.

"Klar über GTX980" ist lustig, wenn man langsamer ist. :freak:

Danke für das trolling.

Steffko
2015-07-10, 15:09:34
Wo haben die denn jetzt diese Lautstärke rausgeholt? Ist ja Wahnsinn, dass das Ding unter Last kaum zu hören ist. Hat man da den Wasserkühler auf die Fury X nur wegen den geringeren Abmessungen verbaut?

M4xw0lf
2015-07-10, 15:13:57
Wo haben die denn jetzt diese Lautstärke rausgeholt? Ist ja Wahnsinn, dass das Ding unter Last kaum zu hören ist. Hat man da den Wasserkühler auf die Fury X nur wegen den geringeren Abmessungen verbaut?
Für den Premiumanstrich. Was imho geglückt ist, wenn auch die Pumpengeschichte einen Kratzer im Lack hinterlässt.

dildo4u
2015-07-10, 15:15:30
Wo haben die denn jetzt diese Lautstärke rausgeholt? Ist ja Wahnsinn, dass das Ding unter Last kaum zu hören ist. Hat man da den Wasserkühler auf die Fury X nur wegen den geringeren Abmessungen verbaut?
Der Kühler hat ein Vorteil dank HBM kann die Luft hinten durch den Kühler und staut sich nicht am PCB.

fondness
2015-07-10, 15:16:05
When it came time to run our load noise testing we were expecting good things from both cards, but the results from the Sapphire Tri-X have completely blown our expectations. With sub-40dB(A) noise levels we ended up running our load noise test three different times in order to make sure there wasn’t an error in our testing methodology. There wasn’t.

What we have here then is the quietest high power air cooled card we have ever tested. In its OC configuration the Sapphire Tri-X card tops out at 38.2dB under Crysis 3, less than 2dB(A) above our noise floor and nearly 5dB quieter than the quiet R9 Fury X. Switching to its reference configuration drives noise levels down even further, to just 37.8dB(A). To put that in perspective, the Sapphire Tri-X under a gaming workload is as loud as the GTX 980 Ti is at idle. Simply put, these results are amazing.

http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus/17

BlacKi
2015-07-10, 15:19:54
Witz? Doppelter Preis für 40-50% mehr Leistung ist NICHT das gleiche P/L-Verhältnis.

manche custom karten der 980 ti haben in 4k wirklich szenen wo sich die perfomance verdoppelt! far cry 4 in 4k http://www.tomshardware.de/inno3d-gtx-980-ti-ichill-airboss-grafikkarte,testberichte-241842-5.html

ansonsten sinds eher 50-60% und ist somit attraktiver als eine 980. für ca 420€ wäre die performance passender, auch die der fury.

Troyan
2015-07-10, 15:21:08
Danke für das trolling.

"Trolling"? Du bist doch derjenige hier, der trollt:
Langsamer als die GTX980 in 1440p: http://www.hardware.fr/news/14284/amd-lance-radeon-r9-fury-4-go-preview.html
Langsamer als die GTX980 in 1440p: http://pclab.pl/art64759.html
Die Gigabytebyte-GTX980 ist schneller und kostengünstiger.

Bei Computerbase ist die GTX980OC in 1440p normal minimal schneller und mit hoher Qualität leicht langsamer.

Das Referenzdesign der GTX980 hat überhaupt keine aussagekraft mehr, da es das kaum noch zu kaufen gibt: http://geizhals.de/?cat=gra16_512&asuch=gtx980&asd=on&bpmax=&v=l&hloc=de&plz=&dist=&mail=&bl1_id=30&sort=p&xf=1439_GTX+980

Also, wo ist die Fury "klar schneller in 1440p"? Richtig, nirgendwo.

Exxtreme
2015-07-10, 15:21:27
Da gibt's mal einen echt fetten, leisen Luftkühler ... und dann will jemand Wasser. Gerade die Sapphire-Karte braucht kein Wasser. ;)

MfG,
Raff
Tja, warum ein Kettcar wenn man auch ein Auto haben kann? =) Mit Luft wird das Ding wahrscheinlich heisser.

Nightspider
2015-07-10, 15:21:28
Dildo heute mal wieder im Trollmodus.


http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/11/

Da macht sich wohl auch das kurze PCB positiv bemerkbar, wodurch der Luftstrom hinten nicht vom PCB blockiert wird.

Das wird richtig geil bei Crossfire wirken wenn die zwei hintereinander liegende Lüfter ohne Widerstand durch die Kühlkörper pusten können und damit einen richtig Luftstrom erzeugen.

Ich prohezeie das Crossfire kaum wärmer wird als eine Single-GPU.

Botcruscher
2015-07-10, 15:21:46
Der Kühler ist ohne Frage sehr gut. Die ungekühlten SpaWa passen da schon schlechter ins Bild. Da fehlt noch eine heatpipe...

horn 12
2015-07-10, 15:22:39
Wann sind die FURY Sapphire und auch Asus lieferbar
Die Sapphire sollte ja bereits in dem ein oder anderen Laden erhältlich sein!

dildo4u
2015-07-10, 15:23:16
"Trolling"? Du bist doch derjenige hier, der trollt:
Langsamer als die GTX980 in 1440p: http://www.hardware.fr/news/14284/amd-lance-radeon-r9-fury-4-go-preview.html
Langsamer als die GTX980 in 1440p: http://pclab.pl/art64759.html
Die Gigabytebyte-GTX980 ist schneller und kostengünstiger.

Bei Computerbase ist die GTX980OC () in 1440p normal minimal schneller und mit hoher Qualität leicht langsamer.

Das Referenzdesign der GTX980 hat überhaupt keine aussagekraft mehr, da es das kaum noch zu kaufen gibt: http://geizhals.de/?cat=gra16_512&asuch=gtx980&asd=on&bpmax=&v=l&hloc=de&plz=&dist=&mail=&bl1_id=30&sort=p&xf=1439_GTX+980

Also, wo ist die Fury "klar schneller in 1440p"? Richtig, nirgendwo.
Jup CB's neuer Parcour scheint ziehmlich Fair zu sein keine Gewichtung Richtung AMD oder NV und dort ist 980 OC=Fury pro.980 mit 1.3Ghz Boost kosten unter 500€.

Matrix316
2015-07-10, 15:24:47
Tja, warum ein Kettcar wenn man auch ein Auto haben kann? =) Mit Luft wird das Ding wahrscheinlich heisser.
Den Wasserkühler der Fury X willst du aber garnicht haben - wenns fiept.

Von der Kühleistung und Lüfterlautstärke ist der ja OK, aber die Nebengeräusche sind glaube ich nerviger als der Luftkühler der Sapphire hier, der auch locker die Fury X stemmen könnte.

Exxtreme
2015-07-10, 15:25:24
Den Wasserkühler der Fury X willst du aber garnicht haben - wenns fiept.

Von der Kühleistung und Lüfterlautstärke ist der ja OK, aber die Nebengeräusche sind glaube ich nerviger als der Luftkühler der Sapphire hier, der auch locker die Fury X stemmen könnte.
Deshalb warte ich auf eine nicht fiepende Revision. =)

fondness
2015-07-10, 15:26:07
Also, wo ist die Fury "klar schneller in 1440p"? Richtig, nirgendwo.

Er war offensichtlich, dass sich das auf die normale GTX980 bezog, immerhin habe ich im selben Satz auch noch OC GTX980 erwähnt. Im übrigen geben deine Links das von dir behauptete langsamer als eine GTX980 sicher nicht her. Also troll wen anderen.

Pirx
2015-07-10, 15:26:19
Jup CB's neuer Parcour scheint ziehmlich Fair zu sein keine Gewichtung Richtung AMD oder NV und dort ist 980 OC=Fury pro.980 mit 1.3Ghz Boost kosten unter 500€.
Könnt ihr mal aufhören, mit eurem Schwachsinn jeden AMD-Reviewthread zu shreddern?

Ravenhearth
2015-07-10, 15:26:37
Wann sind die FURY Sapphire und auch Asus lieferbar
Die Sapphire sollte ja bereits in dem ein oder anderen Laden erhältlich sein!

Launch ist am 14.

fondness
2015-07-10, 15:28:22
Der Kühler ist ohne Frage sehr gut. Die ungekühlten SpaWa passen da schon schlechter ins Bild. Da fehlt noch eine heatpipe...

Das ist allerdings mehr ein psychologischer Aspekt, die Dinger sind bis 150°C gespect.

Könnt ihr mal aufhören, mit eurem Schwachsinn jeden AMD-Reviewthread zu shreddern?

Danke. Ist kaum mehr auszuhalten, ich gehe schließlich auch nicht in NV-Threads um dort zu trollen.

aufkrawall
2015-07-10, 15:31:09
öff, teilweise ist der eigentliche Konkurrent die 390X.
Hawaii ist ein besserer Gaming-Chip, trotz DP. *ouch*

Nightspider
2015-07-10, 15:33:42
So jetzt könnten langsam mal generell die Preise um 100 Euro runter gehen.

Das die GTX980 mit ihrem popeligem Chip von 398mm² immer noch für 500 verhökert wird nach fast einem Jahr in diesem uralten Prozess ist doch auch traurig.

Raff
2015-07-10, 15:33:51
Immer wieder amüsant, wie sich ein paar Leute an fünf Prozent aufhängen, die mal nach links und mal nach rechts gehen. Fiji Pro @ 1.000 MHz und GM204-400 @ 1.200 MHz sind in verbreiteten Auflösungen gleich schnell. In Full HD gewinnt meist die GTX 980, in WQHD meist die Fury. Allein in Ultra HD hat Fiji definitiv einen Vorteil gegenüber GM204. Den finde ich persönlich bemerkenswert und wichtig (VSR), für die meisten Leute dürften die Bildraten aber nicht ausreichen.

MfG,
Raff

Ravenhearth
2015-07-10, 15:35:08
Es ist aber traurig zu sehen, dass AMD einen riesigen CHip + HBM braucht, um die GTX980 zu schlagen und dabei wesentlich mehr Strom verbraucht. Ich weiß, Stromverbrauch ist dir egal, solange die Lautstärke stimmt (und das tut sie), aber ein fader Beigeschmack bleibt dennoch.

Troyan
2015-07-10, 15:35:08
Er war offensichtlich, dass sich das auf die normale GTX980 bezog, immerhin habe ich im selben Satz auch noch OC GTX980 erwähnt. Im übrigen geben deine Links das von dir behauptete langsamer als eine GTX980 sicher nicht her. Also troll wen anderen.

In 4K nimmst du bezog auf diese Karten. Da niemand eine 4GB Karte für 4K mehr kauft, wird dagegen einfach mal verheimlicht.

In 1440p ist die Fury langsamer als die OC Karten. Das wiederum wird von dir verheimlicht, weil du jetzt nur das Referenzdesign heranziehst.

Und sich dann vorher noch über Stromverbrauchsmessungen des Referenzdesign aufzuregen. :rolleyes:

Ich mache die Realität nicht. Deine Fantasien spielen für den Markt keine Rolle. Die Palit Super Jetstream kostet 525€ und liegt leicht unter der Gigabyte GTX980 Gaming G1 und ist damit immer noch leicht schneller als die Fury von Sapphire.

Wenn du das anders siehst, kannst du gerne Belege für deine Aussagen heranführen. Aber dann bitte auch mit einem Referenzdesign der Fury mit Blower-Kühlkonstruktion.

aufkrawall
2015-07-10, 15:35:14
Für UHD nehm ich lieber die 8GB der 390X, dann muss man wenigstens auch in Zukunft nie mit Matschtexturen spielen.

dildo4u
2015-07-10, 15:37:16
So jetzt könnten langsam mal generell die Preise um 100 Euro runter gehen.

Das die GTX980 mit ihrem popeligem Chip von 398mm² immer noch für 500 verhökert wird nach fast einem Jahr in diesem uralten Prozess ist doch auch traurig.
Das wird mir hier ja verboten zu erwähnen AMD kann dank HBM und großem Chip kein Preisdruck auf Nvidia ausüben.Es gibt kein Grund für NV die 980 billiger zu machen,wenn 980 mit 1.3Ghz in 1440p mithalten.
Die Karte bringt keinem weiter egal ob man AMD oder NV Fan ist.

Raff
2015-07-10, 15:38:55
Es ist aber traurig zu sehen, dass AMD einen riesigen CHip + HBM braucht, um die GTX980 zu schlagen und dabei wesentlich mehr Strom verbraucht. Ich weiß, Stromverbrauch ist dir egal, solange die Lautstärke stimmt (und das tut sie), aber ein fader Beigeschmack bleibt dennoch.

Mir ist der Stromverbrauch keineswegs egal. Allerdings wird das neuerdings immer als Totschlagargument hergenommen, wenn man sonst nix hat. 50 Watt. Wow. Ich werde arm, schließlich läuft mein Rechner 24/7 unter Volllast. Nicht. ;) Wenn die Karte in meinen Settings mehr leistet und der Kühler die Energie abführen kann, ist doch alles paletti. Hier wird übrigens, wie in anderen Foren auch, vergessen, dass aufgemotzte 980-Karten, die der Fury mit Boosts zwischen 1,3 und 1,35 GHz in 1440p/2160p Paroli bieten, 220 bis 250 Watt brauchen.

MfG,
Raff

fondness
2015-07-10, 15:39:11
Wenn du das anders siehst, kannst du gerne Belege für deine Aussagen heranführen. Aber dann bitte auch mit einem Referenzdesign der Fury mit Blower-Kühlkonstruktion.

Meine Aussage war klar und eindeutig, das du nicht fähig bist das richtig zu interpretieren ist nicht meine Schuld. Ich kann logischerweise auch nur das vergleichen was getestet wird. Ansonsten:

Könnt ihr mal aufhören, mit eurem Schwachsinn jeden AMD-Reviewthread zu shreddern?

Danke.

aufkrawall
2015-07-10, 15:40:03
lol, immer diese nett verpackten Zensurforderungen...

StefanV
2015-07-10, 15:44:24
So viel zu kompackten Bauweise dank HBM,die Sapphire ist länger als die vergleichbaren Nvidia Karten. :lol:

https://youtu.be/O2sFN7OQivs?t=3m41s
Wen interessiert das?!
EIn gutes ATX Gehäuse, dass sich auch wirklich Spezifikationskonform gebaut wurde, hat exakt 312mm Platz für die Grafikkartge. DAS ist das, was möglich und spezifiziert ist...

Daher verstehe ich nicht, warum du hier solch einen Aufriss machst...

raffa
2015-07-10, 15:45:53
AnandTech-Review mit ASUS und Sapphire-Karte:
http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus

Um es kurz zu machen: Die ASUS ist klar lauter unter Last.


Dafür is die Leistungsaufnahme deutlich geringer.

http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus/17

Edit: Ok, liegt vielleicht einfach nur an einem guten Chip
"On the other hand the ASUS card has a clear power efficiency advantage of its own, but I’m not convinced that this isn’t just a byproduct of the ASUS card randomly receiving a better chip. As a result I’m not convinced that this same efficiency advantage exists between all ASUS and Sapphire cards"

Ex3cut3r
2015-07-10, 15:46:06
Fazit: Warten Fury Non X zu Teuer, allgemein ab GTX 980 alles zu teuer, trotz 28nm billig design. Zum heulen.

Mancko
2015-07-10, 15:46:44
Tja Nvidia muss die GTX980 eben so billig anbieten, damit sie jemand kauft. *scnr*
So oder so ähnlich dröhnten zumindest immer die NV-Fanboys wenn AMD einen besseren Preis bieten konnte.

Ich glaube eher Nvidia hat deutlich mehr Luft als AMD. Die 980 ist billiger herzustellen. Für AMD wird das gesamte Fiji Lineup bisher nicht der Wahnsinns Margenschlager werden - auch nicht die Nano. Die Konkurrenz ist dort wirtschaftlich gesehen einfach unverschämt effizient.

Ravenhearth
2015-07-10, 15:47:42
Dafür is die Leistungsaufnahme deutlich geringer.

http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus/17

Allerdings nur bei der Asus. Im Fazit schreibt Ryan, dass die Asus zufällig einfach einen besseren Chip haben könnte.

maguumo
2015-07-10, 15:48:04
lol, immer diese nett verpackten Zensurforderungen...

Das sind doch keine Zensurvorderungen. Untergangspriester tragen eben nicht zu einer vernünftigen Diskussion bei. Jeder hier kann selbst Reviews lesen, da braucht's niemanden der sich für seine Sekte Ergebnisse Cherrypickt und dann Enttäuschung heuchelt.

fondness
2015-07-10, 15:49:17
Allerdings nur bei der Asus. Im Fazit schreibt Ryan, dass die Asus zufällig einfach einen besseren Chip haben könnte.

Oder die ASUS taktet einfach früher runter. So oder so würde ich das nicht als Vorteil ggü. der Sapphire betrachten.

Screemer
2015-07-10, 15:49:48
Warum braucht die asus 30w weniger bei gleicher Leistung und etwa gleichen Temperaturen.

dildo4u
2015-07-10, 15:51:00
Warum braucht die asus 30w weniger bei gleicher Leistung und etwa gleichen Temperaturen.
Weniger Spannung.

http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus/17

maguumo
2015-07-10, 15:51:08
Warum braucht die asus 30w weniger bei gleicher Leistung und etwa gleichen Temperaturen.

Niedrigere anliegende Spannung und das Custom PCB spielt vielleicht auch noch irgendwie rein.

fondness
2015-07-10, 15:52:09
Das sind doch keine Zensurvorderungen. Untergangspriester tragen eben nicht zu einer vernünftigen Diskussion bei. Jeder hier kann selbst Reviews lesen, da braucht's niemanden der sich für seine Sekte Ergebnisse Cherrypickt und dann Enttäuschung heuchelt.

Danke, viel mehr gibt es dazu nicht zu sagen. Vor allem da es immer die eine Person, bzw. neuerdings dank Troyan die zwei selben Personen sind die unbedingt jeden AMD-Thread "heimsuchen" müssen.

raffa
2015-07-10, 15:53:07
Oder die ASUS taktet einfach früher runter. So oder so würde ich das nicht als Vorteil ggü. der Sapphire betrachten.

Das Powerlimit ist niedriger, allerlings hab ich den Crysis Test angehängt, da sie da nicht runtertaktet.

Asus hat ja ein eigenes PCB mit anderer Spannungsversorgung, bissl was kann da also schon drin sein.

dildo4u
2015-07-10, 15:53:41
Der Chip scheint bei 1Ghz deutlich effizenter zu laufen,die 40mhz OC der Sapphire stehen wieder in keinem Verhältniss zum zusätzlichen Verbrauch wie bei der 390X von MSI.

aufkrawall
2015-07-10, 15:53:51
Das sind doch keine Zensurvorderungen. Untergangspriester tragen eben nicht zu einer vernünftigen Diskussion bei. Jeder hier kann selbst Reviews lesen, da braucht's niemanden der sich für seine Sekte Ergebnisse Cherrypickt und dann Enttäuschung heuchelt.
Meine Güte, wo soll man sonst Reviews disktutieren, wenn nicht in den (P)Review-Threads?
Hier wollen einige einfach nicht, dass AMD Dresche bekommt. Das ist eine Zensurforderung, sonst nichts.

Ex3cut3r
2015-07-10, 15:55:19
Was erwartest du von Leuten die AMD als Avatar haben? *SCNR*

maguumo
2015-07-10, 16:00:54
Meine Güte, wo soll man sonst Reviews disktutieren, wenn nicht in den (P)Review-Threads?
Hier wollen einige einfach nicht, dass AMD Dresche bekommt. Das ist eine Zensurforderung, sonst nichts.
"Reviews diskutieren" und "ich suche mir die Ergebnisse mit der größten Differenz um noch mal richtig einen rein zu drücken" sind zwei paar Schuhe. Dresche bezieht AMD bei der Performance/dem Preis (und wenn man mal technisch betrachtet was sie da auffahren)schon genug, keine Sorge.

aufkrawall
2015-07-10, 16:02:24
Du willst offenbar keine offene Diskussion, das ist Zensur. Völlig egal, wie wohlklingend du es formulierst.

maguumo
2015-07-10, 16:04:09
Du willst offenbar keine offene Diskussion, das ist Zensur. Völlig egal, wie wohlklingend du es formulierst.
Spricht der Penner mit den Pappschild und dem Aluhut im Parlament?

aufkrawall
2015-07-10, 16:05:19
Hab keinen Bock, das hier weiter OT zu führen.

Beschwert euch bei den Mods, anstatt hier lauter Zensurforderungen reinzuspammen.

Sven77
2015-07-10, 16:05:34
Ziemlich unspannend... und der aufgerufene Preis ist :ugly:. Dank Paperlaunch dürfte sich da auch eine Weile nichts tun

y33H@
2015-07-10, 16:09:14
Beschwerden wie gesagt an fauleschweine@dhl.de.SIE! IST! DA! :eek: :biggrin:

Ravenhearth
2015-07-10, 16:10:01
Mal was technisches: Interessant finde ich, dass die Fury bspw bei der PCGH im Mittel nur 8,2% auf die Fury X verliert, obwohl sie 50 MHz niedriger taktet. Taktnormiert verliert sie bei 12,5% weniger Shader- und Texturleistung nur 3,6%! AMD wäre wohl kaum schlechter gefahren, hätten sie dem Fiji-Chip nur 56 CUs verpasst.

Edit: Wäre dann nicht sogar Platz für ein GDDR5-Interface anstelle von HBM gewesen? Ein hypothetisches 512 Bit-Interface mit 3.000 MHz (384 GB/s) sollte auch ausreichend sein, bräuchte aber wohl etwas mehr Strom. Dennoch, damit wären auch 8GB möglich.

r3ptil3
2015-07-10, 16:12:04
Verfügbarkeit der Fury soll noch schlechter als bei FuryX sein - toll.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36014-amd-zeigt-die-radeon-r9-fury-alle-technischen-details.html

Wieso habe ich mir bloss einen Freesync-Monitor zugelegt.

aufkrawall
2015-07-10, 16:13:49
Mal was technisches: Interessant finde ich, dass die Fury bspw bei der PCGH im Mittel nur 8,2% auf die Fury X verliert, obwohl sie 50 MHz niedriger taktet. Taktnormiert verliert sie bei 12,5% weniger Shader- und Texturleistung nur 3,6%! AMD wäre wohl kaum schlechter gefahren, hätten sie dem Fiji-Chip nur 56 CUs verpasst.
Ich verstehe dieses Konzept auch nicht.
Das bringt bei Compute was, aber die GPU hat durch 16nm keine hohe Lebensdauer, sodass sich das in Spielen wohl überhaupt nicht auszahlen wird, und für HPC taugt die Karte wenig.
imho ein Fehldesign.

M4xw0lf
2015-07-10, 16:15:56
Mal was technisches: Interessant finde ich, dass die Fury bspw bei der PCGH im Mittel nur 8,2% auf die Fury X verliert, obwohl sie 50 MHz niedriger taktet. Taktnormiert verliert sie bei 12,5% weniger Shader- und Texturleistung nur 3,6%! AMD wäre wohl kaum schlechter gefahren, hätten sie dem Fiji-Chip nur 56 CUs verpasst.

Edit: Wäre dann nicht sogar Platz für ein GDDR5-Interface anstelle von HBM gewesen? Ein hypothetisches 512 Bit-Interface mit 3.000 MHz (384 GB/s) sollte auch ausreichend sein, bräuchte aber wohl etwas mehr Strom. Dennoch, damit wären auch 8GB möglich.
Ich verstehe dieses Konzept auch nicht.
Das bringt bei Compute was, aber die GPU hat durch 16nm keine hohe Lebensdauer, sodass sich das in Spielen wohl überhaupt nicht auszahlen wird, und für HPC taugt die Karte wenig.
imho ein Fehldesign.

Hätten sie lieber mal Tonga komplett verdoppelt. /broken record

aufkrawall
2015-07-10, 16:16:43
Mehr fällt mir dazu auch nicht ein, AnarchX sieht es auch so. :freak:

(del)
2015-07-10, 16:16:57
Das ist allerdings mehr ein psychologischer Aspekt, die Dinger sind bis 150°C gespect

Ich habs ja per Video festgehalten. Die Abwärme der VRM wandert über die sehr kompakte Platine relativ schnell bis unter die GPU. Die Platine heizt nach einer Weile die GPU auf! Ich habe unterhalb der CPU locker um die 90°C. das erklärt dann auch, warum der Lüfter nach 30 Minuten im Case noch einmal hochdreht. Warum das keiner bei der Konstruktion beachtet, ist mir echt ein Rätsel... :(

fondness
2015-07-10, 16:19:45
Hätten sie lieber mal Tonga komplett verdoppelt. /broken record

Das war schlicht nicht möglich wegen Die-Size-Limit, wäre aber natürlich besser gewesen keine Frage.

Ravenhearth
2015-07-10, 16:21:17
Hätten sie lieber mal Tonga komplett verdoppelt. /broken record

Das geht weder von der Chipfläche noch von der Architektur. Mehr als 600mm² sind nicht drin, und mehr als 4 Shader-Engines unterstützt GCN aktuell auch nicht. :usad: Aber ein verdoppelter Tonga (folglich mit verbesserter Architektur) wäre ein netter Chip in 14nm.

Exxtreme
2015-07-10, 16:22:04
Mal was technisches: Interessant finde ich, dass die Fury bspw bei der PCGH im Mittel nur 8,2% auf die Fury X verliert, obwohl sie 50 MHz niedriger taktet. Taktnormiert verliert sie bei 12,5% weniger Shader- und Texturleistung nur 3,6%! AMD wäre wohl kaum schlechter gefahren, hätten sie dem Fiji-Chip nur 56 CUs verpasst.

Im GPU-Limit wird sie wahrscheinlich mehr verlieren. Erst in größeren Auflösungen und höheren AA-Modi verkleinert sich der Abstand. Weil hier der RAM anfängt der Flaschenhals zu sein und die zusätzlichen Rechenwerke der Fury X drehen Däumchen. Dürfte auch der Grund sein für die 3,5 GB der GTX970. Ein nicht gegimptes Speicherinterface hätte dafür gesorgt, dass diese der GTX 980 viel zu nahe gekommen wäre in hohen Auflösungen und hohen AA-Modi.

Ravenhearth
2015-07-10, 16:27:34
Im GPU-Limit wird sie wahrscheinlich mehr verlieren. Erst in größeren Auflösungen und höheren AA-Modi verkleinert sich der Abstand. Weil hier der RAM anfängt der Flaschenhals zu sein und die zusätzlichen Rechenwerke der Fury X drehen Däumchen. Dürfte auch der Grund sein für die 3,5 GB der GTX970. Ein nicht gegimptes Speicherinterface hätte dafür gesorgt, dass diese der GTX 980 viel zu nahe gekommen wäre in hohen Auflösungen und hohen AA-Modi.

Eher ist es so, dass sich der Abstand in höheren Auflösungen vergrößert, weil nur dann die zusätzlichen Rechenwerke der Fury X ausgelastet werden können. Die Speicherbandbreite dürfte dank HBM eher weniger limitieren.

aufkrawall
2015-07-10, 16:33:44
Eher ist es so, dass sich der Abstand in höheren Auflösungen vergrößert, weil nur dann die zusätzlichen Rechenwerke der Fury X ausgelastet werden können. Die Speicherbandbreite dürfte dank HBM eher weniger limitieren.
Genau die soll bei der X ja limitieren. "Versehentlich" freigeschalteter HBM-OC deutet stark in diese Richtung.

dildo4u
2015-07-10, 16:36:14
Hoffe PCPer bringt bald mher Test's mit Frametimes.

http://i.imgur.com/nt3VaDL.png

Nightspider
2015-07-10, 16:37:18
SIE! IST! DA! :eek: :biggrin:

Mach doch einen Livetest mit vor der Kamera und stream es. ^^

M4xw0lf
2015-07-10, 16:37:25
Das war schlicht nicht möglich wegen Die-Size-Limit, wäre aber natürlich besser gewesen keine Frage.
Das geht weder von der Chipfläche noch von der Architektur. Mehr als 600mm² sind nicht drin, und mehr als 4 Shader-Engines unterstützt GCN aktuell auch nicht. :usad: Aber ein verdoppelter Tonga (folglich mit verbesserter Architektur) wäre ein netter Chip in 14nm.
Mit nur 3584 SPs + doppeltem Frontend und dazu HBM statt GDDR5-Interface glaube ich nicht unbedingt, dass die Größe überschritten worden wäre, wenn man Tongas ~360 mm² als Basis nimmt.

fondness
2015-07-10, 16:39:14
Hoffe PCPer bringt bald mher Test's mit Frametimes.

http://i.imgur.com/nt3VaDL.png

Ja hoffe ich auch...

http://s16.postimg.org/exb0zredx/75659.png (http://postimage.org/)


\trollmode

Wiseman
2015-07-10, 16:46:30
Anandtech:

To put that in perspective, the Sapphire Tri-X under a gaming workload is as loud as the GTX 980 Ti is at idle.

ComputerBase:

Idle: lautlos

Last: atemberaubend leise

Amazing. Wunderbar. Auf so eine leise Karte habe ich gewartet. Ein paar Wochen warten, bis sich die Launchpreise abkühlen, und dann wird die Sapphire R9 Fury meine Sapphire R9 290 ablösen. Die Mehrleistung gegenüber der R9 290 von 25% bis 30% in meiner bevorzugten Spiele-Auflösung von 2560x1600 ist auch nicht zu verachten.

Ob 4 GB Speicher zukunftssicher sind oder nicht, darüber zerbrech ich mir in diesem Jahr nicht den Kopf. Einen guten 32" 4k-Monitor leg ich mir erst nächstes Jahr zu und außerdem werden nächstes Jahr die "Karten" eh neu gemischt (16nm-Generation, 8 GB Speicher).

maguumo
2015-07-10, 16:47:58
Mit nur 3584 SPs + doppeltem Frontend und dazu HBM statt GDDR5-Interface glaube ich nicht unbedingt, dass die Größe überschritten worden wäre, wenn man Tongas ~360 mm² als Basis nimmt.

Vielleicht plant AMD auch einfach mit irgendwas mit dem wir momentan nicht wirklich rechnen? Vielleicht wird der ganze VR Krams einfach deutlich Shaderlastiger, das scheinen sie ja auch ziemlich zu pushen. Für die momentan gängigen Auflösunge und Games scheint der Chip einfach unbalanciert, das stimmt...

Genau die soll bei der X ja limitieren. "Versehentlich" freigeschalteter HBM-OC deutet stark in diese Richtung.

Oder irgendwas anderes das in der gleichen Clockdomain hängt. Vielleicht wissen wir nach den Hotchips Vorträgen mehr... Eventuell war das ganze SI ja tatsächlich auf HBM mit höherer Frequenz ausgelegt...

Ravenhearth
2015-07-10, 16:50:11
Genau die soll bei der X ja limitieren. "Versehentlich" freigeschalteter HBM-OC deutet stark in diese Richtung.


Ich glaube eher, dass da was ganz anderes übertaktet wird, sollte der Speichertakt tatsächlich fest sein. Zumal die Bandbreite locker ausreichen sollte. Angesichts von 60% mehr Bandbreite + DCC gegenüber der 290X dürfte das nicht limitieren. Synthetische Tests deuten auch darauf hin, dass 2/3 der Bandbreite ankommen, genauso wie bei Hawaii oder GM200.

aufkrawall
2015-07-10, 16:55:52
Was soll sich sonst entsprechend auf die per OpenCL-Benchmark ermittelte Bandbreite auswirken?

maguumo
2015-07-10, 16:55:53
Ich glaube eher, dass da was ganz anderes übertaktet wird, sollte der Speichertakt tatsächlich fest sein. Zumal die Bandbreite locker ausreichen sollte. Angesichts von 60% mehr Bandbreite + DCC gegenüber der 290X dürfte das nicht limitieren. Synthetische Tests deuten auch darauf hin, dass 2/3 der Bandbreite ankommen, genauso wie bei Hawaii oder GM200.
So wie ich das in Erinnerung habe kommt bei den Synthies bei Hawaii und gerade Maxwellv2 deutlich mehr von der theoretischen maximalen Bandbreite an als bei Fiji. Und bei Fiji geht die Bandbreite definitiv hoch wenn man den VRAM übertaktet, bezweile das der Takt da fest ist...

StefanV
2015-07-10, 16:59:31
Interessanter ist hier wohl eher, dass die Fury mehr verbraucht als die Fury X.
Au mann.
Fällt dir sonst nichts besseres ein?!


Es sollte eigentlich jeder halbwegs interessierte Nutzer wissen., dass sich die Leistungsaufnahme zwischen zwei gleichen Karten recht deutlich unterscheiden kann. Und das schon seit einiger Zeit.

Warum du diesen Zustand jetzt ausgräbst, weißt du wohl nicht mal selbst. Zumal das ja auch nVidia Produkte gleichermaßen betrifft (oh wait, stimmt ja nicht, dort wird schlicht weniger geboostet)...

Aber wenn dich die Fury eh nicht interessiert, dann bleib weg und versuch nicht krampfhaft das Ding schlecht zu machen...
An deinem Posting sehe ich, dass dir wohl nichts besseres eingefallen ist, um die Karte schlecht zu reden...

Ravenhearth
2015-07-10, 17:02:02
So wie ich das in Erinnerung habe kommt bei den Synthies bei Hawaii und gerade Maxwellv2 deutlich mehr von der theoretischen maximalen Bandbreite an als bei Fiji.

Nein, Hawaii und GM200 liegen im "random image"-Test bei rund 220 GB/s, Fiji bei 330 GB/s. Kann auch etwas mehr/weniger sein, aber kommt ungefähr hin. Der andere Test mit dem schwarzen Bild ist nicht sehr praxisrelevant, da hier die Kompression von Maxwell voll durchschlägt, während Hawaii sich gar nicht und Fiji nur ein bisschen steigert, aber in Spielen hat man halt kein komplett schwarzes Bild.

r3ptil3
2015-07-10, 17:03:03
Au mann.
Fällt dir sonst nichts besseres ein?!


Es sollte eigentlich jeder halbwegs interessierte Nutzer wissen., dass sich die Leistungsaufnahme zwischen zwei gleichen Karten recht deutlich unterscheiden kann. Und das schon seit einiger Zeit.

Warum du diesen Zustand jetzt ausgräbst, weißt du wohl nicht mal selbst. Zumal das ja auch nVidia Produkte gleichermaßen betrifft (oh wait, stimmt ja nicht, dort wird schlicht weniger geboostet)...

Aber wenn dich die Fury eh nicht interessiert, dann bleib weg und versuch nicht krampfhaft das Ding schlecht zu machen...
An deinem Posting sehe ich, dass dir wohl nichts besseres eingefallen ist, um die Karte schlecht zu reden...

Nur so nebenbei, ich warte immer noch auf meine bestellte FuryX.

Ich wollte damit eher auf die Kühlung anspielen, dass das wohl auch einiges ausmacht. Vielleicht erinnerst du dich noch zu Beginn an die R9 290.. Spannung und so. Beruhige dich wieder, ist alles ok.

aufkrawall
2015-07-10, 17:07:03
Nein, Hawaii und GM200 liegen im "random image"-Test bei rund 220 GB/s, Fiji bei 330 GB/s. Kann auch etwas mehr/weniger sein, aber kommt ungefähr hin. Der andere Test mit dem schwarzen Bild ist nicht sehr praxisrelevant, da hier die Kompression von Maxwell voll durchschlägt, während Hawaii sich gar nicht und Fiji nur ein bisschen steigert, aber in Spielen hat man halt kein komplett schwarzes Bild.
Wirklich repräsentativ ist random texture aber auch nicht, dafür liegen 780 Ti und Titan X zu nah beisammen.

Troyan
2015-07-10, 17:11:35
Mit nur 3584 SPs + doppeltem Frontend und dazu HBM statt GDDR5-Interface glaube ich nicht unbedingt, dass die Größe überschritten worden wäre, wenn man Tongas ~360 mm² als Basis nimmt.

Anandtech review der Fury X lesen:
4 Engines und 64 ROPs sind das Maximum von GCN 1.x. Möchte man eine breitere Architektur haben, müsste man das Front-End komplett überarbeiten. Wäre für Fiji sinnlos gewesen, da der Nachfolger in ca. 12 Monaten erscheint.

Also hat man eben so viele Computeunits in den Chip gequetscht bis man an das Fertigungslimit gestoßen ist.

Kartenlehrling
2015-07-10, 17:14:01
Gibt es Fotos von der Asus Fury?
Da sind die Spannungwandler zwar schöner aufgeräumt,
aber zwei wurden vorne trotzdem alleine gesetzt.

30w weniger gegenüber der sapphire(Ref.) ist aber schon eine Hausnummer für nur 2fps weniger.

http://www.hardocp.com/images/articles/1436520543zZMsl7GpwE_1_7_l.gif
http://www.hardocp.com/images/articles/1436520543zZMsl7GpwE_1_9_l.gif

http://images.anandtech.com/graphs/graph9421/75693.png

Wake
2015-07-10, 17:24:34
Scheint eine gute Karte zu sein, aber imo gibt es 2 einfache Möglichkeiten für Nvidia das zu kontern (sofern sie denn wollen) - MSRP etwas runter bei der 980 und/oder den Partnern eine 8GB 980-custom erlauben.

Frage mich auch was die Exklusivpartner von AMD davon halten (gut - anscheinend wollen ja manche nicht aus eigenem Willen auf den Fury-Zug aufspringen), aber AMD wird es sich wohl nicht mit ASUS verscherzen wollen.

y33H@
2015-07-10, 17:33:44
Mach doch einen Livetest mit vor der Kamera und stream es. ^^:ulove: :ulove: :ulove:

52521

aufkrawall
2015-07-10, 17:37:44
Wär lustig, wenn man den überstehenden Teil in verschiedene Richtungen klappen könnte. :D

Unicous
2015-07-10, 17:40:59
Sau Ti?:confused:

Sollte da nicht eher Sau-ry stehen?:cool:

Wake
2015-07-10, 17:47:10
Sau Ti?:confused:

Sollte da nicht eher Sau-ry stehen?:cool:

Jetzt bei Golem (http://www.golem.de/specials/autor-marc-sauter/), früher bei PCGH und haben ja das Review-sample von denen bekommen?

Unicous
2015-07-10, 17:50:33
:confused:

Loeschzwerg
2015-07-10, 17:52:25
Ein Insider zwischen y33H@ und Raff ;) PCGHler kennen den.

Unicous
2015-07-10, 17:53:49
Muss ich meinen joke wirklich erklären.:(

DrFreaK666
2015-07-10, 17:55:13
Ich hoffe die preise pendeln sich bei 550€ ein.
Und @AMD: Ich will 4k@1440p-VSR :)

Flusher
2015-07-10, 17:58:09
Jetzt die Frage aller Fragen: lohnt ein Upgrade von HawaiiPro zu FijiPro?

Bei dem aktuellen Preis wohl nicht.

Loeschzwerg
2015-07-10, 17:59:59
Muss ich meinen joke wirklich erklären.:(

Ja weißt, so schlechte Jokes ziehen bei mir einfach nicht :freak: Das kannst dann besser bleiben lassen.

Unicous
2015-07-10, 18:02:17
Pff. Nö. Ich finde mich lustig.:ufinger:

Ravenhearth
2015-07-10, 18:05:01
Jetzt die Frage aller Fragen: lohnt ein Upgrade von HawaiiPro zu FijiPro?

Bei dem aktuellen Preis wohl nicht.

Das Ding dürfte gut 40% schneller als eine 290 sein, abhängig von der Auflösung mal mehr oder weniger. Aber für 600€ imho nicht attraktiv genug.

Effe
2015-07-10, 18:17:07
Muss ich meinen joke wirklich erklären.:(
Ja, das sollte im Internet Usus werden, seine Witze noch nebenher zu erklären, gekoppelt mit einer Satiresirene. Viele Menschen sind zB. mit "Der Postillon (http://www.der-postillon.com/)" heillos überfordert.

Ex3cut3r
2015-07-10, 18:55:34
Das Ding dürfte gut 40% schneller als eine 290 sein, abhängig von der Auflösung mal mehr oder weniger. Aber für 600€ imho nicht attraktiv genug.

Warum müssen wir eigentlich diese Bonzen Preise zahlen, 28nm musste doch Billig sein in der Herstellung?

Ab 500-550€ wäre die Fury ein Überlegung wert, auch wenn AMD dann nichts verdient, die Leistung ist auf 980 Niveau, also müsste sich die Preis dort früher oder später einpendeln.

Captain Future
2015-07-10, 19:01:46
Warum müssen wir eigentlich diese Bonzen Preise zahlen, 28nm musste doch Billig sein in der Herstellung?

Ab 500-550€ wäre die Fury ein Überlegung wert, auch wenn AMD dann nichts verdient, die Leistung ist auf 980 Niveau, also müsste sich die Preis dort früher oder später einpendeln.
Na weil NVIDIA so geldgeil ist und alle immer nur ausnehmen mag. War so, ist so, bleibt so.

Ach, mom. Ist ja gar nicht NV, sondern AMD. Komisch.

Topha
2015-07-10, 19:04:33
Jetzt fragt sich wie "gut" diese Karten mit dem TDP Limit skalieren, also ob die Sapphire Karte nicht auch nur Leistung im niedrigen einstelligen Bereich verliert wenn man noch ein paar Dutzend Watt runterdeckelt.

Ich stimme jetzt schonmal für: Guter Eindruck, könnte interessant werden für eine Neuanschaffung :=)

DrFreaK666
2015-07-10, 19:06:16
Na weil NVIDIA so geldgeil ist und alle immer nur ausnehmen mag. War so, ist so, bleibt so.

Ach, mom. Ist ja gar nicht NV, sondern AMD. Komisch.

Was willst du uns damit sagen? Dass du Aufmerksamkeit suchst. Ziel erreicht, jetzt hopp zurück ins Kinderzimmer

Ravenhearth
2015-07-10, 19:10:42
Warum müssen wir eigentlich diese Bonzen Preise zahlen, 28nm musste doch Billig sein in der Herstellung?

Ab 500-550€ wäre die Fury ein Überlegung wert, auch wenn AMD dann nichts verdient, die Leistung ist auf 980 Niveau, also müsste sich die Preis dort früher oder später einpendeln.

Erstens war High-End schon immer überdurchschnittlich teuer, zweitens ist HBM noch extrem teuer.

BlacKi
2015-07-10, 19:25:34
Erstens war High-End schon immer überdurchschnittlich teuer
jaber erfahrungsgemäß war nvidia immer teurer dabei, ich glaub jetzt drehen sie das blatt um! oder fury´s sind einfach liebhaberkarten so wie die titan/Z/X

Menace
2015-07-10, 19:31:36
Warum müssen wir eigentlich diese Bonzen Preise zahlen, 28nm musste doch Billig sein in der Herstellung?


Du musst zahlen? :eek: Bonzenpreise für ein Produkt, welches die meisten nur zum Spielen benutzen und die Spiele funktionieren auch nur mit einer 600+€ Karte? :eek: Wenn das nicht Ausbeutung ist! :freak:

dildo4u
2015-07-10, 19:44:09
Na weil NVIDIA so geldgeil ist und alle immer nur ausnehmen mag. War so, ist so, bleibt so.

Ach, mom. Ist ja gar nicht NV, sondern AMD. Komisch.
Jup wenn man überlegt das Fury Pro,die 290 ersetzt die sich immer um 300€ bewegt hat ist es schon bedenklich in welche Richtung sich das bewegt.
780TI und 290 waren locker 300€ auseinander.http://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/

Bei Fury Pro und 980 TI sind's vermutlich um 100€.Dazu kommt noch das NV diesmal im Gegensatz zu früher auch noch mher Vram hat.

Kartenlehrling
2015-07-10, 19:54:59
Ja nee,
es ist wieder soweit das sich die Nvidia Käufer beschweren das die AMD Karten zuteuer und schlecht sind um wirklich Druck auf die Preise von Nvidia auszuüben.

Ex3cut3r
2015-07-10, 19:56:57
Erstens war High-End schon immer überdurchschnittlich teuer, zweitens ist HBM noch extrem teuer.

Nicht mein Problem, wenn AMD auf HBM setzt, ja ich weiß mit GDDR5 wäre die Fury nicht möglich gewesen, dann sollen die Inder bei denen halt, eine Moderne und leistungsfähige Architektur bauen, Nvidia kriegt es seit Kepler ja auch hin.

Wehe die Fury wird in 2 Wochen nicht angepasst im Preis, dann sind die bei mir unten durch.

Sry, wenn ich hier etwas aus der Fassung gerate, bin irgendwie leicht aggressiv heute :freak:

MartinRiggs
2015-07-10, 20:12:27
Für mich haben beide IHVs langsam nen Schaden, Nvidia verkauft nen kleinen Gammelchip für ein Schweinegeld und große Chips für noch viel mehr Geld und AMD legt den HBM-Stunt hin und kann vermutlich kaum günstiger verkaufen, die dummen sind die Käufer.

Ich hatte kurzzeitig sogar an der Titan X rumüberlegt, aber je länger ich drüber nachdenke desto mehr können mich die Hersteller mal.:P
Vernünftige Preis/Leistungskarten sind nicht in Sicht.

Leider sieht man es in jedem Thread wieder, beide Fanseiten bashen sich gegenseitig was das Zeug hält, bloss peilt kaum einer das wir, die Gamer alle die Verlierer sind, egal ob man ne AMD oder NV-Karte kauft:uclap:

Menace
2015-07-10, 20:13:52
Wehe die Fury wird in 2 Wochen nicht angepasst im Preis, dann sind die bei mir unten durch.


Was für eine Drohung. :freak: Dieser Thread macht vor allem bzgl. der Kritik gegenüber AMD/Fury Spaß zu lesen. Wenn die typischen "Member" hier so nervös werden, hat AMD vielleicht doch nicht so viel falsch gemacht. :biggrin:

Topha
2015-07-10, 20:22:30
Ich finde das gar nicht so blöd was AMD da macht. Wird zwar eine weile dauern bis (falls) sie den Ruf des Billiganbieters los werden, aber irgendwann muss man ja mal anfange.

Wenn AMD die Fury Karten 150-200€ billiger gemacht hätte, dann hätten doch eh 80% der Käufer drauf gewartet das nVidia reagiert. So ändert sich zwar erstmal nichts an der Gesamtpreislage, aber es wird sich eventuell ein Preiskampf entwickeln bei denen sich die beiden graduierlich nach unten kämpfen, also im 10-20€ Bereich anstatt dem zehnfachen davon.

Ist auf jeden fall für AMD gesünder. HD4xxx und HD5xxx hats denen auch nicht viel gebracht unverschämt günstig zu sein, außer dass die HD5xxxer Serie wohl mit die längste Lebensdauer seit der ersten Voodoo Karte hatte, weil sich da dank FullHD Stillstand lange nichts wirklich von abgesetzt hat (Die HD5850 kostet bei eBay immer noch >50€, für eine 6 Jahre alte Karte nicht übel).

Und falls AMD in den nächsten 1-2 Jahren mit 14nm und Zen wieder etwas profitabler wird (es reicht ja schon wenn sie mal für ein paar Quartale eine schwarze Null erreichen können), dann kann sich da auch wieder ein gesunder Konkurrenzkampf entwickeln. Vielleicht können sie sich dann ja auch besseres Marketing leisten :weg:

Unicous
2015-07-10, 20:25:21
Wenn, dann hat Sapphire wenig falsch gemacht. Denn das Ding ist echt ne Wucht. Also einerseits von den Ausmaßen:freak:, andererseits die Tatsache dass sie es schaffen die 275+ Watt fast flüsterleise:wink: abzuführen.

Der Preis ist hingegen zu hoch. Das ist momentan nun mal eine schlichte Tatsache.

aufkrawall
2015-07-10, 20:31:00
Das Statement von Igor zu den VRM-Temps ist dir bekannt?

Unicous
2015-07-10, 20:42:12
Nö, kannte ich nicht. Ändert aber nichts an der Tatsache, dass Kühllösung an sich überragend designed ist. Ist das PCB custom (habe ich auf die Schnelle nicht herausgefunden)? Wenn nicht, dann liegt da wohl der Hund begraben.

Ich zitiere auch mal das Fazit:

Pro: beeindruckend effiziente Kühllösung; Backplate dabei; leiser Lüfter; sehr gute Prrformance für WQHD-Gaming

Ich weiß zwar nicht was Prrformance ist (vllt. Wiener Schmäh für Leistung:wink:) aber sonst stimme ich da zu. Dass die VRMs über das PCB das Package anheizen zu scheinen schmälert ja nicht die Leistung der Kühllösung.

uweskw
2015-07-10, 20:57:24
Warum müssen wir eigentlich diese Bonzen Preise zahlen, 28nm musste doch Billig sein in der Herstellung?

....


Weil NV durch sein geniales Marketing und seine dadurch entstandene Gefolgschaft es geschafft hat seinen Mitanbieter quasi in die wirtschaftliche Bedeutungslosigkeit zu spammen.
Und das obwohl (siehe Kaufempfehlungen auf der main:freak:) AMD durchaus konkurenzfähige Produkte anbietet.
Mich ärgert halt immens, dass einige Leute die sich wirklich auskennen und es besser wissen, sich an diesem Treiben beteiligen.

greetz
US

dildo4u
2015-07-10, 21:00:23
Auch lustig das AMD NV jetzt komplett kopiert was die SKU's angeht den vollen Chip bekommt man nur mit AMD's Kühlung,beim beschnittenen dürfen die Kartenhersteller machen was sie wollen.Noch ein Rückschritt zur 290X.

uweskw
2015-07-10, 21:06:46
...... dann sollen die Inder bei denen halt, eine Moderne und leistungsfähige Architektur bauen, Nvidia kriegt es seit Kepler ja auch hin.....

......


Naja, von der Leistung pro Takt liegt AMD nun mal klar vorn. Takte mal eine 980/980Ti mit 1050MHz..... Das ist echtes know-how und Ingenieursleistung.
Mich würde mal interessieren wieviel an Stromverbrauchseffizienz durch schlechte Prozesse bei den Chip-Fertigern verdummt wird? Kann das jemand abschätzen?

greetz
US

dildo4u
2015-07-10, 21:13:26
Warum macht die 390X eigentlich so ein Radau?Der Kühler sieht vergleichbar mächtig wie bei der Fury aus.

http://www.computerbase.de/videos/2015-07/sapphire-radeon-r9-fury-tri-x-oc-lautstaerke/

gedi
2015-07-10, 21:15:54
Hier (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36032-asus-radeon-r9-fury-strix-im-test.html) hat die Asus erstaunlich gut abgeschnitten. Kann es wirklich sein, dass Asus mal einen Kühler in den Griff bekommen hat?! Eigentlich eine gute Karte für 1440/1620p. Leider zu teuer ...

Ravenhearth
2015-07-10, 21:22:21
Naja, von der Leistung pro Takt liegt AMD nun mal klar vorn. Takte mal eine 980/980Ti mit 1050MHz..... Das ist echtes know-how und Ingenieursleistung.
Mich würde mal interessieren wieviel an Stromverbrauchseffizienz durch schlechte Prozesse bei den Chip-Fertigern verdummt wird? Kann das jemand abschätzen?

greetz
US

Was redest du? 1. Hat Fiji 33% mehr Recheneinheiten als GM200 - so viel zu Leistung pro Takt, 2. taktet eine Titan X durchschnittlich auch nur mit 1064 MHz laut CB, 3. Was soll durch schlechte Prozesse "verdummt" werden?! Die Prozesse sind nunmal so wie sie sind. Wenn sie besser wären, wären sie halt besser.

Screemer
2015-07-10, 21:24:29
Auch lustig das AMD NV jetzt komplett kopiert was die SKU's angeht den vollen Chip bekommt man nur mit AMD's Kühlung,beim beschnittenen dürfen die Kartenhersteller machen was sie wollen.Noch ein Rückschritt zur 290X.
nano wirds also nur mit amd-kühler geben, ist das so?

Schnoesel
2015-07-10, 21:44:04
Ich glaube das ist noch nicht raus.

Digidi
2015-07-10, 21:51:35
FIJI ist ein guter Chip er ist bloß noch nicht richtig bei den Programmieren angekommen. An HBM müssen sich die Entwickler erst noch gewöhnen. Auch die Treiber bedarf es noch weiter Optimierung. Es geht ja in FarCry 4 und Bioschok Infinite.

Meine Glaskugel sagt mir das es wie bei der 290x laufen wird. Am Anfang Pfui am Ende Hui! :freak:;D:freak:

uweskw
2015-07-10, 21:52:59
Was redest du? 1. Hat Fiji 33% mehr Recheneinheiten als GM200 - so viel zu Leistung pro Takt, 2. taktet eine Titan X durchschnittlich auch nur mit 1064 MHz laut CB, 3. Was soll durch schlechte Prozesse "verdummt" werden?! Die Prozesse sind nunmal so wie sie sind. Wenn sie besser wären, wären sie halt besser.

auf gleicher Fläche 33% mehr Recheneinheiten, in DP weit vorn, und mit dem Speicher war doch auch noch was bei Fury....Das ist Ingenieursleistung!
Aber ich hab von der 980/980Ti gesprochen. Warum trollst du da mit TitanX ?

"Prozesse sind wie sie sind"?? Ist dir aufgefallen, dass es sich um unterschiedliche Chip-Fertiger handelt?
Aber ich hätte schon gerne eine Antwort, ob durch Prozessoptimierung bei den Chipfertigern nicht doch die Verbrauchs-Effizienz von Fiji gsteigert werden kann.

Flusher
2015-07-10, 21:54:53
Das Statement von Igor zu den VRM-Temps ist dir bekannt?

Welches denn? Dass sie sauheiß werden, aber immer noch völlig unbedenklich heiß?

FIJI ist ein guter Chip er ist bloß noch nicht richtig bei den Programmieren angekommen. An HBM müssen sich die Entwickler erst noch gewöhnen. Auch die Treiber bedarf es noch weiter Optimierung. Es geht ja in FarCry 4 und Bioschok Infinite.

Meine Glaskugel sagt mir das es wie bei der 290x laufen wird. Am Anfang Pfui am Ende Hui! :freak:;D:freak:

Du wiederholst dich - Fiji ist keine Konsole die erst noch "bei den Programmieren ankommen" muss. Da wird keiner ausser AMDs Treiberabteilung eine Extrawurst für Fiji machen. Und ob die Catalyst-Maker fähig dazu sind und genügend Ressourcen haben, aus Fiji mehr rauszuholen, muss sich erst noch zeigen.

Es ist aber immer wieder das selbe: beim Launch verliert die AMD GPU gegen NVIDIA, AMD holt Monate später wieder auf, doch nur die Loser-Tests zum Launch bleiben den Fanboys in Erinnerung und keine Sau interessiert sich für AMD Karten.




"Prozesse sind wie sie sind"?? Ist dir aufgefallen, dass es sich um unterschiedliche Chip-Fertiger handelt?
Aber ich hätte schon gerne eine Antwort, ob durch Prozessoptimierung bei den Chipfertigern nicht doch die Verbrauchs-Effizienz von Fiji gsteigert werden kann.

??

Sowohl Fiji als auch GM200 werden von TSMC gefertigt. Die Frage ob die Effizienz gesteigert werden kann. Guck dir Hawaii --> Grenada an. Da wurde 0,0 W gespart zwischen 290X Referenz und 390X Referenz.

aufkrawall
2015-07-10, 21:59:22
Welches denn? Dass sie sauheiß werden, aber immer noch völlig unbedenklich heiß?
Dass die VRMs nach 30 Minuten übers PCB die GPU heißer werden lassen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10700542&postcount=103
Also ist es nach 30 Minuten ununterbrochenen Vorheizens heißer als etwa nach fünf oder zehn Minuten, was die Tests natürlich nicht zeigen.

Ravenhearth
2015-07-10, 22:03:00
auf gleicher Fläche 33% mehr Recheneinheiten, in DP weit vorn, und mit dem Speicher war doch auch noch was bei Fury....Das ist Ingenieursleistung!
Aber ich hab von der 980/980Ti gesprochen. Warum trollst du da mit TitanX ?

"Prozesse sind wie sie sind"?? Ist dir aufgefallen, dass es sich um unterschiedliche Chip-Fertiger handelt?
Aber ich hätte schon gerne eine Antwort, ob durch Prozessoptimierung bei den Chipfertigern nicht doch die Verbrauchs-Effizienz von Fiji gsteigert werden kann.

Was bringt es, wenn von den 33% mehr nichts übrig bleibt? Und ich ziehe die TX heran, weil das ein voller Chip ist.

Wieso unterschiedliche Fertiger?! Das ist beides TSMC.

BlacKi
2015-07-10, 22:06:28
Warum macht die 390X eigentlich so ein Radau?Der Kühler sieht vergleichbar mächtig wie bei der Fury aus.

http://www.computerbase.de/videos/2015-07/sapphire-radeon-r9-fury-tri-x-oc-lautstaerke/
gute frage, die einfachste erklärung wäre wohl das lüfterprofil.

Screemer
2015-07-10, 22:09:56
"Prozesse sind wie sie sind"?? Ist dir aufgefallen, dass es sich um unterschiedliche Chip-Fertiger handelt?

ähh what? ich dachte fiji fällt auch bei tsmc vom band? umc macht nur den interposer. das assambling auf dem interposer mit den hbm-stacks und das aufbringen auf dem träger macht glaub ich amkor, wenn ich richtig liege.

Disco_STFU
2015-07-10, 22:10:05
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36032-asus-radeon-r9-fury-strix-im-test.html?start=6

Da kommt die Asus sehr gut weg. Auch was den Stromverbrauch angeht. :)

Menace
2015-07-10, 22:17:27
Liegt es daran, dass es kein Referenz-Design ist, dass Fury so gut abschneidet? Ich habe schon immer den Eindruck mit diesem Referenz-Design tut sich AMD kein Gefallen.

Ich hoffe, dass die Nano auch gleich in Custom-Versionen kommt.

BlacKi
2015-07-10, 22:21:10
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36032-asus-radeon-r9-fury-strix-im-test.html?start=6

Da kommt die Asus sehr gut weg. Auch was den Stromverbrauch angeht. :)
den verbrauchstest kannste in die tonne treten, 4w differenz zwischen 980 und 980ti, rly???

gedi
2015-07-10, 22:35:11
gute frage, die einfachste erklärung wäre wohl das lüfterprofil.

Nö - die Lüfter seitens Sapphire und ASUS sind Fury-exklusiv

BlacKi
2015-07-10, 22:37:43
stimmt, die lüfter sehen komplett anders aus.

Schaffe89
2015-07-10, 22:46:28
Ich habs ja per Video festgehalten. Die Abwärme der VRM wandert über die sehr kompakte Platine relativ schnell bis unter die GPU. Die Platine heizt nach einer Weile die GPU auf! Ich habe unterhalb der CPU locker um die 90°C. das erklärt dann auch, warum der Lüfter nach 30 Minuten im Case noch einmal hochdreht. Warum das keiner bei der Konstruktion beachtet, ist mir echt ein Rätsel... :(

Seit jeher werden die Spannungswandler in diesen Bereichen gemessen, das war schon zu HD 48xx und bei vergleichbaren Geforce Karten der Fall.
Die Leute die diese GPU´s designen wissen ganz genau wieviel Grad diese Teile haben dürfen.
Es ist doch ein alter Hut, jedes mal immerwieder den Zeigefinger dazu zu erheben, die Bauteile halten das locker aus.

Schaffe89
2015-07-10, 22:54:01
Auch lustig das AMD NV jetzt komplett kopiert was die SKU's angeht den vollen Chip bekommt man nur mit AMD's Kühlung,beim beschnittenen dürfen die Kartenhersteller machen was sie wollen.Noch ein Rückschritt zur 290X.


Was ist eigentlich mit dir und TRoyan los?
Es ist doch jetzt schon fast Tradition, dass ihr mit einseitigem Trolling in jeden AMD Preview Thread kommt und euch erstmal ausnahmslos an den negativen Aspekten der Karte hochzieht.
Ein Bild der Karte zitiert, dass diese nicht verdient hat.

Ihr könntest ja auch mal zur Kenntnis nehmen, dass die Karte in WHQD 10%, in 4K 18% vor einer GTX 980 liegt und das Sapphire OC design dann 13%, respektive 22% in 4K. Gemessen bei nem sehr fairen CB Parcour.

HInzukommt das geringe, aber existierende OC Potenzial bei der Fury ( was vor allem den HBM angeht, den ja keiner übertakten will, oder eben diese Taktdomäne die funktioniert) da kommen also mit ~1100/550 gut und gerne 6/7& drauf. DAs heißt für mich WHQD @ max. ca 20% 4K @ max ca 30%.

Aber du kannst das gerne mit ner GTX 980 @ 1500 mhz heraustakten, ist doch völlig ok, aber sich dann beschweren, der Preis sei für die Leistung zu hoch.

Bei Toms Hardware schneidet die Karte im übrigen noch besser ab.

Jup wenn man überlegt das Fury Pro,die 290 ersetzt die sich immer um 300€ bewegt hat ist es schon bedenklich in welche Richtung sich das bewegt.
780TI und 290 waren locker 300€ auseinander.

Waren immer um 300 Euro auseinander, die 780 Ti bot nur 3GB statt 4GB und liegt mittlerweile nurnoch auf dem Niveau einer 1000mhz r9 290, vielleicht ist das auch stückweit der Grund?
IM CB Test ist die 780 Ti extrem langsam, aus welchen Gründen auch immer.

Auf dem Papier hat die Radeon R9 Fury durch ihre Beschneidungen in der "Fiji"-GPU einen Rückstand von etwa 13 Prozent auf die Radeon R9 Fury X. In den Benchmarks stellt sich der Rückstand aber mit gerade einmal 7 bis 9 Prozent ein. Damit lässt man auch den direkten Konkurrenten, die GeForce GTX 980 in den meisten Benchmarks weit hinter sich

Wieso soll ich eine GTX 980 kaufen, wenn ich diese stramm ocen muss um an eine Fijii Pro heranzukommen?
Hardwareluxx misst dazu nur 20 Watt mehr Strom unter Last. Das wird sicherlich Limitierungen durch die Auflösung und CPU geschuldet sein, allerdings ist Performance der Karte trotzdem höher.
Insofern sehe ich den Mehrverbrauch nach Toms Hardware, PCGH, Computerbase, Hardware.fr etc.. bei etwa 80 Watt mehr, kein Beinbruch bei eindeutig mehr Leistung und super Kühlsysteme der Strix und Sapphire Trix OC.

Schaffe89
2015-07-10, 22:55:42
Bitte löschen

Thomas Gräf
2015-07-10, 23:02:47
Dass die VRMs nach 30 Minuten übers PCB die GPU heißer werden lassen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10700542&postcount=103
Also ist es nach 30 Minuten ununterbrochenen Vorheizens heißer als etwa nach fünf oder zehn Minuten, was die Tests natürlich nicht zeigen.

Und wieder diese VRM's. Gibt es schon Erkenntnis darüber ob ASUS mit ihrem
eigenen PCB Design da ohne Problem sind?

Troyan
2015-07-10, 23:14:41
Was ist eigentlich mit dir und TRoyan los?
Es ist doch jetzt schon fast Tradition, dass ihr mit einseitigem Trolling in jeden AMD Preview Thread kommt und euch erstmal ausnahmslos an den negativen Aspekten der Karte hochzieht.
Ein Bild der Karte zitiert, dass diese nicht verdient hat.

Ihr könntest ja auch mal zur Kenntnis nehmen, dass die Karte in WHQD 10%, in 4K 18% vor einer GTX 980 liegt und das Sapphire OC design dann 13%, respektive 22% in 4K. Gemessen bei nem sehr fairen CB Parcour.


Die Fury liegt exakt 0% vor der GTX980 und in 4K 9%. Dafür kostet die Karte auch 100€ mehr als die Palit Super Jetstream, die man für 525€ bekommt - also 20% mehr für 0% bzw. 9% Mehrleistung.

kruemelmonster
2015-07-10, 23:22:40
Es ist aber immer wieder das selbe: beim Launch verliert die AMD GPU gegen NVIDIA, AMD holt Monate später wieder auf, doch nur die Loser-Tests zum Launch bleiben den Fanboys in Erinnerung und keine Sau interessiert sich für AMD Karten.

Genau das ist imo das Traurige an Fury: da baut AMD ihren größten Chip bis dato, macht nach GDDR3/4/5 erneut den Vorreiter in der Speichertechnik und unterstreicht schon vorab die eigenen Ambitionen mit einem Namen außerhalb des Nummernschemas, analog zur Titan.
Und dann stellt sich heraus dass AMD leider immer noch nicht gecheckt hat dass die Titan Classic mehr war als einfach nur eine 6 GB Karte für 1000€: mittlerweile hat man sich an den Anblick des Referenzkühlers gewöhnt, "damals" hat NV gar mit dem Materialmix geworben und in jedem Review wurde die Hochwertigkeit des Kühlers gelobt.

So baut man ein Image für die eigene Marke und die gesamte Produktpalette auf. Nun hatte AMD die gleiche Chance, und diese Möglichkeit auf einen positiven memorablen Ersteindruck wird vergeigt weil sich niemand für das QM der Kühlung zuständig gefühlt hat.

Das will mir einfach nicht in den Kopf: AMD möchte beim Kunden eine Brand Awareness wie die "Großen" erreichen, man möchte auf den Galaball. Und dann erscheint man dort in Jeans und Holzfällerhemd.

Better luck next time.

Menace
2015-07-10, 23:22:50
@ Troyan: Der Preis- und Performance-Unterschied von TitanX zum Rest?

Frosty
2015-07-10, 23:22:57
wie man sieht gibt es doch fiji karten mit dvi-anschluss, dank der partnerdesigns. bin mal gespannt wie die custom designs von der fury nano aussehen werden, vor allem die von asus und msi:)

Schaffe89
2015-07-10, 23:48:13
Die Fury liegt exakt 0% vor der GTX980 und in 4K 9%. Dafür kostet die Karte auch 100€ mehr als die Palit Super Jetstream, die man für 525€ bekommt - also 20% mehr für 0% bzw. 9% Mehrleistung.

Ja, wenn man denn so fair ist und OC Karten mit Stock Karten vergleicht.:rolleyes:
Sry, aber so ein Bullshit kommt ja ach ausschleßlich von dir und Dildo.
Dass sich bei OC Karten die Metrik deutlich verändert, ist ja wurscht.

Aber es ist schon ein Trauerspiel, dass es Sapphire schafft die Karte leiser zu kühlen, als alle GTX 980 auf dem Markt laut CB.;D
Was hat da Nvidia vorher nur für eine schwache Leistung abgeliefert.

Den Kühler auf den letzten Zentimetern transparent zu machen, damit die Hitze überall entweichen kann, ist wohl ein sehr guter Schachzug.
Die Karte ist eindeutig schneller wie ne GTX 980, keine Sau außer ein paar Menschen übertaktet, finde dich damit ab.

AMD hat eine konkurrenzfähige Karte präsentiert, sowohl zur 980 Ti, als auch zur 980 und der Preis wird wie üblich sinken.
Ich freue mich auf die Nano.

Die Sapphire Fury ist sogut wie bestellt.

Und dank der guten Kühlung spricht in Zukunft auch nix mehr gegen Partnerdesigns für die Fury X, die werden kommen, auch wenns vermutlich etwas dauert.

Dural
2015-07-10, 23:51:35
ehm die sapphire ist auch eine "oc" karte.

Datarecovery09
2015-07-10, 23:59:17
Die Fury liegt exakt 0% vor der GTX980 und in 4K 9%. Dafür kostet die Karte auch 100€ mehr als die Palit Super Jetstream, die man für 525€ bekommt - also 20% mehr für 0% bzw. 9% Mehrleistung.


Ganz im Ernst: Es nervt!
Weshalb muss in buchstäblich jedem Thread zu einer Grafikkarte mit diesen völlig sinnfreien Prozenten jongliert werden? Bei dem Angebot von Reviews können wir bis in alle Ewigkeit "Such-dir-deinen-Lieblings-Benchmark" spielen und am Ende ist keiner von uns merklich schlauer. Das weiß auch jeder, und dass es trotzdem gemacht wird, zeigt sehr deutlich, dass es den betreffenden Leuten überhaupt nicht um die Karten an sich geht sondern nur darum, ihre persönliche Meinung abzusondern.

Die (vernünftige) Alternative wäre, die schöngerechneten Prozente stecken zu lassen und lieber darüber zu diskutieren, *warum* sich die Karte verhält, wie sie es tut. Das ist nämlich sehr viel interessanter als die drölfzillionste Wiederholung der immer gleichen Nicht-Argumente, warum jetzt die eine Karte eine einstellige Prozentzahl "besser" ist als die andere.
Just my 2 Cents.

BlacKi
2015-07-10, 23:59:56
Ja, wenn man denn so fair ist und OC Karten mit Stock Karten vergleicht.:rolleyes:
Sry, aber so ein Bullshit kommt ja ach ausschleßlich von dir und Dildo.
Dass sich bei OC Karten die Metrik deutlich verändert, ist ja wurscht.

Aber es ist schon ein Trauerspiel, dass es Sapphire schafft die Karte leiser zu kühlen, als alle GTX 980 auf dem Markt laut CB.;D
Was hat da Nvidia vorher nur für eine schwache Leistung abgeliefert.
zitat pcgh:
"Die relativ hohe Leistungsaufnahme ist unser einziger Kritikpunkt: Vergleichbar schnelle, weil werkseitig übertaktete GTX-980-Grafikkarten benötigen 200 bis schlimmstenfalls 250 Watt. Um wenigstens ein konkretes Modell zu nennen: MSIs Geforce GTX 980 Gaming 4G ist am ehesten mit der Sapphire Fury Tri-X vergleichbar (1,6 Sone Lautheit, Boost auf 1,3+ GHz)."

Allein in Ultra HD hat Fiji definitiv einen Vorteil gegenüber GM204. Den finde ich persönlich bemerkenswert und wichtig (VSR), für die meisten Leute dürften die Bildraten aber nicht ausreichen.

MfG,
Raff
jedes wort welches ich mehr schreiben würde, würde mich für manche als nv fanboi abstempeln.

samm
2015-07-11, 00:00:04
wie man sieht gibt es doch fiji karten mit dvi-anschluss, dank der partnerdesigns. bin mal gespannt wie die custom designs von der fury nano aussehen werden, vor allem die von asus und msi:)
Damit fällt neben dem Pumpenfiepen und je nach Messung auch Stromverbrauch ein weiterer scheinbar wichtiger Kritikpunkt weg. Dann gab es auch gleich nochmal einen neuen WHQL mit nem Haufen Features für alle Karten seit der 7xxx-Reihe. Was bleibt noch anzugreifen? Hm, "immer noch kein HDMI 2.0" und, überraschenderweise mal von der Seite, das Argument "Preis".

Diese Negativpunkte sind irrelevant für mich - sehr nette Karte das :)

Raff
2015-07-11, 00:02:46
Nö, kannte ich nicht. Ändert aber nichts an der Tatsache, dass Kühllösung an sich überragend designed ist. Ist das PCB custom (habe ich auf die Schnelle nicht herausgefunden)? Wenn nicht, dann liegt da wohl der Hund begraben.

Check das Video, dort sieht man auch die PCBs: https://www.youtube.com/watch?v=XKzJmqR3rRs :)

MfG,
Raff

Schaffe89
2015-07-11, 00:12:45
Bildraten unter 4K reichen nicht aus? Sehe ich anders.
Man muss lediglich die richtigen Settings etwas nach unten drehen.
Die Glättung von Kanten, Flimmern etc.. bekommt man nirgens sogut hin wie unter 4K.

Ich hab die Tage 48 Stunden Sleeping Dogs gezockt und war immerwieder ohne jedgliches FXAA oder MSAA überrascht wie gut die Glättung ausfällt, völlig flimmerfrei und geschmeidig, bei knapp 100 FPS.

-/\-CruNcher-/\-
2015-07-11, 04:04:49
Wenn, dann hat Sapphire wenig falsch gemacht. Denn das Ding ist echt ne Wucht. Also einerseits von den Ausmaßen:freak:, andererseits die Tatsache dass sie es schaffen die 275+ Watt fast flüsterleise:wink: abzuführen.

Der Preis ist hingegen zu hoch. Das ist momentan nun mal eine schlichte Tatsache.

den gleichen Kühler auf eine Maxwell V2 Karte schonmal überlegt wie leise die dann wird, und das wird bei Pascal zwangsweise passieren ;)

Das sind 7 Heatpipes um sie in den selben berreich wie bei z.b MSIs präferierten Maxwell Design zu bekommen die Kosten enorm das ist keine Wucht das ist sogar für viele AIBs was die Kosten angeht extrem abschreckend ;)

Bildraten unter 4K reichen nicht aus? Sehe ich anders.
Man muss lediglich die richtigen Settings etwas nach unten drehen.
Die Glättung von Kanten, Flimmern etc.. bekommt man nirgens sogut hin wie unter 4K.

Ich hab die Tage 48 Stunden Sleeping Dogs gezockt und war immerwieder ohne jedgliches FXAA oder MSAA überrascht wie gut die Glättung ausfällt, völlig flimmerfrei und geschmeidig, bei knapp 100 FPS.

Jep viele erkennen nicht den nutzen (noch nicht) dieser Kompensation Nvidia hat ihn sehr früh erkannt und sich zu nutzen gemacht und das wird weiter gehen ;)

Bei Power Tune zählt die Mischung aus Spannung, tatsächlich fließenden Strömen und Temperaturen. Unter extremer Volllast wird ja spannungsmäßig so kalkuliert, dass man auf die 75°C mehr oder weniger hinkommt. Fließt weniger Strom, darfs auch mal heißer werden. Typische Mischkalkulation. Ab ca. 80°C wird dann aber aber in jedem Fall limitiert. :)

Was übrigens zu Differenzen bei den Resultaten der einzelnen seiten führen kann:
Sapphire hat die Karte noch mal zwischendurch flashen lassen. Unsere US-Karte hatte auch ein anderes BIOS. Somit ist nichts wirklich untereinander vergleichbar. Chaos pur. Und gestern dann zum Hohn noch einen neuen Treiber... Bravo :(

Der Preis ist m.E. etwas überzogen. Man bekommt eine gute, werksübertaktete 980 (deutlich schneller als die Referenzkarte aus den Reviews) ab ca. 530 Euro, da liegt die Sapphire über 100 euro drüber. Das wird aua, weil man dafür fast eine 980 Ti bekommt.

Hoffe mal dieses herumgeflashe wird ordentlich von den Reviewern mit einbezogen.

(del)
2015-07-11, 05:41:43
Seit jeher werden die Spannungswandler in diesen Bereichen gemessen, das war schon zu HD 48xx und bei vergleichbaren Geforce Karten der Fall.
Die Leute die diese GPU´s designen wissen ganz genau wieviel Grad diese Teile haben dürfen.
Es ist doch ein alter Hut, jedes mal immerwieder den Zeigefinger dazu zu erheben, die Bauteile halten das locker aus.

Lies es doch noch einmal genauer. Es ging nie darum, ob so ein Bauteil die 115°C aushält oder nicht. Durch die kompakte Bauweise heizt sich der Bereich um diese Hotspots herum ebenfalls ordentlich auf und durch das ganze Kupfer des PCB wandert diese Abwärme auch großflächiger über das PCB.

Was ich damit sagen wollte:
Es ist eigentlich Blödsinn, an der VRM-Kühlung zu sparen und diese Abwärme dann über das PCB, durch die GPU hindurch wieder nach außen abzuführen. Es darf einfach nicht sein, dass das PCB unter der GPU heißer ist, als die GPU es selbst ohne diese tolle Transferleistung wäre. :)

BiG OnE
2015-07-11, 06:57:01
Könnte man das nicht mit Wärmeleitpads zwischen Platine und Backplate verbessern und sich so einen weiteren Kühlkörper schaffen?

ilibilly
2015-07-11, 07:05:13
Ich frag mich wieso viele gegen eine ref 980 testen
Bei tweaktown sieht man das die fury mit der asus 980 gleichauf ist
Das sollte man schon beachten, bei amd ist zwidchen reftakt und custom 40mhz unterschied, bei einer 980 sinds 200-250.
980er customs sind gut 20% schneller und das ohne extra oc welches ja such meistens nochmal 10% drinn ist.
Ich hab immer noch die aussage in kopf das fury ein oc monster wird , von daher enttäuschdnde oc resultate wenn nednal +70 möglich sind

-/\-CruNcher-/\-
2015-07-11, 07:11:54
Man könnte momentan davon ausgehen das sich das alles auf die Custom Nanos bezog, die man dann bis zum rand hochziehen wird können und man selbst entscheiden kann wohin man sie haben möchte ;)

bei default 2x Effizienz da nur die effizientesten Fiji chips gebinnt werden

<------Höher--------2x Effizienz------Niedrieger---------->

Die sehr guten Aibs erwarten den GTX 970 killer ;)

Die Karte verlangt alles von AMD und den AIBs ab allen Fiji Compute Overhead im Vergleich zu Maxwell V2 so effizient wie möglich auf die Karte zu bringen :)

Nvidia hat das Eindrucksvoll geschaft mit der GTX 970 so gut das sie selbst fast ihre GTX 980 (als produkt) zerlegen in den jetzigen Workloads nur mit ihren eigenen Workloads drücken sie momentan so drauf das sie genug einbricht ;)

Ob das Visuell gerechtfertigt ist muss jeder für sich selbst entscheiden ;)

DrFreaK666
2015-07-11, 07:41:12
Warum macht die 390X eigentlich so ein Radau?Der Kühler sieht vergleichbar mächtig wie bei der Fury aus.

http://www.computerbase.de/videos/2015-07/sapphire-radeon-r9-fury-tri-x-oc-lautstaerke/

Thread verwechselt?

fondness
2015-07-11, 09:56:07
Dass die VRMs nach 30 Minuten übers PCB die GPU heißer werden lassen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10700542&postcount=103
Also ist es nach 30 Minuten ununterbrochenen Vorheizens heißer als etwa nach fünf oder zehn Minuten, was die Tests natürlich nicht zeigen.

Wayne? Der Kühler kühlt die ~250W von Die plus HBM praktisch lautlos weg, als ob da die vielleicht zusätzlich 20W der SpaWas einen großen Unterschied machen würden.

(del)
2015-07-11, 10:09:39
Wayne? Der Kühler kühlt die ~250W von Die plus HBM praktisch lautlos weg, als ob da die vielleicht zusätzlich 20W der SpaWas einen großen Unterschied machen würden.

20 Watt reichen nicht ganz, aber egal. Aber selbst dann wären es noch 8% unnützer thermischer Sondermüll, der absolut vermeidbar gewesen wäre. Nicht umsonst gehen manche AIB genau deswegen langsam dazu über, allen 200W+ Karten VRM-Kühler zu spendieren, die im Heatsink integriert oder per Heatpipe mit dem Kühler verbunden sind. Aus purem Spaß macht das sicher niemand. :)

Vielleicht sollten die Hersteller mal überlegen, warum es nicht gelingt, Wandler mit einer Effizienz von 95% oder mehr zu entwickeln. Die krüppeln immern noch bei ca. 90% rum.

Exxtreme
2015-07-11, 10:38:02
Wayne? Der Kühler kühlt die ~250W von Die plus HBM praktisch lautlos weg, als ob da die vielleicht zusätzlich 20W der SpaWas einen großen Unterschied machen würden.
Solche Hotsports sind meist nicht gut weil durch das Aufheizen und Abkühlen verzieht sich die Platine jedes Mal. Und irgendwann Mal kann es Haarrisse geben und die Karte muss in den Backofen.

Raff
2015-07-11, 10:39:17
Ich frag mich wieso viele gegen eine ref 980 testen
Bei tweaktown sieht man das die fury mit der asus 980 gleichauf ist
Das sollte man schon beachten, bei amd ist zwidchen reftakt und custom 40mhz unterschied, bei einer 980 sinds 200-250.
980er customs sind gut 20% schneller und das ohne extra oc welches ja such meistens nochmal 10% drinn ist.
Ich hab immer noch die aussage in kopf das fury ein oc monster wird , von daher enttäuschdnde oc resultate wenn nednal +70 möglich sind

Viele testen Referenz vs. Referenz. Gibt es kein Referenzdesign - wie bei der Fury -, dann werden zumindest Referenzfrequenzen (genauer: das, was von den Herstellern als typisch angegeben wird) getestet.

Vergleiche nicht Megahertz, sondern die prozentuale Übertaktung, sonst kommt Unfug heraus. Ein voller GM204 braucht gute 200 MHz mehr, um die Leistung von Fiji Pro zu erreichen, d. h. in Full HD ist eine GTX 980 @ 1.216 MHz (typischer Boost) im Mittel so schnell wie eine R9 Fury @ 1.000 MHz. Die Tri-X OC legt 40 MHz obendrauf, was +4 Prozent entspricht. Bei der GTX 980 sind +4 %, ausgehend vom typischen Boost, rund 1.265 MHz (+49 MHz). Da fehlt nicht mehr so viel zum typischen Boost einiger 980-Designs, der zwischen 1.300 und 1.350 MHz liegt. Diese Zahlen sehen einfach nur groß aus, prozentual sind das Katzensprünge. 1.350 MHz gegenüber 1.216 MHz, also die Oberkante der meisten Customdesigns, entspricht einem Plus von 11 Prozent. Und die werden wegen anderer Flaschenhälse, u. a. dem Speicher, nicht linear zu mehr Fps.

tl;dr: Aufgeblasene GTX-980-Karten können es locker in WQHD und UHD mit der Fury OC aufnehmen, der Abstand zwischen Referenzkarten und stark übertakteten Designs wie der Gigabyte G1 Gaming ist aber keine Welt und muss daher nicht alle fünf Postings angekreidet werden. ;)

MfG,
Raff

Loeschzwerg
2015-07-11, 10:50:11
Aktuell sind keine Karten gelistet :(

Gestern war mal kurzzeitig bei einem polnischen Shop (gelistet bei Geizhals) eine Sapphire für 699€ drin, also 568€ ohne die 23% Mwst.

fondness
2015-07-11, 10:58:57
Der Launch wurde vorgezogen, vor 16. wird sich da wenig tun.

anddill
2015-07-11, 11:05:42
20 Watt reichen nicht ganz, aber egal. Aber selbst dann wären es noch 8% unnützer thermischer Sondermüll, der absolut vermeidbar gewesen wäre. Nicht umsonst gehen manche AIB genau deswegen langsam dazu über, allen 200W+ Karten VRM-Kühler zu spendieren, die im Heatsink integriert oder per Heatpipe mit dem Kühler verbunden sind. Aus purem Spaß macht das sicher niemand. :)

Vielleicht sollten die Hersteller mal überlegen, warum es nicht gelingt, Wandler mit einer Effizienz von 95% oder mehr zu entwickeln. Die krüppeln immern noch bei ca. 90% rum.
Niedrige Chipspannung, hoher Strom. Und das muss durch die LowSide Fets des Wandlers. Bei 50A pro Phase machen schon ein paar Milliohm ordentlich Verlust. Dazu kommen die Zuleitungen zu den Fets, die man auch nicht größer machen kann ohne wieder auf TO-3 Gehäuse umzustellen.

Loeschzwerg
2015-07-11, 11:06:19
I know, aber ich meine gelesen zu haben dass auch schon verkauft werden darf, oder nicht? Warum zieht man den Launch dann überhaupt vor, wenn a) noch Bios Versionen nachgeschoben werden, b) die Karten bei den Testern teilweise noch nicht eingetroffen sind und c) der Handel noch keine Karten hat... :( Muss ich nicht verstehen.

@anddill: Deswegen geht ASUS da auch den schöneren Weg und "bläht" hier die Spannungsversorgung entsprechend auf.

@Format_C: Falls ihr die ASUS STRIX noch testen solltet, bitte wieder so ein schönes Temp-Video :)

anddill
2015-07-11, 11:08:00
Damit keiner mehr die Threads über fiepende Pumpen liest :devil:

Raff
2015-07-11, 11:09:13
Und damit nicht alle in Ungeduld zu Nvidia greifen. ;)

MfG,
Raff

(del)
2015-07-11, 11:14:39
Niedrige Chipspannung, hoher Strom. Und das muss durch die LowSide Fets des Wandlers. Bei 50A pro Phase machen schon ein paar Milliohm ordentlich Verlust. Dazu kommen die Zuleitungen zu den Fets, die man auch nicht größer machen kann ohne wieder auf TO-3 Gehäuse umzustellen.
Bliebe die Frage, ob da mehr Phasen wieder einen Sinn ergeben würden. Diese sogenannten OC-Karten sind mir eigentlich fast immer positiv aufgefallen. Weniger Geräusche und vor allem in der Summe auch kühler. Sicher eine reine Kostenfrage...

Loeschzwerg
2015-07-11, 11:20:05
Das ist definitiv eine Kostenfrage, aber diesen Mehraufwand hätte man bei AMD fast eingehen müssen.

@Raff: Weil keine Fury Karten im Handel sind kann ich in Ungeduld auch zu NV greifen :devil: Aber ich warte dann doch, weil mich Fiji technisch einfach interessiert.

Was hat ASUS da eigentlich für eine Paste verwendet :confused:
http://www.hardwareluxx.de/index.php/fotostrecken/artikel-galerien/asus-radeon-r9-fury-strix/asus-radeon-fury-strix-179cde092.html

Sieht ja fast wie ein Pad aus.

anddill
2015-07-11, 11:27:41
Bliebe die Frage, ob da mehr Phasen wieder einen Sinn ergeben würden. Diese sogenannten OC-Karten sind mir eigentlich fast immer positiv aufgefallen. Weniger Geräusche und vor allem in der Summe auch kühler. Sicher eine reine Kostenfrage...
Verteilt Du die Last auf doppelt so viele Zweige dann halbiert Du den Verlustwiderstand, verlierst aber wieder etwas in der Verdrahtung. aber im Gründe hilft hier viel auch viel. Ich hab auch schon SpaWas gesehen wo nicht stumpf Phasen vermehrt wurden, sondern einfach zwei LowSide FETs parallel geschaltet. Hilft auch, da die für 90% der Verluste verantwortlich sind.

Mr. Lolman
2015-07-11, 11:57:22
tl;dr: Aufgeblasene GTX-980-Karten können es locker in WQHD und UHD mit der Fury OC aufnehmen, der Abstand zwischen Referenzkarten und stark übertakteten Designs wie der Gigabyte G1 Gaming ist aber keine Welt und muss daher nicht alle fünf Postings angekreidet werden. ;)

MfG,
Raff

Fragt sich wie man 'locker' definiert, und welche Benchmarks man zugrunde legt. Bei CB ist die Fury 10% in WQHD vor der 980 und in UHD gar 18%, bzw 9% vor einer 980 OC. (Bei THG ist in UHD die Sapphire gar >21% vor der GTX980)

Raff
2015-07-11, 12:00:57
Am Ende ist das immer ein Gleichstand. ;) In FHD ist die 980 OC etwas schneller als die Fury OC, in WQHD ist's vergleichbar und in UHD ist die Fury OC schneller als die 980 OC. Anstatt sich über diese Pennys aufzuregen, sollten wir AMD in die Richtung bekommen, VSR endlich vielseitig zu machen. Dann muss auch kein Mensch mehr in Full HD spielen, weil Downsampling höherer Auflösungen auf jedem LCD ginge.

MfG,
Raff

Mr. Lolman
2015-07-11, 12:05:28
Najo ~20% in UHD sind schon mal eine Marke. Und VSR mit Fury geht ja eh ordentlich. (Besser wär natürlich trotzdem ein ordentlicher UHD Monitor ;))

dildo4u
2015-07-11, 12:09:43
Der Techreport Test ist vernichtend schade das so wenige Seiten Frametimes messen.

http://techreport.com/review/28612/asus-strix-radeon-r9-fury-graphics-card-reviewed

Witcher 3 ist ohne HBAO und Hairworks.

http://abload.de/thumb/w3-99th92o6r.gif (http://abload.de/image.php?img=w3-99th92o6r.gif) http://abload.de/thumb/gtav-16msu4qbr.gif (http://abload.de/image.php?img=gtav-16msu4qbr.gif) http://abload.de/thumb/pcars-99th8pq0w.gif (http://abload.de/image.php?img=pcars-99th8pq0w.gif) http://abload.de/thumb/fc4-99thdyrdd.gif (http://abload.de/image.php?img=fc4-99thdyrdd.gif) http://abload.de/thumb/ai-99thw9pzc.gif (http://abload.de/image.php?img=ai-99thw9pzc.gif) http://abload.de/thumb/civbe-99th6tqiw.gif (http://abload.de/image.php?img=civbe-99th6tqiw.gif) http://abload.de/thumb/bf4-99theiq8t.gif (http://abload.de/image.php?img=bf4-99theiq8t.gif) http://abload.de/thumb/c3-99th00psa.gif (http://abload.de/image.php?img=c3-99th00psa.gif)

Raff
2015-07-11, 12:10:21
Najo ~20% in UHD sind schon mal eine Marke. Und VSR mit Fury geht ja eh ordentlich. (Besser wär natürlich trotzdem ein ordentlicher UHD Monitor ;))

Geht nicht ordentlich. Es gibt noch genügend Kombinationen, wo gar kein VSR oder nur falsche Seitenverhältnisse funktionieren. Ich habe zwei so Fälle zuhause: Weder auf meinen 1600p60- noch auf meinem 1080p120-LCD kann ich VSR sinnvoll nutzen (geht entweder gar nicht oder Unsinnsauflösungen).

Davon ab: Full HD alias "Tetris" interessiert mich persönlich nicht die Bohne, daher sehe ich die Fury auch vor der 980. Allerdings ist 1080p mit großem Abstand die verbreitetste Auflösung und anhand dessen muss man die Karte (auch) bewerten.

MfG,
Raff

Menace
2015-07-11, 12:11:58
Wie viele potentielle Käufer (nicht 3dcenter Mitglieder) nutzen eigentlich Downsampling?

(del)
2015-07-11, 12:19:56
Wie viele potentielle Käufer (nicht 3dcenter Mitglieder) nutzen eigentlich Downsampling?
Ich würde die Frage sogar noch umformulieren:
Wie viele potentielle Käufer (nicht 3dcenter Mitglieder) kennen eigentlich Downsampling? :)

y33H@
2015-07-11, 12:20:30
Wenige bis niemand, sehe ich im Bekanntenkreis ständig, selbst bei tendenziell HW-affinen Leuten.

Bildraten unter 4K reichen nicht aus? Sehe ich anders. Man muss lediglich die richtigen Settings etwas nach unten drehen.
Die Glättung von Kanten, Flimmern etc.. bekommt man nirgens sogut hin wie unter 4K. Ich hab die Tage 48 Stunden Sleeping Dogs gezockt und war immerwieder ohne jedgliches FXAA oder MSAA überrascht wie gut die Glättung ausfällt, völlig flimmerfrei und geschmeidig, bei knapp 100 FPS.Sleeping Dogs flimmerfrei? Never ever.

Menace
2015-07-11, 12:25:09
Ich würde die Frage sogar noch umformulieren:
Wie viele potentielle Käufer (nicht 3dcenter Mitglieder) kennen eigentlich Downsampling? :)

Auch wieder wahr. :) Ich finde es gut, wenn eine Grafikkarte so viel wie mögliche Features besitzt, allerdings scheinen Sie auf Downsampling nicht gerade viel Wert zu legen (wenn ich im anderen Thread verfolge, wie leicht man zusätzliche Auflösungen anbieten könnte). Deshalb fragte ich mich, ob dieses Merkmal ein eher typisches 3d-Center Merkmal ist, welches sonst kaum wahrgenommen wird.

ilibilly
2015-07-11, 12:39:54
Ich glaub die wenigdten hier würden mit 30fps in 4 k spielen wollen sofern man kein freesync oder gsync hat.
Für konstant 60fps reicht es dieses jahr nicht
Von daher seh ich den einsatzgebiet von fury und 980ti eher bei 1440p
Ihch hoff mal auf 14nm gpus die dann mit 12-15 tflops 60fps hinzaubern

Tobalt
2015-07-11, 12:40:32
Ich frage mich wieso diese Karte überall teilweise mit so lobenden Worten bewertet wird. Das steht doch im klaren Gegensatz zu den Metriken. Klar teurer, und deutlich mehr Verbrauch als die 980. Performance eher schlechter als besser.:freak:

Maxwell war wirklich eine Hausnummer aber meine Erwartungen an das HBM waren höher. Rückblickend sieht es nun doch (wieder mal) wie eine klare Fehlentscheidung seitens AMDs aus, jetzt schon auf HBM zu setzen.

Bleibt nur zu hoffen dass der Erfahrungsvorsprung von AMD mit HBM in den kommenden Generationen etwas bewirken kann.

ilibilly
2015-07-11, 13:00:00
Was den verbrauch angeht hat amd es hbm zu verdanken ,allein dadurch darf die gpu ansich 50-60watt mehr verbrauchen als maxwell.
Imho muss amd auch gcn umkrempeln und nicht einfach fiji in 14nm bringen
Sonst wird nächstes jahr der unterschied noch deutlicher wenn beide mut hbm 2 daherkommen.
Ne frage an die experten , ist mit hbm 2 auch 6gb möglich oder immer nur das doppelte , also 4,8,16 ?

Loeschzwerg
2015-07-11, 13:16:45
Ist möglich. Entweder durch ein kleineres Interface (z.B. 3 Stacks; 3072Bit) oder durch eine andere Anzahl an DRAM DIEs im Stack selbst. Ob wir das so sehen werden steht auf einem anderen Papier.

BlacKi
2015-07-11, 13:21:04
Ne frage an die experten , ist mit hbm 2 auch 6gb möglich oder immer nur das doppelte , also 4,8,16 ?
zz. sind es pro "hbmchip" 1gb speichermenge, 4 chips ergeben 4gb, mit 6 chips wären es 6.

mit hbm2 kann man 4-8gb pro chip unterbringen. ich kann schwer einzuschätzen ob man die nächsten chips mit einem oder zwei dram chips geplant werden. für kleinere gpu´s würde wohl ein chip mit 4gb und 256gb´s bandbreite reichen.

vl kommt die nächste große gpu mit 2 oder 3 hbm dram, dann könnten es auch 12gb sein. ich glaube 6gb wird man wohl nichtmehr sehen.

Knuddelbearli
2015-07-11, 13:31:13
Man kann es auch anderst sehen.
Nur duch ein paar kleine Änderungen ( 1.2 und HBM ) hält die Architektur einer 4 Jahre alten 7970 noch mit NV mit die die Architektur massiv umgekrempelt haben.

Schaffe89
2015-07-11, 13:36:28
Wenige bis niemand, sehe ich im Bekanntenkreis ständig, selbst bei tendenziell HW-affinen Leuten.

Sleeping Dogs flimmerfrei? Never ever.

Doch :), ich sehe absolut nichts flimmern.:wink:

Schaffe89
2015-07-11, 13:37:46
Der Techreport Test ist vernichtend schade das so wenige Seiten Frametimes messen.



Ja, absolut vernichtend, unglaublich schlecht.
Ich glaub du siehst Geister.;D

dildo4u
2015-07-11, 13:41:35
We saw substantially smoother gaming across our suite of eight test scenarios out of the GeForce GTX 980 than we did from the Radeon R9 Fury. This outcome will be nothing new for those folks who have been paying attention. Nvidia has led in this department for some time now. I continue to believe this gap is probably not etched into the silicon of today's Radeons. Most likely, AMD could improve its performance with a round of targeted driver software optimizations focused on consistent frame delivery. Will it happen? Tough to say, but hope springs eternal.

http://techreport.com/review/28612/asus-strix-radeon-r9-fury-graphics-card-reviewed/12

Alles läuft dort deutlich flüssiger mit der 980,noch dazu wurde dort nur eine normale 980 gebencht,keine mit 1.3Ghz die zu den billigsten gehört über 100€ billiger als Fury pro.

https://geizhals.de/gainward-geforce-gtx-980-3385-a1177064.html?hloc=de

InsaneDruid
2015-07-11, 13:49:37
Ja, absolut vernichtend, unglaublich schlecht.
Ich glaub du siehst Geister.;D

Ich glaube, du siehst nicht hin:

http://techreport.com/r.x/radeon-r9-fury/fc4-curve-amd.gif
http://techreport.com/r.x/radeon-r9-fury/fc4-curve-nv.gif
At the 50-ms threshold, our "badness" metric picks up the frame time spikes on the Furies and the 290X. You can feel these slowdowns as they happen, interrupting the flow of animation.

oder
http://techreport.com/r.x/radeon-r9-fury/w3-curve-amd.gif
http://techreport.com/r.x/radeon-r9-fury/w3-curve-nv.gif
"Our "time beyond 33 ms" results pretty much tell the story. The Maxwell-based GeForces run this game smoothly, while the Radeons and the GTX 780 Ti struggle"

oder
http://techreport.com/r.x/radeon-r9-fury/c3-curve-amd.gif
http://techreport.com/r.x/radeon-r9-fury/c3-curve-nv.gif
Although the Radeon cards' FPS averages look good, they suffer in our other metrics as a result of those pronounced slowdowns. The hiccups happen at a specific point in the test run, when I blow up a bunch of bad guys at once. Many of the Radeon cards suffer at that point, and the effect is not subtle while playing. The GeForces deliver fluid animation in this same spot, which makes for quite a contrast.

Digidi
2015-07-11, 13:52:57
@Dildo4You

AMD ist noch am Anfang der Optimierung genau so wie die Spieleentwickler selbst und AMD steckt wahrscheinlich keine Zeit mehr in die Optimierung von DirectX 11 Titeln.

Was die Frametimes deshalb anbelangt würde ich einfach mal bis zum Release von Windows 10 abwarten und dann mal schauen was die Karten mit DX12 so anstellen.

Also fang mal an zu Chillen! Und lass mal deinen Vorpuatären Forumsname ändern. Das ist ja schrecklich!

Und dann sollte man sich auch mal bei anderen Seiten die Frame Times anschauen nicht nur Cerry Picking betreiben:
http://www.tomshardware.de/sapphire-amd-radeon-r9-fury-tri-x,testberichte-241864-4.html

Deine ach so Tolle 980 GTX wird dann sogar von einer 290x und einer 780ti von den Frametimes überholt.

@Format_C
Ich finde eurer Framtimesmessung Gut nur die Bildliche Darstellung, das müsstet Ihr mal überarbeiten. Es wäre schön wenn bei den Diagrammen einzelne Kurven an oder abwählen könnte. So erkennt man leider nichts am Frametimeverlauf :-)

Spasstiger
2015-07-11, 14:06:41
Die Sapphire mit der beinahe lautlösen Kühlung ist eine sehr interessante Karte, wenn sie unter 500€ am Markt aufschlägt.
Mein Entsetzen über die miese Auslastung der Recheneinheiten von Fiji wird mit den Tests der R9 Fury aber noch weiter erhärtet. Teilweise ist die 390X in FullHD schneller! Ich bin überzeugt, dass AMD die knapp 9 Mrd. Transistoren auch in ein performanteres Produkt hätte verpacken können.

-/\-CruNcher-/\-
2015-07-11, 14:08:00
http://techreport.com/review/28612/asus-strix-radeon-r9-fury-graphics-card-reviewed/12

Alles läuft dort deutlich flüssiger mit der 980,noch dazu wurde dort nur eine normale 980 gebencht,keine mit 1.3Ghz die zu den billigsten gehört über 100€ billiger als Fury pro.

https://geizhals.de/gainward-geforce-gtx-980-3385-a1177064.html?hloc=de


Wieso ignoriert man Ryse ?

und man sieht hier lediglich erstmal die Ergebnisse der Asus die ist bekantlich etwas mehr auf Verbrauch optimiert.

aufkrawall
2015-07-11, 14:09:15
Ich glaube, du siehst nicht hin:

amd can not into dx11 :freak:

Digidi
2015-07-11, 14:17:05
Im Übrigen so einfach mit Frame Times ist das nicht. Da spielen viele Faktoren mit rein. Unter anderem wie Gut die GPU mit Daten gefüttert wird.

aufkrawall
2015-07-11, 14:19:46
Es wurde in WQHD und 4k getestet, da liegt kein CPU-Limit vor.

BlacKi
2015-07-11, 14:27:23
es ist falsch alle hoffnung in DX12 zu schieben, da die meisten jetzigen spiele keine DX12 anpassungen erhalten.

da wird so auf DX12 herumgeritten als stände uns eine neue ära im pc gaming bevor. selbst in 1-2 jahren wirds noch etlich titel geben die nicht DX12 unterstützen.

DX12 wird den meisten spieleentwicklern sowas von gefallen, denn dann müssen sie weniger optimieren damit der spieler weiter seine 40-60 fps mit nem i5 bekommt.

horn 12
2015-07-11, 14:30:37
So mal wieder etwas von mir :-)
Die FURY ist einer R9 290X im Ueber Modus in 1920x1080 ca. 25% mit MSAA überlegen (Asus Strix) die Sapphire dann knappe 30%
Ich für meinen Teil habe eine Sapphire R9 290 "New Edition" welche mit 1100 Mhz OC mässig läuft
Somit bin ich Performancemäsig knapp hinter einer R9 290 Ueber.

Für die 650+ Euro und für 690 Euro einer Fury X ist mir der Wechsel für meinen 16:10 Full HD Monitor 1920x1200 zu hoch
Dennoch werden bei Ausreichenden Stückzahlen die Preise auf ca. 530 (Fury) bis etwa 640 AIO Fury X einpendeln.
Meine Karte für 220 Euro an den Mann, und mit 300 Euro Aufpreis die Sapphire Fury holen, oder gar die Fury X falls Pumpenfiepen gefixt werden kann.
Dann kann man nochmals drüber nachdenken, mit diesen Karten sollte man bis Mitte/ Herbst 2016 dann Ruhe haben, denn bis dahin sollte nix schnelleres kommen.
Bis Pascal Midrange aufschlägt ist zwar spätes Frühjahr 2016, aber da dürfte man einer Fury X/ GTX 980TI nicht allzunahe kommen .

PS:
Hardwaredeluxx hat wohl als einziger den 15.7 Treiber für die FURY verwendet und dort steht die Karte (Asus Strix) derzeit am Besten da.

-/\-CruNcher-/\-
2015-07-11, 14:41:56
Das Problem wieder nur 1 Output Ergebnis (welches unbekannt) noch kein Power Measuring in Relation zu den FCAT Ergebnisen

0jBjDIakZxc


Noch keinen i3 driver test wobei ich einen i5 test für weitaus realistischer halte ;)


On average, the Fury is around 18 per cent faster at 4K than the GTX 980, though AMD optimised games like Shadow of Mordor, Ryse and Far Cry 4 are anything from 20 to 30 per cent faster. The good news continues in that overclocking brings the Fury within striking distance of the Fury X on all but one game - Tomb Raider. Indeed, factoring out the 2013 Lara Croft adventure shows that the overclocked Fury is 99 per cent as effective as the Fury X.


Oh da in den comments gehts wieder ab bei den Gamern beim topic temporal vs spatial res ;)

Mr. Lolman
2015-07-11, 17:28:12
Ich glaub die wenigdten hier würden mit 30fps in 4 k spielen wollen sofern man kein freesync oder gsync hat.
Für konstant 60fps reicht es dieses jahr nicht
Von daher seh ich den einsatzgebiet von fury und 980ti eher bei 1440p
Ihch hoff mal auf 14nm gpus die dann mit 12-15 tflops 60fps hinzaubern

Ähem ich spiel mit 30fps in 4k und ich finds geil. Allerdings liegt das anscheinend in der Familie. Mein Herr Papa hat schon vor knapp 20 Jahren Quake in 1024x768 gespielt - mit <10fps avg und Softwarerenderer!. "Das ruckelt doch!" "Ja Bub, aber schau mal, wie fein die Pixel aussehen" ;D

-/\-CruNcher-/\-
2015-07-11, 17:39:23
Sobald du das Display direkt vor deiner Nase hast wird das nicht mehr schön bei 33.3 ms ;)

Das merkte man schon damals bei der Forte VX1 lange konntest damit nicht Descenten ;)

Frosty
2015-07-11, 17:45:43
ich frage mich die ganze zeit ob es sich für mich überhaupt lohnt, noch in eine fiji karte mit 4gb hbm zu investieren. die nano würde mich zwar reizen, aber ich spiele eigentlich nie die allerneuesten spiele, habe nur ein full hd display und das soll auch so bleiben. ich bin inzwischen geneigt für eine 4gb karte nicht mehr mehr als max. 350 euro auszugeben, auch wenn die leistung aktuell noch für 4k auflösung bzw. 4x downsampling reichen würde....:usad:

aufkrawall
2015-07-11, 17:51:46
Wenn sie sich trotzdem zu dem Preis verkauft, hat AMD es richtig gemacht.

dargo
2015-07-11, 18:36:01
Für mich haben beide IHVs langsam nen Schaden, Nvidia verkauft nen kleinen Gammelchip für ein Schweinegeld und große Chips für noch viel mehr Geld und AMD legt den HBM-Stunt hin und kann vermutlich kaum günstiger verkaufen, die dummen sind die Käufer.

Ich hatte kurzzeitig sogar an der Titan X rumüberlegt, aber je länger ich drüber nachdenke desto mehr können mich die Hersteller mal.:P
Vernünftige Preis/Leistungskarten sind nicht in Sicht.

Leider sieht man es in jedem Thread wieder, beide Fanseiten bashen sich gegenseitig was das Zeug hält, bloss peilt kaum einer das wir, die Gamer alle die Verlierer sind, egal ob man ne AMD oder NV-Karte kauft:uclap:
Wahre Worte... leider.

DrFreaK666
2015-07-11, 18:36:02
Ich glaub die wenigdten hier würden mit 30fps in 4 k spielen wollen sofern man kein freesync oder gsync hat.
Für konstant 60fps reicht es dieses jahr nicht
Von daher seh ich den einsatzgebiet von fury und 980ti eher bei 1440p
Ihch hoff mal auf 14nm gpus die dann mit 12-15 tflops 60fps hinzaubern

Stell dir vor: es gibt Menschen, die kein The Witcher 3 oder GTA V spielen. Ich gehöre dazu. Original Sin flüssig in 4k... das ist noch 2015 möglich. Läuft mit meiner GTX780 sogar brauchbar.
Oder Van Helsing in 4k. Oder XCOM in 4k... usw
Weiss nicht wieso das 2015 nicht möglich sein sollte

Funktionieren Reshade und/oder sweetFX mit Radeons genauso problemlos wie mit geforces??

ilibilly
2015-07-11, 18:46:30
Stell dir vor: es gibt Menschen, die kein The Witcher 3 oder GTA V spielen. Ich gehöre dazu. Original Sin flüssig in 4k... das ist noch 2015 möglich. Läuft mit meiner GTX780 sogar brauchbar.
Oder Van Helsing in 4k. Oder XCOM in 4k... usw
Weiss nicht wieso das 2015 nicht möglich sein sollte

Funktionieren Reshade und/oder sweetFX mit Radeons genauso problemlos wie mit geforces??
Ja stimmt,ich glaub ich mach die fury nur so madig weil ich halt am tv 4k Spiele und rede mir die Leistung schlecht ,aber glaub mir wenn ich die Wahl hab 1440p@60 oder 4k@30 nehme ich die 60 fps.
Richtig ärgern würde ich mich persönlich wenn die fury wirklich viele Games ( nicht alle neueren Spiele) mit 60fps in 4k könnte,denn an hätte ich mit meinem hDmi 2.0 tv keine Möglichkeit dies darzustellen .
So hoffe ich zumindest auf einen Preiskampf ,damit die 980ti Richtung 600€ fällt,bis Weihnachten.

dargo
2015-07-11, 18:48:26
gute frage, die einfachste erklärung wäre wohl das lüfterprofil.
Die 390X hat mehr Verlustleistung bei kleinerer Die-Fläche. Eventuell noch paar kleinere "Optimierungen" beim Kühler der Fury, wie zb. die Verlängerung der Karte durch den Kühler. Gleichzeitig wird der Luftdruck bei Fläche X durch das PCB nicht blockiert. Das alles zusammen macht wohl einiges aus.

Raff
2015-07-11, 18:59:54
Funktionieren Reshade und/oder sweetFX mit Radeons genauso problemlos wie mit geforces??

Yep, das sind ja nur aufgesetzte Shader.

Warum macht die 390X eigentlich so ein Radau?Der Kühler sieht vergleichbar mächtig wie bei der Fury aus.

http://www.computerbase.de/videos/2015-07/sapphire-radeon-r9-fury-tri-x-oc-lautstaerke/

gute frage, die einfachste erklärung wäre wohl das lüfterprofil.

Die 390X hat mehr Verlustleistung bei kleinerer Die-Fläche. Eventuell noch paar kleinere "Optimierungen" beim Kühler der Fury, wie zb. die Verlängerung der Karte durch den Kühler. Gleichzeitig wird der Luftdruck bei Fläche X durch das PCB nicht blockiert. Das alles zusammen macht wohl einiges aus.

Der Tri-X auf der Fury ist höher, bietet also mehr Oberfläche, und mehr Pipes. Das zusammen mit der "atmungsaktiven" Halbseite des Kühlers dürfe enorm viel ausmachen. Die 390X Tri-X ist im Vergleich wirklich ziemlich laut.

MfG,
Raff

Thowe
2015-07-11, 19:05:17
Wenn sie sich trotzdem zu dem Preis verkauft, hat AMD es richtig gemacht.


Jeder andere Preis, als der jetzige, wäre im Verhältnis zur z.Z. vermutlich aus der Produktion laufenden Stückzahlen auch nicht besonders weise. Knappe Stückzahlen werden nicht besser, wenn man den Preis senkt. Man sollte auch nie vergessen, dass es Menschen gibt, die durchaus gerne Geld ausgeben und eben nicht (gefühlt) in permanenten Sparwahn sich den Spielspaß versauen. Geld mag zwar nicht glücklich machen, aber über dieses ständig nachzudenken macht eigentlich immer unglücklich. Ab und an braucht es auch Unvernunft, weil sie vernünftig ist um eine innere Waage zu halten. Ein "Ich will es haben, jetzt!" ist eben ein guter Kunde und der, so erstaunlich es klingen mag, kauft eben und erhält einen echten Gegenwert und im Grunde ist er klüger als die Pfennigfuchser die sich oftmals ärmer sehen als die real sind. Wer bei einer 600,- Euro Investition über 10% nachdenkt, da frage ich mich, ob er auf der Arbeit auch auf Kaffee und mehr oder minder privates Quatschen mit Kollegen verzichtet, weil diese Zeit seinen Chef auch wohl 10% an Investition kostet. Ja, es gibt solche Jobs, wo alles durchgetaktet und optimiert ist, moderne und eigentlich immer schlecht bezahlte Sklavenarbeit und jeder sollte ein wenig Freiheit lieben lernen, auch bei Ausgaben. Lebensqualität kann man nicht ersparen nur (er)leben.


Lässt man einfach mal jegliche Markenaffinität außen vor, ist die Fury im Sinne von Preis-/Leistung durchaus attraktiv und sexy wie die große Schwester. Für mich so attraktiv, dass ich seit etlichen Jahren mal wieder etwas anderes als NVIDIA kaufen werde und das, weil ich aus meiner Perspektive für die Fury eben klare Vorteile sehe. Das ist eine rein individuelle Betrachtungsweise der momentanen Istsituation und im Gegensatz zu früher, argumentiere ich auch nicht mehr über diese, noch lege ich sie breit offen da, grob gerne: UHD. Ich blende dabei sogar völlig den Frustfaktor aus, den NVIDIA bei mir verursacht hat, dass sind Probleme die ich mit meinem Reset-Taster am Gehäuse, ein wenig Geduld und ein paar Einstellungen "kompensieren" kann und eben das Warten auf Treiber, die kleine Macken beheben. Entsprechend stelle ich mich bei der Fury auch darauf ein, dass es noch einiges an Treiberarbeit braucht. Kann ich ein Spiel mal nicht spielen, habe ich genügend andere die ebenso noch warten. Anders schaut es bei Spielen aus, wegen Aussagen wie: "ach, wegen den Bug in der Quest, nun, alten Spielstand laden oder noch mal von vorne anfangen" bin ich heute jemand der bis zur Grundreife warte. Das sie "unreif" auf den Markt kommen ist eben wohl der gleiche Grund wie der, dass der Start der Fury-Serie nicht optimal ist: Geld.

Und noch eines halte ich für mich wichtig: Ich will das Geld eben AMD gönnen, einfach, weil ich möchte das Konkurrenz und der gegenseitige Druck bleibt. Innovationen brauchen Antrieb und ich bin zu alt um ewig auf neue Entwicklungen zu warten. ;)

Alt? Okay, ein wenig Unvernunft muss ja bleiben: Wegen meiner kann sich NVIDIA irgendwelche Dildos in den Allerwertesten schieben. Die Fury ist die heißere Bitch und eben nicht nur beim Stromverbrauch. Als jemand der permanent friert, ist ein wenig Abwärme durchaus vom Vorteil und viel weniger Verlustleistung, als das ich mir den Spaß deshalb trüben würde.

Mr. Lolman
2015-07-11, 19:43:53
Und was hat dir an der 290X nicht gefallen?

Thowe
2015-07-11, 19:59:24
Und was hat dir an der 290X nicht gefallen?

Vorurteile von mir ^^ Eben, wie gesagt, eher NV-orientiert, dass zu überdenken hat die GTX 970 grandios erreicht.

Troyan
2015-07-11, 20:11:22
Lässt man einfach mal jegliche Markenaffinität außen vor, ist die Fury im Sinne von Preis-/Leistung durchaus attraktiv und sexy wie die große Schwester.

Laut Hardware.fr kosten die Karten folgendes:
Sapphire: 590€
Sapphire OC: 600€
Asus: 650€

Nimmt man deine Präferenz für UHD als Basis, sieht es zur Zeit auf dem Markt folgender Maßen aus:
Die Sapphire ist 9% schneller* als diese GTX980 (http://geizhals.de/palit-geforce-gtx-980-super-jetstream-ne5x980h14g2j-a1184579.html?v=l&hloc=de) und kostet 12,3% mehr.

Die Sapphire erreicht 78,7% der Leistung dieser GTX980TI (http://geizhals.de/inno3d-ichill-geforce-gtx-980-ti-herculez-x3-air-boss-ultra-c98t3-1sdn-n5hnx-a1275006.html?v=l&hloc=de) und kostet 84,3% der GTX980TI.

Die Sapphire ist 15% schneller als diese 390X (http://geizhals.de/sapphire-radeon-r9-390x-tri-x-11241-00-20g-a1280753.html?v=l&hloc=de) und kostet 33,7% mehr.

Objektiv gesehen, ist das P/L der Fury von Sapphire genauso schlecht wie das der GTX980. Die GTX980TI ist erheblich schneller und bietet 6GB, die 390X kostet deutlich weniger und bietet 8GB.

Und von der Asus Karte müssen wir wohl kaum reden bei 650€...


*Leistung basiert auf Computerbase Rating.

-/\-CruNcher-/\-
2015-07-11, 20:15:29
Asus ist witzig haben die niedriegeren Kosten und verkaufen teurer vor allem jetzt nach ihrer vollautomatischen Bestückung :D

(del)
2015-07-11, 20:17:23
Asus ist witzig haben die Niedriegeren Kosten und verkaufen teurer vor allem jetzt nach ihrer vollautomatischen Bestückung :D
Die hat ja auch erst mal viel Kohle gekostet und die muss halt wieder rein :tongue:

BBig
2015-07-11, 20:24:13
Laut Hardware.fr kosten die Karten folgendes:
Sapphire: 590€
Sapphire OC: 600€
Asus: 650€

Nimmt man deine Präferenz für UHD als Basis, sieht es zur Zeit auf dem Markt folgender Maßen aus:
Die Sapphire ist 9% schneller* als diese GTX980 (http://geizhals.de/palit-geforce-gtx-980-super-jetstream-ne5x980h14g2j-a1184579.html?v=l&hloc=de) und kostet 12,3% mehr.

Die Sapphire erreicht 78,7% der Leistung dieser GTX980TI (http://geizhals.de/inno3d-ichill-geforce-gtx-980-ti-herculez-x3-air-boss-ultra-c98t3-1sdn-n5hnx-a1275006.html?v=l&hloc=de) und kostet 84,3% der GTX980TI.

Die Sapphire ist 15% schneller als diese 390X (http://geizhals.de/sapphire-radeon-r9-390x-tri-x-11241-00-20g-a1280753.html?v=l&hloc=de) und kostet 33,7% mehr.

Objektiv gesehen, ist das P/L der Fury von Sapphire genauso schlecht wie das der GTX980. Die GTX980TI ist erheblich schneller und bietet 6GB, die 390X kostet deutlich weniger und bietet 8GB.

Und von der Asus Karte müssen wir wohl kaum reden bei 650€...


*Leistung basiert auf Computerbase Rating.


Naja, du vergleichst Listenpreis der AMD-Karten mit denen von Geizhals... das kommt so nicht hin, :rolleyes: