PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Radeon R9 Fury


Leonidas
2015-07-11, 23:04:26
Link zum Artikel:
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-fury

Flusher
2015-07-11, 23:36:57
Guter Artikel, allerdings fehlt im Fazit eine Erwähnung des Stromverbrauches. Wenn es jetzt zur 980 ein Unterschied von 20 W wären, wäre das vernachlässigbar, aber offenbar scheint das Teil rund 100 W mehr Strom zu fressen unter Last.

Kombiniert mit dem veranschlagten Preis, erscheint eine Custom 980 der bessere Deal zu sein.

Gast
2015-07-11, 23:46:55
Zu teuer, zu lang, zu hoher Verbrauch. Keine Karte für die Allgemeinheit. Da soll man wieder Hawaii kaufen. Hab jetzt doch eine 980 bestellt. Werde dann auf die nächste Generation warten. Die Furie ist eher was für AMD Technikverliebte.

Komisch, eigentlich macht AMD immer das Gegenteil von dem was sie ankündigen, leise Karte (bei Hawaiilaunch), die Dinger brüllen, kurzes Design (bei Fiji), die Dinger werde immer länger (passt bei mir nicht mehr). Dafür hab ich jetzt gewartet?

Effizienz ist für die auch ein Fremdwort. Für das nutzen des 4k Vorteils, braucht es einen Monitor, der kostet sicher zusätzlich und nicht cerade wenig (daher fällt das aus). Für FHD Performance +3%, geb ich keine 125 Euro mehr aus. Macht die 980 jetzt preislich richtig attraktiv.

aths
2015-07-12, 01:48:18
Ziemlich guter Artikel.

Vorsichtige Kritik hätte ich nur bei der Besprechung des Preispunkts. Natürlich wäre ein marktgerechterer Preis wünschenwert. Allerdings sehe ich ein, dass AMD erst mal die Enthusiasten bedient, die die schnellste luftgekühlte AMD-Karte haben wollen und die dafür gerne auch etwas tiefer in die Tasche greifen.

Die Fury ist immerhin bis zu knapp 20% schneller als die GTX 980. Diese ist auch nur ungefähr 20% scheller als die 970 und wurde beim Launch (wo der Speicheraufbau der 970 noch nicht bekannt war) nicht so hart dafür kritisiert, doch ganz erheblich teurer als die 970 zu sein. Insofern würde ich AMD hier nicht so hart den Marsch blasen. Die brauchen außerdem schon rein psychologisch wieder schön teure Karten, um von Enthusiasten überhaupt wahrgenommen zu werden.

Das zweite Argument aus AMD-Sicht könnte sein: Wird die Karte für einige Zeit im 600-Euro-Bereich gelassen bevor sie im Preis sinkt, haben einige Käufer die Vorstellung eine Karte günstig zu erwerben, die eigentlich mehr wert wäre.

Letztlich sind rund 20% Mehrpreis für bis zu rund 20% Mehrperformance auch nicht wirklich überteuert. Klar wirkt sich das erst unter 3,8k-Auflösung aus, aber wir dürfen treiberseitig bei der Fury sicherlich mehr Entwicklung erwarten als wir jetzt noch bei der 980 bekommen werden.

BlacKi
2015-07-12, 01:55:47
die durchschnittliche berechnung vom verbrauch ist ziemlich gewagt, da liegen 120w zwischen den einzelnen tests. ich weis das aktuell leider nicht anders machbar ist, aber au waia.

Knuddelbearli
2015-07-12, 02:04:16
Frage ich mich auch wie man bei 200W 320W und 254W auf 270W schnitt kommt.

Leonidas halt ^^

BlacKi
2015-07-12, 02:17:53
Frage ich mich auch wie man bei 200W 320W und 254W auf 270W schnitt kommt.

Leonidas halt ^^

ich weis aber wie die 200w zustandegekommen sind. metro in 1080p.

"Average: Metro: Last Light at 1920x1080, representing a typical gaming power draw."

yes sir, we gona test a 4k card in 1080p. why? because we can.

nicht gerade repräsentativ, naja, als ausgleich gibts ja die 320w von pcgh.:freak:

Knuddelbearli
2015-07-12, 03:04:33
Naja die 200W stimmen schon immerhin sind die 660% ja auch nur full hd Ranking! ( und selbst da gegenüber 980 abgerundet 100% vs 96,3% ergibt 620% vs 600% )

Oder willst du wirklich 1080p Performance und 4k Verbrauch angeben? ^^

Knuddelbearli
2015-07-12, 03:18:04
Leonidas sollte wirklich auch alle Zahlen nutzen! Bei 2800 Einzelmessungen fände ich das schon ok.

Gerade mal nachgerchnet.

4k sind es

100% vs 84,2%

4k3DCP sind es 85% vs 75% was 88% sind für die 980, mit 70 4k3DCPunkte wären es 82% was näher am Resultat wäre

matty2580
2015-07-12, 06:00:26
Schöne Launch-Analyse, wie immer.

Fury und Fury X sind tolle Karten geworden. AMD schließt zu Nvidia auf, leider auch preislich. :(

Nur ein Punkt kommt in der Launch-Analyse nicht deutlich vor.
Das Nvidia mit der 980 viel früher am Markt war, und auch die 980ti etwas länger verfügbar ist.

Ob dies auch zu einem Markterfolg angesichts der vielen gut ab Werk übertakteten GeForce GTX 980 Karten langt, steht dagegen auf einem anderen Blatt.
Bei CB und anderen Seiten wird aktuell recht häufig diskutiert, wie viel Prozent der Käufer überhaupt oc machen. Macht hier doch einmal eine Umfrage dazu. ^^

fondness
2015-07-12, 11:32:59
Guter Artikel, allerdings fehlt im Fazit eine Erwähnung des Stromverbrauches. Wenn es jetzt zur 980 ein Unterschied von 20 W wären, wäre das vernachlässigbar, aber offenbar scheint das Teil rund 100 W mehr Strom zu fressen unter Last.

Kombiniert mit dem veranschlagten Preis, erscheint eine Custom 980 der bessere Deal zu sein.

Nur verbraucht eine Custom GTX980 dann auch nicht mehr 100W weniger, sondern eher noch 20-50W.

Flusher
2015-07-12, 12:13:37
Nur verbraucht eine Custom GTX980 dann auch nicht mehr 100W weniger, sondern eher noch 20-50W.

Und weiter? Eine Custom 980er, die ungefähr gleich viel kostet wie die Fury, 20-50W weniger verbraucht, und die Fury überrundet - setz jetzt mal deine AMD Brille ab und sag mir ehrlich, was der bessere Deal ist.

fondness
2015-07-12, 12:21:12
Und weiter? Eine Custom 980er, die ungefähr gleich viel kostet wie die Fury, 20-50W weniger verbraucht, und die Fury überrundet - setz jetzt mal deine AMD Brille ab und sag mir ehrlich, was der bessere Deal ist.

Überrundet stimmt ja auch hinten und vorne nicht, es braucht Custom GTX980 um mit der Fury gleichzuziehen. Aber da du eh wieder nur mit der "AMD Brille" kommst...

CD-LABS
2015-07-12, 12:29:11
(...)
Nur ein Punkt kommt in der Launch-Analyse nicht deutlich vor.
Das Nvidia mit der 980 viel früher am Markt war, und auch die 980ti etwas länger verfügbar ist.
(...)

Siehst du das jetzt kritisch oder positiv---oder wolltest du das nur anmerken?

In meinen Augen zeichnet sich ein neutraler Standpunkt gerade dadurch aus, dass man die Launchreihenfolge nicht mit in die Bewertung einer Karte mit rein nimmt, denn die ist ab dem Launchtag vollkommen unerheblich!

Lob an den Artikel gibt es von meiner Seite aus auf jeden Fall, die gezogenen Schlüsse sind durchaus valide!
Beim Preispunkt hätte ich allerdings einen Punkt, den man vielleicht auch beachten könnte: Könnte es sein, dass AMD momentan versucht das bisherige Gesetz "AMD muss günstiger sein" auf die Displays auszulagern? Denn die Karten auf Basis des neuen Chips wirken ja ziemlich identisch aufgestellt, aber mit Einbezug des Preises eines Displays mit VariableRefreshRate (welches ja nahezu einen Pflichtkauf darstellt, wenn man eh in den Preisregionen Grakas kauft) ist man wieder bei den üblichen Preisdifferenzen, die man auch sonst von AMD vs. Nvidia gewohnt ist!

matty2580
2015-07-12, 12:42:41
AMD ist etwas "spät" dran mit Fury.
Das entwertet natürlich nicht die Karten.
Die sind nach wie vor sehr gut geworden, wenn auch etwas teuer.

Da Nvidia aber regelmäßig neue Karten bring, und die 970/980 schon etwas älter sind, wird es nicht mehr so lange dauern bis die nächsten Karten kommen. Das sollten Käufer von Fury mit einkalkulieren.

CB spricht aktuell eine Empfehlung für Fury aus. Dem würde ich mich uneingeschränkt anschließen.

BlacKi
2015-07-12, 12:49:24
Naja die 200W stimmen schon immerhin sind die 660% ja auch nur full hd Ranking! ( und selbst da gegenüber 980 abgerundet 100% vs 96,3% ergibt 620% vs 600% )

Oder willst du wirklich 1080p Performance und 4k Verbrauch angeben? ^^
in dem test wo die karte 200w verbraucht ist metro noch nichtmal aufgeführt. daher kann man solche vergleiche nicht ziehen.

die 200w stimmen wohl für 1080p, aber wer sich eine fury für 1080p kauft sollte sich nochmal gedanken machen.

der typische verbrauch mit spielbaren raten(nicht 4k) über 1080p liegt eben nicht bei 200w, oder würdest du einen verbrauchswert ernst nehmen der in 720p entstanden ist obwohl du in 1080p spielst?

es geht doch hierum um eine information für leute die siche eine karte kaufen wollen.

ein 1080p verbrauchswert für eine karte die nicht hauptsächlich in 1080p eingesetzt wird führt den user auf die falsche fährte.

Knuddelbearli
2015-07-12, 12:57:33
in dem test wo die karte 200w verbraucht ist metro noch nichtmal aufgeführt. daher kann man solche vergleiche nicht ziehen.

die 200w stimmen wohl für 1080p, aber wer sich eine fury für 1080p kauft sollte sich nochmal gedanken machen.

der typische verbrauch mit spielbaren raten(nicht 4k) über 1080p liegt eben nicht bei 200w, oder würdest du einen verbrauchswert ernst nehmen der in 720p entstanden ist obwohl du in 1080p spielst?

es geht doch hierum um eine information für leute die siche eine karte kaufen wollen.

ein 1080p verbrauchswert für eine karte die nicht hauptsächlich in 1080p eingesetzt wird führt den user auf die falsche fährte.

solange dort die Leistung in 1080p steht muss auch der Verbrauch in 1080p angegeben sein. Und die 620% sind nunmal ein reiner 1080p Wert für die Fury! Oder willst du dem Wiedersprechen?

BlacKi
2015-07-12, 13:26:57
hab ich oben schon geschrieben.

meine frage ist ob es der typische verbrauch der karte und unter typischen auflösungen?

direkt gefragt: wie hoch ist der verbrauch unter 1440p und 4k?

leider müsste man die reviewer dazu bringen ihre verbrauchsmessungen zu überarbeiten.

es ist ja nicht nur ein fiji problem auch in nvidia karte werden in zukunft wohl in 1080p nichtmehr einen typischen verbrauch haben.

Knuddelbearli
2015-07-12, 13:55:25
toms hat das gut gemessen mit an die 10 Spielen

aus Erinnerung:

200W in 1080P
260W in 4k

980TI hat nur ca 10W Differenz

BlacKi
2015-07-12, 14:15:11
ja, ich finde das auch gut gelöst von toms hw, der von techpowerup ist etwas realitätsfern.

Leonidas
2015-07-12, 14:27:50
Frage ich mich auch wie man bei 200W 320W und 254W auf 270W schnitt kommt.

Leonidas halt ^^


Im Text steht doch klar, das mir die Meßwerte zu gering für eine Durchschnittsbildung waren und ich daher platt geschätzt habe.

Gast
2015-07-12, 14:39:52
Die Empfehlung für die Lautstärke kann auch nur für die Sapphire gelten ung nicht allgemein für alle Fury ohne X. Ist damkt überhaupt nkcht aussagekräftig und wirkt ziemlich manipulativ. Da scheint AMD hie.lich geschickt vorzugehen. Ob alle Karten so leise sind wie die TriX ist doch stark anzuzweifeln. Sie kann damit nicht als Referenz für Fury gelten und sagt eigentlich nur aus wie gut die TriX ist.

In jedem anderen Launchtest genau der selbe Blödsinn. Schöne leise Karten von AMD, die stammen aber nicht von AMD, nur das PCB. Ob eine Gigabyte oder andere Karte so leise wird...bestimmt nicht.

Knuddelbearli
2015-07-12, 14:41:50
ja das schon klar nur finde ich nicht nachvollziehbar wie du das gemacht hast das du dann beid em Ergebniss rausgekommen bist.

Abgesehen von meiner Späteren Kritik das du den Durchschnittsverbrauch berechnest wo ein Mischmasch von 1080 1440p und 4k herrscht.

Die Diskussion ist zwar erst 2-3 Wochen alt aber zumindest im Text wäre schon eine Berücksichtigung davon inzwischen nett.

Gast
2015-07-12, 16:46:43
Die Empfehlung für die Lautstärke kann auch nur für die Sapphire gelten ung nicht allgemein für alle Fury ohne X. Ist damkt überhaupt nkcht aussagekräftig und wirkt ziemlich manipulativ. Da scheint AMD hie.lich geschickt vorzugehen. Ob alle Karten so leise sind wie die TriX ist doch stark anzuzweifeln. Sie kann damit nicht als Referenz für Fury gelten und sagt eigentlich nur aus wie gut die TriX ist.

In jedem anderen Launchtest genau der selbe Blödsinn. Schöne leise Karten von AMD, die stammen aber nicht von AMD, nur das PCB. Ob eine Gigabyte oder andere Karte so leise wird...bestimmt nicht.
Und was wäre deiner Meinung nach besser gewesen? Zu sagen "AMD hat eh nichts drauf" und deshalb die Lautstärke einfach mal als schlecht bewerten?
Das wäre dann ziemliche Willkür.

Buchbichler
2015-07-12, 19:35:52
Ich würde sagen eine Typisches AMD Produkt. Erst mal an einfachen Details epochal scheitern, und den Launch versauen. Solche überhasteten Aktionen sind einfach unfair gegenüber der Fachpresse. Jetzt ist das Internet voll mit halbgaren verspäteten und unfertigen Presseberichten - Ganz Toll gemacht AMD.
Die Auswirkung ihre genialen Aktion auf das Geschäftsergebnis wird sich in Grenzen halten, das Teil wird kaum einer kaufen.

Sie ist bombastische 3 % schneller 100,- teurer und verbraucht 50% mehr Strom als die 980. Eigentlich hätte Nvidia gar keine 980 Ti bringen müssen, das Teil ist ein Rohrkrepierer. Die 10 Monate alte 980 hätte die auch alleine vom Markt geputzt.

Das Teil ist derzeit maximal 450,- Wert, für 400- wird sie ein guter Deal. Wer das Teil zum angegebenen Preis kauft, dem ist wirklich nicht mehr zu helfen. Ich weis nur nicht ob AMD so Weltfremd ist, oder nur seine Kunden für Idioten hält.

Gast
2015-07-12, 20:21:14
Ich weis nur nicht ob AMD so Weltfremd ist, oder nur seine Kunden für Idioten hält.
Möglicherweise sind die Kunden von AMD mit der Zeit auch anspruchsloser geworden.

mFuSE
2015-07-12, 23:29:38
Guter Artikel, allerdings fehlt im Fazit eine Erwähnung des Stromverbrauches. ..

Diesmal passt der Artikel, auch gefällt die Fury richtig gut.
In der Tat ist der Stromverbrauch deutlich höher, aber nicht mehr so katastrophal abgehoben wie bei der 390X, ergo schonmal ganz gut in die richtige Richtung nach unten.

Solange die Kühlung das wegschaffen kann, ist es ansich nicht mehr so dramatisch - und das kann sie bei der Sapphire custom Design.

Ich würde mal behaupten - AMD kann froh sein solche custom Hersteller Designs des Fiji Chips zu haben, denn bislang war Fiji ein totaler Griff ins Klo und Reinfall des Jahres 2015 für mich.

Aber so langsam scheint man das Ding doch noch brauchbar zu bekommen.


Ziemlich guter Artikel.

Vorsichtige Kritik hätte ich nur bei der Besprechung des Preispunkts. Natürlich wäre ein marktgerechterer Preis wünschenwert. Allerdings sehe ich ein, dass AMD erst mal die Enthusiasten bedient, die die schnellste luftgekühlte AMD-Karte haben wollen und die dafür gerne auch etwas tiefer in die Tasche greifen.

Als Enthusiast Grafikkarte muss die Hardware aber vor allem eins können: nach oben hin offen sein.
Und das ist die Fury immer noch nicht - ergo enttäuschend.
Das es später vll irgendwann mal eventuell angepasste Tools geben wird mit denen man Spannung und Takt weiter treiben kann ...

Es ist wie immer bei AMD: "irgendwann später mal wird alles toll" ....
das hört man bei jedem Produktlaunch bei AMD .... der nächste Treiber wird alles viel besser machen .. das Super Feature das kommt wird alles umreißen .. Mantle wird Nvidia vernichten ... bla bla bla ...

Hier und jetzt betrachtet .. nette, gute Karte .. endlich mal Ansätze die reizen ... aber für mich bin ich doch froh Anfang des Jahres zwar kurz gezögert zu haben, aber dann auch nachträglich betrachtet die richtige Kaufentscheidung getroffen zu haben.

Gast
2015-07-13, 00:11:20
Und was wäre deiner Meinung nach besser gewesen? Zu sagen "AMD hat eh nichts drauf" und deshalb die Lautstärke einfach mal als schlecht bewerten?
Das wäre dann ziemliche Willkür.
Schreiben das es ein SAPPHIRE Cutsom Design ist (was hat das denn mit AMDs Fähigkeiten zu tun - gute Kühlkonstruktionen zu bauen?), dessen Kühlerkonstrukt man sich reichlich bezahlen lässt (weil das Ding teuer ist). Wir vergleichen jetzt Cutsom mit Referenz, machen Cutsom zur Referenz, was wollen wir noch alles für einen Blödsinn machen, damit AMD gut da steht? Irgendwann ist dieses "ach das arme AMD" aufgebraucht, zieht nicht mehr. Die wollen wie andere nur Geld, derzeit nicht mal wenig, für halbgaren Mist.

AMD geht völlig flasche Wege, was wird denn jetzt mit denen, die einen Scheiß auf Lüfterkonstruktionen geben (habe früher ein Refrenzdesign gekauft und einen Wasserkühlerblock draufgeschnallt), ich soll jetzt den Kühlerklotz mitbezahlen, bestimmt nicht.

Das zerstört auch einem der direkten Vorteile von HBM-Designs, das kurze Platinenlayout! Ja, AMD hat es nicht drauf, genau so ist es, sie stellen hier was hin, was sie im nächsten Augenblick mit dem Arsch wieder umreissen. Schildbürgertum. Fiji ist bisher eine Fehlgeburt. Keine der Ankündigungen wurden zielgerichtet und konsequenz umgesetzt (alles nur leeres Geschwafel des Marketing und blah blah blah), hektisch fehlerbehaftet und laienhaft in den Markt geworfen, weil die Konkurrenz ziemlich stark aufgestellt ist.

Selbst wenn AMD in 4K schneller sein kann (oder im Mittel ist), was macht nV denn jetzt - klaro - einfach die Preise senken. AMD kann da nicht mitgehen, HBM zu teuer, FuryX 50% Rückläuferquote wegen Pumpenfiepen (sind wohl 5000 Karten), Fury ohne X zu teure Kühlkonstruktionen der Partner.

Gehupft wie gesprungen, die drehen sich im Kreis. Leider.

In FHD liegt sie 3% über der 390x die kostet 200 Euro weniger!!!! Die Performance im Auflösungsmittel ist so löchrig wie ein Schweizer Käse. (wenn man dann mal im eigenen Haus vergleicht)

Warte wir wieder jahrelang auf den Treiber der das Problem löst (wie bei Tahiti und Hawaii), ja, denn mach mal.

Buchbichler
2015-07-13, 01:39:00
"Mantle wird Nvidia vernichten ... bla bla bla ..."

Weil du es gerade erwähnst. Mantle wurde mit GZN 1.2 quasi abgekündigt. Die Karten sind mit DX12 schneller, und Mantle wird nicht an die neuen Chips angepasst. Das heißt es wird wohl auch keine neuen Spiele mehr geben die das unterstützen, wozu sollte sich noch jemand die Arbeit machen.

Weiterhin wird natürlich viel Werbung damit gemacht und das Feature ohne Praktischen Nutzen für alle Unwissenden angepriesen.

Gast
2015-07-17, 07:44:44
Schön das hier die AMD-Hasser ein Plätzchen gefunden haben.

Immer wieder schön wie im 3dcenter Übertriebene Aussagen "gepuscht" werden.