PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14

Peter Gräber
2015-06-25, 21:30:37
Wann ist der HT4U Test online?

Wenn er fertig ist ;).

uweskw
2015-06-25, 21:30:50
Gut Ding will Weile haben. Da warte ich auch gerne noch ein paar Tage auf HT4U.

greetz
US

Unicous
2015-06-25, 21:34:17
Wurde gerade mein harmloser Post gelöscht oder bin ich verrückt geworden.

Ich versuche es nochmal.

Sollst du haben, wobei ich da schon relativ sicher bin, dass Carsten und Raff keinen Fehler gemacht haben und ihre Werte zu den vorangegangenen Messungen anderer Grafikkarten vergleichbar sind.

Edit: Ich kann das hochfrequente Geräusch aus dem geschlossenen Gehäuse ebenfalls heraushören. Da kann ich Marcs Einschätzung nicht zustimmen, mag aber am Muster liegen.


:)

Froi

http://dailyexhaust.com/images/ren_and_stimpy_smiling.jpg

(del676)
2015-06-25, 21:48:05
Wurde schon ueber die falschen Treiber gesprochen?
http://www.reddit.com/r/pcmasterrace/comments/3b2ep8/fury_x_possibly_reviewed_with_incorrect_drivers/

Anscheinend wurden viele Reviews mit dem falschen Treiber gemacht. :lol:

Effe
2015-06-25, 21:48:35
Die Moderatoren machen grad Überstunden. Kein Wunder bei den ganzen Möbiusschleifen in den AMD-Threads.

Zu den Leistungsmessungen hätte ich gerne mal eine wissenschaftliche Meinung. Sind die Messgeräte zu ungenau, weil die Lastwechsel inzwischen zu schnell sind und kann man mit den Trägeren gar nicht mehr genau messen? Dann haben nämlich bisher alle recht, die Leistungsaufnahmen messen.
Ich finde die THG-Messungen sehr interessant und wüsste nicht was daran falsch sein soll, abseitig von der Definition "Gamingloop".

Unicous
2015-06-25, 21:55:54
Wurde schon ueber die falschen Treiber gesprochen?
http://www.reddit.com/r/pcmasterrace/comments/3b2ep8/fury_x_possibly_reviewed_with_incorrect_drivers/

Anscheinend wurden viele Reviews mit dem falschen Treiber gemacht. :lol:

Alles was auf reddit steht ist richtig und gut.

(del676)
2015-06-25, 21:57:56
Sonst keine Argumente?

Unicous
2015-06-25, 22:02:09
Sonst keine Argumente?

Ziemlich starkes Argument wenn du mich fragst.;)

DrFreaK666
2015-06-25, 22:02:44
Außerdem steht da "möglicherweise"

M4xw0lf
2015-06-25, 22:02:54
Wurde schon ueber die falschen Treiber gesprochen?
http://www.reddit.com/r/pcmasterrace/comments/3b2ep8/fury_x_possibly_reviewed_with_incorrect_drivers/

Anscheinend wurden viele Reviews mit dem falschen Treiber gemacht. :lol:
Das glaube ich kaum.

Raff
2015-06-25, 22:09:27
Sollst du haben, wobei ich da schon relativ sicher bin, dass Carsten und Raff keinen Fehler gemacht haben und ihre Werte zu den vorangegangenen Messungen anderer Grafikkarten vergleichbar sind.

Edit: Ich kann das hochfrequente Geräusch aus dem geschlossenen Gehäuse ebenfalls heraushören. Da kann ich Marcs Einschätzung nicht zustimmen, mag aber am Muster liegen.

Ist deine Karte etwa auch mysteriös sparsam, Peter? Ich will auch so ein Sample. :D

MfG,
Raff

Unicous
2015-06-25, 22:13:19
Nur mal als Info: ixbt hat unter Win7 getestet, der Rest? unter 8.1. (bitte korrigieren wenn ich falsch liege).

Menace
2015-06-25, 22:18:59
Ist deine Karte etwa auch mysteriös sparsam, Peter? Ich will auch so ein Sample. :D


:eek: Wie sehr respektiere ich reife, rationelle Auseinandersetzung auf Basis naturwissenschaftlichen Arbeitsweisen, die in ein Vertrauen entsprechender Medien resultiert. :rolleyes:

mironicus
2015-06-25, 22:21:01
Wie hoch wohl die Reklamationsquoten sein werden?

12-15 Monate mit so einem Geräusch im Hintergrund (Zahnarztbohrer) halte ich nicht für gesund. Ich bin froh, das ich das Teil wieder los bin. :D

Luftkühlung mit Zerofan-Modus ist doch was feines... Stille. :D

DrFreaK666
2015-06-25, 22:21:35
:eek: Wie sehr respektiere ich reife, rationelle Auseinandersetzung auf Basis naturwissenschaftlichen Arbeitsweisen, die in ein Vertrauen entsprechender Medien resultiert. :rolleyes:

???

Peter Gräber
2015-06-25, 22:25:47
Ist deine Karte etwa auch mysteriös sparsam, Peter? Ich will auch so ein Sample. :D

MfG,
Raff

Keinen Plan - soweit bin ich hier noch nicht und es hat mich noch nicht sonderlich interessiert. Ich bin gerade dabei das Verhalten unter Spielen und im Gehäuse zu sondieren. Aber wenn es so irre sparsam ist, spreche ich mit AMD, dass sie eines der raren Muster dann direkt zu dir schicken ;).

Ich lass es dich als ersten wissen, wenn ich mit unseren "genauen" Messungen auf eure komme. Aber ich glaub ich werd dann in dem Artikel noch ein bissel mehr zeigen, damit sich niemand auf den Schlips getreten fühlt.

Menace
2015-06-25, 22:30:11
???

Raffs Polemik gegenüber der Kritik bzgl. Leistungsmessung. Ich deute es als nicht sehr reife Antwort bzgl. Diskussion zw. Format_C und pcgh. Und falls ich damit Recht habe (ich kann mich täuschen, dann mea culpa) halte ich die Art und Weise der Diskussion zwar für passend innerhalb von 3dcenter, aber als "schwache" Reaktion auf die Diskussion (um es euphemistisch zu sagen).

Edit: @Peter Gräber: Ruhig Zeit lassen. Ich freue mich auch schon auf einen genauen Test mit möglichst vielen Aspekten.

DrFreaK666
2015-06-25, 22:34:05
Raffs Polemik gegenüber der Kritik bzgl. Leistungsmessung. Ich deute es als nicht sehr reife Antwort bzgl. Diskussion zw. Format_C und pcgh. Und falls ich damit Recht habe (ich kann mich täuschen, dann mea culpa) halte ich die Art und Weise der Diskussion zwar für passend innerhalb von 3dcenter, aber als "schwache" Reaktion auf die Diskussion (um es euphemistisch zu sagen).

Edit: @Peter Gräber: Ruhig Zeit lassen. Ich freue mich auch schon auf einen genauen Test mit möglichst vielen Aspekten.

Ok. Habs verstanden :)

dargo
2015-06-25, 22:34:21
Wurde schon ueber die falschen Treiber gesprochen?
http://www.reddit.com/r/pcmasterrace/comments/3b2ep8/fury_x_possibly_reviewed_with_incorrect_drivers/

Anscheinend wurden viele Reviews mit dem falschen Treiber gemacht. :lol:
Nee... oder? :|

Edit:
Kann es sein, dass nur ixbt die komplette Bezeichnung des Cat. 15.15 angibt? Ich bin jetzt einige Reviews im ersten Post durchgegangen und finde immer nur Cat. 15.15.

aufkrawall
2015-06-25, 22:36:13
Mit Durchschnittsverbräuchen über reale Benchmarkszenen würde HT4U jedenfalls jegliche Kritiker an den bisherigen Tests zufrieden stellen. ;)

Grumbart
2015-06-25, 22:46:50
Auf die HT4u Tests bin ich gespannt.

Raff
2015-06-25, 23:03:53
Raffs Polemik gegenüber der Kritik bzgl. Leistungsmessung. Ich deute es als nicht sehr reife Antwort bzgl. Diskussion zw. Format_C und pcgh. Und falls ich damit Recht habe (ich kann mich täuschen, dann mea culpa) halte ich die Art und Weise der Diskussion zwar für passend innerhalb von 3dcenter, aber als "schwache" Reaktion auf die Diskussion (um es euphemistisch zu sagen).

Welche Polemik?

Um der Sache noch etwas mehr "personality" zu geben: Es wirkt nun mal befremdlich, wenn man sich als gestandener Redakteur mit einem unmenschlichen Überstundenkonto Äußerungen konfrontiert sieht, die besagte, in vielen Überstunden erzeugten und außerdem verschenkten Inhalte in Frage stellen oder gar den Dreck ziehen. Da hätte man die Stunden besser in (Bei-)Schlaf investieren sollen, denkt sich der Redakteur. Damit meine ich nicht Igor/THG, sondern ein paar Spezialisten im Internet.

Ich kann nur sagen, dass bei PCGH viel Aufriss betrieben wird und kuriose Ergebnisse immer nachgetestet werden (sanity check). Bei Geforce-Karten ist's ja genauso, dort bekommt die Redaktion auch ständig zu hören, dass man diese schlecht dastehen lasse, weil man ja mit dem "total niedrigen" typical Boost teste. Der entspricht aber - bei Referenzkarten - keineswegs einer Selbstunterbewertung seitens Nvidia. Ebenso wie eine "typical gaming power" von AMD eben kein Maximalverbrauch ist. Einfach mal darüber nachdenken. "Die Wahrheit" gibt es nicht, es gibt immer mehrere Varianten. Es ist lästig, zu sehen, dass im Internet immer das Bild als "falsch" betitelt wird, wo die Faktenlage etwas negativer ist als andernorts. Dabei beugt sowas Enttäuschungen vor.

Ihr hängt euch übrigens alle am höchsten von PCGH angegebenen Wert auf: 329 Watt in Risen 3. Die 313 Watt in Anno interessieren niemanden, dabei ist das gar nicht mehr weit weg von so manchem anderen Ergebnis und den "typischen" 275 Watt. Das einzige, was fehlt, ist ein Low-Power-Spiel wie Crysis 3, Skyrim oder Wolfenstein TNO, dann hätte wohl niemand gemotzt. Aber motzen ist einfach en vogue ...

Keinen Plan - soweit bin ich hier noch nicht und es hat mich noch nicht sonderlich interessiert. Ich bin gerade dabei das Verhalten unter Spielen und im Gehäuse zu sondieren. Aber wenn es so irre sparsam ist, spreche ich mit AMD, dass sie eines der raren Muster dann direkt zu dir schicken ;).

Ich lass es dich als ersten wissen, wenn ich mit unseren "genauen" Messungen auf eure komme. Aber ich glaub ich werd dann in dem Artikel noch ein bissel mehr zeigen, damit sich niemand auf den Schlips getreten fühlt.

Bin gespannt. :up:

MfG,
Raff

Angiesan
2015-06-25, 23:06:59
Na es gibt doch schon Tests die den Stromverbrauch etwas differenzierter betrachten:http://www.techpowerup.com/reviews/AMD/R9_Fury_X/29.html

Aber es bleibt bis auf die sehr kompakten Maße einfach kein Grund warum man sich das Ding kaufen sollte. Gerade wenn man schon was schnelles von der Konkurrenz oder dem eigenen Hause hat.
Das die Karte auch dann noch als letztes auf den Markt gebracht wurde, dürfte wieder einen gehörigen Batzen Kunden gekostet haben, die sich jetzt noch mal mehr über ihre 980TI freuen.
Es ist wirklich zum Mäuse melken, AMD hat das schon wieder verkackt:freak:

Leicht höherer Stromverbrauch, gleich schnell, gleich teuer wie NV mit der 980 TI dafür ein paar Wochen später mit einer aktuell zu lauten Pumpe beim Nichtstun.
Verstehen muss man das nicht mehr, die kapieren einfach nicht wenn ich nicht deutlich schneller bin wie der Mitbewerber dann muss ich was haben was die Leute genau so mögen wie viele FPS.
Selbst ein perfekt langweiliges Produkt ist immer noch viel besser wie ein unrundes langweiliges Produkt, bravo AMD ihr schaft das schon noch den ATi - Zweig auch noch in die Pleite zu treiben,
2,50 Euro an der Pumpe gespart und gefühlt die Halfte der verbleibenden Interessenten verprellt.:mad:

Raspo
2015-06-25, 23:10:37
Naja, immerhin gibt's mal wieder ne Karte im High End Bereich von den Roten. Und irgendwas ist immer.

Verfolge relativ ausführlich die Berichterstattung. Und ich möchte gar nicht wirklich wissen, was da hinter den Kulissen abgeht.

Angiesan
2015-06-25, 23:24:20
Naja irgendwas ist immer, ist genau das, was eben in der Preislage nicht mehr akzeptiert wird.
Es kann doch nicht so schwer sein ins Lastenheft das richtige reinzuschreiben!? Einfach mal in den Foren präsent sein, da wird einem gesagt was der Markt will.
-Leise
-Schnell
-Edel
-Cool
-gut übertaktbar
dann wird das auch mit den Kunden. Ich habe keine Ahnung was so eine Pumpe in großen Mengen kosten darf, aber ich kann mir vorstellen, es sind nicht mehr wie 10,-- Euro die der Kunde gerne bezahlt wenn es dann leise und kühl ist.

Raspo
2015-06-25, 23:39:03
+1

Wenn hier aber nicht wenigstens der eine oder andere Mitverantwortliche von den üblichen Verdächtigen Amd, Nvidia, Asus, Msi und wie sie alle heißen nicht mindestens teilweise mitlesen wäre das "komisch". Oder bin ich da völlig aufm Holzweg?

Das Spannendere ist, können sich diese Leute an den richtigen Stellen durchsetzen, glaube das ist vielleicht eher das Problem.

AtTheDriveIn
2015-06-25, 23:39:06
Und du glaubst wirklich das es in 1nem Monat noch Thema seien wird? Die Probleme mit der Pumpe sind ganz schnell behoben, da bekannt und leicht zu fixen.

Klar ist das für die Reviews nicht optimal gelaufen, aber mich würde so was simples als Kunde kaum abschrecken.

Flusher
2015-06-25, 23:39:35
Nee... oder? :|

Edit:
Kann es sein, dass nur ixbt die komplette Bezeichnung des Cat. 15.15 angibt? Ich bin jetzt einige Reviews im ersten Post durchgegangen und finde immer nur Cat. 15.15.

Naja als ich die Performance gesehen habe, die gelockten Spannungen und HBM-Taktraten hab ich als erstes auch an einen falschen Treiber gedacht - aber so blöd kann AMD wirklich gar nicht sein.


Oder etwa doch? Das wäre wahrscheinlich der größte FAIL in der Geschichte von Grafikkarten-Launches.

Die Version 150611a ist wenn ich mich nicht irre der 300-Serie Launch-Treiber. Fragt sich nun welcher der Richtige ist und mit welcher Version die Presse getestet hat.

mironicus
2015-06-25, 23:44:00
Aber es bleibt bis auf die sehr kompakten Maße einfach kein Grund warum man sich das Ding kaufen sollte.

Den gibt es auch nicht. Wenn jemand (neutraler Kunde ohne Vorliebe für eine bestimmte Firma) bereit ist >700 Euro für eine Grafikkarte auszugeben und das Beste für sein Geld will, wird derjenige irgendeine GTX 980 Ti wählen, die ihm gefällt. Da hast du genügend Auswahl an Custom Designs. Fury XT gibt es nur in dieser einen Version.

Ich nehme an, dass der Preis der Fury XT noch deutlich fallen wird in den nächsten Monaten.

Raspo
2015-06-25, 23:46:28
Und du glaubst wirklich das es in 1nem Monat noch Thema seien wird? Die Probleme mit der Pumpe sind ganz schnell behoben, da bekannt und leicht zu fixen.

Klar ist das für die Reviews nicht optimal gelaufen, aber mich würde so was simples als Kunde kaum abschrecken.

Ja, aber genau das ist das Problem. Das es AMD nicht schafft, solche kleinen vermeidbaren Sachen zu eliminieren. Ich finde die Fury durchaus gelungen. Aber solche Dinger hinterlassen einen unprofessionelle Eindruck. Aber zweifelsohne ist AMD aufm Weg in die richtige Richtung. Hoffen wir, dass sie es schaffen.

gedi
2015-06-25, 23:55:42
Den gibt es auch nicht. Wenn jemand (neutraler Kunde ohne Vorliebe für eine bestimmte Firma) bereit ist >700 Euro für eine Grafikkarte auszugeben und das Beste für sein Geld will, wird derjenige irgendeine GTX 980 Ti wählen, die ihm gefällt. Da hast du genügend Auswahl an Custom Designs. Fury XT gibt es nur in dieser einen Version.

Ich nehme an, dass der Preis der Fury XT noch deutlich fallen wird in den nächsten Monaten.

Du vergisst aber zu erwähnen, dass bis auf die Inno alle Custom-980 Ti relativ laut sind.
Okay - overclicking ist ein Traum mit der 980 Ti. Mittlerweile bin ich ohne Spannungszugabe bei +265Mhz angelangt, was dank angepasstem VBIOS dauerhafte 1475Mhz@1,162V bedeuten. Ich hätte Fury sehr gerne eine Chance gegeben, aber so wird es über kurz oder lang lediglich eine Alternativ-Kühlung für die 980 Ti.

AtTheDriveIn
2015-06-25, 23:56:09
Ja, aber genau das ist das Problem. Das es AMD nicht schafft, solche kleinen vermeidbaren Sachen zu eliminieren. Ich finde die Fury durchaus gelungen. Aber solche Dinger hinterlassen einen unprofessionelle Eindruck. Aber zweifelsohne ist AMD aufm Weg in die richtige Richtung. Hoffen wir, dass sie es schaffen.

Wenn man selber in einem Großunternehmen mit Millarden Umsatz arbeitete und live mitbekommt was dort alles falsch läuft, sieht man solche Kleinigkeiten gelassen. Wichtiger ist, dass das Produkt an sich funktioniert und da bin ich sehr positiv gestimmt bei der Fury. In den nächsten Monaten wird sie sicher immer besser, da Treiber und Hardware eine höhere Reife erreichen.

Troyan
2015-06-26, 00:00:07
Du vergisst aber zu erwähnen, dass bis auf die Inno alle Custom-980 Ti relativ laut sind.
Okay - overclicking ist ein Traum mit der 980 Ti. Mittlerweile bin ich ohne Spannungszugabe bei +265Mhz angelangt, was dank angepasstem VBIOS dauerhafte 1475Mhz@1,162V bedeuten. Ich hätte Fury sehr gerne eine Chance gegeben, aber so wird es über kurz oder lang lediglich eine Alternativ-Kühlung für die 980 Ti.

Die eVGA Hybrid gibt es in Amerika für $100 mehr: http://www.evga.com/Products/ProductList.aspx?type=0&family=GeForce+900+Series+Family&chipset=GTX+980+Ti

Solange wie man Fury X nicht richtig übertakten kann, sind selbst $750 besser angelegt als die $650.

Verstehe sowieso nicht, wieso man eine Woche vorher mit Marketingsquatsch das Übertakten massiv in den Vordergrund stellt und dann so etwas abliefert.

Datarecovery09
2015-06-26, 00:08:04
Mal ganz grundlegend: Gibt es eigentlich irgendeine GCN-GPU, die man ohne manuelle Spannungseingriffe gescheit übertakten kann?

mironicus
2015-06-26, 00:09:54
Ich hätte Fury sehr gerne eine Chance gegeben, aber so wird es über kurz oder lang lediglich eine Alternativ-Kühlung für die 980 Ti.

Die Fury ist ohnehin kurzlebig wegen all ihrer Kompromisse, die nicht jeder akzeptieren wird. Das kann AMD nur mit einem niedrigen Preis kompensieren. Aber es ist eine gute Konzeptstudie für das was uns in Zukunft erwarten wird: Kurze Grafikkarten mit noch viel mehr Speicher. :freak:

Thunder99
2015-06-26, 00:19:28
Mal ganz grundlegend: Gibt es eigentlich irgendeine GCN-GPU, die man ohne manuelle Spannungseingriffe gescheit übertakten kann?
7970 ging ganz gut. Hawaii eher schlecht durch Speichercontroller und Chip an sich. Mit Standard +25mV laut Afterburner schaffe ich +70MHz. Meine vorherige 970 schaffte +130MHz. Also rund Doppel so viel. Dennoch muss es nicht immer so sein

Azubi
2015-06-26, 00:30:11
Verstehe sowieso nicht, wieso man eine Woche vorher mit Marketingsquatsch das Übertakten massiv in den Vordergrund stellt und dann so etwas abliefert.

Da hatte ich mir von "overclockers dream" auch einiges mehr erwartet. Ich bin da herbe enttäuscht von AMD. Ich hätte denen den "Gipfelstürmer" echt gegönnt. Konkurrenz kann nur gut sein für schnelle Entwicklung.

... und zu einigen Diskussionen hier

Ich habe immer meine GraKas nach irgendwelchen Tests gekauft. Und bin auch immer gut damit gefahren als 0815-User. Ich verstehe gar nicht warum nun sehr viel Wert auf viele "Besonderheiten" und Sonderlingsverhalten" verlangt wird, wo von ich vieles eh nicht verstehe.

Mir reicht es total wenn ich lesen kann
- Karte X ist ein aktueller Preis/Leistungstipp
oder z.B.
- Karte X ist "Overclockers Dream"

Aber ich als Unwissender möchte ich nicht in Zukunft mit Fachsimpeleien erschlagen werden, die mir nichts sagen. Ich möchte nur eine einfache Kaufentscheidungshilfe haben.

redfirediablo
2015-06-26, 00:37:22
Mittlerweile habe ich den Eindruck, das manche ihr Selbstwertgefühl darauf aufbauen, das "Ihre" Grafikkartenmarke besser ist als "die andere". Anders ist diese Kindergartendiskussion nicht zu erklären.

Plötzlich heucheln 980ti Besitzer "sie hätten sich doch gern eine fury x gekauf" aber leider leider sei die ja so enttäuschend und so schlecht, könne man ja gar nicht kaufen und die 980TI sei doch in allen Belangen besser... und die Treiber ja sowieso.. etc. pp. , natürlich mit süffisanter Genugtuung.

Es werden von beiden Lagern immer wieder die gleichen alten Kammellen aufgewärmt, jeweils so wie es passt entweder aufgebauscht und für ultrawichtig erklärt während für die eigene Mannschaft negative Eigenschaften ja völlig irrelvant seien.

ES KOTZT MICH AN!

Scheiße mal, werdet erwachsen!

Nvidia liefert Top Produkte, AMD hat ein Produkt nachgelegt das manche Vorteile und manche Nachteile hat aber sicherlich nicht klar besser ist. Statt danke zu sagen, das man jetzt eine Auswahl hat, wird dieser kleingeistiger Müll abgelassen, so das man gar keinen Thread mehr zum Thema lesen kann.

Es gibt ja diverse interessante Themen zur Fury, z.B. wo denn nun wirklich die Leistungsaufnahme liegt (THG <-> PCGH), ob denn das OC irgendwann mal freigeschaltet wird (Spannung, Speicher) und ob Änderungen durch DX 12 zu erwarten sind.

Aber nein, Spam und Schwanzvergleiche ohne Ende. Wir sind viel cooler, nein wir sind viel cooler und Ihr seid doof. Sandkasten at its best.

N0Thing
2015-06-26, 00:41:10
Die GPU Architektur ist nicht neu und wenn HBM das Probleme ist und AMD die Treiber extra für jedes Game anpassen muss,macht das Ganze nicht grad besser.

Ich habe das so verstanden, dass wegen der 4GB für jedes Spiel optimiert werden muss, damit der Speicher ausreicht und nicht wegen HBM als Speichertechnik.

anddill
2015-06-26, 00:42:28
Mittlerweile habe ich den Eindruck, das manche ihr Selbstwertgefühl darauf aufbauen, das "Ihre" Grafikkartenmarke besser ist als "die andere". Anders ist diese Kindergartendiskussion nicht zu erklären.

Plötzlich heucheln 980ti Besitzer "sie hätten sich doch gern eine fury x gekauf" aber leider leider sei die ja so enttäuschend und so schlecht, könne man ja gar nicht kaufen und die 980TI sei doch in allen Belangen besser... und die Treiber ja sowieso.. etc. pp. , natürlich mit süffisanter Genugtuung.

Es werden von beiden Lagern immer wieder die gleichen alten Kammellen aufgewärmt, jeweils so wie es passt entweder aufgebauscht und für ultrawichtig erklärt während für die eigene Mannschaft negative Eigenschaften ja völlig irrelvant seien.

ES KOTZT MICH AN!

Scheiße mal, werdet erwachsen!

Nvidia liefert Top Produkte, AMD hat ein Produkt nachgelegt das manche Vorteile und manche Nachteile hat aber sicherlich nicht klar besser ist. Statt danke zu sagen, das man jetzt eine Auswahl hat, wird dieser kleingeistiger Müll abgelassen, so das man gar keinen Thread mehr zum Thema lesen kann.

Es gibt ja diverse interessante Themen zur Fury, z.B. wo denn nun wirklich die Leistungsaufnahme liegt (THG <-> PCGH), ob denn das OC irgendwann mal freigeschaltet wird (Spannung, Speicher) und ob Änderungen durch DX 12 zu erwarten sind.

Aber nein, Spam und Schwanzvergleiche ohne Ende. Wir sind viel cooler, nein wir sind viel cooler und Ihr seid doof. Sandkasten at its best.


Willkommen im Neuland...
Also die Frage zur Leistungsaufnahme kann ich Dir beantworten: Beide haben Recht. Die Fury hat halt einen sehr großen ungedrosselten Bereich für die Stromaufnahme.

BlacKi
2015-06-26, 01:08:00
Mittlerweile habe ich den Eindruck, das manche ihr Selbstwertgefühl darauf aufbauen, das "Ihre" Grafikkartenmarke besser ist als "die andere". Anders ist diese Kindergartendiskussion nicht zu erklären.

Plötzlich heucheln 980ti Besitzer "sie hätten sich doch gern eine fury x gekauf" aber leider leider sei die ja so enttäuschend und so schlecht, könne man ja gar nicht kaufen und die 980TI sei doch in allen Belangen besser... und die Treiber ja sowieso.. etc. pp. , natürlich mit süffisanter Genugtuung.

Es werden von beiden Lagern immer wieder die gleichen alten Kammellen aufgewärmt, jeweils so wie es passt entweder aufgebauscht und für ultrawichtig erklärt während für die eigene Mannschaft negative Eigenschaften ja völlig irrelvant seien.

ES KOTZT MICH AN!

Scheiße mal, werdet erwachsen!

Nvidia liefert Top Produkte, AMD hat ein Produkt nachgelegt das manche Vorteile und manche Nachteile hat aber sicherlich nicht klar besser ist. Statt danke zu sagen, das man jetzt eine Auswahl hat, wird dieser kleingeistiger Müll abgelassen, so das man gar keinen Thread mehr zum Thema lesen kann.

Es gibt ja diverse interessante Themen zur Fury, z.B. wo denn nun wirklich die Leistungsaufnahme liegt (THG <-> PCGH), ob denn das OC irgendwann mal freigeschaltet wird (Spannung, Speicher) und ob Änderungen durch DX 12 zu erwarten sind.

Aber nein, Spam und Schwanzvergleiche ohne Ende. Wir sind viel cooler, nein wir sind viel cooler und Ihr seid doof. Sandkasten at its best.

und mir gehen leute auf den sack die hauptsächlich online kommen um anderen ihren frust aufzudrücken. leute mit unterschiedlicher meinung/interessen/anforderungen wird immer geben.

Ph0b0ss
2015-06-26, 01:22:43
Hat schon jemand GPU-Z v0.8.4 ausprobiert zum Auslesen der Temps der Spawas und der Vgpu?

0.8.4
-Added full AMD Radeon Fury X support

DerKleineCrisu
2015-06-26, 01:23:52
und mir gehen leute auf den sack die hauptsächlich online kommen um anderen ihren frust aufzudrücken. leute mit unterschiedlicher meinung/interessen/anforderungen wird immer geben.

Und mir gehen Leute auf den sack , bei dehnen andere Leute auf den Sack gehen die wiederum andere Leute auf den Sack gehen.

Ach gehen wir doch alle uns auf den Sack ;D .

Verschiedene Meinungen schön und gut aber wenn man sieht das
auf 50 Seiten das gleiche steht und für Leute wie mich interesannte
sachen oder fragen untergehen ist kacke.
Das geht mir auch selber auf den Sack.

Da streitet man sich wie gesagt über diese 30 - 50 Watt mehr Verbrauch auf
über 50 15 Seiten und lässt alles andere bei Seite weil die Karte nicht von den Grünen kommt.
Würde die Karte von den grünen kommen würde die
FPS in den Vordergrund gestellt.
Für mich ist die Fury X leider zu Teuer , aber die Richtung finde ich die
sie Zeigt finde ich gut.
Selber bin ich auf die Nano Version gespannt und in welcher Preisregion die
sich einfindet bzw wie die Leistung von der sein wird.

Grüße

aufkrawall
2015-06-26, 01:45:59
Hinweis: Bei P3DNow wird viel weniger bei AMD gemeckert, machts euch doch dort gemütlich. ;)

Leonidas
2015-06-26, 04:34:10
Irgendwas ist momentan krumm mit Fury - abartig viel Rohleistung die einfach nicht auf die Straße gebracht werden. Ich kann die Tonga-Front-End-Theorie aktuell nicht glauben.

Sorry - aber für so blöd hält nicht mal der Duplex AMDs Entwicklungsabteilung.


Reine Hypothese: Eventuell limitiert das Frontend unter DX11 - und unter DX12 dann nicht mehr. Deswegen hat man es nicht aufgebohrt, die wäre für DX12 zwecklos.

Dann aber hätte AMD *zu früh* gelauncht. Wäre auch mal was neues.

Digidi
2015-06-26, 04:48:39
Ich bin nur ein Anfänger was gpus betrifft aber was muss den passieren das die drawcalls in dx12 steigen? Hat das nichts mit dem Frontend zu tun?

Menace
2015-06-26, 06:40:56
Da hätte man die Stunden besser in (Bei-)Schlaf investieren sollen, denkt sich der Redakteur. Damit meine ich nicht Igor/THG, sondern ein paar Spezialisten im Internet.


Ich kann Deinen Frust verstehen, aber im Verlauf der Diskussion in diesem Thread mit Igor/THG habe ich das dann wohl falsch interpretiert, deshalb Mea Culpa. Da fand ich aber Eure (Carsten vers Igor) Diskussion auch nicht besser (von der Form). Wie hier schon erwähnt, finde ich es gut wenn man möglichst viele Tests mit möglichst viele Testmethoden findet, einfach um einmal zu sehen was alles möglich ist. Wobei ich sagen muss, dass mein eher untypischer Gebrauch von PCs (viel Arbeit, hoher Multitasking Anteil, hoher Anteil an OpenCl) in Testszenarien nicht so präsent ist.

Hinweis: Bei P3DNow wird viel weniger bei AMD gemeckert, machts euch doch dort gemütlich. ;)

Da wird auch wenig über nvidia gemeckert und User schreiben (soweit ich das verfolgt habe relativ ungestört) seitenlange Lob-Erfahrungerberichte zu nvidia-Grafikarten (http://www.planet3dnow.de/vbulletin/threads/404886-Zurueck-zu-Nvidia-Endlich-wieder-zuhause!). Aber schön endlich mal wieder sinngemäß den Spruch zu hören "Dann geh' doch nach drüben."

Ich habe gestern kurz gezuckt und hätte beinahe doch die Fury X gekauft, allerdings hat der Erfahrungsbericht hier im Forum bzgl. der Geräusche der WaPu zurückgehalten. Das halte ich persönlich mit als den größten Fehler. Ich hoffe wirklich, die bekommen die Nano leise.

Dawn on Titan
2015-06-26, 06:55:37
Reine Hypothese: Eventuell limitiert das Frontend unter DX11 - und unter DX12 dann nicht mehr. Deswegen hat man es nicht aufgebohrt, die wäre für DX12 zwecklos.

Dann aber hätte AMD *zu früh* gelauncht. Wäre auch mal was neues.

Oder aber für ein doppeltes Frontend war einfach kein Platz mehr. Das Ding ist bei 600mm² da geht nicht mehr viel, gerade wenn auch die Beschränkungen durch den Interposer bedenkt.

Ravenhearth
2015-06-26, 07:09:54
Unter DX12 könnte sich die Situation leicht verbessern, aber ein Wundermittel ist das auch nicht.

(del)
2015-06-26, 07:22:40
Kleine Anmerkung zum Schluss:
Um allen Geschmäckern gerecht zu werden, ziehen wir übrigens die neuen Messmethoden für die Leistungsaufnahme vor, auch wenn es mich ungeplant mal wieder das (wievielte?) Wochenende kostet. Dann gibt es auch pauschal kein Gaming- oder Stresstest mehr, sondern nur noch verschiedene Szenarien, wie z.B. Workstation / Praxiseinsatz (Office, Media) und diverse, unterschiedlich fordernde Spiele, sowie einen Langzeit-Log. Momentan hängt es nur noch an der Software und der Programmierung der Oszis, die einen Teil der Daten vorab bearbeiten müssen. Dann ist auch die Zeit der Durchschnittswerte ein für allemal vorbei. Eine kleine Überraschung gibt es dann zusätzlich auch noch, denn in einigen Szenarien wird auch die CPU-Last mit gemessen :)

Das für all diejenigen, denen Haare in der Suppe wichtiger sind als an anderen Stellen :P

Dawn on Titan
2015-06-26, 07:35:36
Sorry, aber ich halte das für übertrieben. Machen wir uns doch nichts vor, die Kritik an den Messungen wird doch primär von einer Vorliebe für bestimmte IHVs getrieben, deren Produkt man in einem besseren Licht sehen will.

Mit den PCGH Werten oder auch dem Gaming-Loop + Stresstest von THG kann ich völlig hinreichend einschätzen welche Karte ungefähr wie viel mehr verbrauchen wird.

Ich behaupte mal ein Käufer will sehen:

1. Idleverbrauch
2. Medienwiedergabe
3. Multimonitor
4. Worst Case unter Last in nicht synthetischen Tests

Mit den beiden fetten Werten dürfte eine Mehrheit schon zufrieden sein.

Ganz ehrlich denke ich, dass Redakteure diese Zeit lieber nutzen sollten um sich das Bild auch mal in Ruhe zu betrachten. Shaderfehler, Filtertrickes oder verschwindende Details bei fehlendem VRAM sind Themen, die viel relevanter sind als die Frage des Verbrauchs pro Benchmark.

Korvaun
2015-06-26, 07:40:27
Man kann es eh nie allen rechtmachen, auch wenn der Test noch so gut und ausführlich und die getestete Karte noch so toll ist. Wenn die Graka vom "falschen Team" ist findet sich immer was schlechtes. Bezüglich der Verbrauchsdiskussion kann ich nur den Kopf schütteln. Das überhaupt so genaue Werte (... braucht durchschnittlich 274W ...) angegeben werden is echt völlig sinnlos, gerade bei den heutigen Grakas. Ok, der "normale" Leser verlangt es wahrscheinlich so, mir würde es reichen wenn man das auf 10er Schritte rundet und eine Bandbreite angibt in der sich die Karte bewegt. Also, Karte X verbraucht je nach Spiel ca. 220-300W, durchschnittlich 270W. Kurzzeitige Spitzen gehen bis 350W. Dazu noch idle-Werte und das wars dann.

(del)
2015-06-26, 07:43:28
@Dawn on Titan:
Da muss ich Dir zumindest teilweise widersprechen. Es lesen ja nicht nur Gamer mit, sondern auch Leute, die mit solchen Karten arbeiten. Kommt immer auf die jeweilige Clientel an. Ich habe das Feedback der letzten Monate genutzt, um Anfragen und Anforderungen zu wichten. Da stehen Langzeitwerte ganz hoch im Kurs, gleich gefolgt von Applikations-Szenarien. Die Frage nach reinen Maximalwerten ist da im Prozentsatz eher sekundär und wurde vor allem von SI nachgefragt, die wissen möchten, wie z.B. PCs am besten zu konzipieren sind (Netzteile, Entlüftung). Die meisten Akneplantagen zahlen ihre Stromrechnung ja eh nicht selbst ;)

Übrigens hatte ich die FuryX für ganze, reichlich alberne 5 Stunden bis zum Redaktionschluss, denn bei uns hängen ja auch noch die Übersetzungen in mindestens vier Sprachen dran, zeitsverschiebung von 6 bis 9 Stunden inklusive. Die anderen Karten waren dann der Rest des vorangegangenen Wochenendes und der angefangenen Woche. Da beibt einem dann kaum noch die Möglichkeit für tiefergenede Analysen, wenn man überlegt, dass Messungen ja nicht nur aus Leistungsaufnahme bestehen. Eine Range aus normaler Last und Extremsituation musste da reichen, auch wenn das vor allem diejenigen anders sehen, die diese Karte sowieso nie kaufen würden ;)

Beim Idle habe ich übrigens 9 mal gemessen. Da AMD Aux nicht mehr nutzt, kann man schnell auch Müll messen. Außerdem swappen die Lasten zwischen dem PEG und dem PCI-E hin und her und man kann es eben NICHT einfach addieren. Das für diejenigen, die sich über die 5 Watt wundern. In den Spitzen messe ich auch mal bis zu 21 watt, aber eben nicht nur :)

uweskw
2015-06-26, 07:45:47
Willkommen im Neuland...
Also die Frage zur Leistungsaufnahme kann ich Dir beantworten: Beide haben Recht. Die Fury hat halt einen sehr großen ungedrosselten Bereich für die Stromaufnahme.

Warum interessieren sich die Käufer für den Verbrauch unter Last?

1. Um die Folgekosten abzuschätzen:
Hierzu braucht man einen halbwegs realistischen Durchschnittsverbrauch. +/- 10W unter Last machen da höchstens 30ct im Monat aus.
Genauer kann ohnehin keiner sein Freizeitbudget planen. Da spielen irgend welche kurzzeitigen Peaks keine große Rolle.

2. Um den Einfluss der entstehenden Abwärme einzuplanen:
Je mehr Verbrauch, desto höher die Entstehende Abwärme unter Last. Das Kann zwei Probleme mit sich bringen. Lautstärke und Aufheizung des Gehäuses.
Hier hat Fury klar Vorteile gegenüber der 980Ti. Er heitzt das Gehäuse nicht auf und ist gleichzeitig leiser als die 980Ti.


greetz
US

Grestorn
2015-06-26, 07:48:44
Die meisten Akneplantagen zahlen ihre Stromrechnung ja eh nicht selbst ;)

Rofl. Du solltest hier öfter mal schreiben. :biggrin:

Dawn on Titan
2015-06-26, 07:53:28
@Dawn on Titan:
Da muss ich Dir zumindest teilweise widersprechen. Es lesen ja nicht nur Gamer mit, sondern auch Leute, die mit solchen Karten arbeiten. Kommt immer auf die jeweilige Clientel an. Ich habe das Feedback der letzten Monate genutzt, um Anfragen und Anforderungen zu wichten. Da stehen Langzeitwerte ganz hoch im Kurs, gleich gefolgt von Applikations-Szenarien. Die Frage nach reinen Maximalwerten ist da im Prozentsatz eher sekundär und wurde vor allem von SI nachgefragt, die wissen möchten, wie z.B. PCs am besten zu konzipieren sind (Netzteile, Entlüftung). Die meisten Akneplantagen zahlen ihre Stromrechnung ja eh nicht selbst ;)

Da bin ich ja bei Dir, aber da würde man dann wieder über Lastfälle und Anwendungen sprechen, die hier kaum jemand nutzen dürfte. Für einen typischen PC mit Gamingkarten reichen mir Peakwerte, da gehe ich sowieso lieber auf die sichere Seite, den meist wird da sowieso noch gebastelt.
Für ne Quadro oder Fire interessieren mich natürlich Langzeitwerte und unterschiedliche Anwendungsfälle, aber ob die Werte viele jucken die in Foren über eine Fury X / 980ti debattieren, das bezweifele ich. (schon weil sie die Anwendungen nicht nutzen)

Mr.Y
2015-06-26, 07:57:32
@Format_C: Da bin ich mal positiv gespannt, was du abliefern wirst, denn auch das bisherige sieht mir durchaus schon "vernuentig" ;-) aus.

Worst Case unter Last is ein Punkt, der mich interessiert, naemlich zur Auslegung des Netzteils bzw. ggf. der Kuehlung. Aber was interessiert mich der Anno/FurMark/...-Verbrauch, wenn ich nie Anno oder gar FurMark spiele :freak: (Gut, ich spielte Anno 2070)...
Daher ist der Ansatz eben auch andere Szenarien zu betrachten oder Langzeitmessungen zu unternehmen sehr interessant, kann man damit Kosten berechnen... aber ehrlich. Idle ist wichtig, ob unter Last 50 Watt mehr oder weniger ist mir egal, solange es leise bleibt... Und bei deinen geplanten Messungen stellt sich mir hier die Frage nach Aufwand/Nutzen. Es ist klar interessant zu wissen, insbesondere fuer technisch interessierte sind solche Messungen und die Artikel mit den Erlaeuterungen ein Genuss. Doch let's face it: Der Aufwand eines GPU-Tests steigt immens. Vor 10 Jahren (tm) tat es 3DMark 2001/2003 und 3 Gamebenches sowie "Jo, Karte ist leise unter Last". Heute werden die GPUs regelrecht zerfleischt. Verbrauch, Lautstaerke mit Videos, BQ-Vergleiche (sind seltener geworden), Leistung in droelf Aufloesungen und droelfzich Spielen.
Das gibt uns die Chance zB auch durch die theoretischen Tests von Techreport die Architekturen sowie die Vor- und Nachteile genauer zu betrachten und hat auch sicher durch das Auffinden von Schwaechen dazu gefuehrt, dass Produkte heute eben tendenziell zumind. im 2D sparsamer sind, leiser sind, ... Aber es zieht auch jedes Graemmchen was nicht perfekt ist, ins falsche Licht, findet jeden Markel, wo eigentlich keiner ist. Wer will schon ne Fury kaufen, wenn da im Hinterkopf die 4GB schwirren, achtung wilde Hypothese, auf deren Antwort ich nicht eingehen werde (!): Fuer viele wirds vorerst (!) egal sein. Auch die 5% weniger Leistung zur GTX 980 Ti - abwarten und sorry, altes Argument, aber 110 oder 104 FPS... :rolleyes:


Edit: Und ja, die Akneplantagen finde ich ... (y) Neben deiner Expertise eine weitere wahre Bereicherung fuers Forum (kein Ironie-smilie, weil keine Ironie und so ach man ich fands halt lustig)

(del)
2015-06-26, 08:00:25
Da bin ich ja bei Dir, aber da würde man dann wieder über Lastfälle und Anwendungen sprechen, die hier kaum jemand nutzen dürfte. Für einen typischen PC mit Gamingkarten reichen mir Peakwerte, da gehe ich sowieso lieber auf die sichere Seite, den meist wird da sowieso noch gebastelt.
Für ne Quadro oder Fire interessieren mich natürlich Langzeitwerte und unterschiedliche Anwendungsfälle, aber ob die Werte viele jucken die in Foren über eine Fury X / 980ti debattieren, das bezweifele ich. (schon weil sie die Anwendungen nicht nutzen)

Die Fury ist nur eine von ca. 200 bis 250 Karten, die ich hier pro Jahr teste. Es wird ja nicht alles auf TH veröffentlicht, aber aktuell liegen hier z.B. auch alle WS-Grafikkarten der letzten 2 Jahre im Archiv, denn es gibt auch andere Auftraggeber und Medien ;)

Es ergibt jedoch keinen Sinn, für jede Karte immer wieder ein extra Szenario zu nutzen. Ich produziere hier nämlich überwiegend tonnenweise Rohdaten, für was und wen auch immer... :D

Rofl. Du solltest hier öfter mal schreiben. :biggrin:
Lieber nicht. Manchmal reicht schon eine kleine, vulkanische Metapher, um wieder Flame-Wars auszulösen. Dünnhäuter und Dickhäuter passen nun mal schlecht zusammen, da ist ein öffentliches Forum mit jeder Menge Popcorn-Esser als römische Staffage ja wirklich denkbar ungeeignet. Für Brot und Spiele ist mir meine Zeit zu knapp, leider :)

Korvaun
2015-06-26, 08:07:34
An alle die mittlerweile schon eine FuryX haben, hat schon jemand den Kühlblock demontiert und andere WLP aufgebracht? Geht das problemlos, bringt das was?

Dawn on Titan
2015-06-26, 08:10:01
Die Fury ist nur eine von ca. 200 bis 250 Karten, die ich hier pro Jahr teste. Es wird ja nicht alles auf TH veröffentlicht, aber aktuell liegen hier z.B. auch alle WS-Grafikkarten der letzten 2 Jahre im Archiv, denn es gibt auch andere Auftraggeber und Medien ;)

Es ergibt jedoch keinen Sinn, für jede Karte immer wieder ein extra Szenario zu nutzen. Ich produziere hier nämlich überwiegend tonnenweise Rohdaten, für was und wen auch immer... :D

Ich würde es halt für vergebene Zeit halten wenn ich ne Gamingkarte genauso ausgiebig teste wie ne Profikarte, wenn es um den Stromverbrauch bei unterschiedlichen Last- und Anwendungsfällen geht. Da reicht imho eine Messung zweier halbwegs repräsentativer Lastszenarien. Der Rest ist einfach Aufwand, den niemand würdigt, denn den Fanboys ist es doch sowieso egal wie viel Aufwand ihr treibt, wenn das Ergebnis ihrem IHV schadet. Im Netz werden sie sowieso immer irgendein Review finden, wo günstigere Werte gemessen wurden.

@Format_C: Da bin ich mal positiv gespannt, was du abliefern wirst, denn auch das bisherige sieht mir durchaus schon "vernuentig" ;-) aus.

Worst Case unter Last is ein Punkt, der mich interessiert, naemlich zur Auslegung des Netzteils bzw. ggf. der Kuehlung. Aber was interessiert mich der Anno/FurMark/...-Verbrauch, wenn ich nie Anno oder gar FurMark spiele :freak: (Gut, ich spielte Anno 2070)...

Gerade bei ner Gaimingkarte imho falsch gedacht. Wer sich solche Dinger kauft, wird logischerweise auch viele Spiele kaufen und niemand kann heute sagen wie sich kommende Spiele verhalten werden. Was hilft mir zu wissen dass die Karte z.B. nur 220W in Elfenschwubel IV verbraucht, wenn 3 Wochen nach Kauf der Karte Call of Dummheit 17 erscheint und die Karte dort 350W verbrät.

MartinRiggs
2015-06-26, 08:11:15
Das lustigste an der leidigen Stromverbrauchs-Diskussion ist das in fast jedem Geforce-Thread über Bios-Mod und erweitertes Power-Limit geredet wird, d.h. die Karte sollen endlich mehr verbrauchen dürfen damit sie nicht ständig gedrosselt werden.

Da finde ich persönlich den AMD-Ansatz viel besser, die Karte hält immer locker ihren Takt ohne das ich am Bios, Powertune oder was auch immer rumfrickeln muss.
Grade die Custom-Designs mit höherem Power-Limit ab Werk fressen auch gut Strom, da ist es aber egal;D

(del)
2015-06-26, 08:16:58
Das lustigste an der leidigen Stromverbrauchs-Diskussion ist das in fast jedem Geforce-Thread über Bios-Mod und erweitertes Power-Limit geredet wird, d.h. die Karte sollen endlich mehr verbrauchen dürfen damit sie nicht ständig gedrosselt werden.

Da finde ich persönlich den AMD-Ansatz viel besser, die Karte hält immer locker ihren Takt ohne das ich am Bios, Powertune oder was auch immer rumfrickeln muss.
Grade die Custom-Designs mit höherem Power-Limit ab Werk fressen auch gut Strom, da ist es aber egal;D

Zur GeForce:
Ich habe aktuell gerade Messungen für einen Hersteller gemacht und ihn dazu wohl letztendlich auch bewogen, dieses alberne Power Target wieder zu reduzieren. Die Audio-Messungen, Temperaturanalysen und am Ende auch das Verhältnis von Gesamtperformance zur Leistungsaufnahme / Abwärme sprechen da Bände.

Ich fände es gut, wenn man solche Limits im Treiber einfach aktivieren bzw. deaktivieren könnte. Der Hersteller kennt seine Hardware am besten und für den Kunden entfällt das alberne Gefrickel. Der erste hat auch schon zumindest im Ansatz reagiert und hat nunmehr in seiner Softwate einen Default-, Eco- und OC-Mode. Aber wenn ihr wüsstet, wie lange man mit den R&D-Leuten vor Ort diskutieren muss, damit ein asiatisches Hirn unsere Hinweise auch verinnerlicht und nicht nur der Zunge ein unverbindliches Ja befiehlt... :D

Die meisten Kollegen fliegen ja genau eine Woche zur Computex, abendliche Events inklusive. Ich arbeite vor und nach und gönne mir jedes Jahr 2-3 Wochen China Mainland / Taiwan und schlage meine Zeit meist in den Firmen tot. Um die Produkte zu begreifen, muss man zumindest wissen, welcher Boss welche Strategie verfolgt und was seine R&D'ler dann daraus machen (müssen). Das ist manchmal erheiternd, manchmal auch deprimierend, lässt einen aber auch Vieles mit anderen Augen sehen ;)

Mr.Y
2015-06-26, 08:21:37
Gerade bei ner Gaimingkarte imho falsch gedacht. Wer sich solche Dinger kauft, wird logischerweise auch viele Spiele kaufen und niemand kann heute sagen wie sich kommende Spiele verhalten werden. Was hilft mir zu wissen dass die Karte z.B. nur 220W in Elfenschwubel IV verbraucht, wenn 3 Wochen nach Kauf der Karte Call of Dummheit 17 erscheint und die Karte dort 350W verbrät.
Da gebe ich dir recht, da habe ich fuer einen Teil nur in meinem Horizont gedacht - ich zocke auch gerne nochmal aeltere Spiele... Dennoch bleibt es dabei: Auch Call of Dummheit 17, oder gerade das Game, wird wohl keiner laenger als 4h ernsthaft spielen ;-) sondern dann auf komische Kreise Verbinden Ultra Deluxe Suessigkeiten Edition umsteigen, bei der die Karte chillt, bevor dann vllt. GTA 7 wieder normale Anforderungen stellt. Oder auch: Wenn ich den Punkt Maximalpower abgeklaert habe und damit mein Netzteil und die Kuehlung angepasst habe, ist fuer mich eher interessant: Was habe ich im Durchschnitt fuer eine Leistungsaufnahme ueber ein breites Spektrum an Anwendungen und nicht in Call of Dummheit 17.

@Martin_Riggs:
True dat, Fiji bemeckern und dann ne Gigabyte mit Powerlimit von 300 Watt kaufen :-D . Allerdings sollte es - fuer erfahrene Anwender - die einfache Option geben: Jo, ich scheiss drauf oder nee, halt mal dein Limit.


@Format_C: Dann danke fuer deine Bemuehungen uns bessere Grafikkarte zu bescheren :-D.

Dawn on Titan
2015-06-26, 08:27:24
Zur GeForce:
Ich habe aktuell gerade Messungen für einen Hersteller gemacht und ihn dazu wohl letztendlich auch bewogen, dieses alberne Power Target wieder zu reduzieren. Die Audio-Messungen, Temperaturanalysen und am Ende auch das Verhältnis von Gesamtperformance zur Leistungsaufnahme / Abwärme sprechen da Bände.

Da sehe ich z.B. etwas was ich sehr interessant fände. Statt dem Verbrauch bei vielen Anwendungsfällen wäre es eher spannend sich auf 2 (ein eher Worstcase, ein eher Average) zu konzentrieren und dann mit unterschiedlichen Powertargeteinstellungen den Sweetspot für die Karte zu bestimmen. Für Gamingkarten wäre das imho ein Alleinstellungsmerkmal für einen Test.

(del)
2015-06-26, 08:32:48
...@Martin_Riggs:
True dat, Fiji bemeckern und dann ne Gigabyte mit Powerlimit von 300 Watt kaufen :-D . Allerdings sollte es - fuer erfahrene Anwender - die einfache Option geben: Jo, ich scheiss drauf oder nee, halt mal dein Limit.

Gigabyte, jaja... :)

Original mit 300W PT im Stresstest:

http://media.bestofmicro.com/8/W/507056/original/01-Original-Furmark.jpg

Modifiziertes BIOS mit 280W und neuer Lüfterkurve, gleiche Temperaturen:

http://media.bestofmicro.com/8/X/507057/original/03-280W-Furmark.jpg

Am Ende im Metro LL Loop (aufgeheizt) nur reichlich 30 MHz weniger Boost-Takt, die Gaming-Performance leidet um ca. 0.6 bis 1%, was schon voll im Toleranzbereich ist. Das ist sinnloseste Energieverschwendung. Nur erzähle das mal Mr. Eddie L., das ist ein Propeller- und Power-Freak, aber eben auch der Obermacker :)
Meine Karte hier im Archiv läuft dann immer noch auf 1379 MHz @factory, was völlig ausreicht. Einfach mal den ersten Link weiter unten Anklicken und sehen, was das tolle PT bei der 970 bringt: nämlich nix. :P
Falls jemand das BIOS der 980 Ti G1 haben möchte...

Da sehe ich z.B. etwas was ich sehr interessant fände. Statt dem Verbrauch bei vielen Anwendungsfällen wäre es eher spannend sich auf 2 (ein eher Worstcase, ein eher Average) zu konzentrieren und dann mit unterschiedlichen Powertargeteinstellungen den Sweetspot für die Karte zu bestimmen. Für Gamingkarten wäre das imho ein Alleinstellungsmerkmal für einen Test.
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753.html
Den Aufwand dankt einem jedoch kaum jemand. :)

Timbaloo
2015-06-26, 08:35:15
Das lustigste an der leidigen Stromverbrauchs-Diskussion ist das in fast jedem Geforce-Thread über Bios-Mod und erweitertes Power-Limit geredet wird, d.h. die Karte sollen endlich mehr verbrauchen dürfen damit sie nicht ständig gedrosselt werden.
Ja, nur ungefähr 1% aller Geforce-Käufer übertakten nicht die Hölle aus ihrer Grafikkarten. Nicht-Übertakter sind nicht repräsentativ. Leistungsaufnahme ist irrelevant. Dreimal drei ist vier und Widerstand ist zwecklos.

dargo
2015-06-26, 08:40:46
Naja als ich die Performance gesehen habe, die gelockten Spannungen und HBM-Taktraten hab ich als erstes auch an einen falschen Treiber gedacht - aber so blöd kann AMD wirklich gar nicht sein.


Oder etwa doch? Das wäre wahrscheinlich der größte FAIL in der Geschichte von Grafikkarten-Launches.

Die Version 150611a ist wenn ich mich nicht irre der 300-Serie Launch-Treiber. Fragt sich nun welcher der Richtige ist und mit welcher Version die Presse getestet hat.
Ich weiß auch nicht was da schief gelaufen ist. Würde aber durchaus die doch ziemlich unterschiedlichen Review-Ergebnisse was die Performance angeht erklären. Mal weitere Tests mit kommenden Treibern abwarten. :cool:

Mal ganz grundlegend: Gibt es eigentlich irgendeine GCN-GPU, die man ohne manuelle Spannungseingriffe gescheit übertakten kann?
Klar... die HD7950. Ganz einfach weil der Takt recht tief lag.

Dawn on Titan
2015-06-26, 08:41:42
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753.html
Den Aufwand dankt einem jedoch kaum jemand. :)

Doch die Tests fand ich klasse. Finde ich halt für Gamingkarten viel spannender als Verbrauchsmessungen bei mehr als 2 Spielen.

(del)
2015-06-26, 08:44:38
Doch die Tests fand ich klasse. Finde ich halt für Gamingkarten viel spannender als Verbrauchsmessungen bei mehr als 2 Spielen.
Ging aber bei Fury X nicht. Wir frickeln noch mit einer R&D-Abteilung an einem Tool, mit dem man auch Spannungen gezielt absenken kann. Ich warte nur auf meine Pro, damit wir das mal in Ruhe checken können. Da AMD so zickig mit den Samples rumeiert, müssen eben die Boardpartner in die Bresche springen. Offensichtlich hat man mich diesmal abgestraft, weil wir den Rest der 300er Serie nicht so prall fanden und uns zudem die Samples viel eher besorgt haben. ;)

Generell ist das alles schon arg merkwürdig. Da steht einer Firma das Wasser bis zum Kehlkopf und trotzdem geht man auch fröhlich gurgelnd mit wohlgesonnenen Testern um wie mit einer Herde lästiger Kinder an der Kasse, wenn es um Sample-Quengelware geht. Anstelle uns als mündige Kollegen zu betrachten, sollen wir am liebsten als gesteuerte Medienhuren fungieren, denen man die Zeit soweit beschneidet, dass sie keinen Spielraum für tiefergehende Tests haben und alles euphorisch abnicken. Wären Marketing und technische PR auch nur halb so gut wie die Ingenieure und würde das Management nicht ständig wie ein Kugelblitz im betriebswirtschaftlichen Koordinatensystem herumspringen, dann käme auch sicher mal wieder mehr hinten bei raus. Das wirkt aktuell wie das Panik-Orchester auf LSD. :P

MartinRiggs
2015-06-26, 08:49:17
Ja, nur ungefähr 1% aller Geforce-Käufer übertakten nicht die Hölle aus ihrer Grafikkarten. Nicht-Übertakter sind nicht repräsentativ. Leistungsaufnahme ist irrelevant. Dreimal drei ist vier und Widerstand ist zwecklos.

Hier diskutiert aber dieses 1% wie schlimm Fury und wie gut das eigene aufgebohrte Powerlimit ist:freak:

MadManniMan
2015-06-26, 08:59:41
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753.html
Den Aufwand dankt einem jedoch kaum jemand. :)

Im Gegentum: DAS waren für mich die beiden Tests des letzten Jahres, die mir am deutlichsten in Erinnerung geblieben sind - bitte mehr davon :uup:

Und zu den Übertaktern bzw. den lauten Schreihälsen: ja, wir sind auf Seit 42 ... aber habt ihr mal geguckt, wie viele Individuen es tatsächlich sind, über die hier die meiste Zeit geschimpft wird?

Ich sehe hier in der Mehrzahl technikverliebte Nerds - und finde das gut so :)

Dawn on Titan
2015-06-26, 09:02:22
Ging aber bei Fury X nicht. Wir frickeln noch mit einer R&D-Abteilung an einem Tool, mit dem man auch Spannungen gezielt absenken kann. Ich warte nur auf meine Pro, damit wir das mal in Ruhe checken können. Da AMD so zickig mit den Samples rumeiert, müssen eben die Boardpartner in die Bresche springen. Offensichtlich hat man mich diesmal abgestraft, weil wir den Rest der 300er Serie nicht so prall fanden und uns zudem die Samples viel eher besorgt haben. ;)

Ich meinte auch nur für künftige Tests.

Zum Thema AMD PR sage ich nichts. Spätestens seit der summenden Pumpe habe ich aber auch nicht mehr viel Vertrauen in deren Techniker. Das war so unnötig.

Raspo
2015-06-26, 09:04:04
@FormatC
Danke für Deine bereichernden Beiträge.

Grestorn
2015-06-26, 09:04:13
Zur GeForce:
Ich habe aktuell gerade Messungen für einen Hersteller gemacht und ihn dazu wohl letztendlich auch bewogen, dieses alberne Power Target wieder zu reduzieren. Die Audio-Messungen, Temperaturanalysen und am Ende auch das Verhältnis von Gesamtperformance zur Leistungsaufnahme / Abwärme sprechen da Bände.

Ich fände es gut, wenn man solche Limits im Treiber einfach aktivieren bzw. deaktivieren könnte. Der Hersteller kennt seine Hardware am besten und für den Kunden entfällt das alberne Gefrickel. Der erste hat auch schon zumindest im Ansatz reagiert und hat nunmehr in seiner Softwate einen Default-, Eco- und OC-Mode. Aber wenn ihr wüsstet, wie lange man mit den R&D-Leuten vor Ort diskutieren muss, damit ein asiatisches Hirn unsere Hinweise auch verinnerlicht und nicht nur der Zunge ein unverbindliches Ja befiehlt... :D

Aber genau das kann man doch einstellen? Zumindest bei nVidia über Inspector & Co. Nur das obere Limit ist für Enthusiasten etwas zu konservativ (was aber auch nachvollziehbar ist, nachdem einige grundsätzlich alles auf Anschlag stellen, will man Reklamationen wegen abgerauchten Netzteilen und überhitzten Systemen aus dem Weg gehen).

Aber wenn ich ein Stromsparendes System will, stell ich das PowerTarget einfach auf 50% oder so und gut ist.

Klar, man könnte das auch offiziell im Treiber anbieten, aber dafür ist die Zielgruppe wohl tatsächlich etwas klein und der Third-Party Tool Support ist doch ausreichend (um im Allgemeinen auch besser, als das was offizielle Tools anbieten).

Botcruscher
2015-06-26, 09:20:21
Aber einen Artikel von Marketing-Benches vs. Realität darf ich zu AMD nicht bringen, da werd ich gelyncht.

;D So eine Analyse über die Generationen und Jahre hinweg wäre sicher lustig.

(del)
2015-06-26, 09:27:22
... Klar, man könnte das auch offiziell im Treiber anbieten, aber dafür ist die Zielgruppe wohl tatsächlich etwas klein und der Third-Party Tool Support ist doch ausreichend (um im Allgemeinen auch besser, als das was offizielle Tools anbieten).

Toolless. Einfach einen Umschalter im Slotpanel und fertig. Nicht jeder will mit Tools rumfrickeln und den Klimbim auch noch bei jedem Windowsstart erst mal (automatisch) laden müssen. Außerdem gibt es ja solche Tools in stabil nur für die DOSe :(

Zitat von Leonidas
Aber einen Artikel von Marketing-Benches vs. Realität darf ich zu AMD nicht bringen, da werd ich gelyncht.
Schreiben und unter Pseudonym im Forum oder kleinen Blog veröffentlichen und danach erst auf der Main verlinken. Allerdings hat auch NV schon diverse Stilblüten geliefert, bis hin zu vergessenen Zertifizierungen im Workstationbereich. Das geht 1:1 aus, glaubs mir :D

PCGH_Carsten
2015-06-26, 09:47:01
Kleine Anmerkung zum Schluss:
Um allen Geschmäckern gerecht zu werden, ziehen wir übrigens die neuen Messmethoden für die Leistungsaufnahme vor, auch wenn es mich ungeplant mal wieder das (wievielte?) Wochenende kostet. Dann gibt es auch pauschal kein Gaming- oder Stresstest mehr, sondern nur noch verschiedene Szenarien, wie z.B. Workstation / Praxiseinsatz (Office, Media) und diverse, unterschiedlich fordernde Spiele, sowie einen Langzeit-Log. Momentan hängt es nur noch an der Software und der Programmierung der Oszis, die einen Teil der Daten vorab bearbeiten müssen. Dann ist auch die Zeit der Durchschnittswerte ein für allemal vorbei. Eine kleine Überraschung gibt es dann zusätzlich auch noch, denn in einigen Szenarien wird auch die CPU-Last mit gemessen :)

Das für all diejenigen, denen Haare in der Suppe wichtiger sind als an anderen Stellen :P
Das klingt :up::up::up:
Da bin ich schon sehr gespannt drauf. :)


http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753.html
Den Aufwand dankt einem jedoch kaum jemand.

Den Eindruck hab ich aber gar nicht. Oder was verstehst du unter Dank?
In Foren wird vornehmlich erstmal negatives geschrieben, denn die Mehrheit liest und schweigt. Je nach Produkt haten dann erstmal die Propellerjungs/-mädels der Hersteller, denn die favorisierte Marke kann nie positiv genug und die abgelehnte Marke nie negativ genug dargestellt sein.


Lieber nicht. Manchmal reicht schon eine kleine, vulkanische Metapher, um wieder Flame-Wars auszulösen. Dünnhäuter und Dickhäuter passen nun mal schlecht zusammen, da ist ein öffentliches Forum mit jeder Menge Popcorn-Esser als römische Staffage ja wirklich denkbar ungeeignet. Für Brot und Spiele ist mir meine Zeit zu knapp, leider
Tja, das sehe ich weiterhin anders. Wir als erwachsene Menschen fortgeschrittenen Alters sollten normal miteinander umgehen können. Zumal du dich quasi als Begründung ja beschwert hast, dass wir (PCGH-Reds) in unserem Forum nicht Partei für dich ergriffen haben. Da musst du dann schon mit gleichem Maß messen.

mironicus
2015-06-26, 09:47:16
Zitat von Leonidas
Aber einen Artikel von Marketing-Benches vs. Realität darf ich zu AMD nicht bringen, da werd ich gelyncht.

Nichts sollte dich davon abhalten, das zu tun, was du magst. :D

Timbaloo
2015-06-26, 09:53:53
Aber einen Artikel von Marketing-Benches vs. Realität darf ich zu AMD nicht bringen, da werd ich gelyncht.
Wäre auch verschenkte Zeit imho. Wenn man nicht unendlich naiv ist glaubt man den Marketing-Benchmarks eh nicht, und wenn man sie glaubt liest man wohl kaum (3d-center-)Analysen.

Mr. Lolman
2015-06-26, 09:54:15
Nichts sollte dich davon abhalten, das zu tun, was du magst. :D


Kommt immer drauf an, wer was bencht. Hier ist die Fury X zT stark vor der 980TI. Außerdem konnten die den Speicher auch auf 600MHz übertakten:

http://translate.google.com/translate?hl=de&sl=ru&u=http://www.ixbt.com/video3/fiji-part3.shtml&prev=search

PCGH_Carsten
2015-06-26, 09:57:29
In Soviet Russia, BIOS h4x you!
Oder:
http://www.reddit.com/r/buildapc/comments/3b30bt/discussionfury_x_possibly_reviewed_with_incorrect/

fondness
2015-06-26, 09:59:09
Gigabyte, jaja... :)

Original mit 300W PT im Stresstest:

http://media.bestofmicro.com/8/W/507056/original/01-Original-Furmark.jpg

Modifiziertes BIOS mit 280W und neuer Lüfterkurve, gleiche Temperaturen:

http://media.bestofmicro.com/8/X/507057/original/03-280W-Furmark.jpg

Am Ende im Metro LL Loop (aufgeheizt) nur reichlich 30 MHz weniger Boost-Takt, die Gaming-Performance leidet um ca. 0.6 bis 1%, was schon voll im Toleranzbereich ist. Das ist sinnloseste Energieverschwendung. Nur erzähle das mal Mr. Eddie L., das ist ein Propeller- und Power-Freak, aber eben auch der Obermacker :)
Meine Karte hier im Archiv läuft dann immer noch auf 1379 MHz @factory, was völlig ausreicht. Einfach mal den ersten Link weiter unten Anklicken und sehen, was das tolle PT bei der 970 bringt: nämlich nix. :P
Falls jemand das BIOS der 980 Ti G1 haben möchte...


http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753.html
Den Aufwand dankt einem jedoch kaum jemand. :)

Danke, das zeigt genau das was ich schon lange versuche zu sagen. Solches abriegeln wirkt sich in der Gesamtleistung wenig bis gar nicht aus, unterm Strich bleibt aber aufgrund unzureichender Messmethoden welche auf max. Watt ausgelegt sind eine fiktive Ersparnis von 20W.

Deshalb sollte man entweder den tatächlichen Verbrauch über die Zeit angeben oder es ganz bleiben lassen, bzw. deutlich kennzeichnen das hier nur Lastspitzen gemessen werden. Denn so wie es aktuell die meisten Seiten machen ist man schlicht der Dumme wenn man keinen Boost integriert und nicht abriegelt/runtertaktet.

StefanV
2015-06-26, 10:07:17
Ich bin da herbe enttäuscht von AMD.
..weil es eben AMD und nicht nVidia ist...

Da muss man stundenlang über jedes Haar in der Suppe regeln, was in der Praxis aber völlig irrelevant ist.
Und auch eventelle Vorteile werden klein/weg geredet...

Und es werden Probleme gesehen, die gar nicht existieren.


PS:
Note to me:
Mal Kaveri mit GraKa, aber ohne Schirm an selbiger testen...

StefanV
2015-06-26, 10:15:03
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652.html
http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753.html
Den Aufwand dankt einem jedoch kaum jemand. :)
Das täuscht ;)

Denn solche Dinge werden gerne in Diskussionen benutzt und verlinkt.
Das passt dann einigen Leuten nicht, aber danke für deine Artikel und die Mühe, die du dir dafür machst.

Dawn on Titan
2015-06-26, 10:16:59
..weil es eben AMD und nicht nVidia ist...

Da muss man stundenlang über jedes Haar in der Suppe regeln, was in der Praxis aber völlig irrelevant ist.
Und auch eventelle Vorteile werden klein/weg geredet...

Und es werden Probleme gesehen, die gar nicht existieren.


PS:
Note to me:
Mal Kaveri mit GraKa, aber ohne Schirm an selbiger testen...

So viel zum Thema, warum sich ausführliche Test kaum lohnen.

Knuddelbearli
2015-06-26, 10:21:33
Ja, nur ungefähr 1% aller Geforce-Käufer übertakten nicht die Hölle aus ihrer Grafikkarten. Nicht-Übertakter sind nicht repräsentativ. Leistungsaufnahme ist irrelevant. Dreimal drei ist vier und Widerstand ist zwecklos.

Nur sind gerade das die Leute die hier dann wegen Fiji rumschreien. Guck einfach mal in den 780Ti und TX thread und Vergleich die Usernamen.

(del)
2015-06-26, 10:25:26
..Wir als erwachsene Menschen fortgeschrittenen Alters sollten normal miteinander umgehen können. Zumal du dich quasi als Begründung ja beschwert hast, dass wir (PCGH-Reds) in unserem Forum nicht Partei für dich ergriffen haben. Da musst du dann schon mit gleichem Maß messen.

Ich streue Vulkanasche auf mein Haupt und gelobe elfengleich Besserung. Auch ohne selbige. :D

Zum Verständnis:
Es ging generell darum, dass (fast) nie jemand genau dann moderiert, wenn es gegen andere Publikationen geht. Da war diesmal ja CB sogar ärger dran als wir. Mich persönlich trifft so etwas nicht im geringen, nicht nach so vielen Jahren, nur nerven mich die ganzen Rückmeldungen á la "haste schon gelesen, dass..."

Genau diesen Punkt handhaben wir extrem restriktiv (vielleicht auch zu?), was zwar die Masse der Posts extrem einkürzt und so manchen Verbalakrobaten auch das Forum für immer wechseln lässt, aber am Ende doch von der überwiegenden, nur mitlesenden Masse honoriert wird. Mögliche Kollateralschäden, mit denen man leben kann und muss. Es steht mir ja auch nicht zu, anderen diesbezüglich Vorschriften machen zu wollen oder überhaupt Ratschäge zu erteilen, aber es hält mich zumindest sehr oft davon ab, überhaupt etwas zu posten. Du weißt schon, Wohlfühlklima und so... :)

Knuddelbearli
2015-06-26, 10:26:38
Aber genau das kann man doch einstellen? Zumindest bei nVidia über Inspector & Co. Nur das obere Limit ist für Enthusiasten etwas zu konservativ (was aber auch nachvollziehbar ist, nachdem einige grundsätzlich alles auf Anschlag stellen, will man Reklamationen wegen abgerauchten Netzteilen und überhitzten Systemen aus dem Weg gehen).

Aber wenn ich ein Stromsparendes System will, stell ich das PowerTarget einfach auf 50% oder so und gut ist.

Klar, man könnte das auch offiziell im Treiber anbieten, aber dafür ist die Zielgruppe wohl tatsächlich etwas klein und der Third-Party Tool Support ist doch ausreichend (um im Allgemeinen auch besser, als das was offizielle Tools anbieten).

bei Amd ebenso und da direkt über den Treiber :)
Und da geht bei Fiji, obwohl sie eh schon nie am PT klebt, auch noch +50%.

(del)
2015-06-26, 10:30:43
bei Amd ebenso und da direkt über den Treiber :)
Und da geht bei Fiji, obwohl sie eh schon nie am PT klebt, auch noch +50%.Naja, Power Limit und Power Target sind nicht ganz das selbe, auch wenn die Telemetrie ähnlich funktioniert. Da traue ich auch dem Treiber nicht so recht über den Weg, denn da geschahen schon die lustigsten Dinge.

Außerdem ist ein Bug im Framelimiter. Je nach Power Limit werden Frames gedropt, obwohl die durchschnittliche Leistungsaufname geringer ausfällt und sogar die Peaks niedriger sind. warten wir auch die Pro, die sicher bald geleakt wird. Die hat sicher auch mehr Relevanz für die breite Masse, als als ein zwangsgewässerter Gaul.

Knuddelbearli
2015-06-26, 10:33:50
ja es ist nicht das selbe aber es funktioniert vergleichbar. Nur weiss man halt bei Nv genau die Watt auf die man limitiert bei AMD nicht. Siehe dazu auch den damaligen Ht4U test

Botcruscher
2015-06-26, 10:35:45
Ja das offene PT ist schon eine Ironie. Mit einer Begrenzung auf 250W wäre die Presse deutlich besser und die Leute würden darüber sprechen wie man es umgeht. Für das nächste mal bitte einen Unterpunkt im Treiber.

(del)
2015-06-26, 10:35:50
Wenn man weiß, wie AMDs Arbitrator tickt, braucht man keinen mühsamen Test. Da lässt sich nun mal aktuell keine feste Grenze festtackern und genau das ist es, was AMD noch zum Glücklichsein fehlt. Das "viel hilft viel" ist aus der Mottenkiste. Interessant ist nur, dass es genau dann doch klappt, wenn man die Frames limitiert. Das beeinflusst nämlich massiv die Power Estimation Engine und die wiederum lässt den Arbitrator die Fuhre ausbremsen. Aktuell stören nur die vereinzelten Drops. Aus meiner Sicht könnte dies allein schon durch den Treiber gelöst werden, an der Firmware muss man da gar nicht viel ändern. :)

60fps Limit (< 220W)

http://media.bestofmicro.com/9/3/507063/original/Frame-Limiter.jpg

r3ptil3
2015-06-26, 10:38:32
Wurde bestimmt schon erwähnt, aber ich frage jetzt einfach: Wann kommt der Test von Ht4U? Wie siehts da aus bezüglich dem Treiber?

mironicus
2015-06-26, 10:41:53
Außerdem ist ein Bug im Framelimiter. Je nach Power Limit werden Frames gedropt,

Eine kurze Erfahrung von mir als ich die Karte hatte:
Stellst du den Framelimiter auf 60, und lässt ein Spiel mit VSync an laufen auf einem 60 Hz-Monitor, kann es zu derben Rucklern kommen.

Stellst du den Framelimiter dagegen auf 61, stört dies das besagte VSync On/60 Hz-Game nicht mehr so ganz.

Konnte ich mit Lego Jurrasic World testen. Da gibt es im Intro ein paar butterweiche Kamerafahrten, die sich in kurzen Abständen wiederholen.

Lösung: Framelimiter aus.

anddill
2015-06-26, 10:43:50
Wurde bestimmt schon erwähnt, aber ich frage jetzt einfach: Wann kommt der Test von Ht4U? Wie siehts da aus bezüglich dem Treiber?

Wurde schon gefragt und beantwortet.
Wenn es fertig ist.

(del)
2015-06-26, 10:46:13
@mironicus
Die vereinzelten Drops (nicht Ruckler!) hast Du immer. Siehe Grafik oben. Die sehe ich auch bei der Messung am Oszi.

uweskw
2015-06-26, 10:46:43
.......was zwar die Masse der Posts extrem einkürzt und so manchen Verbalakrobaten auch das Forum für immer wechseln lässt, aber am Ende doch von der überwiegenden, nur mitlesenden Masse honoriert wird. Mögliche Kollateralschäden, mit denen man leben kann und muss. Es steht mir ja auch nicht zu, anderen diesbezüglich Vorschriften machen zu wollen oder überhaupt Ratschäge zu erteilen, aber es hält mich zumindest sehr oft davon ab, überhaupt etwas zu posten. Du weißt schon, Wohlfühlklima und so... :)

PCGH macht meist genau das Gegenteil und hat recht guten Erfolg durch Überschriften die Fanboykriege geradezu herausfordern. Das gibt Forenbeiträge und viele Klicks.
Wichtig ist dabei nur dass man sich am Geschmack der Masse. Kaufmännisch alles richtig gemacht. :freak:

greetz
US

(del)
2015-06-26, 10:49:26
PCGH macht meist genau das Gegenteil und hat recht guten Erfolg durch Überschriften die Fanboykriege geradezu herausfordern. Das gibt Forenbeiträge und viele Klicks.
Wichtig ist dabei nur dass man sich am Geschmack der Masse. Kaufmännisch alles richtig gemacht. :freak:
greetz
US
Du vermischt da jetzt etwas, denn mir ging es um etwas anderes. Das mit den Überschriften ist zudem ein anderes Thema, gehört aber eigentlich auch nicht hierher.

BTW: Meine Überschriften werden auch immer noch mal umgestrickt, da hat man als Redakteur oft genaug noch einen Obendrüber, der meint zu wissen, was zieht. ;)

PCGH_Carsten
2015-06-26, 10:56:04
Unsere Überschrift zum Fury-X-Test ist dieses Mal wirklich extrem reißerisch …

[Tante Edith sagt: Da ich es grad sehe: Hier (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/) hatte ich nur mit dem Tessellationstest was zu tun :) …]
Genau diesen Punkt handhaben wir extrem restriktiv (vielleicht auch zu?), was zwar die Masse der Posts extrem einkürzt und so manchen Verbalakrobaten auch das Forum für immer wechseln lässt, aber am Ende doch von der überwiegenden, nur mitlesenden Masse honoriert wird. Mögliche Kollateralschäden, mit denen man leben kann und muss. Es steht mir ja auch nicht zu, anderen diesbezüglich Vorschriften machen zu wollen oder überhaupt Ratschäge zu erteilen, aber es hält mich zumindest sehr oft davon ab, überhaupt etwas zu posten. Du weißt schon, Wohlfühlklima und so... :)

Agreed. Wohlfühlklima FTW - und du hast auch völlig recht damit, dass einen dauernde, teils auch persönlich Angriffe, Vorwürfe des Gekauftseins, der (bewussten?) Parteilichkeit oder des berühmten Bildzeitungs-Niveaus vom Posten in den verschiedensten Foren abhalten können. Das finde ich sehr schade.

Was „unsere“ Moderation angeht: Die wird halt vom Moderatoren-Team durchgeführt/-gezogen. Da habe ich als kleiner Schreiberling genausowenig mit am Hut wie mit Printanzeigen oder Werbebannern auf der Website.

So – das war das letzt OT-Post hier von mir. Sorry an die Mods …

Disco_STFU
2015-06-26, 10:56:37
Eine kurze Erfahrung von mir als ich die Karte hatte:
Stellst du den Framelimiter auf 60, und lässt ein Spiel mit VSync an laufen auf einem 60 Hz-Monitor, kann es zu derben Rucklern kommen.

Stellst du den Framelimiter dagegen auf 61, stört dies das besagte VSync On/60 Hz-Game nicht mehr so ganz.

Konnte ich mit Lego Jurrasic World testen. Da gibt es im Intro ein paar butterweiche Kamerafahrten, die sich in kurzen Abständen wiederholen.

Lösung: Framelimiter aus.

Liegt das nicht daran, dass der eingestellte Wert im Framelimiter immer um -1 abweicht? Also wennich 60 einstelle hab ich real 59. Wurde glaube ich auch bei CB erwähnt.


http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/13/#abschnitt_fpslimiter__weniger_strom_weniger_laut

Darüber hinaus fällt auf, dass zwischen Limiter und tatsächlicher Framerate immer eine Differenz von einem Frame besteht. Sind zum Beispiel 60 FPS eingestellt, laufen die Spiele mit 59 FPS.

Thunder99
2015-06-26, 10:57:39
Leonidas hat es gut auf den Punkt gebracht auf der Hauptseite (http://www.3dcenter.org/news/2015-06)

Es ist eine gute Karte, wo noch die Pumpe gefixed werden muss und der Preis geringfügig nach unten angepasst werden soll. Dann kommt die Fury X viel besser weg und wird auch ernsthaft in Erwägung gezogen :)

Bin selber mal gespannt wann die R9 390er BIOS erfolgreich gemoddet werden :naughty: Bitte eins von Sapphire :D

anddill
2015-06-26, 10:58:57
So – das war das letzt OT-Post hier von mir. Sorry an die Mods …

kein Problem, solange es im Rahmen bleibt und halbwegs zum Thema passt. Wir sind hier nicht so kleinlich. Und wenn ihr mal wieder neutralen Boden für ein Duell braucht, dann herzlich willkommen ;)

(del)
2015-06-26, 11:00:36
..Und wenn ihr mal wieder neutralen Boden für ein Duell braucht, dann herzlich willkommen ;) So etwas lässt sich auch bei Events mit einem Gin-Tonic in der Hand klären. Wie sonst auch... :)

@PCGH_Carsten:
Gekauft sein... ja, so etwas bringt mich auch jedes Mal an den Rand einer spontanen Magentotalentleerung. Manche denken ja wirklich, wir hätten sogar Nvidia-Klosteine und AMD-Klopapier in userem riesigen Sponsoren-Geldspeicher auf dem Abort. Ich vergaß übrigens das Intel-Raumspray. Das wird in Redaktionen gern genommen, um den Reviewern das Hirn zu vernebeln. :P

DrFreaK666
2015-06-26, 11:10:57
Wenn man wie ich gerne noch ältere Games spielt oder aktuelle Games, die keine 100FPS benötigen: habe ich mit ner Radeon (ich nenne sie halt mal so) genug Möglichkeiten die BQ zu erhöhen? Damals gab es glaube ich weniger Möglichkeiten AA bei DX9 zu erzwingen. Wie sieht es 2015 aus?

Thunder99
2015-06-26, 11:13:15
Ja, es stehen VSR, SGSSAA und Hybride (sofern noch funktionstüchtig) zur Verfügung. Also nicht weniger als bei nvidia :)

mironicus
2015-06-26, 11:14:15
Ich finde es übrigens schön, das einige Redakteure ihre Elfenbeintürme kurz mal verlassen haben und hier posten. :D

DrFreaK666
2015-06-26, 11:17:03
Ja, es stehen VSR, SGSSAA und Hybride (sofern noch funktionstüchtig) zur Verfügung. Also nicht weniger als bei nvidia :)

Damals musste man aber immer wieder mal die .exe umbenennen, ist sowas immer noch nötig?
Ich glaube die bioshock.exe war damals sehr populär. ^^

Thunder99
2015-06-26, 11:44:01
Damals musste man aber immer wieder mal die .exe umbenennen, ist sowas immer noch nötig?
Ich glaube die bioshock.exe war damals sehr populär. ^^
Hab net so lange meine R9 290 aber wenn Standard nicht funktioniert dann auf jeden Fall mal die exe umbenennen :D

Also bei meinen zwei aktuellen Spiele die ich zogge hab ich einfach SGSSAA im Treiber aktiviert und halt die Option "überschreiben" gewählt, alles jeweils im Profil hinterlegt (StarWars, Witcher 1)

Edit:
http://ht4u.net/news/31221_amd_radeon_r9_fury_x_schon_ausverkauft/
Da ist die Chance auf Modelle mit verbesserter Pumpe ja gar nicht so schlecht, oder? :naughty:

Botcruscher
2015-06-26, 12:08:29
Der Fieb-Fix mittels Deckel aufschrauben und ein Stück Textil zwischen Pumpe und Deckel sollte noch in den Artikel aufgenommen werden. Teile von hier sind ja scheinbar schon eingeflossen.:)

PS: Alle 3 Karten sind ausverkauft.^^ Ich bin gespannt ob die Gerüchte um 30000 Stück weltweit stimmen.
PSS: Spuhlenfiepen fällt jetzt weniger auf.:freak:

mironicus
2015-06-26, 12:13:32
http://ht4u.net/news/31221_amd_radeon_r9_fury_x_schon_ausverkauft/

Es fiept wie Sau – das Testen macht dadurch aktuell wirklich kaum Spaß, es sei denn, wir sind im Spiel mit Ton oder lassen Benchmarks mit Ton laufen. Ohne Ton ... na ja, wären wir lieber sonstwo.

Muhahahahahaha...! ;D

Matrix316
2015-06-26, 12:17:49
Was heißt eigentlich ausverkauft?

Ich schaue seit dem Reviewtag immer in Geizhals nach und heute ist der ERSTE Tag wo ich zum ERSTEN Mal überhaupt eine Fury X als lagernd dort sehe:

http://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&bl1_id=30&sort=p&xf=132_4096~1440_R9+Fury+X#xf_top

Botcruscher
2015-06-26, 12:19:11
Gestern Nachmittag waren einige drin. Sogar zum Sonderpreis.:freak:

Schnoesel
2015-06-26, 12:20:34
Dann schaust du falsch. Die Sapphire war z.B. bei recht vielen lagernd bis gestern noch, ebenso die Powercolor. Das waren sicher keine großen Mengen aber allein Mindfactory hat schon 80 abgesetzt:

http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/Radeon+R9+Serie/R9+FURY+X.html

Es waren/sind eben realtiv wenig Karten im Umlauf.

DrFreaK666
2015-06-26, 12:21:45
Ich warte noch die nächsten Treiber ab. Wenn dann immer noch kein 4k-VSR möglich ist, dann ist die Karte wohl nichts für mich. Wenn sie so toll für 4k geeignet ist, dann sollte ich auch die Möglichkeit haben, es anzuwählen

dildo4u
2015-06-26, 12:25:01
Fury X kann 4K VSR kannste also 700€ für ne 4GB Karte ausgeben was du eh nicht machst.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=21

Schnoesel
2015-06-26, 12:25:53
Bei mir dauert es auch noch.

1. Kühlblock
2. den 2. Omega warte ich auch noch ab
3. Optional: wäre toll wenn bis dahin die Spannung freigegeben ist + OC von HBM möglich wäre

PS: Habe mich selbst schon dabei erwischt bei den GTX 980Tis zu stöbern aber dann ist mir Gsync wieder ins Gesicht gefallen.

Fury X kann 4K VSR kannste also 700€ für ne 4GB Karte ausgeben was du eh nicht machst.

Nicht bei nativ 1440p wie bei mir z.B.

mironicus
2015-06-26, 12:27:18
Ich warte noch die nächsten Treiber ab. Wenn dann immer noch kein 4k-VSR möglich ist, dann ist die Karte wohl nichts für mich.

Da ist der Treiber nicht sehr flexibel. Nur mit einem 1080P-Bildschirm kriegt man volles 4K-VSR angeboten, nicht aber bei einem 1440P-Bildschirm. Bei einem Monitor mit 2580x1080 geht da auch überhaupt nichts. Bei NVidia funktioniert das bei jedem Monitor und jeder Auflösung.

Thunder99
2015-06-26, 12:30:36
Wenn das so ist lohnt sich das warten ja doppelt. Bessere Verfügbarkeit, besserer Preis und Omega 2 wird dann auch da sein. Gerüchte zufolge wird es am 7.7 soweit sein

HarryHirsch
2015-06-26, 12:31:30
Muhahahahahaha...! ;D

was fiept denn? wieder die "pumpe" oder die spawas?

mironicus
2015-06-26, 12:33:56
Die Pumpe natürlich. Die Spannungswandler sind dagegen unauffällig.

anddill
2015-06-26, 12:35:06
Die Pumpe singt. Kavitation (unwahrscheinlich, aber die Empfindlichkeit auf die Lage des Radiators wäre ein Indiz) oder schlicht die Blätter die an irgendwelchen internen Kanten vorbeilaufen.

mironicus
2015-06-26, 12:36:25
Da müsste man eigentlich eine Rückrufaktion starten... man kann doch nicht alles auf die Leute abladen und ihnen nur Tipps geben, wie man das Teil selber leise machen kann.

HarryHirsch
2015-06-26, 12:37:49
war eh klar was da kommt. brauchbare kühler sind ja schon angekündigt.

M4xw0lf
2015-06-26, 12:42:45
Ein Stück Schaumstoff zwischen Frontplate und Pumpe soll ja Abhilfe Schaffen.

RoughNeck
2015-06-26, 12:49:07
Ein Stück Schaumstoff zwischen Frontplate und Pumpe soll ja Abhilfe Schaffen.

Ist halt die Frage wie lange der Schaumstoff da drinnen überlebt, da wird es ja relativ heiß, wenn ich mir bei den Reviews die Wärmebilder so ansehe.

Schnoesel
2015-06-26, 12:50:47
Bei Schaumstoff würde ich mir keine Gedanken machen, du sollst da ja keine Marshmallows reinpacken.

HarryHirsch
2015-06-26, 12:52:19
gibt es irgendwo bilder einer geöffneten kühler/pumpe kombi?

RoughNeck
2015-06-26, 12:55:46
gibt es irgendwo bilder einer geöffneten kühler/pumpe kombi?

http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/2

Etwas runter scrollen.


Bei Schaumstoff würde ich mir keine Gedanken machen, du sollst da ja keine Marshmallows reinpacken.

Habe diesbezüglich zu wenig Erfahrung damit, war mal so ein Gedanke von mir

HarryHirsch
2015-06-26, 12:58:58
nee, ich meine die kiste wo coolermaster drauf steht

RoughNeck
2015-06-26, 12:59:55
nee, ich meine die kiste wo coolermaster drauf steht

Aso

Äh, ne habe ich noch nicht gesehen.

M4xw0lf
2015-06-26, 13:01:43
nee, ich meine die kiste wo coolermaster drauf steht
Du meinst die Pumpe aufknacken?

Schnoesel
2015-06-26, 13:08:25
Ich glaube er meint unters Gehäuse blicken aber ich würde davon abraten wenn man dort High Tech erwartet ;-) Ich denke in diesem Punkt unterschieden sich AIOs nicht wirklich.

Botcruscher
2015-06-26, 13:11:24
Was soll da auch stecken? Die Eisberg hat mal jemand zerlegt: Klick (http://www.google.de/imgres?imgurl=http%3A%2F%2Fwww.pc-max.de%2Fsites%2Fpc-max.de%2Ffiles%2Fmman%2Fes%2Fe5c60016d1a184b74e914397bf63eb9c.JPG&imgrefurl=http%3A%2F%2Fwww.pc-max.de%2Fartikel%2Fkuehlung%2Ffeature-cooler-master-eisberg-prestige-im-detail&h=316&w=350&tbnid=Q8WcXxMZuq93LM%3A&zoom=1&docid=d4qMPYausxLPCM&ei=kzKNVdiQLcaisAHG95yYAg&tbm=isch&iact=rc&uact=3&dur=609&page=8&start=89&ndsp=14&ved=0CMgCEK0DMGA) Einzig die Pumpe ist von Interesse.

HarryHirsch
2015-06-26, 13:11:34
das macht man doch aber als erstes wenn man feststellt das das fiepen unter druck verschwindet.

hätte ich btw. auch ohne fiepen...

cobra38
2015-06-26, 13:21:44
Hat das mit dem Stück Schaumstoff zwischen Frontplatte und Pumpe schon jemand getestet?
Das Pumpengeräusch auf meiner Karte ist zwar nicht laut, aber durch den hohen Ton sehr unangenehm (bei geöffneten PC-Gehäuse).

Zur Leistungsaufnahme:
Habe gestern nur mal kurz getestet in F1 2012.
Habe in FHD und UHD im integrierten Benchmark die absolut identischen FPS.
Die Leistungsaufnahme des gesamten PC beträgt in FHD ca. 260 W und in UHD ca. 360 W.

(del)
2015-06-26, 13:30:37
... Habe gestern nur mal kurz getestet in F1 2012.
Habe in FHD und UHD im integrierten Benchmark die absolut identischen FPS.
Die Leistungsaufnahme des gesamten PC beträgt in FHD ca. 260 W und in UHD ca. 360 W.

Klingt stark nach CPU-Limitierung. F1 2012 läuft doch auf jedem übertakteten Router ;)

BlacKi
2015-06-26, 13:36:37
Klingt stark nach CPU-Limitierung. F1 2012 läuft doch auf jedem übertakteten Router ;)
eher nach vsync und 60 hz^^

cobra38
2015-06-26, 13:46:44
Klingt stark nach CPU-Limitierung. F1 2012 läuft doch auf jedem übertakteten Router ;)
Im System ist ein Intel Xeon Processor E3-1245 vorhanden, nicht übertaktet.
Die genauen FPS habe ich im Moment nicht zur Hand, min. FPS liegt bei ca. 86 in FHD und UHD, kann ich am Abend noch mal testen.
Mit einer MSI GTX 970 waren die FPS in FHD ca. 15 % höher.
UHD habe ich leider mit der GTX 970 nicht getestet.

dildo4u
2015-06-26, 13:48:32
Ist normal der AMD Treiber frisst CPU Leistung mit ein Grund warum Fury in niedrigen Auflösungen abkackt.

Kartenlehrling
2015-06-26, 13:51:49
Wie schon gesagt CPU Limitiert,
ein overclock von 1000mhz hebt das CPU-limit an um ca. 10-15%.

Erst mit Grid-Motorsport und F1-2015 gibts besser CPU-Thread unterstützung.

Armaq
2015-06-26, 13:53:07
Trotzdem bleibt festzuhalten, dass Rohleistung und Realperformance nicht passen. Warum braucht AMD so krass viel mehr Rechenleistung? In den ganzen Benches zur Rechenleistung ist die FuryX einfach eine andere Dimension. Verkauft AMD die Karten heimlich an HPC-Center und weist sie in einer Bilanz auf den Antillen aus?

y33H@
2015-06-26, 13:56:57
Frontend limitiert halt in Spielen, bei den meisten Compute-Berechnungen hingegen ist die Fury X übelst schnell.

Unicous
2015-06-26, 14:02:50
Frontend limitiert halt in Spielen, bei den meisten Compute-Berechnungen hingegen ist die Fury X übelst schnell.


Und alle Gamer so, Yeeeeehaaaaaaaaaaaaaa (pun intended:biggrin:).

PCGH_Carsten
2015-06-26, 14:10:52
Frontend limitiert halt in Spielen, bei den meisten Compute-Berechnungen hingegen ist die Fury X übelst schnell.

Ich liebe „Compute (http://www.duden.de/rechtschreibung/Tautologie)-Berechnungen (http://www.duden.de/rechtschreibung/Pleonasmus)“. *SCNR*

Trotzdem bleibt festzuhalten, dass Rohleistung und Realperformance nicht passen. Warum braucht AMD so krass viel mehr Rechenleistung?
Tahiti: Shader Engine mit 8 CUs
Tonga: Shader Engine mit 8 CUs
Hawaii: Shader Engine mit 11 CUs
Fiji: Shader Engine mit 16 CUs

Hat das mit dem Stück Schaumstoff zwischen Frontplatte und Pumpe schon jemand getestet?
Das Pumpengeräusch auf meiner Karte ist zwar nicht laut, aber durch den hohen Ton sehr unangenehm (bei geöffneten PC-Gehäuse).

Ja, inzwischen schon. Bringt ein bisschen was:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/#a3

Dural
2015-06-26, 14:15:37
Aber schon Tahiti hat ziemlich schlecht skaliert zb. im vergleich zu GM204 mit je 2048SP


Generell ist das so wie so ein "AMD" Problem, seit R600 skalieren die Chips ziemlich schlecht. Für NV ist dies offensichtlich kein Problem.

Thunder99
2015-06-26, 14:15:43
Bei Schaumstoff würde ich mir keine Gedanken machen, du sollst da ja keine Marshmallows reinpacken.
Made my day ;D

Triskaine
2015-06-26, 14:24:39
Tahiti: Shader Engine mit 8 CUs
Tonga: Shader Engine mit 8 CUs
Hawaii: Shader Engine mit 11 CUs
Fiji: Shader Engine mit 16 CUs



Tahiti hat nur 2 Shader Engines (mit 16 CUs), so wie Cayman sie eingeführt hat. Alles über 8 CUs lässt die Skalierung bei GCN schlechter werden; Nvidia hat nicht ohne Grund nur 4 SMs pro GPC.

Armaq
2015-06-26, 14:26:06
Frontend limitiert halt in Spielen, bei den meisten Compute-Berechnungen hingegen ist die Fury X übelst schnell.
Aber sie produzieren doch keine Compute-Karten, oder irren wir uns alle?

fondness
2015-06-26, 14:31:36
Tahiti hat nur 2 Shader Engines (mit 16 CUs), so wie Cayman sie eingeführt hat.

Insofern ist Fiji nicht mehr Frontend-Limitiert wie Tahiti. Das Design wurde auf hohe Auflösungen ausgelegt, was ich grundsätzlich nicht schlecht finde. Dort skaliert die Karte dann auch schön mit den CUs.

PCGH_Carsten
2015-06-26, 14:34:59
Tahiti hat nur 2 Shader Engines (mit 16 CUs), so wie Cayman sie eingeführt hat. Alles über 8 CUs lässt die Skalierung bei GCN schlechter werden; Nvidia hat nicht ohne Grund nur 4 SMs pro GPC.

Nein, AMD hat bei Tahiti nur zwei SEs in den Diagrammen vergessen.

Edit: Um das klarzustellen: Ich rede hier nicht von den Geomtrie-Front-Ends.

akuji13
2015-06-26, 14:35:24
Ja, inzwischen schon. Bringt ein bisschen was:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/#a3

Leider nicht genug mMn.
Meine geht weg.
Das Geräusch geht mir dermaßen auf den Senkel, da werde ich verrückt.

Dabei wäre es vermutlich so einfach zu beseitigen indem man die Pumpe auf 7V drosselt.
Aber selber an so einer Karte basteln, darauf habe ich keine Lust.

Der Lüfter enttäuscht mich auch.
Es gibt nur eine Einstellung auf der er mich nicht stört und das sind 46% Ansteuerung.
Darüber oder darunter nerven die Laufgeräusche.

Hätte ja mit allem gerechnet bei der Karte, aber nicht das es am Kühlsystem scheitert. :rolleyes:

Tesseract
2015-06-26, 14:38:18
das optimale verhältnis von frontend/backend usw. hängt einzig und allein davon ab was die software macht, die darauf läuft. ob der ansatz von nvidia oder amd besser ist wird dadurch entschieden wie sich spiele in den nächsten jahren entwickeln. werden diese (z.B. durch verbesserte beleuchtungsmodelle) verhältnismäßig compute-lastiger sollte fiji einen vorteil haben, bleibt das verhältnis eher gleich bzw. wird primär die objektdichte größer wird fiji das nachsehen haben.

y33H@
2015-06-26, 14:44:33
Ich liebe „Compute (http://www.duden.de/rechtschreibung/Tautologie)-Berechnungen (http://www.duden.de/rechtschreibung/Pleonasmus)“. *SCNR*Oller Hater :P :biggrin:

Aber sie produzieren doch keine Compute-Karten, oder irren wir uns alle?Mir ist zumindest offiziell bisher nichts untergekommen ...

Korvaun
2015-06-26, 14:47:24
Gibts eigentlich Wakü-Pumpen die sich je nach Möglichkeit drosseln (wie Lüfter halt)?

PCGH_Carsten
2015-06-26, 14:48:23
das optimale verhältnis von frontend/backend usw. hängt einzig und allein davon ab was die software macht, die darauf läuft. ob der ansatz von nvidia oder amd besser ist wird dadurch entschieden wie sich spiele in den nächsten jahren entwickeln. werden diese (z.B. durch verbesserte beleuchtungsmodelle) verhältnismäßig compute-lastiger sollte fiji einen vorteil haben, bleibt das verhältnis eher gleich bzw. wird primär die objektdichte größer wird fiji das nachsehen haben.

Zumindest im Luxmark 3.0 scheint mit rund 17 Prozent Vorsprung lt. Golem.de (Ich nehme mal nicht unsere Werte, Selbstbeweihräucherung gehört sich nicht) scheint sich ohne weitere Treiberoptimierungen rund die Hälfte des Compute-Vorsprunges in Wohlgefallen aufzulösen.

Troyan
2015-06-26, 14:52:48
Insofern ist Fiji nicht mehr Frontend-Limitiert wie Tahiti. Das Design wurde auf hohe Auflösungen ausgelegt, was ich grundsätzlich nicht schlecht finde. Dort skaliert die Karte dann auch schön mit den CUs.

Was sind "Hohe Auflösungen"?! 1440p nicht hoch genug?
Selbst in 4K ist die Karte nur auf GTX980TI Niveau und das mit 45% mehr Recheneinheiten bei ~7% geringerer Taktung.

Knapp 33% an Leistung wird überhaupt nicht auf die Strecke gebracht.

Zumindest im Luxmark 3.0 scheint mit rund 17 Prozent Vorsprung lt. Golem.de (Ich nehme mal nicht unsere Werte, Selbstbeweihräucherung gehört sich nicht) scheint sich ohne weitere Treiberoptimierungen rund die Hälfte des Compute-Vorsprunges in Wohlgefallen aufzulösen.

Gibt ja eine neue Version vom Luxmark: https://forum.beyond3d.com/posts/1855100/
Hat sich am Abstand zwischen Fury X und Titan X/GTX980TI irgendwas geändert gegenüber der alten 3.0 Version?!

PCGH_Carsten
2015-06-26, 14:56:42
Nichts wesentliches. Paar Optimierungen, die einfachen Szenen werden etwas flotter, die komplexen wurden bei mir etwas langsamer.

Knuddelbearli
2015-06-26, 15:07:33
Wie oft zur Hölle den noch. ist doch scheiß egal das AMD 45% mehr Recheneinehiten hat / benötigt solange das bei selber DIE Größe ( haben wir ) und selben Verbrauch ( haben wir nicht ganz ) passiert

uweskw
2015-06-26, 15:08:47
@PCGH_Carsten
ich hätte mal eine Frage: Bei euren Verbrauchsmessungen in Risen 3 und Anno2070 braucht in der gewählten Szene die Fury 329/313 Watt, die 980Ti 236/234 Watt bei gleichen Einstellungen.
Mich würden mal die FPS im Bereich dieser Peak-Werte interessieren. Liegen die bei Fury dann wenigstens höher? Oder treten die Spitzen so kurz auf dass FPS schlecht zu messen ist?

greetz
US

Tamashii
2015-06-26, 15:09:21
Hab mir die Sapphire Fury von Alternate bestellt und bin bislang zufrieden mit der Karte.

Ja sie fiept ein klein wenig, aber aus ca 40cm Abstand ist es relativ leise und absolut kein Problem, evtl. hatte ich mit meiner Karte Glück.

Klar hätte ich mir ein wenig mehr im Vergleich zur 980Ti gewünscht, aber wirklich schlimm steht die Fury auch nicht da, evtl. kommen ja noch Treiberoptimierungen.

Ich hatte mir lange Gedanken gemacht ob ich Nvidia oder AMD mein Erspartes geben soll, Grund für die AMD Entscheidung war die Wakü.
Mein Arbeitszimmer hat leider kein Fenster, in den Sommermonaten merkt man einfach wenn gezockt wird, da heizt der Rechner das Zimmer ordentlich auf.
Mit der AMD Karte hält sich das allerdings in Grenzen, und die Lautstärke zur Luftkühlung ist bei fordernden Titeln auch viel leiser.

Mein Resümee, AMD hätte es definitiv besser machen können, aber sie haben endlich mal wieder ein Signal im Highend Bereich gegeben.

fondness
2015-06-26, 15:10:31
Was sind "Hohe Auflösungen"?! 1440p nicht hoch genug?
Selbst in 4K ist die Karte nur auf GTX980TI Niveau und das mit 45% mehr Recheneinheiten bei ~7% geringerer Taktung.

Knapp 33% an Leistung wird überhaupt nicht auf die Strecke gebracht.


GM200 hat 50% mehr Geometrieeinheiten bei höherem Takt und ist trotzdem in 4K nur gleichschnell. "Knapp 60% an Leistung wird überhaupt nicht auf die Strecke gebracht." :ugly:

Dazu kommt im übrigen noch die Dreifache Rasterleistung von GM200 und 50% mehr ROP-Durchsatz. Nichts davon bringt man auf die Straße, ganz schön ineffizient.

Botcruscher
2015-06-26, 15:12:28
Gibts eigentlich Wakü-Pumpen die sich je nach Möglichkeit drosseln (wie Lüfter halt)?
Natürlich.

PCGH_Carsten
2015-06-26, 15:14:18
@PCGH_Carsten
ich hätte mal eine Frage: Bei euren Verbrauchsmessungen in Risen 3 und Anno2070 braucht in der gewählten Szene die Fury 329/313 Watt, die 980Ti 236/234 Watt bei gleichen Einstellungen.
Mich würden mal die FPS im Bereich dieser Peak-Werte interessieren. Liegen die bei Fury dann wenigstens höher? Oder treten die Spitzen so kurz auf dass FPS schlecht zu messen ist?

greetz
US
Moin,
Nichts leichter als das:
FuryX/980Ti
Anno: 31/33
Risen: 33/35
Jeweils in denselben Einstellungen wie unsere UHD-Benchmarks, nur bei Risen 3 eben am Anfang der Szene ohne weiterzulaufen. Die Watt-Werte sind hierbei nach der Aufwärmphase recht konstant (+/- 3-5 Watt, was aber auch durch Hintergrundlasten wie Windows-Krams beinflusst werden kann, zudem sind die Szenen ja auch ohne Bewegung der Spielfigur/Kamera dynamisch - aus diesen Schwankungen bilden wir schon einen Mittelwert), was wir voraussetzen, da wir nicht im Milli- oder Mikrosekunden-Bereich messen können.

BlacKi
2015-06-26, 15:15:29
Ja sie fiept ein klein wenig, aber aus ca 40cm Abstand ist es relativ leise und absolut kein Problem, evtl. hatte ich mit meiner Karte Glück.

genauso? https://youtu.be/rfCb6oiJ6EI?t=499

mironicus
2015-06-26, 15:16:00
Meine geht weg.
Das Geräusch geht mir dermaßen auf den Senkel, da werde ich verrückt

Nächstes Jahr gibt es sicherlich eine Karte in diesem Formfaktor bei der alles stimmt. HBM2, 8 GB, schnell genug für 4K@60 FPS, HDMI 2.0a mit HDCP 2.2. Von NVidia... :freak:

cobra38
2015-06-26, 15:16:29
Gibts eigentlich Wakü-Pumpen die sich je nach Möglichkeit drosseln (wie Lüfter halt)?
Anscheinend wird die Pumpe auch bei der Fury X in der Drehzahl gedrosselt, siehe http://www.legitreviews.com/amd-radeon-r9-fury-x-video-card-review_167134/11

At idle we found the GPU core temperature was 24C with the fan speed at 15%. The fan speed is shown at 3854 RPM, which is a mistake in GPU-Z as that is actually the water pump speed and not the fan speed.
When gaming we hit 54C in a room with a temperature of 70F (21C) with the water pump running at 5300 RPM

Botcruscher
2015-06-26, 15:19:10
genauso? https://youtu.be/rfCb6oiJ6EI?t=499
Klingt ja wie beim Zahnarzt.

Armaq
2015-06-26, 15:22:16
das optimale verhältnis von frontend/backend usw. hängt einzig und allein davon ab was die software macht, die darauf läuft. ob der ansatz von nvidia oder amd besser ist wird dadurch entschieden wie sich spiele in den nächsten jahren entwickeln. werden diese (z.B. durch verbesserte beleuchtungsmodelle) verhältnismäßig compute-lastiger sollte fiji einen vorteil haben, bleibt das verhältnis eher gleich bzw. wird primär die objektdichte größer wird fiji das nachsehen haben.
Und wohin entwickeln sich derzeit die Spiele? Alle hoffen auf DX12 und dann wird ja alles schon werden, aber was ist denn in der Pipeline und wer produziert es?

Tamashii
2015-06-26, 15:22:35
genauso? https://youtu.be/rfCb6oiJ6EI?t=499

Na hier kommts darauf an wie Deine Lautstärkeregelung eingestellt ist.
Das Geräusch ist das selbe, jedoch nicht wirklich störend, wenn ich meine Senneiser auf dem Kopf habe nehme ich das Geräusch nicht mehr wahr, und das ist eh 90% meiner Zeit vorm Rechner.

Hübie
2015-06-26, 15:26:47
Das Problem ist dass Kaufen immer mit Emotionen in Verbindung steht und manch einer sich sogar persönlich versucht für Kaufentscheidungsprozesse zu rechtfertigen. Wenn dann die anvisierte Redaktion nicht den eigenen Vorstellungen nach kritisiert oder jeden Kritikpunkt mit Tools, Bastellösungen oder deep analysis nachgeht gelten die als mies, gekauft, oberflächlich und / oder dumm.
Ich sehe dass eher so wie Leo es immer macht: alle Review-Ergebnisse in die Suppe werfen, kräftig rühren und dann ermitteln.
Viele hängen sich ja auch gleich an Watt-Größen auf obwohl man keine elektrische Leistung zahlen muss, sondern eben Leistung über Zeit.

PCGH muss lernen Frameverläufe, Frametimes und Verbrauch über Zeit zu messen. Ich mag die Jungs zwar, aber die Artikel lassen zu wünschen übrig. Gutes Mittelmaß sag ich mal. Bei CB hat man dann deutlich mehr, aber weniger detailliert und ohne Verbrauch über Zeit.

Sauer aufstoßen tut mir IMMER idle. Idle wird ein PC nicht genutzt und dann kann der auch aus sein. Idle im Sinne: YouTube gucken, emails checken, Foren lesen und in Excel was machen wäre okay. Denn da hatte Tahiti arge Schwierigkeiten. Weiß nicht wie es danach aussah, wurde aber mit einem Treiber behoben wenn ich mich recht erinnere.

Zum Abschluss: ich hoffe jeder weiß das 3DC zu schätzen ;)

cobra38
2015-06-26, 15:42:59
Ja, inzwischen schon. Bringt ein bisschen was:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/#a3
Vielen Dank für die Info.
Beim Spielen stört mich die Pumpe nicht, nur im Idle ist das Geräusch störend.
Habt Ihr eventuell mal bei AMD nachgefragt, ob man die Drehzahl der Pumpe im Idle noch weiter reduzieren kann.

DrFreaK666
2015-06-26, 15:44:52
Fury X kann 4K VSR kannste also 700€ für ne 4GB Karte ausgeben was du eh nicht machst.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=21

Da du ja sooo schlau bist: wie funktioniert das dann mit meinem 1440p-Monitor...???

Und ja: ich werde warten bis die Preise gesunken sind. 700€ gebe ich wirklich nicht aus

cat
2015-06-26, 15:53:12
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/4

mironicus
2015-06-26, 16:03:28
Da du ja sooo schlau bist: wie funktioniert das dann mit meinem 1440p-Monitor...???

Du kannst nur eine höhere Auflösung wählen bei einem 1440p-Monitor im VSR-Modus: 3200x1800.

DrFreaK666
2015-06-26, 16:14:12
Du kannst nur eine höhere Auflösung wählen bei einem 1440p-Monitor im VSR-Modus: 3200x1800.

Ich weiss. Das sind leider keine 4k. Daher hoffe ich, dass sie demnächst einen Weg finden

aufkrawall
2015-06-26, 16:16:50
das optimale verhältnis von frontend/backend usw. hängt einzig und allein davon ab was die software macht, die darauf läuft. ob der ansatz von nvidia oder amd besser ist wird dadurch entschieden wie sich spiele in den nächsten jahren entwickeln. werden diese (z.B. durch verbesserte beleuchtungsmodelle) verhältnismäßig compute-lastiger sollte fiji einen vorteil haben, bleibt das verhältnis eher gleich bzw. wird primär die objektdichte größer wird fiji das nachsehen haben.
Ich bezweifle, dass zukünftige Spiele im Schnitt Compute-lastiger sein werden als Battlefront/Mirror's Edge.
Wenn da Fiji nicht schneller als GM200 ist, ist es imho schon einfach das schlechtere Spiele-Design.
Bei GPGPU ist Fiji im Schnitt allerdings schon arg mächtig (wobei natürlich auch kein DP).

Das Design für Spiele versagt momentan recht heftig. AMD preist die Karte für 4k an, bei hardware.fr überholt aber eine Gigabyte G1 980 in 4k Fiji in einigen Spielen, bei gleicher Effizienz wie eine normale 980. Wie peinlich ist das denn?
Hätte das PCGH gemacht, wär hier von gewissen Leuten das gleich wieder als Pro-NV Propaganda ausgelegt worden...

Birdman
2015-06-26, 16:24:53
...Grund für die AMD Entscheidung war die Wakü.
Mein Arbeitszimmer hat leider kein Fenster, in den Sommermonaten merkt man einfach wenn gezockt wird, da heizt der Rechner das Zimmer ordentlich auf.
Mit der AMD Karte hält sich das allerdings in Grenzen...

Physics for the Win!
Wasserkühlung hin oder her, das ändert nichts daran dass die Fury wegen höherer TDP dein Zimmer sogar mehr aufheizt.
Dass man diese paar wenigen Watt Differenz zur 980ti aber überhaupt messen, geschweige denn spüren kann, lass ich hier nun mal aussen vor.

Viper Zx
2015-06-26, 16:28:02
Ich hab mal zum Thema fiepen einen Thread erstellt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564611

mironicus
2015-06-26, 16:31:19
Ich weiss. Das sind leider keine 4k. Daher hoffe ich, dass sie demnächst einen Weg finden

Wie lange möchtest du denn warten? Das ist ein Feature das AMD nur halbherzig integriert hat, nicht von sich aus sondern erst nachdem NVidia es in Maxwell-Karten standardmäßig integrierte. Bei Features die für uns interessant sind, macht NVidia häufig den ersten Schritt und AMD kopiert es dann schlecht. :freak:

fondness
2015-06-26, 16:43:02
Bei GPGPU ist Fiji im Schnitt allerdings schon arg mächtig (wobei natürlich auch kein DP).


DP ist noch immer fast dreimal so hoch wie bei GM200.

R.I.P.
2015-06-26, 16:52:40
Www.hwupgrade.it spricht von einem 15.18 Treiber, der die Leistung der Fury um ca. 10% querdurch erhöher würde.
http://hwupgrade.it/forum/showpost.php?p=42616149&postcount=261

http://www.reddit.com/r/pcmasterrace/comments/3b2ep8/fury_x_possibly_reviewed_with_incorrect_drivers/

Offizielle Forum Nachricht von Amd Angestelltem?http://forums.overclockers.co.uk/showthread.php?p=28230087#post28230087

aufkrawall
2015-06-26, 16:58:13
DP ist noch immer fast dreimal so hoch wie bei GM200.
Aber selbst in der Consumer Version viel langsamer als Hawaii und damit völlig sinnfrei.

dargo
2015-06-26, 17:00:39
Www.hwupgrade.it spricht von einem 15.18 Treiber, der die Leistung der Fury um ca. 10% querdurch erhöher würde.
http://hwupgrade.it/forum/showpost.php?p=42616149&postcount=261

http://www.reddit.com/r/pcmasterrace/comments/3b2ep8/fury_x_possibly_reviewed_with_incorrect_drivers/
Das ist kein Cat. 15.18 sondern immer noch 15.15, allerdings neuer. Nämlich vom 18.06.15. Darüber haben wir vor einigen Seiten schon diskutiert, dass offenbar die meisten Reviews wohl mit einen älteren, langsameren Treiber gemacht wurden.

grobi
2015-06-26, 17:04:22
Fassen wir es mal zusammen. Es ist eigentlich eine mittlere Katastrophe. Ich bin schon hin und her gerissen und muss leider feststellen als doch recht treuer AMD -Fan das man es irgendwie verkackt hat. ;(

AtTheDriveIn
2015-06-26, 17:05:16
Wegen dem Pumpenfiepen?

soLofox
2015-06-26, 17:11:29
R9 Fiepy X :usad: X-D

ich frage mich nur wer sowas durchwinkt. AMD testet doch ohne ende die karte vor der veröffentlichung, fällt da niemandem dieses fiepen auf? oder arbeiten nur 80 jährige dort?


es wird kein fettnapf ausgelassen. unnötig. so gerne ich AMD unterstütze, irgendwann muss man ja mal ernsthaft arbeiten.

Menace
2015-06-26, 17:18:51
Bzgl. Fieben: Wenn mal bei den Probe-Samples bei AMD nicht noch alles in Ordnung war. Wieso schießt man so einen Bock? Das ist ja jetzt nichts was der eigentlichen Grafikkarte anzulasten ist. Man nimmt extra einen WaKü um lautstärkemäßig besser dazustehen und dann so etwas.

Falls das mit den veralteten Treiber stimmt, wer hat das verbockt?


Der erste hat auch schon zumindest im Ansatz reagiert und hat nunmehr in seiner Softwate einen Default-, Eco- und OC-Mode.

Default + Eco würde mir schon reichen und wünsche ich mir schon lange. Unten rechts, über die einen Klick einstellbar.

grobi
2015-06-26, 17:22:02
Wegen dem Pumpenfiepen?

Ja das geht garnicht. Man kann doch nicht wenn man so mit dem Arsch an der Wand steht den Launch verkacken. Die Kette muss doch unterbrochen werden. ;(
Warum nur die X und nicht auch die nonX sowie die nano?

aufkrawall
2015-06-26, 17:22:37
R9 Fiepy X :usad: X-D

AMD rutscht auf Flidschi aus. :freak:
Hoffen wir, dass sie sich schnell wieder berappeln und und dann einen neuen Anlauf ohne verbundene Schnürsenkel (Fiepen) starten.

Tesseract
2015-06-26, 17:24:18
Ich bezweifle, dass zukünftige Spiele im Schnitt Compute-lastiger sein werden als Battlefront/Mirror's Edge.

in ryse z.B. schneidet fiji doch relativ gut ab. vielleicht kann coda ja mal seinen senf dazu abgeben warum der denkt, dass das so ist. die cryengine ist ja eine der modernsten engines am markt.

dass spiele computelastiger werden könnte ich mir aber durchaus vorstellen, gerade mit dem aufkommen von PBS. wenn spiele wie order 1886 auf konsolen standard werden (d.h. relativ complexe beleuchtung bei prähistorischen auflösungen) könnte sich das bei den PC-ports durchaus positiv auswirken.

R.I.P.
2015-06-26, 17:27:15
Das ist kein Cat. 15.18 sondern immer noch 15.15, allerdings neuer. Nämlich vom 18.06.15. Darüber haben wir vor einigen Seiten schon diskutiert, dass offenbar die meisten Reviews wohl mit einen älteren, langsameren Treiber gemacht wurden.

Ja, jetzt beim genauen hingucken sind die Zahlen doch 15.15 haha.
Voltage unlock incoming btw laut Post von AMD Matt

Dawn on Titan
2015-06-26, 17:35:27
Sind die bei AMD alle dämlich?

- Testsamples mit bekannten Fehler in der Kühlkonstruktion
- fehlende Tools
- Treiber die Performance nicht freigeben
- Ersteindruck versaut

Als Händler muss man nun froh sein möglichst wenige Launchkarten geordert zu haben, denn wenn AMD nun erklärt, dass die zweite Charge nicht summt, dann werden alle Karten aus der ersten Charge wieder im Lager eintreffen und sind dann praktisch unverkäuflich. Gut wer aus Hawaii gelernt hat und sich keine vorab geholt hat.

Ja, so schafft man Absatz, wenn kein Händler sich die Dinger ins Lager legen will.

Menace
2015-06-26, 17:38:56
Und der Preis ist auch erst mal Futsch. Gibt es eigentlich eine Charge ohne Fiepen?

(del)
2015-06-26, 17:39:00
Man kann nur hoffen, dass AMD noch ein paar schöne Inseln findet. Sonst heißt der letzte Chip irgendwann wohlmöglich Bermuda. :P

Menace
2015-06-26, 17:41:23
Wieso? Der Chip ist doch in Ordnung. Nur den Namen Fury hat man fast verbrannt. Oder vielleicht besaßen Sie soviel Galgenhumor und der Ton ist der einer Furie? :confused:

AtTheDriveIn
2015-06-26, 17:42:40
Als Händler muss man nun froh sein möglichst wenige Launchkarten geordert zu haben, denn wenn AMD nun erklärt, dass die zweite Charge nicht summt, dann werden alle Karten aus der ersten Charge wieder im Lager eintreffen und sind dann praktisch unverkäuflich.

Es ist ja nicht so das der Chip selbst das Problem ist, sondern die Pumpe von CoolerMaster. Ich sehe die Dramatik nicht, denn es lässt sich doch relativ einfach in Ordnung bringen. Irgendwo las ich etwas von Pumpe durch Stück Filz entkoppeln und Ruhe ist.

Stimme zu das AMD da offensichtlich gepennt hat, aber es ist jetzt auch kein Weltuntergang.

(del)
2015-06-26, 17:42:55
Wieso? Der Chip ist doch in Ordnung. Nur den Namen Fury hat man fast verbrannt. Oder vielleicht besaßen Sie soviel Galgenhumor und der Ton ist der einer Furie? :confused:Mit denen ist schlichtweg der Gaul durchgegangen. Die Älteren werden díe schwarze Schindmähre noch aus dem TV kennen. :)

Menace
2015-06-26, 17:45:10
Die kenne ich. Oder Fury in the Slaughterhouse.

Gibt es eigentlich schon ein genaueres Datum für die Nano?

Schnoesel
2015-06-26, 17:45:47
Jap Releases verkacken hat schon fast Tradition bei AMD :biggrin: Da wird kein Napf ausgelassen...

ChaosTM
2015-06-26, 17:49:28
Pfeifende Pumpen sind was fürchterliches.. ich hoffe da wird schleunigst nachgebessert, sonst ist das Ding nix für mich..
Mit deutlich besseren Treibern, freigegebener Spannung und 550€ könnte es noch was werden mit der Furie..

radical83
2015-06-26, 17:50:50
@Format_C
Bermuda war doch schon gerüchteweise im Gespräch.

Wenn AMD es tatsächlich wieder einmal geschafft hat ihren eigen Launch zu sabotieren, dann sollten sie Ihren nächsten Chip am besten Atlantis nennen.

Sunrise
2015-06-26, 17:53:02
Es ist ja nicht so das der Chip selbst das Problem ist, sondern die Pumpe von CoolerMaster. Ich sehe die Dramatik nicht, denn es lässt sich doch relativ einfach in Ordnung bringen. Irgendwo las ich etwas von Pumpe durch Stück Filz entkoppeln und Ruhe ist.

Stimme zu das AMD da offensichtlich gepennt hat, aber es ist jetzt auch kein Weltuntergang.
Die Frage ist, warum sowas durch QA geht, wenn sich das wirklich so einfach vermeiden lässt. AMD hat viel Geld in die AiO investiert (guter Lüfter, Radi und Pumpe und das Konstrukt an sich natürlich, was ziemlich schick ist) und jetzt wird erst festgestellt, dass die AiO unnötig fiept.

AMD hatte seit letztem Jahr davon Samples, warum entwürdigt man sich selbst, indem man QA vernachlässigt. Die ganze gute Arbeit von anderen Leuten wird damit zunichte gemacht.

Vor allem, wenn es wirklich ein Ton bei 2KHz ist, den kann man schwer überhören, schon bei geringerer Lautstärke.

Erinnert mich so ein Bisschen an die FreeSync-Vorstellung, das muss nicht sein.

dargo
2015-06-26, 17:56:16
dass spiele computelastiger werden könnte ich mir aber durchaus vorstellen...
Ich gehe auch davon aus bei den kommenden nur Next-Gen Titeln.

(del)
2015-06-26, 17:57:51
@Format_C
Bermuda war doch schon gerüchteweise im Gespräch.Das war blanker Sarkasmus meinerseits, weil dort nämlich faktisch das dreieckige Omega ist. ;)

Korvaun
2015-06-26, 17:58:05
Sieht für mich so aus als ob der Launch letztendlich mit sehr heisser Nadel gestrickt wurde (fiepen, unfertige Treiber, kein voltage-unlock, etc...). Also alles so Kleinigkeiten die bei guter Vorbereitung und ausreichend Zeit wohl nicht passiert wären. Irgend eine interne Deadline o.ä.

user77
2015-06-26, 17:58:11
ist halt die frage ob es der Fehler vom Pumpenhersteller ist, der bei der Massenproduktion geschlampt hat.

ich denke nicht, dass AMD 100.000 Grafikkarten vor dem Verkauf in einem Ruheraum auf Geräusche testet, eher ob es ein Bild gibt, oder so...

Menace
2015-06-26, 17:58:27
Vielleicht wäre die Lösung prinzipiell Custom Design? Man könnte ja Vorgaben (z.B. AIO) machen.

AtTheDriveIn
2015-06-26, 18:01:35
Die Frage ist, warum sowas durch QA geht, wenn sich das wirklich so einfach vermeiden lässt. AMD hat viel Geld in die AiO investiert (guter Lüfter, Radi und Pumpe und das Konstrukt an sich natürlich, was ziemlich schick ist) und jetzt wird erst festgestellt, dass die AiO unnötig fiept.

AMD hatte seit letztem Jahr davon Samples, warum entwürdigt man sich selbst, indem man QA vernachlässigt. Die ganze gute Arbeit von anderen Leuten wird damit zunichte gemacht.

Vor allem, wenn es wirklich ein Ton bei 2KHz ist, den kann man schwer überhören, schon bei geringerer Lautstärke.

Erinnert mich so ein Bisschen an die FreeSync-Vorstellung, das muss nicht sein.

QA Prozesse sollte mal auf den Prüfstand. Aber es fiept auch nicht jede Pumpe.

nordic_pegasus
2015-06-26, 18:04:37
Es ist ja nicht so das der Chip selbst das Problem ist, sondern die Pumpe von CoolerMaster. Ich sehe die Dramatik nicht, denn es lässt sich doch relativ einfach in Ordnung bringen. Irgendwo las ich etwas von Pumpe durch Stück Filz entkoppeln und Ruhe ist.

Stimme zu das AMD da offensichtlich gepennt hat, aber es ist jetzt auch kein Weltuntergang.

ohne selbst eine Karte in der Hand zu haben, bezweifel ich aber, dass man einen hochfrequenten Ton durch Entkoppeln zur Ruhe bringt. Hohe Frequenzen werden sehr gut durch die Luft übertragen, darum hilft hier afaik ein Filzpad nicht weiter. Ich kenne solche Problemfälle von fiependen Spulen.

BTW: Der Kommentar am Ende vom Artikel auf HT4U ist göttlich ;) "Es fiept wie Sau".

radical83
2015-06-26, 18:08:55
Das war blanker Sarkasmus meinerseits, weil dort nämlich faktisch das dreieckige Omega ist. ;)

Dein Seitenhieb Richtung AMD habe ich durchaus verstanden. Ich wollte nur nochmal betonen, dass es nicht einer gewissen Ironie entbehren würde falls
Dual-Fiji als Bermuda erscheint.

Ich bin jedenfalls auf Omega2 gespannt. Sollte Fiji jedoch tatsächlich durch diesen ordentlich zulegen können (>5%), würde ich die für den Launch verantwortliche Person teeren und federn lassen.

Elite_Warrior
2015-06-26, 18:22:24
Das wäre allerdings oberpeinlich, sich zu verpäten und dennoch zu früh zu releasen :freak:
Wann testet endlich jemand die Fury mit <175Watt Powertarget.

akuji13
2015-06-26, 18:23:52
Das alles ist so bitter.
Denn: die Karte ansich finde ich noch immer geil.

Das man bei news im Netz immer vorsichtig sein muss ist klar, aber was das Kühlsystem angeht lag man komplett daneben.
Zeigt mal wieder das Videos im Netz was Geräusche angeht selten zu gebrauchen sind.

Auch über Aussagen wie "35° im Spiel bei ~20% Lüfter" kann ich im Nachhinein nur lachen. :freak:
Mal 2 oder 2.5 passt da besser.

Dawn on Titan
2015-06-26, 18:29:43
Es ist ja nicht so das der Chip selbst das Problem ist, sondern die Pumpe von CoolerMaster. Ich sehe die Dramatik nicht, denn es lässt sich doch relativ einfach in Ordnung bringen. Irgendwo las ich etwas von Pumpe durch Stück Filz entkoppeln und Ruhe ist.

Stimme zu das AMD da offensichtlich gepennt hat, aber es ist jetzt auch kein Weltuntergang.

Das sehe ich nun gravierend anders. Es ist der zweite große Launch bei dem die Refrenzkarte nichts taugt. Als Händler freut man sich jetzt auf eine Rückläuferquote von 80% und hofft auf eine Rücknahme der ersten Charge durch die Hersteller.

AMD hat sowieso ein Imageproblem und so haben sie es nur bestätigt und was mich so richtig ärgert, sie haben es ohne Not bestätigt.

(del)
2015-06-26, 18:39:34
Man hat ohne Not viel zu früh gelauncht, nur um auch mal wieder mit "dabei" zu sein. Und man hat es übertrieben, weil man vorher den Mund viel zu voll genommen hat. Die gleiche Karte mit vernünftigem Power Limit und einem ausgereiften Kühler und schon läuft alles schmerzfrei. Dass die Karte sparsam sein kann, steht ja nicht zur Diskussion, nur dass die alberne Brechstangen-Taktik eine an sich vorzügliche Lösung mal wieder ad absurdum führt. Fiji mit einem echten Limit von 250 Watt wäre sicher auf durchweg positive Kritiken gestoßen. Man hätte zwar (ebenfalls) die unnütze Krone verfehlt, dafür die Herzen und das Hirn getroffen. So aber wird es zur Posse, leider.

Warum man zudem auf so unausgereifte Technik von Cooler Master setzt, das verstehe ich einfach nicht. Eine Akasa-Pumpe auf einem ordentlichen Heatspreader hätte es sich auch getan. Vor allem besser. wenn es denn unbedingt eine AIO sein muss.

Grestorn
2015-06-26, 18:40:18
Ich finde es recht grausam, wie die Karte hier niedergemacht wird. Das hat sie m.W. nicht verdient. Ja, es gibt valide Kritikpunkte, aber hier wird ja so getan, als wär die Fury ein absoluter Fail, den nur die extremsten Fanboys kaufen würden. Das wird ihr sicher nicht gerecht.

@Format_C: Die Wahl auf CoolerMaster dürfte mit hoher Sicherheit den Kosten geschuldet sein. Und ich würde davon ausgehen, dass die bemusterten Exemplare deutlich geräuschärmer waren...

aufkrawall
2015-06-26, 18:45:46
in ryse z.B. schneidet fiji doch relativ gut ab. vielleicht kann coda ja mal seinen senf dazu abgeben warum der denkt, dass das so ist. die cryengine ist ja eine der modernsten engines am markt.

dass spiele computelastiger werden könnte ich mir aber durchaus vorstellen, gerade mit dem aufkommen von PBS. wenn spiele wie order 1886 auf konsolen standard werden (d.h. relativ complexe beleuchtung bei prähistorischen auflösungen) könnte sich das bei den PC-ports durchaus positiv auswirken.
Bei Compute ist die hohe Rechenleistung sicher hilfreich.
Aber sollte sie das nicht auch schon bei herkömmlichem PP sein? Wenn die ALUs nahezu voll ausgelastet werden wie bei Anno und Risen und der Stromverbrauch am höchsten ist, ist man aber trotzdem nicht schneller als Maxwell, bei viel höherem Verbrauch.

Raff
2015-06-26, 18:48:28
Ich finde es recht grausam, wie die Karte hier niedergemacht wird. Das hat sie m.W. nicht verdient. Ja, es gibt valide Kritikpunkte, aber hier wird ja so getan, als wär die Fury ein absoluter Fail, den nur die extremsten Fanboys kaufen würden. Das wird ihr sicher nicht gerecht.

Wie so oft ist der Vorfeld-Rummel schuld: Die Karte konnte nur an den Erwartungen scheitern. Dabei ist sie ziemlich sexy, sofern man eine Dämmmatte unter die Abdeckung klebt.

Ich bin sehr auf die Non-X gespannt. Je nachdem, wie viel AMD dort wegschneidet, könnte es zu dem kaputten Szenario kommen, dass Fury-OC-Karten an der Fury X vorbeiziehen. Das geht aber erst, wenn die Fury Non-X mit mindestens 1.100 MHz angeboten wird. Sie hätte dann mehr Geometrie- und Rasterleistung (es sei denn, die ROPs werden gekürzt). Diese Probleme führten schon bei anderen GCN-Karten zu kuriosen Ergebnissen – HD 7870 (1.000 MHz) vor HD 7950 (800 MHz) ... Unterdessen ist zu hoffen, dass AMD die Auslastung per Treiber feinjustiert.

MfG,
Raff

Flusher
2015-06-26, 18:49:04
Ist jetzt eigentlich was dran, dass den Reviewern von AMD der falsche Treiber zur verfügung gestellt worden ist?

Nakai
2015-06-26, 18:50:11
Ich finde es recht grausam, wie die Karte hier niedergemacht wird. Das hat sie m.W. nicht verdient. Ja, es gibt valide Kritikpunkte, aber hier wird ja so getan, als wär die Fury ein absoluter Fail, den nur die extremsten Fanboys kaufen würden. Das wird ihr sicher nicht gerecht.


Ich sehe nur einen krassen Kritikpunkt derzeit und das ist das fiepen. Die 4GB reichen aus. Die Leistungsaufnahme leicht über GM200. Die Performance unterhalb 4K leicht unterhalb GM200, bei 4K mindestens gleichwertig.

Wenn die nexte Charge dann kein fiepen mehr hat, ist die Karte definitiv ihr Geld wert. Ansonsten rate ich der geistigen Forenunterschicht hier, mal 2 Wochen bestimmte Fury-Threads zu meiden und alles Revue passieren zu lassen. Vll ändert sich die Meinung zu Fury dann langsam.

aufkrawall
2015-06-26, 18:50:52
Es ist einfach irrational, für einen vergleichbaren Preis nicht eine ansonsten relativ vergleichbare 980 Ti mit 50% mehr VRAM zu kaufen, sofern das Custom Design dieser etwas taugt.

fondness
2015-06-26, 18:53:10
Ja ich finde es auch enttäuschend das es immer wieder an solchen vermeidbaren Details bei AMD scheitert. Andererseits will ich erstmal eine 980Ti sehen die unter Vollast nur 1,7 Sone aus 50 cm emittiert. Da regt sich nämlich seltsamerweise niemand auf das man hier mit doppelter Lautstärke leben muss. Und die AiO-980Tis werden wohl kaum leiser sein unter idle.

Raff
2015-06-26, 18:54:07
Ist jetzt eigentlich was dran, dass den Reviewern von AMD der falsche Treiber zur verfügung gestellt worden ist?

Soweit ich weiß: nein. Das einzige, was mittlerweile im bei AMD zum Download stehenden Treiber ist, sind Performance-Optimierungen für Batman: Arkham Knight. Diese gab's zuvor nur im Catalyst 15.6, welcher weder mit der Fury X noch mit den 300er-Karten zusammenarbeitet.

Ja ich finde es auch enttäuschend das es immer wieder an solchen vermeidbaren Details bei AMD scheitert. Andererseits will ich erstmal eine 980Ti sehen die unter Vollast nur 1,7 Sone aus 50 cm emittiert. Da regt sich nämlich seltsamerweise niemand auf das man hier mit doppelter Lautstärke leben muss. Und die AiO-980Tis werden wohl kaum leiser sein unter idle.

Ich habe zwar noch keine Sone-Messung durchgeführt, aber subjektiv gibt es eine GTX 980 Ti, die die Fury X in Sachen "Leisheit" unterbietet: Inno 3D X3 Ultra. Die MSI Gaming liegt darüber.

MfG,
Raff

(del)
2015-06-26, 18:54:45
Ich finde es recht grausam, wie die Karte hier niedergemacht wird. Das hat sie m.W. nicht verdient. Ja, es gibt valide Kritikpunkte, aber hier wird ja so getan, als wär die Fury ein absoluter Fail, den nur die extremsten Fanboys kaufen würden. Das wird ihr sicher nicht gerecht.

@Format_C: Die Wahl auf CoolerMaster dürfte mit hoher Sicherheit den Kosten geschuldet sein. Und ich würde davon ausgehen, dass die bemusterten Exemplare deutlich geräuschärmer waren...

Ich bezweifle, dass CM wirklich preiswerter ist. Und CM Pumpen waren noch nie wirklich leise. DAS zumindest hätte man vorher wissen können. Aber es ist eh zu spät. An sich finde ich den aufgeblasenen Tonga als Fiji nicht mal übel, aber das Teil weit so über dem Sweet Spot zu betreiben, hat schon der R9 380 nicht wirklich gut getan.

Was ich sagen wollte.:
Ein Großteil der Meinungsbildung geschieht nun mal über die Medien. Und genau dort hat AMD eigentlich grandios versagt, nicht beim Chipdesign. Wenn man fair zu den Medien ist, auf alberne Marketingspielchen verzichtet, kollegial und partnerschaftlich mit den Redakteuren umgeht, genügend Zeit für Tests und mögliche Nachfragen einräumt, auch im Vorfeld mal unvoreingenommen zuhört und dann auch nicht nur Platitüden als Antwort verschickt, genau dann kann auch ein Launch eines (noch) nicht ganz so runden Produktes gelingen. Wenn alle an einem Strang ziehen. So aber wird sinnlos Druck bei Reviewern, Distributoren, Händlern und Kunden aufgebaut, der dann die ganze Blase viel zu laut platzen lässt. Leider.

Wie Du schon schriebst: die Karte hätte Besseres verdient. Nur eben nicht so. AMD hat ja nicht mal Samples für einen Nachtest. Also habe ich mir privat was bestellt. Rein aus Neugier.

Viper Zx
2015-06-26, 18:56:17
Ich sehe nur einen krassen Kritikpunkt derzeit und das ist das fiepen.

Wenn die nexte Charge dann kein fiepen mehr hat

So ist es.

Allerdings weiß mein Händler nix von einer neuen Charge. Das fiepen wäre "Stand der Technik" steht ja auch in den Tests. ;D

ChaosTM
2015-06-26, 18:58:51
Gibt es eigentlich wirklich noch keine Reviews, die mir herunter gesetzten Powerlimits experimentiert haben?

Flusher
2015-06-26, 19:00:15
Ich bezweifle, dass CM wirklich preiswerter ist. Und CM Pumpen waren noch nie wirklich leise. DAS zumindest hätte man vorher wissen können. Aber es ist eh zu spät. An sich finde ich den aufgeblasenen Tonga als Fiji nicht mal übel, aber das Teil weit so über dem Sweet Spot zu betreiben, hat schon der R9 380 nicht wirklich gut getan.



Na wenn man die GPU im Sweet-Spot betreibt, dann ist sie ja gerade mal auf Hawaii Niveau mit einem Stromverbrauch einer GTX 970 - das wäre geradezu desaströs. Das wäre den ganzen Aufwand überhaupt nicht Wert gewesen.

(del)
2015-06-26, 19:02:25
Na wenn man die GPU im Sweet-Spot betreibt, dann ist sie ja gerade mal auf Hawaii Niveau mit einem Stromverbrauch einer GTX 970 - das wäre geradezu desaströs. Das wäre den ganzen Aufwand überhaupt nicht Wert gewesen.

Falsch. Nach meinen Informationen ist die GTX 970 immer noch eine der meistverkauftesten Karten, die zudem ordentlich Kohle einfährt. Genau dort hätte AMD ansetzen müssen. Nicht beim albernen Hinterherhecheln nach der Performance-Krone, sondern beim echten Geldverdienen und mit "echten" 4GB :D

Dawn on Titan
2015-06-26, 19:03:04
Ja ich finde es auch enttäuschend das es immer wieder an solchen vermeidbaren Details bei AMD scheitert. Andererseits will ich erstmal eine 980Ti sehen die unter Vollast nur 1,7 Sone aus 50 cm emittiert. Da regt sich nämlich seltsamerweise niemand auf das man hier mit doppelter Lautstärke leben muss. Und die AiO-980Tis werden wohl kaum leiser sein unter idle.

Ne EVGA 980 SC liegt bei max. 2,5 Sone unter Last und passiv im Idle. Das wäre maximal 50% lauter unter Last.

Aber im Endeffekt ist es doch völlig egal was NV macht. Es ist doch unglaublich ärgerlich, dass AMD wieder einen tollen Chip baut und die Kühlung die Sache versaut. Das hatte man bei Hawaii und jetzt hat man es trotz AiO wieder geschafft. Da muss doch was mit dem Qualitätsmanagement nicht stimmen und das kann man imho nicht mehr schön reden. Einen Imagewandel erreicht man so sicher nicht. Und das mit einer Ursache die man mit 5$ mehr für den Kühler wahrscheinlich hätte vermeiden können. Und ich sage mal wenn man sie anfasst, dann fühlt sich die Titan einfach wertiger an.

Von der Kacksituation in die man Händler und Distributoren mal wieder gepackt hat ganz zu schweigen.

Flusher
2015-06-26, 19:03:38
Falsch. Nach meinen Informationen ist die GTX 970 immer noch eine der meistverkauftesten Karten, die zudem ordentlich Kohle einfährt. Genau dort hätte AMD ansetzen müssen. Nicht beim albernen Hinterherhecheln nach der Performance-Krone, sondern beim echten Geldverdienen und mit "echten" 4GB :D

Dafür hätte auch eine neues Hawaii-Stepping mit AiO und leicht gesenkten Spannungen gerreicht. AMD wollte mit Fury die Performance-Krone um endlich auch wieder im Gespräch zu sein. Alles andere hätte in Artikeln mit dem Titel "AMD zieht gleich" gemündet.

Wie gesagt - irgendwas ist faul an Fury. Die Effizienz ist jenseits von Gut und Böse.

aufkrawall
2015-06-26, 19:03:46
Andererseits will ich erstmal eine 980Ti sehen die unter Vollast nur 1,7 Sone aus 50 cm emittiert.

~2 Sone sind nicht unrealistisch, die MSI Gaming 980 Ti soll nur 75°C warm werden:
https://www.youtube.com/watch?v=4iORNWrgty4
Bei 1380Mhz. ;)
Mit ein bisschen Glück kann man die Lüfterkurve frei nutzen (ging bei der 980 Gaming nicht wirklich), da ist dann noch einiges Potenzial bei der Geräuschentwicklung. Die 970 (frei regelbar) war hier fast geräuschlos unter Vollast mit OC, bis aufs Spulenfiepen.


Und die AiO-980Tis werden wohl kaum leiser sein unter idle.
Das gilt es abzuwarten, das Geräusch der Fury-Pumpe ist schon bemerkenswert nervtötend.

(del)
2015-06-26, 19:04:54
Andererseits will ich erstmal eine 980Ti sehen die unter Vollast nur 1,7 Sone aus 50 cm emittiertinno3D GTX 980 Ti X3 Ultimate. Die bleibt unter 33 dB(A), sebst beim Stresstest, die MSI ist auch nicht übel und selbst die Gigabyte ist mit dem neuen BIOS und reduziertem Power Target keine Luftdusche mehr. An der Gigabyte habe ich einen Tag lang rumgefummelt. 1379 MHz Boost sind auch ok.

Troyan
2015-06-26, 19:07:33
Oder man kauft das: http://www.inno3d.com/products_detail.php?refid=203

Boost auf ca. 1400MHz und ein Powerlimit von 290W.

Ist dann wohl "Out of Box" 20% schneller als Fury X bei ähnlichen Temperaturen. Lautstärke kein Plan.

(del)
2015-06-26, 19:08:31
Das ist der normale, alte Accelero Hybrid mit neuem Tooling fürs Cover :)
Aber die Pumpe fiept nicht, immerhin :P

Viper Zx
2015-06-26, 19:09:43
Das Geräusch der Fury-Pumpe hat das Zeug zur Legende. Leider!

fondness
2015-06-26, 19:10:12
Sind nicht gerade die inno3D-Karten extrem berüchtigt fürs Spulefiepen?

Menace
2015-06-26, 19:11:12
auch im Vorfeld mal unvoreingenommen zuhört

Dies. Dabei könnten sie nur gewinnen.

Bei Planet3D war vor Jahren wieder eine Q&A-Veranstaltung von AMD (wenn ich mich recht erinnere die zweite, nachdem die erste kurz zuvor schon gescheitert ist). Diese Veranstaltung war ein reines Desaster und wurde abgebrochen (und damit hat man AMD einen Gefallen getan). Ich habe manchmal den Eindruck, da arbeiten häufig Menschen, die das halt als Job betrachten und stehen nicht hinter AMD und diesen Produkten oder ihnen ist es schlicht und einfach egal ob sich die Produkte verkaufen oder nicht. Das kann in unteren Ebenen egal sein, aber im Marketing oder in oberen Ebenen, wo es um Entscheidungen geht ist es Gift für eine Firma.

Es hat vielleicht schon einen Grund warum die Nano später (vielleicht mit Windows 10, DX 12) kommt und Lisa genau diese Karte nochmals hochgehalten und extra gelobt hat.

Jetzt einmal auf Fury warten.

aufkrawall
2015-06-26, 19:11:13
Das kann man überhaupt nicht verallgemeinern. Die MSI 970s fiepten stark, die 980s quasi überhaupt nicht.

Dawn on Titan
2015-06-26, 19:12:23
https://www.youtube.com/watch?v=qtRqmzRMar8

EVGA Hybrid soll ja auch gut gehen.

(del)
2015-06-26, 19:12:45
Sind nicht gerade die inno3D-Karten extrem berüchtigt fürs Spulefiepen?Die hier getestete Karte war da nicht lauter als alle anderen. Man nimmt es nur mehr wahr, wenn man keine Lüfter hört. ;)

maximus_hertus
2015-06-26, 19:18:44
Mein (persöhnliches) Fazit nach Sichtung mehrerer Reviews: nette Karte, aber leider irgendwie unrund.

- 4 GiB VRAM sind noch ok, aber in 4K schon etwas knapp, vor allem bietet die 980 Ti 6 GiB
- Performance ist unterhalb von 4K teils "deutlich" unterhalb der 980 Ti
- Stromverbrauch ist ein Stück weit höher als die 980 Ti
- Pumpe wohl derzeit unbrauchbar
+ Lautstärke (wenn man das fiepen mal weg lässt). Im Vergleich zur 980 Ti / TX eine dramatische Verbesserung
+ Kompaktheit

Für 699 Euro kein guter Deal.

Wenn ich die Fury X mit der GTX 980 vergleiche, sieht es schon besser aus:

+ Performance
+ Lautstärke (auch hier wieder ohne das fiepen), jedoch kein großer "Vorteil"
+ Kompaktheit
- Stromverbrauch (wobei die dicken Custom 980er auch in den 200er Wattbereich reingehen)

Die GTX 980 liegt bei rund 500 Euro, gute Customs bei 550+ Euro. Wenn die Fury X UNTER 600 Euro liegen würde (und das Pumpenproblem gelöst), wäre sie ein guter Deal.


Vielleicht kommt ja am 14.7. das "Ah-Erlebnis": Die Fury Non-X mit einem PT bis max 250W und einer Performance, die immer noch ein gutes Stück oberhalb der GTX 980 liegt. Dazu gute (leise) Custom-Designs und ein Preis bis maximal 549 Euro.

Raff
2015-06-26, 19:19:58
Die hier getestete Karte war da nicht lauter als alle anderen. Man nimmt es nur mehr wahr, wenn man keine Lüfter hört. ;)

So ist es. Ich habe übrigens gerade ein Déjà-"vu": Spulenfiepen bei GTX 970 und GTX 980? Ein Erklärungsversuch (http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/Spulenfiepen-Erklaerung-1139327/) ;)

MfG,
Raff

MadManniMan
2015-06-26, 19:20:09
Die 4GB reichen aus.

Tun sie das? PCGH schreibt: (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/2/)

Spätestens in Ultra HD wird es für 4-GiByte-Grafikkartenlangsam brenzlig, die Speichermenge ist in einigen neueren Spielen knapp bemessen. Ob Watch Dogs, Shadow of Mordor, AC Unity, Evolve, CoD Advanced Warfare oder das brandneue Batman: Arkham Knight: Je nach gewählter Kantenglättung kommt es zu mehr oder minder ausgeprägem Stocken und/oder bruchstückhafter Texturdarstellung aufgrund des Speichermangels. Mit diesem Problem hat natürlich nicht nur die Radeon R9 Fury X zu kämpfen, sondern auch andere Grafikkarten mit 4 und erst recht mit noch weniger Speicher. Je höher die Rohleistung einer GPU, desto ärgerlicher wird Speichermangel jedoch, da man die Kraft nicht in eine bessere Qualität investieren kann.

Das ist mir allerdings ein wenig zu schwammig, weil hier nicht gesagt wird, welche Einstellungen denn nun zu welchen Problemen führen.

Dennoch: es erscheint mir so, als würde die Karte in ihrer Paradedisziplin 4K sehr bald an ihre Grenzen stoßen können.

Ich erbitte tiefergehende Informationen!

Dawn on Titan
2015-06-26, 19:23:52
Vielleicht kommt ja am 14.7. das "Ah-Erlebnis": Die Fury Non-X mit einem PT bis max 250W und einer Performance, die immer noch ein gutes Stück oberhalb der GTX 980 liegt. Dazu gute (leise) Custom-Designs und ein Preis bis maximal 549 Euro.

Ich würde davon ausgehen, dass die average Board Power der Pro gleich hoch oder höher ist als bei der XT.

Hübie
2015-06-26, 19:25:25
Falsch. Nach meinen Informationen ist die GTX 970 immer noch eine der meistverkauftesten Karten, die zudem ordentlich Kohle einfährt. Genau dort hätte AMD ansetzen müssen. Nicht beim albernen Hinterherhecheln nach der Performance-Krone, sondern beim echten Geldverdienen und mit "echten" 4GB :D

Und du bist dir sicher dass AMD hier genau so Geld machen würde, ja? Also 600sqmm, Wakü per Zukauf, R & D...
Oder willst du ne AMD in der Performanceklasse der 970 für 400 anbieten? Oder bei Mehrverbrauch, gleicher Leistung für 550??? Konktetisiere deine Vorstellung mal und begründe das bestenfalls marktwirtschaftlich. Glaube kaum dass das Ergebnis zu Explosionen bei Freund und Feind führen würde, aber lasse mich da gerne aufklären.

aufkrawall
2015-06-26, 19:34:22
Die GTX 980 liegt bei rund 500 Euro, gute Customs bei 550+ Euro.
Die JetStream ist recht gut (wesentlich besser als jedes R9 2xx Custom Design) und kostet 500€:
http://www.idealo.de/preisvergleich/OffersOfProduct/4613423_-geforce-gtx-980-jetstream-4096mb-gddr5-palit-xpertvision.html

ChaosTM
2015-06-26, 19:34:34
~600 würden imho passen (leise).500-550 für die Luftversion.

maximus_hertus
2015-06-26, 19:36:40
Die JetStream ist recht gut (wesentlich besser als jedes R9 2xx Custom Design) und kostet 500€:
http://www.idealo.de/preisvergleich/OffersOfProduct/4613423_-geforce-gtx-980-jetstream-4096mb-gddr5-palit-xpertvision.html

Ja, aber ich gehe auch von den Preisen der ASUS Strix, MSI Gaming etc. aus. Das die Jetstream gut ist will ich dabei nicht abstreiten, aber die meisten guten Customkarten liegen bei 550+ Euro.

(del)
2015-06-26, 19:45:06
Und du bist dir sicher dass AMD hier genau so Geld machen würde, ja? Also 600sqmm, Wakü per Zukauf, R & D...
Oder willst du ne AMD in der Performanceklasse der 970 für 400 anbieten? Oder bei Mehrverbrauch, gleicher Leistung für 550??? Konktetisiere deine Vorstellung mal und begründe das bestenfalls marktwirtschaftlich. Glaube kaum dass das Ergebnis zu Explosionen bei Freund und Feind führen würde, aber lasse mich da gerne aufklären.

Eine billige AIO kostet im Zukauf keine 40 Dollar, ein guter Luftkühler mit Frame und Backplate teilweise sogar mehr. Wir reden da über Unterschiede von maximal 10-20 Dollar im EK. Die Karte hätte man zwischen 970 und 980 platzieren sollen, um im 400-500 Euro Segment mitspielen zu können. Je nach Gusto weiter oben oder nicht. Die Fanbase hätte schon zugeschlagen :)

AMD braucht keine Explosionen, sondern Umsatz UND Marge. Ich vertraue da bei der Pro eher auf die Boardpartner, die können meist besser rechnen als AMD ;)

RoughNeck
2015-06-26, 19:53:02
Aktuell hat es die Karte verdient niedergemacht zu werden.
Wie blöd ist man bei AMD? So ein nervtötendes Geräusch ist lächerlich bei einer 700€ Karte, da hilft es auch nicht, mit späteren Chargen wird es besser.

Die Karte ansich ist ja nicht schlecht und eine echte Konkurrenz aber so kann man die aktuell nicht empfehlen. Aber man ist es ja von AMD gewohnt, einen Launch zu versauen.
Hat ja schon Tradition.

Hübie
2015-06-26, 20:18:27
Eine billige AIO kostet im Zukauf keine 40 Dollar, ein guter Luftkühler mit Frame und Backplate teilweise sogar mehr. Wir reden da über Unterschiede von maximal 10-20 Dollar im EK. Die Karte hätte man zwischen 970 und 980 platzieren sollen, um im 400-500 Euro Segment mitspielen zu können. Je nach Gusto weiter oben oder nicht. Die Fanbase hätte schon zugeschlagen :)

AMD braucht keine Explosionen, sondern Umsatz UND Marge. Ich vertraue da bei der Pro eher auf die Boardpartner, die können meist besser rechnen als AMD ;)

Aha. Und weißt was ein (Ref-)Lukü für ne 970 kostet? Was der Chip kostet? PCB? Hast dir mal angesehen welche Komponenten auf der Fury verbaut sind und was die kosten? Und meinst eine 40-$-Wakü würde dann nicht mehr fiepen?

AMD macht eh kein Reibach bei dem Geschäft, wie du es auch drehst oder wendest und wenn du die zwischen 400 und 500 ansetzt musst du entsprechende yields (womit ich das Package meine) haben um den Markt zu bedienen sonst führst du dein Unternehmen wieder ad absurdum.
Es scheint schon nah dran wie AMD das gemacht hat - u. a. weil man ja offenbar keine Wahl hatte. Es hat also seine Gründe warum du bei THG sitzt statt bei AMDs Controlling (was ich durchaus nicht negativ meine ;);))