PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14

Unicous
2015-07-04, 18:22:00
Lauwarmer Kaffee ist klüger als eine kalte Kola.:wink:

horn 12
2015-07-04, 18:36:26
@anddill

Toll für deine Fury X Karte!
Italien kann fast nimmer liefern, und wenn, dann nur um die 740 bis 790 Euro :-(


Hier das Foto meines Gehäuses, ist ein ThermalTake Matrix VX

http://abload.de/img/thermaltakematrixvx-17nqyp.jpg (http://abload.de/image.php?img=thermaltakematrixvx-17nqyp.jpg)


http://abload.de/img/thermaltakematrixvx-36aos9.jpg (http://abload.de/image.php?img=thermaltakematrixvx-36aos9.jpg)

Nur oben über dem CPU Lüfter hat der Radiator NICHT Platz, da mein Derzeitiges MATRIX VX Gehäuse eben nur 190mm misst.
Also muss der Radiator "unten" rein
Nur wie fixiere ich jenen, oder gibt es da beim Radiator Bohrungen?
Sehe die haben so 105 bis 110 mm Abstand im Quadrat, passen aber bei meinem Gehäuse nicht sooo Recht.

anddill
2015-07-04, 18:44:14
Womit ich nun überhaupt nicht gerechnet hätte: Ich hatte Probleme den Radiator in meinem Coolermaster HAF Bigtower unterzubringen. Eigentlich sollte er hinter den CPU-Kühler in die Rückwand. Aber da passt er nicht dank der Tanks die den Lüfter zu weit überragen. Das stößt an die Gehäusekonstruktion. Also nach oben. Dumm nur, daß da mein ausladender CPU-Kühler im Weg ist. Zum Glück fehlte da nur 1mm oder so, mit etwas Blechbiegearbeiten hat das dann gepasst.
Nun blockiert er nur die oberen Halteklipse der Speicherbänke.

Eingebaut, über Kopf hängend kann ich das fiepen jetzt wieder hören, wenn ich mich drauf konzentriere und den Kopf in der richtigen Position halte. Liegt vielleicht auch an der Radiatorposition? Dessen Lüfter den hängenden Betrieb anscheinend nicht mag, der knurrt jetzt hörbar, wird aber schon langsam leiser. Muss sich vielleicht erst einlaufen in der Position.

Ich lass das Teil jetzt erst mal ein paar Stunden rennen, mal schauen.

@ Horn: Da wo Du den gelben Lüfter hinter der CPU drin hast sollte mein Radi rein, der passt auf die Standardeinbaulöcher eines 12cm-Lüfters. Aber wie bei Dir ist da die Blechkante der Einbauslots zu nahe. Du brauchst zwischen der unteren Bohrung und dem Blech mindestens 2,8cm Platz. Bei mir waren es 2,4 oder so, bei Dir siehts sogar noch knapper aus.
Er kann ohne mechanischen Umbau nur ausblasend montiert werden, das wär bei Dir nur möglich wenn Du den Plasteklumpatsch an der Front abbaust, falls nötig passende Löcher bohrst und für eine alternative Luftansaugung, zB. über die Seitenwand sorgst.

Darlie
2015-07-04, 18:48:23
@horn 12
Du nervst. dies ist der Fury X (P)review-Thread und keine Kaufberatung !!! Komm hier bitte wieder wenn du eine Fury X hast. :mad:

anddill
2015-07-04, 18:53:29
Wenn ich denke und tippe nehm ich das Pumpenfiepen nicht wahr, fällt mir gerade auf, habs praktisch schon vergessen. Das trifft aber nur für meine Pumpe, meine Einbausituation und mein Gehör zu.
Dafür hab ich jetzt bei Scrollen im Browser eine Lichtorgel im Gehäuse. ;)

Hübie
2015-07-04, 19:00:16
@horn 12
Du nervst. dies ist der Fury X (P)review-Thread und keine Kaufberatung !!! Komm hier bitte wieder wenn du eine Fury X hast. :mad:

Es ist viel nerviger solch unqualifizierte Kommentare zu lesen die nicht mal was mit dem Thema zu tun haben. Ich hab auch keine Fury, und jetzt?! Das ist eine ganze miese Art und Weise.

@anddill: Mit Fachkundiger meinte ich natürlich allem voran deine Berufserfahrung und dein Improvisationstalent ;) Nicht das Reviewer unfähig wären oder der Gleichen ;)
Ich nehme an dass du dein Modell (vorerst?) behältst. Dann kannst du uns ja auch mal deine praktischen Erfahrungen nach ein paar Tagen mitgeben :)

horn 12
2015-07-04, 19:05:58
@anddill


Löcher vorne sollten passen sind 105 mm Quadratisch angeordnet, also exakt für 120mm Lüfter
Hier bitte der Link zum Gehäuse (ALT Gehäuse)
Ziemlich weit unten sieht man Frontseitig die Löcher für 80 oder 120mm Lüfter, dort wo der Staubfilter sitzt.
Ebenso auf der Rückseite das umgefalzte Blech welches die Löcher verdeckt, und die geringe Tiefe von 190mm


http://www.google.de/imgres?imgurl=http://www.hardwarelogic.com/articles/reviews/case/TtMatrixVX/TtMatrixVX_MoboInstalled.jpg&imgrefurl=http://www.hardwarelogic.com/articles.php?id%3D5190&h=482&w=500&tbnid=_ZpY7FvzfsCBRM:&zoom=1&tbnh=94&tbnw=98&usg=__Tmh79xYjUj1paZRRyTD9aYAAa4g=&docid=45akuTm4gKr_PM


Danke schonmal
Ja, oben geht es nicht: Erstens Blech deckt Bohrung zu und der MiniTower ist zu knapp (190mm Breite)
Unten würde er schon eher passen, ansonsten verklebe ich den Radiator einfach am Gehäuse-Boden, würde ja auch passen!

Seitlich habe ich schon einen 120 Mm Lüfter montiert.

anddill
2015-07-04, 19:06:27
Klar behalt ich es erst mal, die Verpackung wird aber auch schön säuberlich eingelagert ;). Vielleicht lass ich den PC einfach mal zwei Nächte durchnuddeln, um ein paar Betriebsstunden auf die Pumpe zu bekommen.

(del)
2015-07-04, 19:12:11
Vielleicht lass ich den PC einfach mal zwei Nächte durchnuddeln, um ein paar Betriebsstunden auf die Pumpe zu bekommen.

Würde mich auch interessieren, ob Du den mechanischen Buzz damit wegbekommst. Das liegt hier etwas breitbandiger zwischen ca. 250 und 750 Hz

anddill
2015-07-04, 19:15:09
Den krieg ich schon weg wenn ich einfach nur den Deckel ablasse.

(del)
2015-07-04, 19:21:29
Schreib doch nicht immer Deckel. Das ist eine Membran!

Also wurden der positive Gesamteindrick lediglich von Cooler Master gedeckelt. Das kostet.... :P

mironicus
2015-07-04, 19:25:23
Um einen stabilen OC-Takt für die Fury XT zu ermitteln empfehle ich GTA V. Das Spiel reagiert besonders empfindlich auf Übertaktung. Während einige Benchmarks mit teilweise deutlich höheren Taktraten stabil durchgingen, musste ich die GPU auf jämmerliche 1100 MHz herunterfahren damit das Spiel ohne Abstürze stabil lief. :)

StefanV
2015-07-04, 19:48:18
Womit ich nun überhaupt nicht gerechnet hätte: Ich hatte Probleme den Radiator in meinem Coolermaster HAF Bigtower unterzubringen. Eigentlich sollte er hinter den CPU-Kühler in die Rückwand. Aber da passt er nicht dank der Tanks die den Lüfter zu weit überragen.
Ist dein Kühler asymetrisch?

Also sowas wie der Scythe AShura. (AFAIR auch der Mugen).

Dann könntest den Kühler um 180° drehen, so dass du dann hintenhin mehr Platz hättest.
Dafür würd er dann über den Speicher ragen.

anddill
2015-07-04, 21:18:28
Nee, da sind Blechteile im Gehäuse im Weg. Und der Radiator überragt den Lüfter an zwei Seiten, wegen dem Sammler auf der einen und dem Ausgleichbehälter auf der anderen Seite. Auf der Schlauchseite brauchst Du bis ca. 3cm vom Befestigungsloch Freiraum, auf der Ausgleichsseite auch so etwa 2,7cm. Und da die ATX-Blenden bei meinem Gehäuse nur 2,4cm unter den Befestigungslöchern anfangen passt der Radi nicht hinter den CPU-Kühler. Das hat nichts mit dem CPU-Kühler an sich zu tun, da sind gut 10cm Platz bis zum Hecklüfter. Ist ja nur ein Brocken 2.

Ich hätt neue Löcher bohren können, aber bei eingebautem Board ist das immer so ner Sache mit der spanabhebenden Metallbearbeitung. Und in den Deckel konnt ich ihn ja noch reinquetschen.

woodsdog
2015-07-04, 21:23:57
Danke für die infos anddill!

Hübie
2015-07-04, 22:20:13
Kann der Adapter 120 Hz ansteuern? Dann wäre das ja echt Null Problemo wegen fehlendem DVI.

maguumo
2015-07-04, 22:47:09
Ist doch bestimmt kein aktiver Adapter, also wird der wohl auf 60Hz@1080p begrenzt sein? Würde ich zumindest erwarten...

akuji13
2015-07-04, 22:56:04
Schreib doch nicht immer Deckel. Das ist eine Membran!

So lange hier immer von Inbus statt Innensechskant geschrieben wird passt das schon. :D

Womit ich nun überhaupt nicht gerechnet hätte: Ich hatte Probleme den Radiator in meinem Coolermaster HAF Bigtower unterzubringen. Eigentlich sollte er hinter den CPU-Kühler in die Rückwand. Aber da passt er nicht dank der Tanks die den Lüfter zu weit überragen. Das stößt an die Gehäusekonstruktion. Also nach oben.

Das dachte ich mir auch als ich Mühe hatte ihn in einem big-tower unterzubringen. :freak:

http://abload.de/thumb/dsc03070k2q29.jpg (http://abload.de/image.php?img=dsc03070k2q29.jpg)http://abload.de/thumb/dsc03066yluzq.jpg (http://abload.de/image.php?img=dsc03066yluzq.jpg)

Egal wie herum, hat man da einen Radiator wirds reichlich eng.

anddill
2015-07-04, 23:32:20
Ist doch bestimmt kein aktiver Adapter, also wird der wohl auf 60Hz@1080p begrenzt sein? Würde ich zumindest erwarten...
BizLink D31902. Passiv, bis Full-HD bei 60Hz.

Und noch ein Fund: Die sogenannte Auslastungsanzeige zeigt nicht die Auslastung an, jedenfalls nicht die die von GPU-Z und CCC angezeigt wird. Das Ding reagiert auf die P-States. Sobald die Last niedrig genug wird daß die Karte rumtaktet sieht man die Anzeige ausschlagen. Sobald der max. Spieletakt anliegt hängt sie auch am Anschlag, selbst wenn GPU-Z nur 5% Last anzeigt.

Jep. GPU-Z zeigt zwar auch nur Mist an, aber wenn ich sie mit Furmark voll auslaste und das Powerlimit etwas runtersetze kann ich sie zum runtertakten zwingen. Und dann geht auch die Lastanzeige runter.

(del)
2015-07-05, 10:14:56
Es wäre sicher auch zu umständlich, dieses Mäusekino anders zu programmieren. :)

aufkrawall
2015-07-05, 10:48:31
Das betrifft auch Hawaii (so oder so ähnlich), ist keine Fiji-Eigenart.

anddill
2015-07-05, 11:04:36
Hawai hat aber keine "Auslastungsanzeige" direkt an der Karte.
Was mich wieder zu einem Kritikpunkt bringt. Es gibt keine Anleitung. Welcher Monitoranschluss ist der primäre, wie werden die sortiert? Der über DVI angeschlossene scheint immer der erste zu werden. Soll das so sein? Was bewirken die Schalter? Gibt es bevorzugte Einbaulagen für den Radiator? Nicht daß der in bestimmten Lagen Luft in die Pumpe zieht.
usw. Sicher kann man sich die meisten Infos im Netz zusammenzusuchen. Aber was ist so schwer daran einen Zettel beizupacken und wenigstens die wichtigsten Eigenarten zu erklären.

Hübie
2015-07-05, 11:12:37
Wenn ich das richtig verstanden habe ist ein DIP-switch für LED on / off, der andere für die Farben rot und blau. Grün ist verständlicherweise nicht vertreten :biggrin: Der an der Seite ist vielleicht dual-BIOS - kein Plan. Und ja: schon blöd wenn kein Handbuch bei liegt das so etwas beschreibt.

anddill
2015-07-05, 11:45:44
Ich paste hier mal einen Abschnitt aus der AMD-Verlautbarung zum Pumpenfiepen:
AMD Radeon R9 Fury X customers demand and deserve the best, so adjustments in the sound baffling adhesive compound were applied in the assembly of the high speed cooling pump to address the specific sound a few end users experienced as problematic. This improved the acoustic profile of the pump, and repeat testing shows the specific pitch/sound in question was largely reduced through adjustments to the sound-baffling adhesive compound in the pump.

Hier ist nie die Rede von Kleber der evtl. irgendwo im Wasserstrom oder im Bereich der Pumpenflügel sein soll, sondern von "sound baffling adhesive" was im Grunde Schalldämmkleister heißt. Nun gibt es leider nirgens einen Teardown der eigentlichen Pumpe. Aber hier (http://www.legitreviews.com/120mm-water-cooler-round-up-part-2-looking-inside_129601/2) gibt es Teardowns einer Coolermaster-Pumpe und anderer. Und die sind alle gleich aufgebaut.
Und ich seh da nirgens eine Klebestelle im wasserführenden Bereich. Aber ich sehe einen Magnetkern der die Form einer Stimmgabel hat und ich sehe da Spulen drauf. Und ich vermute mal das hier der eigentliche Knackpunkt ist. Entweder der Kern selbst oder die Spulen darauf neigen zum vibrieren weil da nicht genug "sound baffling adhesive" verwendet wurde.

Das erklärt auch die Druckempfindlichkeit des Pumpendeckels. Man kann mit Druck auf der richtigen Stelle das schwingende Teil festklemmen, leitet aber dadurch die Schwingungen vielleicht woanders hin.
Es klingt auch hart mechanisch und wird nicht über das Wasser zB. zum Radiator übertragen.

Nun sieht der Pumpendeckel aus als wäre er nicht besonders fest. Ich hab fast das Gefühl das er nur aufgeklipst ist. Aus dem oben verlinkten Teardown:Flipping the pump housing over we can remove the top cap. It simply clips in place
Hab auch schon mal dran gezogen, hatte aber nicht genug Eier da mal richtig zu hebeln, hab ja nicht mal eine brauchbare Notkarte hier, falls ich meine 730€-Neuanschaffung mit Gewalt zerbrösle.

@ Format_C, kannst Du mal versuchen rauszubekommen ob man den Deckel der Pumpe einfach abclipsen kann? Wenn ja, wäre es absolut kein Thema da mit etwas Silikon o.ä. die schwingenden Teile zu fixieren.

-/\-CruNcher-/\-
2015-07-05, 11:52:20
Ich paste hier mal einen Abschnitt aus der AMD-Verlautbarung zum Pumpenfiepen:


Hier ist nie die Rede von Kleber der evtl. irgendwo im Wasserstrom oder im Bereich der Pumpenflügel sein soll, sondern von "sound baffling adhesive" was im Grunde Schalldämmkleister heißt. Nun gibt es leider nirgens einen Teardown der eigentlichen Pumpe. Aber hier (http://www.legitreviews.com/120mm-water-cooler-round-up-part-2-looking-inside_129601/2) gibt es Teardowns einer Coolermaster-Pumpe und anderer. Und die sind alle gleich aufgebaut.
Und ich seh da nirgens eine Klebestelle im wasserführenden Bereich. Aber ich sehe einen Magnetkern der die Form einer Stimmgabel hat und ich sehe da Spulen drauf. Und ich vermute mal das hier der eigentliche Knackpunkt ist. Entweder der Kern selbst oder die Spulen darauf neigen zum vibrieren weil da nicht genug "sound baffling adhesive" verwendet wurde.

Das erklärt auch die Druckempfindlichkeit des Pumpendeckels. Man kann mit Druck auf der richtigen Stelle das schwingende Teil festklemmen, leitet aber dadurch die Schwingungen vielleicht woanders hin.
Es klingt auch hart mechanisch und wird nicht über das Wasser zB. zum Radiator übertragen.

Nun sieht der Pumpendeckel aus als wäre er nicht besonders fest. Ich hab fast das Gefühl das er nur aufgeklipst ist. Aus dem oben verlinkten Teardown:
Hab auch schon mal dran gezogen, hatte aber nicht genug Eier da mal richtig zu hebeln, hab ja nicht mal eine brauchbare Notkarte hier, falls ich meine 730€-Neuanschaffung mit Gewalt zerbrösle.

@ Format_C, kannst Du mal versuchen rauszubekommen ob man den Deckel der Pumpe einfach abclipsen kann? Wenn ja, wäre es absolut kein Thema da mit etwas Silikon o.ä. die schwingenden Teile zu fixieren.

"sound baffling adhesive compound"

Könnte das nicht auch ein chemischer oder organischer flüssiger zusatzstoff sein den sie dem Wasser beigemischt haben (flüssiges harz vielleicht) ?

Und das sie jetzt das Mischungsverhältnis geändert haben :) ?

Was dann wiederum auf Lean Production und Kostenreduzierung zurückführbar sein könnte was das Problem überhaupt entstehen lies ;)

Ob Harnstoff wohl geräuschdämend wirkt in so einer High Speed Pumpe ;) ?

Thunder99
2015-07-05, 11:54:12
echt klasse deine Erfahrungsberichte und was du vorhast um das Problem zu lösen :up:

(del)
2015-07-05, 12:03:10
Ich frage mal über die Kontakte bei AVC, was da sinnvollerweise machbar ist :) Vor Montag geht da aber nix.

Wie lange hast Du gebraucht, um den äußerden Deckel abzubekommen ?

HarryHirsch
2015-07-05, 12:10:49
Ich paste hier mal einen Abschnitt aus der AMD-Verlautbarung zum Pumpenfiepen:


Hier ist nie die Rede von Kleber der evtl. irgendwo im Wasserstrom oder im Bereich der Pumpenflügel sein soll, sondern von "sound baffling adhesive" was im Grunde Schalldämmkleister heißt. Nun gibt es leider nirgens einen Teardown der eigentlichen Pumpe. Aber hier (http://www.legitreviews.com/120mm-water-cooler-round-up-part-2-looking-inside_129601/2) gibt es Teardowns einer Coolermaster-Pumpe und anderer. Und die sind alle gleich aufgebaut.
Und ich seh da nirgens eine Klebestelle im wasserführenden Bereich. Aber ich sehe einen Magnetkern der die Form einer Stimmgabel hat und ich sehe da Spulen drauf. Und ich vermute mal das hier der eigentliche Knackpunkt ist. Entweder der Kern selbst oder die Spulen darauf neigen zum vibrieren weil da nicht genug "sound baffling adhesive" verwendet wurde.

Das erklärt auch die Druckempfindlichkeit des Pumpendeckels. Man kann mit Druck auf der richtigen Stelle das schwingende Teil festklemmen, leitet aber dadurch die Schwingungen vielleicht woanders hin.
Es klingt auch hart mechanisch und wird nicht über das Wasser zB. zum Radiator übertragen.

Nun sieht der Pumpendeckel aus als wäre er nicht besonders fest. Ich hab fast das Gefühl das er nur aufgeklipst ist. Aus dem oben verlinkten Teardown:
Hab auch schon mal dran gezogen, hatte aber nicht genug Eier da mal richtig zu hebeln, hab ja nicht mal eine brauchbare Notkarte hier, falls ich meine 730€-Neuanschaffung mit Gewalt zerbrösle.

@ Format_C, kannst Du mal versuchen rauszubekommen ob man den Deckel der Pumpe einfach abclipsen kann? Wenn ja, wäre es absolut kein Thema da mit etwas Silikon o.ä. die schwingenden Teile zu fixieren.

so haben pumpen vor 15 Jahren ausgesehen...

warum verbaut man nicht sowas:

http://abload.de/img/laing_d5_explodek1q0a.jpg (http://abload.de/image.php?img=laing_d5_explodek1q0a.jpg)

in Miniatur...

-/\-CruNcher-/\-
2015-07-05, 12:26:58
so haben pumpen vor 15 Jahren ausgesehen...

warum verbaut man nicht sowas:

http://abload.de/img/laing_d5_explodek1q0a.jpg (http://abload.de/image.php?img=laing_d5_explodek1q0a.jpg)

in Miniatur...

Das ist nicht dein ernst oder ;)

Es geht um Fortschritt, Effizienz,Miniaturisierung,Wettbewerb und Kostenreduktion ;)

Da sollte sich deine Frage erübrigen ;)

Zudem solltest du Patente nicht vergessen ;)

This could be a coincidence, but then again Asetek has already taken action against Cooler Master for patent infringement and companies like Swiftech had to pull the H220 CPU cooling kit from the market. This patent battle has clearly been going on for some time and will eventually worked out.


Trotzdem das Final QM liegt bei AMD da gibts nix zu rütteln die hätten das in ihren Labors checken müssen, da bleibt ein fader beigeschmack zurück wenn selbst die Reviewer das mit ihren Review Versionen bemerken und Retail das selbe vor allem für die Preis Range die aber mit den HBM research Kosten sicher gerechtfertigt ist.
Aber vor allem davon merkt der AVG Gamer momentan noch eben überhaupt nix in Performance wie sie sich das alle erhoft haben lediglich die Power Reduction scheint etwas durch ;)

Das erinnert mich total an Intels recall aktion wegen den durchbrenden Sata lines in ihrem Cougar Chipsatz damals, nur eben nicht so ganz drastisch ;)

(del)
2015-07-05, 12:34:38
Es geht um Fortschritt, Effizienz,Miniaturisierung,Wettbewerb und Kostenreduktion
Das erkärt auch, warum in meinem Kühlschrank die Eiscrusher-"Mechanik" aus Kunststoff ist. Der Hersteller meint, weil an Metall viel Eis anklebt. Ok, dann tauschen sie es eben lieber mehrmals aus, wie schon geschehen. Die Kosten entstehen dann immer erst in Nachgang.

StefanV
2015-07-05, 12:35:29
Ich frage mal über die Kontakte bei AVC, was da sinnvollerweise machbar ist :) Vor Montag geht da aber nix.

Wie lange hast Du gebraucht, um den äußerden Deckel abzubekommen ?
Wäre es nicht ev. möglich den Fiji bzw einen baugleichen Wasserkühler zu besorgen und von dem ein 'Teardown' zu machen?

anddill
2015-07-05, 12:40:23
Welchen äußeren Deckel? Die einfach quadratische Kappe? Um die gehts ja. Sitzt da noch einer drunter?Oder die gefräste Abdeckplatte mit den 4 Schrauben? 1 Minute.

mironicus
2015-07-05, 12:41:17
Ich habe mal Videos gesehen, wo durch das Anbringen eines kleinen Magneten auf den Pumpenmotor einer AIO die Geräuschkulisse minimiert werden konnte (kann man auch probieren mit einem magnetischen Schraubenzieher).

(del)
2015-07-05, 12:41:54
Wäre es nicht ev. möglich den Fiji bzw einen baugleichen Wasserkühler zu besorgen und von dem ein 'Teardown' zu machen?
Genau das willl ich ja versuchen. Ich habe keine Lust, allzu viel Gewalt anzuwenden. Ich habe es nämlich auch nicht so einfach aufbekommen, denn auch ich bin ja finanziell in Vorleistung gegangen. Und das AMD-Sapmple, was mittlerweile zum zweiten Mal hier aufgeschlagen ist, fasse ich lieber nicht an.

-/\-CruNcher-/\-
2015-07-05, 12:51:00
Das erkärt auch, warum in meinem Kühlschrank die Eiscrusher-"Mechanik" aus Kunststoff ist. Der Hersteller meint, weil an Metall viel Eis anklebt. Ok, dann tauschen sie es eben lieber mehrmals aus, wie schon geschehen. Die Kosten entstehen dann immer erst in Nachgang.

Samsung ;) ?

Übrigens wenn ich die offenen Kupferspulen da sehe muss ich unwiederuflich an Spulenfiepen denken ;)

http://www.legitreviews.com/wp-content/uploads/2013/11/all-in-one_tear_down_008-645x371.jpg

Quelle: Legitreviews http://www.legitreviews.com/120mm-water-cooler-round-up-part-2-looking-inside_129601/2

foenfrisur
2015-07-05, 13:03:48
Trotzdem das Final QM liegt bei AMD da gibts nix zu rütteln die hätten das in ihren Labors checken müssen, da bleibt ein fader beigeschmack zurück wenn selbst die Reviewer das mit ihren Review Versionen bemerken und Retail das selbe vor allem für die Preis Range die aber mit den HBM research Kosten sicher gerechtfertigt ist.
Aber vor allem davon merkt der AVG Gamer momentan noch eben überhaupt nix in Performance wie sie sich das alle erhoft haben lediglich die Power Reduction scheint etwas durch ;)

Das erinnert mich total an Intels recall aktion wegen den durchbrenden Sata lines in ihrem Cougar Chipsatz damals, nur eben nicht so ganz drastisch ;)

Sehe ich anders. Auch wenn man das nicht endgültig klären kann, wenn man nicht die Details der Verträge und die hauseigenen Tests kennt.
Sowas liegt aber eher beim AIB, auch bei einem ref-design. Asus, sapphire, xfx & Co. tragen auch hinterher dass Risiko, wäre also niemals in ihrem Sinne ;)
Die müssen es selbst bewerten, ob sie ihr Produkt so auf den Markt werfen wollen.
wenn Nicht, dann hätten diese auch amd rechzeitig hinweisen können.
müssen ja nur genug schreien.

Mfg

Troyan
2015-07-05, 13:05:45
Nö, beim Referenzdesign liegt es in der Verantwortung von nVidia und AMD. Da würde ich als Partner auch kein Geld in zusätzliche Kontrollen investieren.

foenfrisur
2015-07-05, 13:08:59
Bedeutet aber auch für jeden einzelnen dann weniger Umsatz, weil man sich auf einen dritten verlässt?
Haben die AIBs nicht die Verträge mit dem assembler avc?

Mfg

Hübie
2015-07-05, 13:14:59
Ne. Die kaufen im Falle von Fury das gesamte Paket. Sonst nur Chip, VRAM und / oder PCB.

(del)
2015-07-05, 15:17:18
Ne. Die kaufen im Falle von Fury das gesamte Paket. Sonst nur Chip, VRAM und / oder PCB.

Mit den eingekauften Karten verdienen die Boardpartner meist gar kien Geld. Das sind reine Image-Träger. Das ist bei Fury X nicht anders und wenn die kolportierten Zahlen stimmen, werden wohl Endverbraucherpreise ab 650 Euro abwärts bereits zum deutlichen Minusgeschäft für alle Beteiligten.

foenfrisur
2015-07-05, 15:25:15
die stellen ihre vertriebsstruktur zur verfügung und lassen eigene "gaaanz tolle" kartonagen fertigen (mit GDDR5 statt HBM :D) und verdienen am ende kaum/kein geld damit?

das wäre ja schon echt schräg.
und als reine imageträger auch schwer vorzustellen.
wer verpackt die denn am ende eigentlich, mit dem verschiedenen zubehör, auch avc?

mfg

(del)
2015-07-05, 15:55:55
AVC macht nur die Kühlung, Sapphire den Rest. Die finale Umverpackung kommt vom Boardpartner - immerhin.

Flusher
2015-07-05, 19:08:09
HT4U Test online

http://ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/

Eins Vorweg: AMDs Angabe zur TBP von 275 stimmt offenbar

Screemer
2015-07-05, 19:27:54
so hab ich mir leistungsaufnahme-tests schon immer vorgestellt. das poweranalyser-board ist ja wohl mal der hammer!

http://ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/index18.php

http://images.ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/gpa.jpg

multimonitoring top, bd flop. warum bekommt es amd nicht gebacken videos im niedrigsten powerstate zu decoden?!

(del)
2015-07-05, 19:37:26
Nettes Teil :up:

So eine Lösung hat Gigabte vor zwei Jahren im R&D in eine Riser-Card integriert, aber leider nie zum Verkauf / Vetrieb freigegeben. Schade drum, das war recht praktisch. Am Ende blieb mir dann nur der Weg über die Oszilloscope, mit denen man allerdings auch die Spannungen direkt am VR messen kann. Bleibt am Ende immer die Frage, in welcher Auflösung man messen möchte. Mehr als 10 Minuten schaffe ich nicht am Stück, dann ist der Logger bei 8 Kanälen komplett dicht, selbst wenn ich die Intervalle auf 1 oder 2 ns vergrößere. Das eigentliche Problem ist ja die hohe Lastwechselgeschwindigkeit der Karten (stellenweise über 200 KHz). Das war früher deutlich einfacher. :(

Screemer
2015-07-05, 19:53:54
in kombination ist dein test und der von ht4u eigentlich das einzig nötige ;)

(del)
2015-07-05, 20:00:07
Ich hatte vor unserem Follow-Up, auch basierend auf dem Feedback hier im Forum (Danke :) ), über 20 verschiedene Anwendungen immer und immer wieder durchalufen lassen und dann 8 Szenarien rausgepickt, weil der Rest viel zu ähnlich ablief. Ich hoffe nur, dass sich dieser Schaltwahn nicht noch weiter steigert. Es ist mittlerweile im Detail kaum noch sauber zu messen, denn selbst die kalibrierten und ausgemessenen Zangen fangen ab 200 KHz an, leicht ungenau zu werden.

Flusher
2015-07-05, 20:00:25
multimonitoring top, bd flop. warum bekommt es amd nicht gebacken videos im niedrigsten powerstate zu decoden?!

Was passiert eigentlich wenn man händisch runtertaktet und Bluray gucken will - fängt das Bild an zu stocken? Irgendeinen Grund muss es ja geben

Screemer
2015-07-05, 20:09:01
ich hab meine 6970, 7950 & 290 immer händisch runter getaktet. ich hab seit eh und je 2 profile die ich per hotkey lade. da stockt nix. mir wäre lieber ich bräuchte das nicht.

Schaffe89
2015-07-05, 20:31:55
HT4U Test online

http://ht4u.net/reviews/2015/amds_fu...ury_x_im_test/

Eins Vorweg: AMDs Angabe zur TBP von 275 stimmt offenbar

Was ist bei deinen mit der r9 290x Performance los?
Haben die die Karte mit Drosselung getestet?

18% schneller in Full HD wie ne Fury X, hmm, im Schnitt der Tests sinds lediglich 10% irgendein Spiel muss da stark kontra AMD reinhauen.

Ja die haben die r9 290x mit Drosselung getestet, da die Fury x 36% vor einer r9 290x in UHD liegt.
Andere Tests zeigen da nur 25/26%. Mäh.

Peter Gräber
2015-07-05, 20:42:37
@Peter Gräber:D
Wenn mich etwas ärgert, dann sind es die Leute, die immer alles hinterher testen, aus den Reviews ihre Schlüsse ziehen und natürlich sowieso alles besser wissen. Aber das ist ein anderes Thema. Abgelehnt? Das ehrt Dich ungemein. Sehr nobel :)

Und schau jetzt 100 Seiten zurück - was genau hast du gewonnen? Nix! Du hast andere Projekte zurück gestellt, bist wieder an die Teststation, hast dir deine Gedanken gemacht und nachgelegt. Warum nicht gleich so? Ich weiß - erkläre es mir nicht. Mein Chefredakteur erlaubt mir das ;).

aufkrawall
2015-07-05, 20:44:58
Ich würde das Video aus dem Filtertester im maximierten Fenster mit TMU-ALU-Splitscreen aufnehmen, da sieht man wesentlich mehr. Mit der YT-Qualität erkennt man eigentlich auch gar nichts.

Flusher
2015-07-05, 20:56:04
290X wohl im Quiet Modus getestet?

(del)
2015-07-05, 21:21:10
Und schau jetzt 100 Seiten zurück - was genau hast du gewonnen? Nix! Du hast andere Projekte zurück gestellt, bist wieder an die Teststation, hast dir deine Gedanken gemacht und nachgelegt. Warum nicht gleich so? Ich weiß - erkläre es mir nicht. Mein Chefredakteur erlaubt mir das ;).
Ich verstehe Deine merkwürdige Nachtreterei immer noch nicht, aber egal, mit so etwas kann ich kommod leben. Was ich gewonnen habe? Erkenntnisse. Die sind mehr als nur Betriebskapital, denn sie stehen kostenlos auch den Lesern zur Verfügung. Was ich verloren habe? Reichlich 700 Euro. Bedauerlich, dass die Suite zum Launchtag noch nicht fertig, war, mich hat es da auch etwas auf dem falschen Bein erwischt. Shit happens, das war schon länger geplant aber nie mit Prio 1, denn es gibt auch andere Dinge im Leben als Grafikkarten.

Wir publizieren in anderen Größenordungen, leider. Da geht nichts mit Schmolleckchen und so. Ich muss liefern, und wenn nur 5 Stunden Zeit bleiben. Ob mir das persönlich passt oder nicht. Chef-Redakteure sind keine Alleinherrscher, da habe ich komplette Narrenfreiheit. Shareholder sind schlimmer. Frag mal Anandtech, die sitzen mit uns im gleichen Boot und unter dem selben Dach.

Menace
2015-07-05, 21:30:33
Ich verstehe Deine merkwürdige Nachtreterei immer noch nicht, .

Nicht nur Du. Einige hier verlieren im Laufe des Threads bei mir an Sympathie. Kann denen ja aber egal sein, bin ja nur ich, der da nicht mehr unbedingt draufklicken muss. :rolleyes:

(del)
2015-07-05, 21:45:39
Auf die Frage, was ich hier auf 100 Seiten gewonnen habe, könnte ich noch so Einiges aufführen. Beispielsweise privates Feedback von Mitforisten, die keine Öffentlichkeit brauchen oder suchen, um mir ihre Ideen und Vorschläge zu unterbreiten und vor allem auch fachlich/sachlich begründen. Für so etwas bin ich wirklich sehr dankbar, denn als Einzelkämpfer hat man auf Dauer immer die schlechteren Karten.

Was mich stört und was ich nicht mag, steht auf einem völlig anderen Blatt und es wird wohl auch keinen hier interessieren. Für mich war und ist es trotz allem eine Bereicherung. Auch wenn das einige vielleicht nicht verstehen.

Fallacy
2015-07-05, 23:20:28
Nettes Teil :up:

Danke ;)


So eine Lösung hat Gigabte vor zwei Jahren im R&D in eine Riser-Card integriert, aber leider nie zum Verkauf / Vetrieb freigegeben. Schade drum, das war recht praktisch. Am Ende blieb mir dann nur der Weg über die Oszilloscope, mit denen man allerdings auch die Spannungen direkt am VR messen kann. Bleibt am Ende immer die Frage, in welcher Auflösung man messen möchte. Mehr als 10 Minuten schaffe ich nicht am Stück, dann ist der Logger bei 8 Kanälen komplett dicht, selbst wenn ich die Intervalle auf 1 oder 2 ns vergrößere. Das eigentliche Problem ist ja die hohe Lastwechselgeschwindigkeit der Karten (stellenweise über 200 KHz). Das war früher deutlich einfacher. :(

Integration in eine Riser-Card hatten wir auch in der Überlegung, angesichts des schwierigen Kabelmanagment mit den vielen 6/8-polig PCIe-Zusatzsteckern haben wir uns aber schlussendlich dagegen entschieden.

Für die Peak-Wert-Erfassung arbeiten wir mit unserem Graphics Power Analyzer in der von dir angesprochenen Region von ca. 200 kHz. Nennenswerte Strom-Transienten (> 1 W) unterhalb von 10 µs (10 kHz) haben wir in unserem Labor allerdings nicht angetroffen, von daher kann ich deine Aussage hier nicht bestätigen. Hier setzt die PCIe-Spezifikaiton auch Grenzen. Da unser GPA anders als ein (Speicher-) Oszilloskop alle Berechnungen on-the-fly in einer FPGA-Logik durchführt, haben wir von der Aufnahmedauer her keine Zeitbegrenzung. Die 10 Minuten bei 1 ns Abtastrate mit einem Oszilloskop mit nur 8 Mpts Speichtiefe halte ich übrigens für eine mutige Aussage ;) Tippfehler?

Du sprichst rein von zeitlicher Auflösung bei deinen Ausführungen. Ungeachtet der zeitlichen Auflösung, darf man am Ende aber die eigentliche Messaufgabe und deren Messgenauigkeit nicht aus den Augen verlieren.

Details zu unserer Messmethodik folgen in Kürze in einem eigenständigen Artikel, wie im Fury-Artikel angekündigt.

(del)
2015-07-06, 00:10:39
Die 10 Minuten bei 1 ns Abtastrate mit einem Oszilloskop mit nur 8 Mpts Speichtiefe halte ich übrigens für eine mutige Aussage Tippfehler?ms, es ist abend und heiß :) Segmentierter Speicher hilft schon ein wenig, hinterlegte Formeln und Math-Funktionen auch, es ist aber arg eng. Deshalb bin schon froh, dass ich mittlerweile direkt per Ethernet loggen kann, ein Mod hilft da ungemein, denn USB ist eine Krankheit.

Ich kenne die GB-Platine aus dem Labor, die hatten am Ende Riesen-Probleme mit den Shunts. Schön, dass ihr es gelöst habt, denn dort hat die gleiche R9 295X2 ebenfalls einige Platinen auf dem Gewissen. Mit der Riser ging das schon vom Platz her, weil sie ziemlich lang war. 3x 8-pin waren aber auch dort das Maximum pro Karte.

Peter Gräber
2015-07-06, 00:36:04
ms, es ist abend und heiß :) Segmentierter Speicher hilft schon ein wenig, hinterlegte Formeln und Math-Funktionen auch, es ist aber arg eng. Deshalb bin schon froh, dass ich mittlerweile direkt per Ethernet loggen kann, ein Mod hilft da ungemein, denn USB ist eine Krankheit.

Ich kenne die GB-Platine aus dem Labor, die hatten am Ende Riesen-Probleme mit den Shunts. Schön, dass ihr es gelöst habt, denn dort hat die gleiche R9 295X2 ebenfalls einige Platinen auf dem Gewissen. Mit der Riser ging das schon vom Platz her, weil sie ziemlich lang war. 3x 8-pin waren aber auch dort das Maximum pro Karte.

Haben wir von dem Problem gesprochen? Haben wir das Problem nicht gelöst Hast du ein Problem? Nachtreten? Es war eine Brücke!

Unicous
2015-07-06, 00:39:20
Ja, es ist warm.:comfort:

Nun ist aber auch mal gut. Setzt euch mal schön einen Pfefferminztee auf und lasst ihn dann abkühlen und trinkt ihn dann genüsslich. Das kühlt Körper und Seele.:wink:

Thowe
2015-07-06, 00:43:00
Ich verstehe Deine merkwürdige Nachtreterei immer noch nicht.

Ich würde es nicht als Nachtreten interpretieren wollen. Es zu tun sind eher Nachwirkungen der 1. Kritik seitens Peter und substanzlos war die ja nicht, es gab ja etliche Erkenntnisse für alle hier. Ich sehe es eher als Feststellung eines Problems, dessen Verschulden ja auch nicht deines ist. Gute Arbeit braucht Zeit und genau diese gab es nicht, gibt es auch nicht, weil das Internet oder eben die Nutzer von diesem nicht gut, sondern primär schnell informiert werden wollen.

Das ist genau der Grund das ich HT4U und Peter sehr schätze, tat ich damals Thomas Papst auch sehr. THG hatte zwischenzeitlich für mich verspielt und ich habe die Seite oft gemieden, die Gründe werde ich hier aber nicht breittreten wollen. Im Sinne von Erfolg hat Purch sicherlich recht. In Sinne von Qualität gibt es viele, dich ja eingeschlossen, die "besseres" abliefern könnten. Das ist aber nicht nur in der EDV-Branche so, auch bei der Fotografie bin ich immer froh, dass es Seiten wie dpreview gibt, die den Spagat zwischen Erfolg und guter Arbeit durchaus zu leisten vermögen. Machbar ist es also schon.

Peter Gräber
2015-07-06, 00:49:09
Ja, es ist warm.:comfort:

Nun ist aber auch mal gut. Setzt euch mal schön einen Pfefferminztee auf und lasst ihn dann abkühlen und trinkt ihn dann genüsslich. Das kühlt Körper und Seele.:wink:

Nein! Verstehe es im Ansatz! Ich machs Maul doch nicht grundlos auf! Die Fakten liegen doch auf dem Tisch?! PCGH hat nichts falsch gemacht, 40 Seiten gingen dagegen. Die nächsten 40 Seiten diskutierten um Möglichkeiten: Die letzten nur noch darum, dass es (oha) eine neue Sichtweise gibt. Danke!

Die Autorität in Hardware - ich freue mich auf meinen Ruhestand. Ich weiß wo die sitzt.

Tante Ädit: Ich bin raus aus dem Müll. Und Igor, wenn du über Fakten und harte Taler diskutieren willst, komm zu mir! Leander hat dir den Weg zu technischen Diskussionen geebnet - das erfolgt gewiss nicht hier ohne Überblick. Ich freu mich auf deinen Besuch!

Ravenhearth
2015-07-06, 00:52:22
Aus dem Test von ht4u:

AMD hält sich aktuell zu weiteren Möglichkeiten von Fiji relativ bedeckt. Es finden sich in den uns vorgelegten Dokumenten keinerlei detaillierte Informationen zur UVD-Einheit. Das mag vermutlich daran liegen, dass man an dieser Ecke / Baustelle keine weiteren Neuerungen zu bisherigen Techniken umgesetzt hat.


Anandtech schreiben dagegen:

On the multimedia front, Fiji brings with it an enhanced set of features from Tonga. While the video encode side (VCE) has not changed – AMD still supports a wide range of H.264 encode settings – the video decode side has seen a significant upgrade. Fiji is the first AMD discrete GPU to support full hardware HEVC decoding, coinciding with the launch of that feature on the GCN 1.2-based Carrizo APU as well.

Scheint also doch was gegeben zu haben.

Hübie
2015-07-06, 01:41:52
Kann mir mal jemand erklären wieso jetzt hier zwei Kampfhähne den Ring betreten haben? Hab ich was verpasst? :| Peter, bei allem Respekt, aber du solltest mal etwas runterfahren. Ich habe dich anders in Erinnerung.
Wenn ihr etwas klären wollt macht einen Thread auf oder, wie du schon vorgeschlagen hast, trefft euch mal persönlich beim Steak und Bier.

Dein Test gefällt mir sehr gut und zeichnet das Bild noch genauer: Fiji ist keine Full HD Karte und will diesen Titel gar nicht beanspruchen. Was ich nicht verstehe ist wieso man sich z. B. bei ACU für so unsinnige Settings entscheidet, dass es auf jeder sGPU zwangsläufig ruckelt. :confused: GPU Limit geht anders ;) Nun bin ich auf den Folgeartikel sehr gespannt. Danke jedenfalls für den Test. Das Warten hat sich gelohnt.

Menace
2015-07-06, 06:27:24
Und schau jetzt 100 Seiten zurück - was genau hast du gewonnen? Nix!

Schaue ich die 100 Seiten zurück und vergleiche euren Test der 980 Ti und Fury X, sehe ich auf einmal, dass ihr nun den Durchschnittsverbrauch testet/angebt. Wer gewonnen hat? Der Kunde. :P

Und war der Multimonitor-Betrieb nicht auch bei unterschiedlichen Auflösungen und timings geringer? Hat das jemand überprüft?

Korvaun
2015-07-06, 07:43:16
Wie siehts aktuell aus mit nem neuen Treiber, sollt da nicht diese Woche was kommen?

mironicus
2015-07-06, 07:50:27
Morgen soll er kommen.

Hübie
2015-07-06, 07:57:47
Schaue ich die 100 Seiten zurück und vergleiche euren Test der 980 Ti und Fury X, sehe ich auf einmal, dass ihr nun den Durchschnittsverbrauch testet/angebt. Wer gewonnen hat? Der Kunde. :P

Und war der Multimonitor-Betrieb nicht auch bei unterschiedlichen Auflösungen und timings geringer? Hat das jemand überprüft?

Dein Gequatsche ergibt so erst mal keinen Sinn. Also noch mal neu.

foenfrisur
2015-07-06, 11:39:38
so, ergänzung zum DP-> DVI duallink adapter.

habe dank user "lowkey" mal ein FW-Update auf 2.3 gemacht.
werte sind wie folgt möglich:

3,2k auflösung (nicht 4k) bis 60Hz
2,5k auflösung gehen bis 100Hz (75Hz geht jedoch nicht)
2k auflösung gehen dann auch 120Hz
FHD dann eben bis 144Hz

mfg

ps
getestet wurde über VSR. kein plan, ob ich deswegen kein echtes 4K anwählen kann oder der adapter es nicht mehr supported.

Screemer
2015-07-06, 11:49:45
Werd ich auch mal testen.

Allerdings scheint es einen bug im von mir genutzten Treiber zu geben. Da ich einen Koreaner nutze muss ich per pixelclockpatcher und cru meinen monitor "übertakten". Allerdings hab ich mit dem aktuellen Treiber schon ab knapp 70hz Artefakte. Das gabs früher nicht. Toastyx, der Entwickler von cru und dem PCP, hat die Vermutung geäußert dass die Karte nur noch ein single-link-signal ausspuckt und hält es es fur einen möglichen bug im catalyst >14.9.

Hab heute frei und werde noch ein wenig rumtesten.

€dit: wollte nur anmerken, dass der Koreaner schon mit 120hz lief.

Hübie
2015-07-06, 12:27:11
so, ergänzung zum DP-> DVI duallink adapter.

habe dank user "lowkey" mal ein FW-Update auf 2.3 gemacht.
werte sind wie folgt möglich:

3,2k auflösung (nicht 4k) bis 60Hz
2,5k auflösung gehen bis 100Hz (75Hz geht jedoch nicht)
2k auflösung gehen dann auch 120Hz
FHD dann eben bis 144Hz

mfg

ps
getestet wurde über VSR. kein plan, ob ich deswegen kein echtes 4K anwählen kann oder der adapter es nicht mehr supported.

wtf?! Is VSR etwa nich über HLSL gelöst? :confused:

Mancko
2015-07-06, 12:30:29
:eek: Aber die Zukunftsfähigkeit da nur 4 GB HBM ist doch nicht ausreichend.... ach halt. :freak: :wink:

Von mir aus muss die Nano die GTX 970 gar nicht schlagen.
Wenn AMD eine Fiji GPU braucht um die billige 970 zu schlagen, dann ist das eh erbärmlich. Die 970 ist eine Performance GPU. Das AMD so lange an der herumknabbert und Nvidia es sich leisten kann das billige Teil in dem Preissegment wo sie aktuell ist zu verkaufen spricht eh schon Bände.

foenfrisur
2015-07-06, 12:40:00
also am adapter liegts nicht.
entweder ist vsr die beschränkung, was ich aber nicht glaube, denn 4k sollen ja funktionieren
oder der DL-DVI, was ich am ehesten vermute.

mfg

eratte
2015-07-06, 12:58:18
DL-DVI hat keine Bandbreite für 4k, maximal 2560×1600 Bildpunkte bei 60 Hz.

foenfrisur
2015-07-06, 13:01:02
ja, allerdings gehen auch noch ~3200x1800 mit 60Hz...zumindest im desktop-betrieb.
3D hatte ich das nicht mehr getestet.

mfg

Menace
2015-07-06, 13:31:25
Dein Gequatsche ergibt so erst mal keinen Sinn. Also noch mal neu.

Mir scheint, dass durch die ganze Kritik bzgl. der Messung der Leistungsaufnahme (Tom -> pcgh -> Tom -> ht4u -> Tom) jeder etwas gelernt hat. Dadurch hat Tom nochmals nachgemessen und ht4u hat den Durchschnittsverbrauch mit aufgenommen. Somit hat letztlich der Kunde, der eine Grafikkarte kaufen möchte, etwas davon und die Anzickerei der Redakteure untereinander wäre nicht nötig. Habe ich das jetzt verständlicher ausgedrückt?

Zum zweiten Abschnitt: Bezieht sich auf folgenden Test: http://ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/index21.php

Irgendjemand (format_c:?) hat geschrieben, dass beim Multimonitorbetrieb auch bei unterschiedlichen Auflösungen und Timings der "Stromverbrauch" niedrig bleibt. Meine Frage war, ob das jemand nachgetestet hat oder ob man davon ausgehen kann, dass dann der Verbrauch höher ist. Ich z.B. nutze ein teures IPS-Panel, ein günstiges IPS Panel und würde mir gerne noch ein weitern Monitor (Hochkant) dazukaufen.

anddill
2015-07-06, 13:36:08
Da der Speichertakt sich nicht ändert, egal wie viele Monitore mit welchen Auflösungen dran hängen kann man sicher davon ausgehen daß der Energiebedarf nahezu konstant bleibt.
Ich könnte das mal mit 2 unterschiedlichen Monitoren testen. Die hab ich nämlich dran. muss ich nur mal kurz das Wattmeter zwischenstecken.

Menace
2015-07-06, 13:45:36
@andill: Wäre toll, aber nur falls es nicht zu viele Umstände macht. :up:

anddill
2015-07-06, 13:56:00
Kein Unterschied, ob ich den sekundären Monitor an oder aus habe. Hauptmonitor ist 2560x1440, sekundärer 1280x1024

Rancor
2015-07-06, 14:19:06
Weiss man nun warum, die Fury X so langsam ist? Im Bezug auf Ihre technischen Daten? Sie liegt ja bis auf wenig Ausnahmen konstant hinter der 980ti.
Ist das noch ein Treiber Problem ?

nagus
2015-07-06, 14:30:48
Wenn AMD eine Fiji GPU braucht um die billige 970 zu schlagen, dann ist das eh erbärmlich. Die 970 ist eine Performance GPU. Das AMD so lange an der herumknabbert und Nvidia es sich leisten kann das billige Teil in dem Preissegment wo sie aktuell ist zu verkaufen spricht eh schon Bände.

Habe ich etwas verpasst ? Wie wärs mit 290er / 390er? Mit den neuen Treibern wird der 970er "krüppel" locker geschlagen!

anddill
2015-07-06, 14:36:22
Es ging nicht darum die 970 zu schlagen, sondern sie mit weniger Watt zu schlagen.

nagus
2015-07-06, 14:38:00
Weiss man nun warum, die Fury X so langsam ist? Im Bezug auf Ihre technischen Daten? Sie liegt ja bis auf wenig Ausnahmen konstant hinter der 980ti.
Ist das noch ein Treiber Problem ?

Ich weiß ja nicht welche testverichte du gelesen hast... Aber "konstant hinter der 980ti" finde ich überzogen. Es gibt leider einige typische NVIDIA Spiele bei denen die fury in der tat extrem schlecht abschneidet. Andererseits gibst dann auch wieder Spiele (bioshock, skyrim etc...) wo die titan x sogar regelrecht überrannt wird. In Summe kommt dann je nach getesteten spielen und Auflösung ca 980ti Speed raus. Ob jetzt 3% mehr oder weniger ist im Alltag sowieso VÖLLIG unerheblich bitte!

Dawn on Titan
2015-07-06, 14:40:07
Für die neue Architektur und den neuen Treiber ist die Leistung auf jeden Fall stark.

nagus
2015-07-06, 14:42:29
Es ging nicht darum die 970 zu schlagen, sondern sie mit weniger Watt zu schlagen.

ist schon mal jemand auf die Idee gekommen (einer von den Nörglern, denen die Hawaii zu viel Strom schluckt) einfach Takt und Spannung zu senken? Ich glaube dann könnte man durchaus an die Wattregionen einer 970er vordringen. Oder nicht?

Ravenhearth
2015-07-06, 14:45:11
Weiss man nun warum, die Fury X so langsam ist? Im Bezug auf Ihre technischen Daten? Sie liegt ja bis auf wenig Ausnahmen konstant hinter der 980ti.
Ist das noch ein Treiber Problem ?

Das könnte vom Treiber beeinflusst werden (Performance im CPU-Limit) aber hauptsächlich dürfte das ein Hardware-Problem sein. Laut anandtech reizt Fiji die GCN 1.2-Architektur komplett aus. Diese unterstützt maximal vier Shades-Engines mit jeweils einem Front-End-Teil sowie maximal 16 CUs und 16 ROPs. Fiji hat genau das: Vier Shader-Engines, 64 CUs, 64 ROPs. Mehr geht nicht. Bei dieser Konfiguration limitiert das Front-End schon deutlich, denn Fiji hat mit 16 CUs pro Shader-Engine mehr als jede andere GCN-GPU: Tahiti+Tonga: 8, Hawaii: 11. Tahiti hat zwar nur ein zweifach-Frontend, aber doch vier Shader-Engines. Es mangelt also vielleicht gar nicht mal an der Rasterizer- und/oder Tesselations-Performance (gleiches Verhältnis wie bei Tahiti), sondern rein daran, die Recheneinheiten zu füttern.

Rancor
2015-07-06, 14:46:21
Ich weiß ja nicht welche testverichte du gelesen hast... Aber "konstant hinter der 980ti" finde ich überzogen. Es gibt leider einige typische NVIDIA Spiele bei denen die fury in der tat extrem schlecht abschneidet. Andererseits gibst dann auch wieder Spiele (bioshock, skyrim etc...) wo die titan x sogar regelrecht überrannt wird. In Summe kommt dann je nach getesteten spielen und Auflösung ca 980ti Speed raus. Ob jetzt 3% mehr oder weniger ist im Alltag sowieso VÖLLIG unerheblich bitte!

Naja sie hat immerhin 4096 Shadereinheiten, die 980TI zb. nur 2816. Da hätte ich mir mehr erwartet.

Menace
2015-07-06, 14:50:24
Kein Unterschied, ob ich den sekundären Monitor an oder aus habe. Hauptmonitor ist 2560x1440, sekundärer 1280x1024

Ok. Ich danke Dir. "Timing ist bei Dir auch unterschiedlich? Wahrscheinlich verstehe ich "timing" völlig falsch.

anddill
2015-07-06, 14:52:10
Sicher, sind ja unterschiedliche Auflösungen.

nagus
2015-07-06, 14:52:35
Ich finde diese "Haar in der Suppe suchen" Mentalität krank. Wegen ein paar Watt die auf der Stromrechnung (wer von den Nörglern bezahlt die Stromrechnung selbst??) kaum ins Gewicht fallen, wird auf "großer Öko Hippie" gemacht.... Wer von den Kritikern kann von sich behaupten, immer ökologisch nachhaltig und energieeffizient zu leben? 1x mit dem Auto anstatt mit dem Fahrrad in die Arbeit fahren kostet wahrscheinlich mehr als wenn eine Maxwell oder eine Hawaii im Rechner steckt. 1x im Jahr den Trockner zu viel eingeschaltet und die Energieeffizienz des eigenen Haushaltes ist im Eimer. Da hilft Maxwell dann auch nicht mehr ;)

nagus
2015-07-06, 14:53:22
Naja sie hat immerhin 4096 Shadereinheiten, die 980TI zb. nur 2816. Da hätte ich mir mehr erwartet.

Das kann man so überhaupt nicht vergleichen!

anddill
2015-07-06, 14:54:29
Du kommst spät zu der Party...
Das haben wir alles schon 80 Seiten früher durchgekaut. Lass es jetzt bitte.

Menace
2015-07-06, 14:58:36
Sicher, sind ja unterschiedliche Auflösungen.
:up: Vielen Dank. =)

Ich finde diese "Haar in der Suppe suchen" Mentalität krank. Wegen ein paar Watt die auf der Stromrechnung (wer von den Nörglern bezahlt die Stromrechnung selbst??) kaum ins Gewicht fallen, wird auf "großer Öko Hippie" gemacht.... Wer von den Kritikern kann von sich behaupten, immer ökologisch nachhaltig und energieeffizient zu leben? 1x mit dem Auto anstatt mit dem Fahrrad in die Arbeit fahren kostet wahrscheinlich mehr als wenn eine Maxwell oder eine Hawaii im Rechner steckt. 1x im Jahr den Trockner zu viel eingeschaltet und die Energieeffizienz des eigenen Haushaltes ist im Eimer. Da hilft Maxwell dann auch nicht mehr ;)

Das stimmt schon und trotzdem wäre es schön, wenn man versucht möglichst wenig Strom bei möglich langer Zeit zu gebrauchen. Das hängt allerdings auch am Nutzerprofil. Ich profitiere mehr von sparsamen Multimonitorbetrieb als vom sparsameren Load-Modus unter Spielen.

Dawn on Titan
2015-07-06, 15:09:35
Das kann man so überhaupt nicht vergleichen!

216W oder so in GTA ist doch top. Effizient ist das Ding schon, es hat halt nur keinen Hardcap wie die 980ti, die halt Leistung weg nimmt wenn die 255W nicht mehr reichen. Die Fury X liefert immer volle Leistung.

Dural
2015-07-06, 15:17:43
Kannst die 980Ti ja auf 110% stellen, das dürfte für so einiges reichen. Und im Gegensatz zu AMD verliert man dabei nicht mal die Garantie ;)

aufkrawall
2015-07-06, 15:20:51
216W oder so in GTA ist doch top.
Nix "oder so".
TH misst 250W in 4k versus 214W bei der 980 Ti, die auch noch 23% schneller dabei ist.
"Top" also schon gar nicht...

Thunder99
2015-07-06, 15:42:29
@Mancko: War wohl nicht ernstgemeint, oder? Selbst die R9 290 @ 1000MHz kommt an die 970 ran. Nicht in jedem Spiel aber dennoch erstaunlich oft. Hatte zuerst die 970, dann die 290. Und ich merke kaum das ich schlechter unterwegs bin.

Daher kommt Fiji selbst mit 35xx Shader sogar locker an die 980 ran.

Der Treiber dürfte noch nicht optimal sein daher erwarte ich noch Zuwächse bei der Fury (X). Keep cool :cool:

Dural
2015-07-06, 16:13:54
Er meinte die Nano, und ja da ist ein Fiji Chip drauf und kein Hawaii oder sonst was ;)

Und jaja die Treiber werden es richten, komisch finde ich nur das man das bei jedem neuen AMD Chip hört ;) und wisst ihr wie oft es der Treiber "gerichtet" hat? 0,0mal... Ganz im Gegenteil, es gab mal einen Test (Computerbase?) der Ausgesagt hat das sogar NV mit der Zeit zugewonnen und AMD dagegen verloren hat, wenige Prozent Punkte... Egal...

Edit:
http://www.computerbase.de/2014-04/aktuelle-treiber-amd-catalyst-nvidia-geforce-leistungszuwachs/2/

-/\-CruNcher-/\-
2015-07-06, 16:36:59
wtf?! Is VSR etwa nich über HLSL gelöst? :confused:

AMD geht hier einen anderen Weg was äusserst interessant ist sie wollen anscheinend die Shader nicht zusätzlich belasten :)

denke mal über kurz oder lang wird es eh bei beiden in einem eigenen logik part enden der dafür Zuständig ist so wie bei Intels Hardware Scaler :)

Da aber der Platz dafür nicht vorhanden scheint (und sicher auch Kostengründe) geht vor allem Nvidia den Weg über die Shader aber so ineffizient ist das ganze ja nun nicht wirklich vor dem 353.30 hat man die Latenz noch voll mitbekommen jetzt nicht mehr wirklich bei Nvidia :)

Das ganze ist bei Nvidia auch Kinderleicht gelöst worden 1 Klick also besser (kundenfreundlicher) kann man es nicht machen ;)

Langlay
2015-07-06, 16:38:19
Er meinte die Nano, und ja da ist ein Fiji Chip drauf und kein Hawaii oder sonst was ;)

Und jaja die Treiber werden es richten, komisch finde ich nur das man das bei jedem neuen AMD Chip hört ;) und wisst ihr wie oft es der Treiber "gerichtet" hat? 0,0mal... Ganz im Gegenteil, es gab mal einen Test (Computerbase?) der Ausgesagt hat das sogar NV mit der Zeit zugewonnen und AMD dagegen verloren hat, wenige Prozent Punkte... Egal...

Edit:
http://www.computerbase.de/2014-04/aktuelle-treiber-amd-catalyst-nvidia-geforce-leistungszuwachs/2/


HD7970 +14%
HD6970 +10%
HD5870 +11%

Also ich seh in dem Link zuwächste nur nicht bei der R9 290x.

OC_Burner
2015-07-06, 16:40:01
wtf?! Is VSR etwa nich über HLSL gelöst? :confused:

Habe ich was verpasst oder ist Omega-Phase 2 schon angelaufen? VSR soll doch erst später über die Shader realisiert werden.

DL-DVI hat keine Bandbreite für 4k, maximal 2560×1600 Bildpunkte bei 60 Hz.

DL-DVI hätte Bandbreite für 30Hz - 40HZ bei 4K (330MHz ~ 340MHz) wenn man die Pixelclock bis auf das äußerste ausreizen würde.

anddill
2015-07-06, 16:44:09
Leute, es gibt Treads in denen Ihr über die Treiber diskutieren könnt. Macht das bitte dort, solange es keinen konkreten Bezug zu Fiji hat!

-/\-CruNcher-/\-
2015-07-06, 16:59:46
Mir scheint, dass durch die ganze Kritik bzgl. der Messung der Leistungsaufnahme (Tom -> pcgh -> Tom -> ht4u -> Tom) jeder etwas gelernt hat. Dadurch hat Tom nochmals nachgemessen und ht4u hat den Durchschnittsverbrauch mit aufgenommen. Somit hat letztlich der Kunde, der eine Grafikkarte kaufen möchte, etwas davon und die Anzickerei der Redakteure untereinander wäre nicht nötig. Habe ich das jetzt verständlicher ausgedrückt?

Zum zweiten Abschnitt: Bezieht sich auf folgenden Test: http://ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/index21.php

Irgendjemand (format_c:?) hat geschrieben, dass beim Multimonitorbetrieb auch bei unterschiedlichen Auflösungen und Timings der "Stromverbrauch" niedrig bleibt. Meine Frage war, ob das jemand nachgetestet hat oder ob man davon ausgehen kann, dass dann der Verbrauch höher ist. Ich z.B. nutze ein teures IPS-Panel, ein günstiges IPS Panel und würde mir gerne noch ein weitern Monitor (Hochkant) dazukaufen.


Richtig selbst PCGH ist unter Druck und bessert nach :)

Wir haben alle gewonnen ;)

Es ging nicht darum die 970 zu schlagen, sondern sie mit weniger Watt zu schlagen.

Bin mir mitlerweile eigentlich ziemlich sicher das das physikalisch nicht funktionieren kann bei AMD

Selbst mit der HBM kompensation scheint es nicht machbar mit der DP Logik + dann auch noch der True Audio Logik die viele anscheinend vergessen ;)

Selbst nach der Reduzierung der DP Logik und Verteilung auf Tesselation und zusätzlichem DCC mit Tonga.

Dann scheint ihr UVD Core beim Verbrauch auch immer wieder zu versagen, wobei man ja hier von usern hört takt runter keinen Beinträchtigung wenn der UVD Core aber einen eigenen Takt hat wie bei Nvidia der VPX Core bringt das nicht wirklich viel :)

Dabei war gerade ATI der voreiter der VPU damals hat Nvidia kein Land gesehen und Heute ?

Ich will garnicht erklären wie schlecht der UVD in der HD2400 war aber es kamm einem so vor als hat ATI nur für BD optimiert während Nvidia volle resourcen auch in Broadcast gepowert hat und Nvidia hat aufmerksam zugehört während AMD sich überhaupt nicht um user Feedback kümmerte.

Die Nano wird echt spannend :)


Auch wenn viele Nvidias Tegra Research (und investitionen) belächelten persönlich bin ich fest davon überzeugt das das Ausschlagebend dafür ist wo Nvidia jetzt steht bei ihren Discreete Chips vs AMD in der Balance :)

aufkrawall
2015-07-06, 17:01:16
Nicht alle, einige hier wollten die Schaffung einer besseren Faktenlage behindern. ;)

Thunder99
2015-07-06, 17:10:39
Um Maxwell in der Effizienz zu schlagen braucht es eine andere Architektur. GCN 1.2 mit HBM langt nicht außer man taktet extrem runter, siehe Nano

Menace
2015-07-06, 17:10:53
Sicher, sind ja unterschiedliche Auflösungen.

Nochmals dazu. Könnte ht4u dann ja auch nochmals im Text ändern/ergänzen. Wobei, wenn es noch nicht mal "AMD" genau weiß, woran das liegt.

horn 12
2015-07-06, 17:41:59
Sorry, ab wann fällt das NDA zum Omega Phase 2 Treiber eigentlich
Morgen früh 6 Uhr, oder doch erst morgen nachmittags 14 Uhr?

Megamember
2015-07-06, 17:47:15
Sorry, ab wann fällt das NDA zum Omega Phase 2 Treiber eigentlich
Morgen früh 6 Uhr, oder doch erst morgen nachmittags 14 Uhr?

Ist das nicht scheissegal?

Blediator16
2015-07-06, 17:51:41
Ist das nicht scheissegal?

Wäre es etwas besonderes, dann hätte man es PR technisch schon ausgeschlachtet.

horn 12
2015-07-06, 17:53:15
NICHT unbedingt würde ich behaupten

aufkrawall
2015-07-06, 17:53:38
Es war schon angekündigt, was drin sein soll. Stand in einer pdf, vielleicht kann die ja jemand nochmal verlinken.

Hier ist es:
http://www.moorinsightsstrategy.com/wp-content/uploads/2015/06/AMD-Brings-New-Value-to-Radeon-by-Moor-Insights-and-Strategy.pdf

Frosty
2015-07-06, 18:39:18
ich hoffe das mit dem treiber-release noch die frame rate control kommt, im 15.20 ist das bei meiner karte nicht verfügbar.

Knuddelbearli
2015-07-06, 19:15:36
Richtig selbst PCGH ist unter Druck und bessert nach :)

Wir haben alle gewonnen ;)



Bin mir mitlerweile eigentlich ziemlich sicher das das physikalisch nicht funktionieren kann bei AMD

Selbst mit der HBM kompensation scheint es nicht machbar mit der DP Logik + dann auch noch der True Audio Logik die viele anscheinend vergessen ;)

Selbst nach der Reduzierung der DP Logik und Verteilung auf Tesselation und zusätzlichem DCC mit Tonga.

Dann scheint ihr UVD Core beim Verbrauch auch immer wieder zu versagen, wobei man ja hier von usern hört takt runter keinen Beinträchtigung wenn der UVD Core aber einen eigenen Takt hat wie bei Nvidia der VPX Core bringt das nicht wirklich viel :)

Dabei war gerade ATI der voreiter der VPU damals hat Nvidia kein Land gesehen und Heute ?

Ich will garnicht erklären wie schlecht der UVD in der HD2400 war aber es kamm einem so vor als hat ATI nur für BD optimiert während Nvidia volle resourcen auch in Broadcast gepowert hat und Nvidia hat aufmerksam zugehört während AMD sich überhaupt nicht um user Feedback kümmerte.

Die Nano wird echt spannend :)


Auch wenn viele Nvidias Tegra Research (und investitionen) belächelten persönlich bin ich fest davon überzeugt das das Ausschlagebend dafür ist wo Nvidia jetzt steht bei ihren Discreete Chips vs AMD in der Balance :)


Sagt mir wenn ich mich täusche. aber erreicht AMD nicht deutlich mehr Punkte in Videovergleichen da die standardmäßig viel mehr Bildverbesserungsoptionen angeschaltet haben als nv. was natürlich Strom kostet

Hab das zumindest so im Kopf ist aber sicher schon paar Jahre her

Knuddelbearli
2015-07-06, 19:16:47
Wäre es etwas besonderes, dann hätte man es PR technisch schon ausgeschlachtet.

Ähm wir reden hier über AMD :freak:

gedi
2015-07-06, 20:38:20
Gibt es eigentlich bereits ein Review, wo Fury in Win X => 10130 getestet wurde?

Raff
2015-07-06, 20:49:47
Richtig selbst PCGH ist unter Druck und bessert nach :)

Wir haben alle gewonnen ;)

Etwas schade finde ich aber, dass hier hier nach den bestätigenden Tests immer noch nicht der Satz "PCGH hatte also Recht" gefallen ist, weil man als einzige Redaktion diese "4K-Grafikkarte" (laut AMD) richtig rangenommen und mit fordernden Spielen unter Ultra HD getestet hat. :tongue: Das einzige, was fehlt, ist der Verbrauch in ein, zwei Low-Power-Spielen.

Ich bin aber nach wie vor der Überzeugung, dass letzteres nur eine Bonusinfo ist, denn am Ende zählt, was schlimmstenfalls passiert. Ich sag euch euch warum: Oft genug, wenn Leute euphorische Tests lesen, in denen das Produkt für sparsam und leise gehalten wird, greift jemand zu, der diese Attribute wirklich wünscht - und bekommt dann im eigenen Rechner alles andere, weil er die Karte richtig fordert und sie damit laut und durstig wird.

Sorry, ab wann fällt das NDA zum Omega Phase 2 Treiber eigentlich
Morgen früh 6 Uhr, oder doch erst morgen nachmittags 14 Uhr?

Und schon wieder steht hier etwas von Omega Phase 2. Woher stammt die Info und wieso weiß ich davon nichts? :ugly:

MfG,
Raff

iuno
2015-07-06, 21:14:08
Und schon wieder steht hier etwas von Omega Phase 2. Woher stammt die Info und wieso weiß ich davon nichts? :ugly:

MfG,
Raff
Wusstet ihr denn letztes mal vor Release vom Omega?
In meiner Naivität hätte ich gedacht, dass ein Treiber einfach so kommt ;D Einiges ist ja von dieser PDF bekannt und so viel unerwartetes passiert ja nicht oder? 300er Optimierungen auch für 200, DX12 Funktionalität und weitere Optimierungen für die Fury?


ich hoffe das mit dem treiber-release noch die frame rate control kommt, im 15.20 ist das bei meiner karte nicht verfügbar.
15.20? Das soll doch der neue sein!? :confused:

Menace
2015-07-06, 21:14:32
Recht hatte jeder ein wenig (finde ich zumindest). Ich realisierte zum ersten mal, wie weit der Durchschnittsverbrauch vom Maximalverbrauch auseinander liegt. Keiner war perfekt, keiner hatte alleine Recht aber ihr seid alle toll. Jetzt vertragt euch wieder und geht respektvoll miteinander um. :freak: Konkurrenz belebt halt nicht nur das Hartware-Geschäft.

aufkrawall
2015-07-06, 21:16:42
Etwas schade finde ich aber, dass hier hier nach den bestätigenden Tests immer noch nicht der Satz "PCGH hatte also Recht" gefallen ist
Ich hab von Anfang an gesagt, dass eure Messungen plausibel sind. Steck mich mal nicht mit dem ahnungslosen Mob hier in eine Tüte. ;)

Captain Future
2015-07-06, 21:36:08
Es war schon angekündigt, was drin sein soll. Stand in einer pdf, vielleicht kann die ja jemand nochmal verlinken.

Hier ist es:
http://www.moorinsightsstrategy.com/wp-content/uploads/2015/06/AMD-Brings-New-Value-to-Radeon-by-Moor-Insights-and-Strategy.pdf

Ich frag mich grad, wie gut der wohl rescherschiert sein kann wenn gleich auf Seite1 so ein Dummfug steht:

Fury X
When the Fury brand was introduced under the ATI brand in 2001, it set itself apart from
every other product available in the market and was a major innovation in the graphics
industry.

Und nein, es ist keine Verwechselung mit Radeon, denn weiter gehts mit:

Today, AMD is looking to rekindle the excitement around the Fury brand with
the new R9 Fury line of high-end cards.

... Da's grad soviel Spaß macht:
The whole R9 Fury
X graphics card itself boosts performance to 8.6 GFLOPS (Giga Floating Point
Operations Per Second) from 5.6 GFLOPS, an increase of 65% over the previous
generation.

-> 52,7%

... LOL
The R9 Fury X uses 4GB of HBM memory on a 4,096-bit memory interface, which
delivers up to 512 GB/s (Gigabytes Per Second) of memory bandwidth, an increase of
around 63% over the previous high-end AMD Radeon R9 290X with 320 GB/s of
bandwidth.

-> glatt 60%

Wie peinlich das das noch online steht

Raff
2015-07-06, 22:06:30
Wusstet ihr denn letztes mal vor Release vom Omega?

Yep, vor dem ersten Omega hat AMD getrommelt und den Treiber der Presse vorab zur Verfügung gestellt, ähnlich damals "Mjölnir". Siehe auch hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10695380&postcount=8

Recht hatte jeder ein wenig (finde ich zumindest). Ich realisierte zum ersten mal, wie weit der Durchschnittsverbrauch vom Maximalverbrauch auseinander liegt. Keiner war perfekt, keiner hatte alleine Recht aber ihr seid alle toll. Jetzt vertragt euch wieder und geht respektvoll miteinander um. :freak: Konkurrenz belebt halt nicht nur das Hartware-Geschäft.

Im Grunde haben wir uns doch alle lieb und können voneinander lernen. :)

Ich hab von Anfang an gesagt, dass eure Messungen plausibel sind. Steck mich mal nicht mit dem ahnungslosen Mob hier in eine Tüte. ;)

Stimmt. Tut mir leid wegen der falschen Schublade.

MfG,
Raff

iuno
2015-07-06, 22:06:41
Es gab einige Produkte von ATI, die Fury hießen, genauer Rage Fury (PRO/MAXX). Das war noch vor radeon. Mit Prozentrechnen hat er es wirklich nicht so: 290X hat 65% der Flops und 63% de Bandbreite der Fury x

Raff
2015-07-06, 22:11:08
Es gab einige Produkte von ATI, die Fury hießen, genauer Rage Fury (PRO/MAXX). Das war noch vor radeon. Mit Prozentrechnen hat er es wirklich nicht so: 290X hat 65% der Flops und 63% de Bandbreite der Fury x

Dort steht aber "Fury brand was introduced under the ATI brand in 2001", was Unsinn ist. Fury gab's vorher - 2001 begann das Radeon-Zeitalter. Streng genommen gab's die erste Radeon schon Mitte 2000, wenn ich mich recht erinnere.

MfG,
Raff

maximus_hertus
2015-07-06, 22:16:23
Und schon wieder steht hier etwas von Omega Phase 2. Woher stammt die Info und wieso weiß ich davon nichts? :ugly:

MfG,
Raff

Vielleicht hat AMD eure Berichterstattung nicht gefallen? :D


Mal was zu der 4K-Eignung: Als Printabonnent frage ich mich, warum man "stur" 4K + massig AA bencht? Beim Betrachten der Leistung in 4K (S. 18) fällt mir auch, dass in 5(!) von den 10 getesteten Games keine einzige Karte auf 30 fps kommt. In 3 weiteren sind es zwischen 30 und 35 fps. Lediglich 2 Games bieten "angenehme" fps.

Wäre es nicht evtl. hilfreicher, wenn man schreibt, dass keine Karte für 4K + AA geeignet ist und man daher bei 4K auf (aufwendiges) AA verzichtet? ICh sehe ja die PCGH (wie auch andere Reviewer) als Hilfe für eine potentielle Kaufentscheidung und wenn ich mich jetzt entscheiden müsste, welche KArte ich für 4K Gaming kaufen sollte, wäre ich ziemlich ratlos.

Ich glaube mal, dass wohl 90% + x der potentiellen Käufer / Gamer mindestens im Bereich 40+ fps zocken wollen, wahrscheinlich sogar eher etwas mehr.


Zum ominösen Phase 2 Treiber: Ich erwarte da, falls er wirklich morgen kommen sollte, nichts besonderes. Gerade die Fury sollte da wohl nicht von profitieren, da wohl der Launchtreiber auf dem Phase 2 Treiber basieren wird.

Leider sind die Grafikkarten extrem teuer geworden :( Dazu der bescheidene Euro / USD Kurs und fertig ist der Salat. Warten wir mal ab, was die Fury Non-X leistet, ist ja nur noch rund eine Woche ;)

Peter Gräber
2015-07-06, 22:57:03
Etwas schade finde ich aber, dass hier hier nach den bestätigenden Tests immer noch nicht der Satz "PCGH hatte also Recht" gefallen ist, weil man als einzige Redaktion diese "4K-Grafikkarte" (laut AMD) richtig rangenommen und mit fordernden Spielen unter Ultra HD getestet hat
Raff

Ich habs doch bewiesen - und wer hats erfunden? Richtig, die Schweizer ^^ Muss ich jetzt traurig sein, weil du den Beweis noch nicht gelobt hast? Oder bist du schlicht nur zu verwöhnt? Vom 3DC-Forum? Es hat sich jemand für euch "nass" gemacht ;).

@Igor: ich ruf dich die Tage an, in aller Öffentlichkeit mag ich mich gerne entschuldigen für die harten Worte. Ich kann aktuell einfach mit der aufgebrachten Arroganz in den Zwischenzeilen (im Forum wie auch auf THG) nicht leben, weil ich zu gut weiß, was geht und was nicht geht und ich mit dem aufgeblasenen THG-Agieren seit Jahren nicht zurecht komme. Das mag die Art von THG sein (wie ein Chefredakteur mir schon mal erklärte) sich abzusetzen - ich kann seit mehr als 10 Jahren nichts damit anfangen und da platzte es nach all unseren Jahren der Arbeit eben heraus.

Ein Lob an Dich muss aber noch sein: seit so vielen Jahren bist du der erste THG-Redakteur, der mich mit guter Arbeit beeindruckt. Aber wenn ich nicht irre hat THG neben dir nicht mehr so viele. Fast überall steht meist Igor drunter?

@Rest: Ihr habt Recht, ihr könnt das Interne nicht nachvollziehen. Sorry for that und straft mich eben ab.

Unicous
2015-07-06, 23:05:39
Hier, bitte.

http://www.sciencephoto.com/image/433099/530wm/C0111869-Flagellation_whip%2C_17th_century-SPL.jpg

Menace
2015-07-06, 23:07:51
@Peter Gräber: :up:

Ich weiß, es wäre noch ein Mehraufwand, aber könntet ihr in Zukunft ab und zu bei neuen Modellen klären, inwieweit unterschiedliche Monitor beim Multimonitor-Gebrauch Auswirkungen auf den Stromverbrauch haben. Ist es nicht häufiger, dass man den alten Monitor als Zweitmonitor nutzt und den neuen dann als Hauptmonitor. Bzw, dass man einen teuren für grafische Bearbeitung hat und einen günstigeren für Office, Browser, etc.?

Hübie
2015-07-06, 23:11:18
X-D Du bist und bleibst n Arsch, unicous :biggrin:

@Peter: Schwamm drüber. Das mit der Arroganz fällt ja nicht nur dir auf ;) Am Ende des Tages muss selbst ein Professor am Institut wo ich arbeite feststellen dass er nur ein Mensch ist. Und wir alle haben Ecken und Kanten. Ehrliche Kommunikation ist mir da dann auch das legitimere Mittel der Wahl. Also alles gut :smile: Vor allem immer gut hier mehrere Platzhirsche zu haben.

Raff
2015-07-06, 23:15:37
Ich habs doch bewiesen - und wer hats erfunden? Richtig, die Schweizer ^^ Muss ich jetzt traurig sein, weil du den Beweis noch nicht gelobt hast? Oder bist du schlicht nur zu verwöhnt? Vom 3DC-Forum? Es hat sich jemand für euch "nass" gemacht ;)

Oh, habe ich das nicht am Wochenende irgendwo hier geschrieben? Die Hitze macht meinem Hirn offenbar mehr zu schaffen als ich dachte. :ugly: Nun denn: PCGH-intern wurde dein Artikel bereits mit Freude betrachtet. :)

MfG,
Raff

(del)
2015-07-07, 06:43:36
@Peter Gräber:
Angenommen. :)

Das mit TH ist eine lange, lange Geschichte und am Ende kommt man sich oft genug vor wie Don Quijote. Eine gewisse Narrenfreiheit (siehe Deine Wahrnehmung über die Präsenz) habe ich zwar (bei 8-9 Artikeln pro Monat ist das die logische Folge), denn ich kann mir die Themen und Tests quasi frei selbst aussuchen, aber alles, was auch in US geht, muss geschliffen und geplättet werden, was mich dann doch reichlich einengt und ankotzt.

Wir haben mittlerweile einen neuen Chefredakteur (der ok ist) und auch in DE eine Umstrukturierung hinter uns, die ein Außenstehender so gar nicht mitbekommt (was ganz gut ist). Der Weg ist aus meiner Sicht richtig, sonst würde ich längst wieder andere Dinge tun, aber es ist reichlich hart, immer noch mit einem Image leben zu müssen, das vor allem vor 2012 so geprägt wurde, wie man es heute noch kolportiert. Da kannst Du 10 Jahre gegen an schreiben - irgend einer haut Dir solche Sprüche trotzdem noch rein :D

Ich sehe es eher sportlich und als Herausforderung, dort wieder was zu ändern. Trotzdem reagiere ich sicher auch oft mal über, weil es einfach nur nervt, ständig mit gewissen ehemaligen (sehr, sehr gut bezahlten Redakteuren) in einen Topf gerschmissen zu werden, in dem man selbst noch nie ein eigenes Süppchen gekocht hat. An allen Dingen, die hier im Labor und im Offfice stehen, hat TH nämlich einen Anteil von nahezu Null. Das habe ich mir seit November 2012 (also nicht mal 3 Jahren) als Einzelkämpfer komplett allein aufgebaut. Im Gegenteil, viele Dinge besorge ich für die nach außen hin alles überstrahlenden Amis im Hintergrund gleich mit und muss meine Zeit in Asien oft genug nutzen, um in den Firmen wieder gerade zu rücken, was einige mit ihrer nordamerikanischen Arroganz nonchalant eingerissen haben. Ich bin reiner Content-Lieferant und zudem der Älteste hier. Nicht mehr, aber auch nicht weniger. :)

ChaosTM
2015-07-07, 06:57:55
Vielleicht hat AMD eure Berichterstattung nicht gefallen? :D


Mal was zu der 4K-Eignung: Als Printabonnent frage ich mich, warum man "stur" 4K + massig AA bencht? Beim Betrachten der Leistung in 4K (S. 18) fällt mir auch, dass in 5(!) von den 10 getesteten Games keine einzige Karte auf 30 fps kommt. In 3 weiteren sind es zwischen 30 und 35 fps. Lediglich 2 Games bieten "angenehme" fps.




Das ärgert mich nicht nur bei THG.
Ein paar Benchmarks am Speicherlimit sind ja schön und gut, aber kein normal denkender Mensch verwendet 4x MSAA unter 4K.
;)

Botcruscher
2015-07-07, 08:23:58
Hängt vom Spiel ab aber sicher nicht bei 30FPS abwärts.

Thunder99
2015-07-07, 08:32:29
@Format_C: Das ist (leider) normal das ein negatives Image sehr lange braucht aus den Köpfen der Leute zu verschwinden. Siehe auch AMD. Baut schon länger gute Produkte (nicht perfekte) und hat immer noch ein negatives Image bei den Leuten :( Sowas wieder aufzubauen benötigt viel Zeit. Zeit was manche evt nicht haben (wie lange kann AMD noch durchhalten?)

Mr.Y
2015-07-07, 08:48:53
Absolut OT:
Was mich bei HT4U und THG stoert: Beide liefern echt interessante Artikel, aber beide Seiten sind imho von der Usability vieles, nur nicht diesen Artikeln gerecht. Keineswegs ist das Design von CB zB perfekt, aber nen Artikel da zu lesen, ist ein vielfaches angenehmer.

Ontopic:
Mir gerade erst den HT4U-Test zu gemuete gefuehrt: Irgendwie bleibt da von der zum Teil kommunizierten Stromverbrauchsreduktion in den Idle oder Teillastzustaenden wenig ueber. Sowohl Dualmonitor als auch Idle ist man eher auf dem Niveau einer 290x, lediglich fuer triple-Monitor-setups ist ein grosser Fortschritt erkennbar, der aber ja vermutlich einzig dem Speicher zuzuschreiben ist. Ja, die 5 Watt im Idle bringen einen nicht um, aber sind fuer mich in Punkto Kosten interessanter als 30 Watt unter Last.

anddill
2015-07-07, 08:54:26
Anscheinend sind die Messungen mit gleichen Monitoren gemacht worden. Mit unterschiedlichen dürfte die Tabelle ganz anders aussehen.

Dural
2015-07-07, 09:24:19
Kurzer Erfahrungs-Bericht nach 2-3h

-Pumpe hat ein leichtes fiepen (stört mich jetzt nicht mal so sehr)
-SPW hört man deutlich, deutlicher als die Pumpe
-GTA lässt sich mit meinen 4K Einstellungen nicht starten (4GB)
-WD hat Grafikfehler (???) und Nachlade-Ruckler (Ich dachte das wurde behoben?)
-FC4 läuft in 4K super, meine TX OC ist aber immer noch ca. 25% schneller.
-GPU Temp laut GPU-Z 65°C Grafikkarte und Radi werden von Hand gefühlt sehr Heiss (Zimmer ca. 25°C)
-OC kaum möglich, 1150MHz stürzen sofort ab, 1100MHz scheint auch nicht 100% stabil zu sein.

Mr. Lolman
2015-07-07, 09:25:23
Etwas schade finde ich aber, dass hier hier nach den bestätigenden Tests immer noch nicht der Satz "PCGH hatte also Recht" gefallen ist, weil man als einzige Redaktion diese "4K-Grafikkarte" (laut AMD) richtig rangenommen und mit fordernden Spielen unter Ultra HD getestet hat.

PCGH hatte recht, weil THG der FuryX nach eingehender Analyse einen AVG Verbrauch von 255Watt bescheinigt, während von PCGH ein um 75 Watt höherer Werte kommt (bevor ihr Anno nachgeschoben habt)? Gleichzeitig musstet ihr natürlich feststellen, dass die (hohen) Maximalverbräuche vom angegebenen Durchschnittsverbrauch abweichen:

Unter Last wird der von AMD angegebene, typische Verbrauch von 275 Watt ebenso überschritten wie die mittlere genannte Kerntemperatur von 50 Grad Celsius. Unser Messprotokoll zeigt schlimmstenfalls eine Leistungsaufnahme von 383 Watt PCGH VGA-Tool bei 65 °C - von diesen Werten ist die Radeon R9 Fury X unter Spielelast jedoch weit entfernt, hier beträgt die maximale Leistungsaufnahme 329 Watt

Wie scharfsinnig, mal abgesehen davon, dass hier suggeriert wird, dass AMDs Angabe falsch ist, während die Tests von Format_C zeigen, dass hier, ausgehend von 255Watt avg sogar noch Luft nach oben ist.


Das ärgert mich nicht nur bei THG.
Ein paar Benchmarks am Speicherlimit sind ja schön und gut, aber kein normal denkender Mensch verwendet 4x MSAA unter 4K.
;)

So ist es. Ich wundere ich gerade, das sowohl Witcher 3 als auch GTAV auf meiner 290X recht ordentlich in 4k rennen, sofern man sich mit den Settings etws zurückhält. Knapp @max läuft beides aber zumindest mit 3840x1646 (als Custom 21:9 Auflösung).

Dawn on Titan
2015-07-07, 09:28:11
Die Messung von PCGH ist richtig, aber nicht praxisorientiert.
Im Grundsatz sind mir fast alle Ergebnisse zu grüngefärbt. 4k mit MSAA ist sinnlos. 1920 ist sinnlos. Die Karte ist gemacht um 4-5k Spiele ohne MSAA und mit angepassten Details bei 45-60FPs zu zocken.

Dural
2015-07-07, 09:32:16
Es ist definitiv keine 4K Karte, dazu müsste sie 8GB haben.

Grestorn
2015-07-07, 09:35:26
Das ärgert mich nicht nur bei THG.
Ein paar Benchmarks am Speicherlimit sind ja schön und gut, aber kein normal denkender Mensch verwendet 4x MSAA unter 4K.
;)
Wieso denn nicht? Weil man bei 4k angeblich kein AA mehr braucht? Wrong.

Klar, bei den meisten Spielen reicht die Leistung nicht für 4k und 4xMSAA. Zumal bei den meisten Deferred Rendering-Engines MSAA viel zu teuer ist. Aber deswegen kann und soll man das trotzdem benchen, zumindest als weitere Option.

Mr. Lolman
2015-07-07, 09:37:58
Ab wann ist eine Karte eine 4k Karte? Wenn sie soviel RAM hat, dass auch alle akuellen (zT unsinnigen) Max-Einstellungen in den Speicher passen? Meine 290X hat auch 4GB und weder in Witcher3 noch bei GTA V hab ich Ruckelprobleme (weil eben nicht alles @max ist). Bloß die fps könnten noch ein wenig höher sein und dafür ist die FuryX wohl gut.

Wieso denn nicht? Weil man bei 4k angeblich kein AA mehr braucht? Wrong.

Bei den meisten 4k Minimonitoren braucht mans wohl wirklich nicht unbedingt. Aber auch mit 40" reicht eigentlich SMAA/FXAA/MLAA. Der Unterschied 110DPI zu 94 ist bei mir groß genug, dass einen einzelne Pixel nicht sofort störend anspringen. Nur da wo ich am 24" Gerät vorher massig AA und Downsampling hatte, geht mir die Bildruhe ein bisschen ab. Meistens bin ich von den zusätzlichen Details und der herrlichen Schärfe ohnehin derart überwältigt, dass mich die ein oder andere Bildunruhe nicht zu sehr aus der Immersion reist. BTW: MLAA zusätzlich FXAA/Ingame-PostAA komplett anzuhaben ist augenscheinlich garnicht so eine schlechte Idee.

Grestorn
2015-07-07, 09:42:25
Die Messung von PCGH ist richtig, aber nicht praxisorientiert.
Im Grundsatz sind mir fast alle Ergebnisse zu grüngefärbt. 4k mit MSAA ist sinnlos. 1920 ist sinnlos. Die Karte ist gemacht um 4-5k Spiele ohne MSAA und mit angepassten Details bei 45-60FPs zu zocken.

Aha. Dann darf man eine Karte also nur genau mit solchen Einstellungen benchen, wie sie "gedacht" ist und in der sie die besten Ergebnisse zeigt? Alles andere ist automatisch biased gegen diese Karte?

Natürlich darf man auch nur Spiele verwenden, bei denen die Karte gut performt, ansonsten ist man natürlich auch sofort von der Gegenseite gekauft?

Geile Logik.

Mr. Lolman
2015-07-07, 09:46:28
Nein, der User wird sich das Ding kaufen um eine leise Karte mit guter 4k Leistung zu haben (in dem Wissen, dass er halt keine Ingamesettings nehmen sollte, die den Speicher komplett zumüllen) - GTA V zeigt das ja sehr schön an und zumindest ich komm damit schön zurande, wenn ich auf die letzte Stufe der Objektdarstellungsdistanz, die höchste Schattenstufe bzw die höchste Detailstufe der Grasdarstellung verzichte.

akuji13
2015-07-07, 09:54:10
Für mich ist ein "4k Karte" eine, die ohne Detailreduktion (aber auch ohne AA) eine echte 4k Auflösung für mich flüssig darstellen könnte.

Dural
2015-07-07, 09:56:58
Wenn man eine Grafikkarte für 649.- kauft und damit in einem aktuellen Game nicht mal max Sichtweite Einstellen (Ohne AA) kann weil die 4GB zu wenig sind frage ich mich was es bei dieser "4K" Karte überhaupt zu diskutieren gibt.

Mr. Lolman
2015-07-07, 10:01:15
Settings sind doch Schall und Rauch. Wenn ich 60fps will, muss ich auch mit einer 980TI runter.

Dawn on Titan
2015-07-07, 10:04:10
Für mich ist ein "4k Karte" eine, die ohne Detailreduktion (aber auch ohne AA) eine echte 4k Auflösung für mich flüssig darstellen könnte.

Und das tut die Fury X durch ihre überlegene Rechenleistung wenn man Settings wählt, die einen flüssigen Spielspass erlauben.

Raff
2015-07-07, 10:12:17
Das Problem mit der "überlegenen Rechenleistung" ist, dass die in Spielen leider nicht ankommt.

MfG,
Raff

soLofox
2015-07-07, 10:16:28
Das Problem mit der "überlegenen Rechenleistung" ist, dass die in Spielen leider nicht ankommt.



ja, apropos, wo ist denn nun der 07.07.15 treiber? :redface:

Matrix316
2015-07-07, 10:18:54
Mal ehrlich eine echte 4 K Karte gibt es noch nicht. Dazu bräuchte man eine Karte mit der Leistung von Fury X Crossfire mit jeweils 8 GB oder 980TI/TitanX SLI.

Alles andere ist wie 4K mit 30 Hz. ;)

akuji13
2015-07-07, 10:27:13
Und das tut die Fury X durch ihre überlegene Rechenleistung wenn man Settings wählt, die einen flüssigen Spielspass erlauben.

Von der "überlegenden Rechenleistung" habe ich nur nix gemerkt.

Details zu reduzieren ist keine Option.
Die höhere Auflösung soll die Bildqualität steigern, die abgesenkten Details verringern sie.

Sowas erscheint zumindest mir unlogisch.

Mal ehrlich eine echte 4 K Karte gibt es noch nicht.

Sehe ich genau so.

Botcruscher
2015-07-07, 10:29:39
Im Zweifel nehm ich trozdem lieber eine halbe 4K Karte als eine echte FHD.

Das es in der Richtung im 3DC so ruhig ist, ist auch bezeichnend. Sonst wird bei Änderungen AMD vs NV jeder Pixel gezählt. Alleine die Artikel und die Zeit die in das AF "Problem" geflossen ist. Mit 4K gab es dann den größten Sprung der letzten Jahre und keinen interessierts.

Details zu reduzieren ist keine Option.
Die höhere Auflösung soll die Bildqualität steigern, die abgesenkten Details verringern sie.

Sowas erscheint zumindest mir unlogisch.

Was ist daran unlogisch?
Die Auflösung ist erst mal nötig um den Inhalt darstellen zu können. Vereinfacht ist Auflösung Information. Bildqualität lässt sich auch nicht mit den Effekten gleich stellen. Eine Stufe runter sieht man im Blindtest meist nicht mal.
Als letztes kommt dann noch der persönliche Punkt Anti- Qualität. Da fällt bei mir der gesamte Punkt Unschärfe rein. Erstens ist es fast immer so total übertrieben das es einfach nur beschissen aussieht. Und Zweitens hat sich das Hirn über Millionen Jahre so entwickelt den Mist so weit wie möglich in der Wahrnehmung zu verdrängen. Aus Langeweile bastelt der Entwickler gleich noch ein Headbobing 2.0.

akuji13
2015-07-07, 10:32:17
Liegt vielleicht auch daran, das im gleichen Zeitraum zumindest für Spieler auch andere interessante Dinge passiert sind:

144 Hz IPS, Free/G-Sync, 21:9 usw.

Das alles in Verbindung mit 4k gibts ja nicht.

Mr. Lolman
2015-07-07, 10:34:25
4k FTW. Mit gutem nativen Kontrast sind schwarze Balken bei einer 21:9 Customresolution kein Problem. Mich ärgerts nur, dass ich nicht schon früher einen 4k Monitor gekauft hab :)

mironicus
2015-07-07, 11:02:40
Es kommt ja noch die Dual-Fury, die wird schnell genug für 4K/60fps sein.

Botcruscher
2015-07-07, 11:03:27
Die verreckt dann am Speicher.

r3ptil3
2015-07-07, 11:04:22
Ich behaupte einfach mal "4k Karten" wie man es sich wünscht, wird es auch in der nächsten Generation nicht geben. Stattdessen wird die Leistung wie auch jetzt bei neuen Titeln gerade ausreichen um es in 4k spielen zu können. Für richtiges 4k mit allen gewünschten Optionen wird SLI/Crossfire jetzt und auch in Zukunft wohl ein muss sein.

Ich ziele mit der FuryX z.B. sowieso keine 4k an, sondern stabile Werte bzw. min. FPS nicht unter 40 bei 2560x1440.

Flusher
2015-07-07, 11:05:34
Kurzer Erfahrungs-Bericht nach 2-3h

-Pumpe hat ein leichtes fiepen (stört mich jetzt nicht mal so sehr)
-SPW hört man deutlich, deutlicher als die Pumpe
-GTA lässt sich mit meinen 4K Einstellungen nicht starten (4GB)
-WD hat Grafikfehler (???) und Nachlade-Ruckler (Ich dachte das wurde behoben?)
-FC4 läuft in 4K super, meine TX OC ist aber immer noch ca. 25% schneller.
-GPU Temp laut GPU-Z 65°C Grafikkarte und Radi werden von Hand gefühlt sehr Heiss (Zimmer ca. 25°C)
-OC kaum möglich, 1150MHz stürzen sofort ab, 1100MHz scheint auch nicht 100% stabil zu sein.

Is klar :freak:

Armaq
2015-07-07, 11:21:24
Ich muss auch sagen, dass die Wäremtauschereinheit sehr warme Luft ausbläst, um nicht zu sagen heiß. Die Luft die mein Case ansonsten verlässt, war um einiges kühler.

Ich schick die Karte jetzt in die Retoure und bekomme eine neue Fury, was mir recht ist. Leistung bei Witcher3 ist deutlich höher und an sich ist das Teil einfach sexy, komplett emotionale Kaufentscheidung.

maximus_hertus
2015-07-07, 11:22:49
Wieso denn nicht? Weil man bei 4k angeblich kein AA mehr braucht? Wrong.

Klar, bei den meisten Spielen reicht die Leistung nicht für 4k und 4xMSAA. Zumal bei den meisten Deferred Rendering-Engines MSAA viel zu teuer ist. Aber deswegen kann und soll man das trotzdem benchen, zumindest als weitere Option.

Toll, ich habe Benchmarks, bei der eine Karte 25 und die andere 22 fps hat. Das bringt mich jetzt wie weiter?

Wenn ich einen 4K Bildschirm habe, werde ich doch eher in 4K ohne (aufwendiges) AA mit 40+ fps zocken als mit AA bei <30 fps, oder? Ich sehe aber nur die Makroruckelnden 4K+AA Benches, ergo erhalte ich KEINE Infos, welche Karte für 4K ohne (aufwendiges) AA (besser) geeignet ist.

Zur "Speicherproblemaik" ist es dann leider so, dass ich wissen möchte, ob ein Spiel @ 4K @ 40+ fps VRAM Probleme bekommt? Das 4K+AA da voll laufen insteressiert mich nicht, dafür ist die Rechenkistung von Fury und auch TX deutlich zu niedrig.

Unicous
2015-07-07, 11:30:17
ja, apropos, wo ist denn nun der 07.07.15 treiber? :redface:

Es ist gerade 4 Uhr am Morgen in Texas.:facepalm:


Ob AMD einen Treiber veröffentlicht, ist noch nicht gesichert.

akuji13
2015-07-07, 11:35:40
Toll, ich habe Benchmarks, bei der eine Karte 25 und die andere 22 fps hat. Das bringt mich jetzt wie weiter?

Du weißt nun das keine Karte schnell genug ist. :wink:

soLofox
2015-07-07, 11:38:31
Es ist gerade 4 Uhr am Morgen in Texas.:facepalm:

ja, und?

Thowe
2015-07-07, 11:38:41
4k FTW. Mit gutem nativen Kontrast sind schwarze Balken bei einer 21:9 Customresolution kein Problem. Mich ärgerts nur, dass ich nicht schon früher einen 4k Monitor gekauft hab :)

Eben! 4K ist einfach eine ganz andere Welt und für mich "stirbt" jedes Spiel, welches ich nicht in dieser Auflösung spielen kann. Ein Glück geht das mit erstaunlich vielen älteren Titeln. Mehr will ich nicht und das sehe ich die Fury eben als ideale Karte an. Nicht um aktuelle Ultratitel mit 4K und allen Details zu spielen, dass brauche ich nicht, ich kann warten. Aber Titel, die vor ein paar Jahren aktuell waren und nun ausgereift und günstig angeboten werden, die sind es, die ich spielen will. Sobald ich die Fury habe, werde ich Witcher 2 spielen und das wird sie leisten können. Witcher 3 spiele ich dann mit der nächsten Fury-Generation, Skyrim muss ich auch noch mal anfangen und ebenso Original Sin, welches ich weit gespielt hatte und mit der 970 anfangs nicht weiterspielen konnte wegen seltsamen Rucklern. Heute geht es, aber nun bin ich aus dem Spiel heraus. Also fange ich es noch einmal von vorne an, dass ist okay.

Unicous
2015-07-07, 11:38:59
ja, und?

Was soll man dazu noch sagen.:eek:

ChaosTM
2015-07-07, 11:46:08
@ Thowe 1800p geht zur Not auch noch ;)

Aber selbst 1440 schaut auf einem 4K Gerät noch erträglich aus (Star Citizen).

Ist die Furie eine "echte" 4k Karte? Nicht mehr oder (viel) weniger als eine Titan/980ti

edit.: der Preis muss aber runter..

Flusher
2015-07-07, 11:50:14
Es ist gerade 4 Uhr am Morgen in Texas.:facepalm:


Ob AMD einen Treiber veröffentlicht, ist noch nicht gesichert.

Sitzt AMD nicht in Cali?

Edit: um genau zu sein in Sunnyvale - so wie viele andere IT-Grössen auch. Interessanterweise nur ein paar Blocks von Google entfernt :D

LOL und Intel ist auch nur wenige km entfernt

https://www.google.ch/maps/dir/AMD+Pl,+Sunnyvale,+CA+94085,+USA/Intel+Corporation:+Draeger+Jeffrey,+2200+Mission+College+Blvd,+Santa+Clara,+CA+9 5054,+Vereinigte+Staaten/@37.3873178,-121.9887871,15z/data=!3m1!4b1!4m13!4m12!1m5!1m1!1s0x808fb621635e6251:0xa69c848b807d7ecf!2m2!1d-121.9985581!2d37.3857772!1m5!1m1!1s0x808fc9916cf9438b:0x72d86ef8cbea5e22!2m2!1d-121.96305!2d37.387869?hl=de

Ich wusste gar nicht, dass die alle auf einem Haufen sitzen.

Unicous
2015-07-07, 12:07:47
In Texas ist aber afaik auch eine Treiberabteilung. Es ist auch scheiße egal, ob jetzt die ehemaligen Ati-Leute in Kanada zuständig sind, oder in Sunnyvale oder Texas... Fakt ist: In Amiland ist es je nach Zeitzone 6 Uhr bzw. 3 Uhr in der Früh.

fondness
2015-07-07, 13:20:42
http://s4.postimg.org/g15whgdel/Sapphire_Radeon_R9_Fury_11247_00_40_G_900x636.jpg (http://postimage.org/) http://s4.postimg.org/3nt2ajnq5/Sapphire_Radeon_R9_Fury_11247_01_40_G_900x635.jpg (http://postimage.org/)

http://s4.postimg.org/oi5esdi3h/Sapphire_Radeon_R9_Fury_backplate_900x428.jpg (http://postimage.org/) http://s4.postimg.org/vwuqkr3z1/Sapphire_Radeon_R9_Fury_TRIXX_900x858.jpg (http://postimage.org/)

http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed

maguumo
2015-07-07, 13:22:59
Schick. Und das auf Jöhe des letzten Lüfters kein PCB mehr den Luftfluss blockt dürfte bestimmt Vorteile bringen.

dildo4u
2015-07-07, 13:24:17
Up To 3584 Shader was ist das?

anddill
2015-07-07, 13:27:22
Ich muss auch sagen, dass die Wäremtauschereinheit sehr warme Luft ausbläst, um nicht zu sagen heiß. Die Luft die mein Case ansonsten verlässt, war um einiges kühler.
.....

Logisch, da der Lüfter immer genau so schnell dreht wie er muss um die Wärme wegzuschaffen. Und dank Gegenstromprinzip tritt die Luft immer über die heiße Seite des Radiators aus, wird also auf rund 60°C aufgeheizt. Die Luftmassen die durch die kurzen Kühlrippen eines Luftkühlers gepresst werden erreichen logischerweise nie solche Temperaturen.

fondness
2015-07-07, 13:27:58
Und noch ein neuer Wakü-Block:
http://videocardz.com/57087/ek-releases-amd-radeon-r9-fury-x-water-block

horn 12
2015-07-07, 13:28:06
Um Himmels Willen
Kühler ragt um stolze ca. 11cm beim PCB vor

Zudem Fury Karten sollten übermorgen eintreffen, deshalb sollte der Neue, passende Treiber present sein für gute Online-Tests.

g2422125
2015-07-07, 13:29:04
Wenn der Luftkühler nicht künstlich verschlechtert wurde müsste er den Wasserkühler doch so was von versenken. Der Luftkühler hat die größere Kühlfläche und schafft auch mehr Luft durch die Lamellen.

Matrix316
2015-07-07, 13:30:36
Im Zweifel nehm ich trozdem lieber eine halbe 4K Karte als eine echte FHD.

Das es in der Richtung im 3DC so ruhig ist, ist auch bezeichnend. Sonst wird bei Änderungen AMD vs NV jeder Pixel gezählt. Alleine die Artikel und die Zeit die in das AF "Problem" geflossen ist. Mit 4K gab es dann den größten Sprung der letzten Jahre und keinen interessierts.
[...].
Problem von 4K ist: Man braucht erstmal so einen Monitor. ;D

Zweites Problem: Wenn er zu klein ist, muss man skalieren, damit man den Text in Windows lesen kann.

Drittes Problem: Windows kann schlecht skalieren.=)

Viertes Problem: Wenn man nicht skalieren will, braucht man eine große Diagonale und ein 40" Monitor auf dem Schreibtisch ist bestimmt vielen zu groß.


Liegt vielleicht auch daran, das im gleichen Zeitraum zumindest für Spieler auch andere interessante Dinge passiert sind:

144 Hz IPS, Free/G-Sync, 21:9 usw.

Das alles in Verbindung mit 4k gibts ja nicht.

Wobei G-Sync und 4K gibt's ja schon und das passt auch irgendwie, weil gerade wegen den niedrigen FPS bei der Auflösung sollte irgendwas Sync dort Wunder wirken.

144Hz Panel mit 4K ist in sofern Blödsinn, weil kaum eine Grafikkarte in diese FPS Bereiche kommt.

Deswegen bräuchte man halt sowas wie Dual Fury X mit jeweils 8 GB oder so.

anddill
2015-07-07, 13:36:36
Wenn der Luftkühler nicht künstlich verschlechtert wurde müsste er den Wasserkühler doch so was von versenken. Der Luftkühler hat die größere Kühlfläche und schafft auch mehr Luft durch die Lamellen.

Nein, da das Temperaturgefälle in dem Luftkühler ganz anders ist als in der Wasserkühlung.

iuno
2015-07-07, 13:37:15
Wenn der Luftkühler nicht künstlich verschlechtert wurde müsste er den Wasserkühler doch so was von versenken. Der Luftkühler hat die größere Kühlfläche und schafft auch mehr Luft durch die Lamellen.

Wieso sollte man den künstlich verschlechtern? Davon abgesehen bezweifle ich, dass da viel mehr Luft durchströmen soll. Auch die heatpipes schaffen nicht so schnell so viel Wärme weg wie das Wasser

Botcruscher
2015-07-07, 13:37:33
Problem von 4K ist: Man braucht erstmal so einen Monitor. ;D
Zweites Problem: Wenn er zu klein ist, muss man skalieren, damit man den Text in Windows lesen kann.
Drittes Problem: Windows kann schlecht skalieren.=)
Viertes Problem: Wenn man nicht skalieren will, braucht man eine große Diagonale und ein 40" Monitor auf dem Schreibtisch ist bestimmt vielen zu groß.

1. Must du dir einen kaufen.:rolleyes: Das Amazon Sonderangebot von Weihnachten ist ja inzwischen der Normalpreis.
2. Und? Nimmst du halt einen 32".
3. Windows kann super skalieren. Die Anwendungen sind das Problem.
4. Wenn man sich dran gewöhnt hat kann es nicht genug sein.


144Hz Panel mit 4K ist in sofern Blödsinn, weil kaum eine Grafikkarte in diese FPS Bereiche kommt.
Das ist nicht unbedingt nötig. Bei 72 Hz könnte man immer noch den Frame verdoppeln. Damit hätte man sauber 2 Bilder gezeichnet. Im unteren Berich wäre dann noch mehr Spielraum.

Wenn der Luftkühler nicht künstlich verschlechtert wurde müsste er den Wasserkühler doch so was von versenken. Der Luftkühler hat die größere Kühlfläche und schafft auch mehr Luft durch die Lamellen.
Bei Lukü musst du die Wärme erst mal von der GPU ans andere Ende zum Kühler bekommen. Wasser verteilt schnell gleichmässig Die Wärme im Kühler. Alleine deswegen braucht einen Lukü viel mehr Oberfläche.
Das Design hat wenigstens keine gebogenen Heatpipes.

Flusher
2015-07-07, 13:39:47
http://s4.postimg.org/g15whgdel/Sapphire_Radeon_R9_Fury_11247_00_40_G_900x636.jpg (http://postimage.org/) http://s4.postimg.org/3nt2ajnq5/Sapphire_Radeon_R9_Fury_11247_01_40_G_900x635.jpg (http://postimage.org/)

http://s4.postimg.org/oi5esdi3h/Sapphire_Radeon_R9_Fury_backplate_900x428.jpg (http://postimage.org/) http://s4.postimg.org/vwuqkr3z1/Sapphire_Radeon_R9_Fury_TRIXX_900x858.jpg (http://postimage.org/)

http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed

Ich glaube ein Wechsel von Hawaii auf Fury Pro lohnt sich nicht.

Raff
2015-07-07, 13:40:38
Schick. Und das auf Jöhe des letzten Lüfters kein PCB mehr den Luftfluss blockt dürfte bestimmt Vorteile bringen.

Sofern man die Abwärme oben absaugt, ist das sogar optimal. Auf jeden Fall müssen sich CPU und Speicher mit der Abwärme herumschlagen, die Grafikkarte denkt sich "Nach mir die Sintflut". :biggrin:

Ich glaube ein Wechsel von Hawaii auf Fury Pro lohnt sich nicht.

Kommt drauf auf, ob dir ein gutes Viertel oder bestenfalls Drittel mehr Leistung genügt.

MfG,
Raff

Armaq
2015-07-07, 13:41:15
Logisch, da der Lüfter immer genau so schnell dreht wie er muss um die Wärme wegzuschaffen. Und dank Gegenstromprinzip tritt die Luft immer über die heiße Seite des Radiators aus, wird also auf rund 60°C aufgeheizt. Die Luftmassen die durch die kurzen Kühlrippen eines Luftkühlers gepresst werden erreichen logischerweise nie solche Temperaturen.
Ja, habe nichts dagegen, aber es fiel mir schon drastisch auf. Ich hoffe die Rücksendung bringt mir dann ein "fehlerfreies" Exemplar.

Die Case-Temperatur ist trotzdem niedriger geworden, aber im Sommer unter meinem Tisch ist alles grillfähig. :D

maguumo
2015-07-07, 13:47:10
Sofern man die Abwärme oben absaugt, ist das sogar optimal. Auf jeden Fall müssen sich CPU und Speicher mit der Abwärme herumschlagen, die Grafikkarte denkt sich "Nach mir die Sintflut". :biggrin:


Vielleicht kann man den Airflow dann anders gestalten. CPU-Kühler Richtung Front blasen lassen. Unten und hinten Luft rein, oben und an der Front raus... Ist definitiv mal was neues...

Troyan
2015-07-07, 13:48:41
Wobei G-Sync und 4K gibt's ja schon und das passt auch irgendwie, weil gerade wegen den niedrigen FPS bei der Auflösung sollte irgendwas Sync dort Wunder wirken.

144Hz Panel mit 4K ist in sofern Blödsinn, weil kaum eine Grafikkarte in diese FPS Bereiche kommt.


Alleine wegen Windows sind 120Hz+ ein Muss. Ob man in Spielen dann soviel Frames erreicht, ist egal.

Palpatin
2015-07-07, 14:19:20
Alleine wegen Windows sind 120Hz+ ein Muss. Ob man in Spielen dann soviel Frames erreicht, ist egal.
Muss man das verstehen? Bin von 120HZ runter auf 60 gsynct HZ und find die 60 gsynct beim Spielen angenehmer als 120hz ohne snyc.

Troyan
2015-07-07, 14:21:35
Da Windows immer mit der maximalen Hz läuft, ist es viel angenehmer als mit 60Hz.

60Hz sehe ich beim Spielen nicht so als problematisch. Aber auf dem Desktop ist es für ein Nogo.

eratte
2015-07-07, 14:22:26
Wer mehr als 60Hz@4K haben möchte muss auf Karten und Monitore mit Displayport 1.3 warten egal wie die Leistung der Grafikkarte ist.

DP 1.3 Computerbase (http://www.computerbase.de/2014-09/displayport-1.3-ermoeglicht-5k-und-2-display-uhd/)

Unicous
2015-07-07, 14:27:36
Ich frage mich ob man über MST und Tiled Display ein Display 4K@120Hz ansteuern könnte.:uponder:

akuji13
2015-07-07, 14:35:04
Nein, da das Temperaturgefälle in dem Luftkühler ganz anders ist als in der Wasserkühlung.

Die Wasserkühlung der Fury X wird überschätzt.
Sie ist unter schwierigen Bedingungen gerade so in der Lage (was meine Ansprüche an Temperaturen und Lautstärke angeht) das Ding zu kühlen.
Meine war schon bei 76° nach 2 Stunden zocken.

Das schaffen große Luftkühler auch, habe ich bei der TX gesehen mit dem Extreme IV und dem Versuch sie mit einem besseren 140er Radiator zu kühlen.

Interessant für mich ist die Kühlung in Verbindung mit den geringen Ausmaßen...die Fury X passt in Gehäuse wo die großen Luftkühler nicht mehr passen.

SamLombardo
2015-07-07, 14:57:19
So ist es. Ich wundere ich gerade, das sowohl Witcher 3 als auch GTAV auf meiner 290X recht ordentlich in 4k rennen, sofern man sich mit den Settings etws zurückhält. Knapp @max läuft beides aber zumindest mit 3840x1646 (als Custom 21:9 Auflösung).

Hast Du dir den 40er Philips geholt? Wenn ja, wie ist denn deine Meinung? Bist zufrieden?:)

Sorry für das kurze OT

Thowe
2015-07-07, 16:41:01
1. Must du dir einen kaufen.:rolleyes: Das Amazon Sonderangebot von Weihnachten ist ja inzwischen der Normalpreis.
2. Und? Nimmst du halt einen 32".
3. Windows kann super skalieren. Die Anwendungen sind das Problem.
4. Wenn man sich dran gewöhnt hat kann es nicht genug sein.

...

Eben. Und mein 24" betreibe ich auch gerne mal mit 100% statt 200% Skalierung für die Programme, die wirklich doof sind. Lösung ist einfach, Lesebrille aufsetzen. ^^

Unicous
2015-07-07, 18:21:34
Oh. John Bridgman hatte den 15.20 Release bei Phoronix für den 07.07. angekündigt (für Linux, versteht sich).

http://www.phoronix.com/forums/forum/linux-graphics-x-org-drivers/open-source-amd-linux/805740-catalyst-vs-open-source?p=806924#post806924

Vllt. hatte d2kx die Info auch von dort.:confused:

Peter Gräber
2015-07-07, 22:19:11
Monitore: es sind zwei identische Dell 27" - einer am HDMI, einer am DP und ein Samsung 4K am DP - es sind unterschiedliche Auflösungen. Irgendwas machte die Fury X da anders, als beispielsweise die Sapphire 290X im jüngsten Design.

Thunder99
2015-07-07, 23:24:38
1. Für 4k braucht es nicht zwingend einen 4k Monitor. VSR ist das Zauberwort ;)

2. Für was >60Hz auf dem Desktop? Das ist doch meistens Standbild :confused:

3. Mit begrenzter TDP bzw Limit unter 300W schafft der Kühler schon die Karte auf +/- 75°C zu halten. Im Sommer kann aber dann schon mal der Takt reduziert werden

akuji13
2015-07-07, 23:36:41
DSR/VSR können eine hohe native Auflösung nicht ersetzen. :wink:

Die Karte bzw. ihr Lüfter dreht bei ~75° schon ordentlich auf.
Das Kühlsystem operiert am Limit.

Allerdings muss man natürlich auch sagen das es für ein System@stock schon gut gemacht ist (wenn die Pumpe leise ist) und besser als das was TX oder Ti bieten.

Schaffe89
2015-07-08, 06:53:45
Es ist definitiv keine 4K Karte, dazu müsste sie 8GB haben.

Deswegen laufen alle Spiele @ 4K bei mir problemlos?:rolleyes:
Natürlich ist es eine 4K Karte, und auch nur dort so schnell wie ne Titan X.

Schaffe89
2015-07-08, 06:56:03
Zudem Fury Karten sollten übermorgen eintreffen, deshalb sollte der Neue, passende Treiber present sein für gute Online-Tests.

Fury Karte sollten in 3 Tagen und 4 Stunden hier in Italien eintreffen.:P

akuji13
2015-07-08, 07:51:27
Deswegen laufen alle Spiele @ 4K bei mir problemlos?:rolleyes:

Hier spielt doch kaum jemand in 4k, also 4096x2160. :D

Ich könnte einige Spiele die ich spiele nicht problemlos in einer solchen Auflösung spielen.
Nicht mal in 3840x2160, das wären mir zu wenig fps oder im Falle z. B. des gemoddeten Skyrim eine Ruckelorgie.

DrFreaK666
2015-07-08, 09:29:32
DSR/VSR können eine hohe native Auflösung nicht ersetzen. :wink:....

Sieht trotzdem deutlich besser aus als nur 1080p oder 1440p

Thunder99
2015-07-08, 09:36:42
DSR/VSR können eine hohe native Auflösung nicht ersetzen. :wink:

Die Karte bzw. ihr Lüfter dreht bei ~75° schon ordentlich auf.
Das Kühlsystem operiert am Limit.

Allerdings muss man natürlich auch sagen das es für ein System@stock schon gut gemacht ist (wenn die Pumpe leise ist) und besser als das was TX oder Ti bieten.
Das ist mir schon klar das es nicht 1:1 gleich gut ist, aber wo ist der Unterschied? Schärfe?

Grestorn
2015-07-08, 10:21:33
Das ist mir schon klar das es nicht 1:1 gleich gut ist, aber wo ist der Unterschied? Schärfe?

Natürlich in der Detailauflösung. DSR/VSR kann nicht zaubern sondern nur Interpolieren.

Mr. Lolman
2015-07-08, 10:40:29
Eben! 4K ist einfach eine ganz andere Welt und für mich "stirbt" jedes Spiel, welches ich nicht in dieser Auflösung spielen kann. Ein Glück geht das mit erstaunlich vielen älteren Titeln. Mehr will ich nicht und das sehe ich die Fury eben als ideale Karte an.
[...]
Sobald ich die Fury habe, werde ich Witcher 2 spielen und das wird sie leisten können. Witcher 3 spiele ich dann mit der nächsten Fury-Generation

Ich spiel aktuell Witcher 3 mit 3840x1646 mit allen Details bis auf Schatten und Objektdistanz (2. höchster Wert) + MLAA per Treiber. Das reicht für ~30fps avg auf meiner 4GB 290X @1100/1475 und der optische Zugewinn vgl zu 2560x1600 downgesampelt auf 1920x1200 (mit Max.Details) ist enorm. Witcher 3 ist imo das 4k Spiel schlechthin. GTA V kommt zwar auch ganz gut, profitiert aber bei weitem nicht so stark von 4k, wie der Witcher, imo.


Hast Du dir den 40er Philips geholt? Wenn ja, wie ist denn deine Meinung? Bist zufrieden?:)

Sorry für das kurze OT

Ja genau den hab ich mir geholt. Und ich bin sehr zufrieden. Die Responsetime ist zwar nicht die Beste, aber für ein VA-Panel (v.a. in der größe) sehr in Ordnung. Auch gibts VA bedingt, eine minimale Blickwinkelabhängigkeit, die sich bei einfärbigen Flächen (v.a. bei Magenta), schon leicht bemerkbar macht (wenn man mit ca. 60cm Abstand direkt davor sitzt). Außerdem ist das Display nicht 100% entspiegelt, bei Tageslicht sieht man sich im Display mit heller Kleidung spiegeln, was sicher auch durch die schiere Größe des Monitors noch verstärkt wird. Die Größe des Monitors ist auch gleichzeitig der größte Vorteil. Der Schirm ist groß genug, dass man 4k ohne Scaling betreiben kann und der native Kontrast ist ohnehin der Wahnsinn (v.a. im Vergleich zu meinem alten NEC 24WMGX³). Es stört dementsprechend auch nicht Inhalte mit 21:9 und schwarzen Balken darzustellen. Und genau das war der Grund warum ich 4k 16:9 einem 21:9 Widescreenmonitor vorgezogen hab. Die meisten Inhalte sind nunmal in 16:9 und Querbalken find ich weniger schlimm, als Längsbalken.

Insgesamt gibts also nicht viel zu meckern, bloß passives 3D (könnte man evtl mit einer Polarisationsfolie nachrüsten, falls es sowas für Monitore gibt) und Freesync könnte er noch haben.

akuji13
2015-07-08, 10:49:34
Ich spiel aktuell Witcher 3 mit 3840x1646

Das ist aber kein 4k. :wink:

Hübie
2015-07-08, 11:05:44
Ja was sind schon zwei Millionen Pixel Differenz in einer Argumentation pro AMD? :rolleyes: Rechnerisch hat er also FullHD nur verdrei- statt vervierfacht.

Für mich ist FuryX jetzt endgültig gestorben. 730€ und dann keine 120 Hz per DVI, geringere Performance und dann noch fiepen. Nein Danke. AMD hat es traditionsgemäß wieder ordentlich versaubeutelt. Wirklich ärgerlich da ich mich sehr auf das Produkt gefreut habe.
Jetzt warte ich auf die ASUS Strix 980 Ti und gut ist.

akuji13
2015-07-08, 11:07:52
Ist durchaus nicht unwichtig in einer Diskussion um die angeblich ultimative 4k karte. ;)

Hübie
2015-07-08, 11:11:47
(Die es noch gar nicht gibt...)

iuno
2015-07-08, 11:14:55
Was aber auch vorher schon klar war. Weiß nicht, was das jetzt wieder soll :rolleyes:

Kartenlehrling
2015-07-08, 11:41:12
Für mich ist FuryX jetzt endgültig gestorben. 730€ und dann keine 120 Hz per DVI, ....
Jetzt warte ich auf die ASUS Strix 980 Ti und gut ist.


Naja zuerst jammern wir das immer noch Altlasten behalten werden und gibts eine Grafikarte die neueste Anschlüsse setzt und man ist wieder unzufrieden.

Ausserdem glaube ich das die Asus strix 980ti auch probleme machen wird mit aufwachen aus dem Stromsparmodus und
dem zuweisen der Priorität der Monitor bei einschalten, wenn nicht alle 3 DP genutzt werden.
Ich glaube nicht das du nur deinen dual-dvi(1440p-120hz) alleine betreiben willst.

mironicus
2015-07-08, 11:50:15
Na ja... 2016 wird ein besseres Jahr für Grafikkarten-Käufer. Dann sollte 4K mit 60 FPS kein Problem mehr sein. Mit HBM2, mehr als 8 GB, HDMI 2.0...

iuno
2015-07-08, 11:52:40
eine Grafikarte die neueste Anschlüsse setzt
Falsch, sonst wäre HDMI 2.0 dabei.
Aber das hatten wir doch alles schon. Verstehe aber Hübie auch nicht, würde gerne mal wissen, was er für Erwartungen hatte...
Davon abgesehen gab es doch hier Berichte, dass DP-DVI-DL Adapter bis 144 Hz gehen :confused:
Na ja... 2016 wird ein besseres Jahr für Grafikkarten-Käufer. Dann sollte 4K mit 60 FPS kein Problem mehr sein. Mit HBM2, mehr als 8 GB, HDMI 2.0...
Das bleibt erstmal abzuwarten. Ich kann mir auch gut vorstellen, dass Die Anforderungen in Spielen nochmal steigen, auch wird man kaum gleich mal mit den ersten 14-nm Chips die Leistung um >100% steigern können, was aber nötig wäre für 60 FPS, denn <30 FPS sind imho sehr realistisch für einen 2016er Titel in 4k und max. Settings auf GM200/Fiji, ist ja heute schon so.

Hübie
2015-07-08, 12:07:07
Naja zuerst jammern wir das immer noch Altlasten behalten werden und gibts eine Grafikarte die neueste Anschlüsse setzt und man ist wieder unzufrieden.

Ausserdem glaube ich das die Asus strix 980ti auch probleme machen wird mit aufwachen aus dem Stromsparmodus und
dem zuweisen der Priorität der Monitor bei einschalten, wenn nicht alle 3 DP genutzt werden.
Ich glaube nicht das du nur deinen dual-dvi(1440p-120hz) alleine betreiben willst.

Was du glaubst ist in erster Instanz überhaupt nicht von Bedeutung. Von irgendwelchen Ausfällen beim "aufwachen" (Guten Morgen :rolleyes:) weiß ich nichts.
Meine Erwartungen an Fiji waren rein auf Effizienz bezogen nich sehr hoch. Aber nach vollmundigen Versprechungen bzgl OC wurde mein Mund wässrig. Und HDMI 2.0 wegzulassen finde ich nicht fortschrittlicher als DVI-D zu verbauen. Das Gesamtpaket lässt mich einfach nicht zu Fiji tendieren.

DrFreaK666
2015-07-08, 12:07:07
Falsch, sonst wäre HDMI 2.0 dabei.
Aber das hatten wir doch alles schon. Verstehe aber Hübie auch nicht, würde gerne mal wissen, was er für Erwartungen hatte...
Davon abgesehen gab es doch hier Berichte, dass DP-DVI-DL Adapter bis 144 Hz gehen :confused:

Das bleibt erstmal abzuwarten. Ich kann mir auch gut vorstellen, dass Die Anforderungen in Spielen nochmal steigen, auch wird man kaum gleich mal mit den ersten 14-nm Chips die Leistung um >100% steigern können, was aber nötig wäre für 60 FPS, denn <30 FPS sind imho sehr realistisch für einen 2016er Titel in 4k und max. Settings auf GM200/Fiji, ist ja heute schon so.

Naja. Spiele werden auch für Konsolen entwickelt. Wenn wir Glück haben, dann haben wir etwas höher aufgelöste Texturen und etwas mehr Sichtweite. Nicht jeder macht sich die Mühe wie Rockstar. Glaube kaum dass die Masse an PC-Umsetzungen die GPU in 4k stark fordern werden

iuno
2015-07-08, 12:17:09
Naja. Spiele werden auch für Konsolen entwickelt. Wenn wir Glück haben, dann haben wir etwas höher aufgelöste Texturen und etwas mehr Sichtweite. Nicht jeder macht sich die Mühe wie Rockstar. Glaube kaum dass die Masse an PC-Umsetzungen die GPU in 4k stark fordern werden
Hast überhaupt alles gelesen?

<30 FPS sind imho sehr realistisch für einen 2016er Titel in 4k und max. Settings auf GM200/Fiji, ist ja heute schon so.
Z.B. ACU, DA:I, Evolve, FC4, GTA V, Last Light Redux, Mittelerde, Ryse, Witcher 3, Watch Dogs sind alles Multiplattform-Titel, bei denen die heutigen High-End Karten nur ~30 FPS schaffen. Ohne (oder mit FX)AA. Das sind Beispiele, die ich gerade per Durchklicken aus dem CB Test entnommen habe.

Frosty
2015-07-08, 12:18:50
wann kommt eigentlich die fury nano? was meint ihr wird es von der karte auch custom designs mit zb nur einem 92-100 mm lüfter geben?

Kartenlehrling
2015-07-08, 12:21:22
Wurde das HDMI 2.0 überhaupt schon geteste ob es so reibunglos funktioniert bei einer gtx980ti ?
Und ich rede jetzt nicht von 4k youtube Filmchen, sondern kaufbare BL und Festplatten.
Wichtiger sind die Endgeräte und die heutigen HDMI2.0 Geräte mussen zum Teil jetzt schon ein Firmware update bekommen, weil wir sind schon bei HDMI-2.0a angekommen.

iuno
2015-07-08, 12:35:01
wann kommt eigentlich die fury nano? was meint ihr wird es von der karte auch custom designs mit zb nur einem 92-100 mm lüfter geben?
"Sommer" - mehr weiß man momentan nicht.

Wurde das HDMI 2.0 überhaupt schon geteste ob es so reibunglos funktioniert bei einer gtx980ti ?
Und ich rede jetzt nicht von 4k youtube Filmchen, sondern kaufbare BL und Festplatten.
Warum soll es nicht funktionieren?
UHD-BD werden natürlich nicht gehen, da HDCP 2.2 fehlt

Hübie
2015-07-08, 12:35:09
Willst du jetzt irgendwas heraufbeschwören damit deine Argumentation schlüssig wirkt? Das wird schon ordnungsgemäß laufen sonst würden die Leute mit Problemen sich melden.

Leonidas
2015-07-08, 12:41:35
http://www.moorinsightsstrategy.com/wp-content/uploads/2015/06/AMD-Brings-New-Value-to-Radeon-by-Moor-Insights-and-Strategy.pdf


Läßt sich bei dieser Gelegenheit vielleicht klären, ob da was dran ist, daß die PDF-Ersteller von einer "Caribbean Islands" Generation und nicht einer "Pirate Islands" Generation reden?




Im Zweifel nehm ich trozdem lieber eine halbe 4K Karte als eine echte FHD.

Das es in der Richtung im 3DC so ruhig ist, ist auch bezeichnend. Sonst wird bei Änderungen AMD vs NV jeder Pixel gezählt. Alleine die Artikel und die Zeit die in das AF "Problem" geflossen ist. Mit 4K gab es dann den größten Sprung der letzten Jahre und keinen interessierts.


Der Sprung vollzieht sich gemessen an anderen Themen eher in Zeitlupe. Es dauert halt, alle auf 4K umzurüsten.

Thowe
2015-07-08, 13:39:07
4K ist zwar saugeil, aber wirklich uneingeschränkt nutzbar wird es erst noch werden müssen. Die Zickigkeit meiner GTX 970 hat schon manches mal dafür gesorgt, dass ich 4K als Experiment und bestenfalls als Beta ansehe. Kein Bild nach dem Einschalten, beim Aufwachen aus dem Schlafmodus, Darstellungsfehler (linke Hälfte anders als rechte Hälfte, was nicht immer unbedingt und sofort auffällt), je nach Treiber andere Problem etc. und ich hoffe deshalb extrem stark, dass die Fury hier deutlich besser arbeitet. Die GTX 960 hat das Leiden auch, nur nicht so penetrant und oft wie die 970.

Nun, dass fehlen von HDMI 2.0 kann ich bequem verkraften. Die c't hatte ja vor einigen Ausgaben 4K Monitore an PCs getestet und ich fand das Ergebnis eher sehr ernüchtern. Mir ist der Ausgang deshalb auch absolut egal, nebenbei sollen ja auch noch aktive DP auf HDMI 2.0 Konverter auf den Markt kommen.

akuji13
2015-07-08, 14:01:05
Kein Bild nach dem Einschalten, beim Aufwachen aus dem Schlafmodus, Darstellungsfehler (linke Hälfte anders als rechte Hälfte, was nicht immer unbedingt und sofort auffällt), je nach Treiber andere Problem etc.

Also hier gabs/gibt es mit mehreren NV Karten oder der Fury X keinerlei Probleme.

Mr. Lolman
2015-07-08, 14:04:13
Ja was sind schon zwei Millionen Pixel Differenz in einer Argumentation pro AMD? :rolleyes: Rechnerisch hat er also FullHD nur verdrei- statt vervierfacht.

Ist ja auch nur eine 290X - und außerdem der Witcher 3 - mit Hairworks (Tes.@max.8x).

foenfrisur
2015-07-08, 14:05:10
sehe ich auch so.
-HDMI 2.0 ist das unwichtigste "problem". die wenigsten nutzen ihn auch heute wirklich ;)
-das pumpenfiepproblem ist vermutlich auch im weitesten sinne behoben.
-das 120/144Hz-Problem ist behoben, wenn man einen 14,-EUR adapter kauft :freak:

wirklich probleme sind da wohl eher die teilweise stark schwankende, unverständliche performance in einigen games.
das andere ist dann noch der preis.

mfg

Flusher
2015-07-08, 16:48:14
Das allergrösste Problem besteht noch darin, dass FijiPro zu nah an Hawaii/Grenada sein wird und voraussichtlich gerade so eine 980 GTX schlagen wird, zu einem Preis der einfach nicht akzeptabel ist.

Dabei braucht AMD dringender denn je positive Impulse und sei es nur eine ordentliche Salvage-Lösung die für die nächsten 6-8 Monate sich verkauft wie geschnitten Brot.

Momentan ist da einfach kein Land in Sicht.

dildo4u
2015-07-08, 17:10:36
GTX 980 ist überteuert leider wird AMD das nicht unterbieten können also ist die Fruy Pro genau so unattraktiv.Eine Werk OC 980 ist vermutlich auch von der Performacne vorne mit 1.3Ghz sind die ziehmlich schnell.

https://geizhals.de/gainward-geforce-gtx-980-phantom-3378-a1177063.html?hloc=de


Fury Pro muss schon mal im Bereich um 10% hinter Fury X sein gegen OC 980.

http://abload.de/img/fijuiproqgkn4.png

Thunder99
2015-07-08, 17:27:38
4k hat noch ein anderes Problem: Nicht Skalierung des UI!!! Zumindest bei einigen Spielen wie Deus Ex Human Revolution, Beyond the earth, ...

Daher wird es sich erst durchsetzen wenn man zumindest die Option hat eine Skalierung vorzunehmen.
Bis dahin gibt es auch Karten die eher 4k tauglich sind als jetzt (hoffentlich) :)

foenfrisur
2015-07-08, 17:29:46
musst du upsampling fürs menü nehmen, wenn es dich stört ;D

mfg

Thowe
2015-07-08, 17:42:38
Also hier gabs/gibt es mit mehreren NV Karten oder der Fury X keinerlei Probleme.

Sei froh ^^ So sieht/sah es z.B. bei anderen aus: https://rog.asus.com/forum/showthread.php?59850-GTX-970-980-BIOS-update-for-DisplayPort-issues

akuji13
2015-07-08, 17:45:16
Verlinkung klappt bei mir nicht.

Thunder99
2015-07-08, 17:51:08
musst du upsampling fürs menü nehmen, wenn es dich stört ;D

mfg
Sofern es gibt ;) Z.B. bei StarWars geht es

Kartenlehrling
2015-07-08, 18:04:02
Verlinkung klappt bei mir nicht.

rog.asus.com/forum/showthread.php?59850-GTX-970-980-BIOS-update-for-DisplayPort-issues

Hübie
2015-07-08, 18:30:14
sehe ich auch so.
-HDMI 2.0 ist das unwichtigste "problem". die wenigsten nutzen ihn auch heute wirklich ;)

Mag sein, aber irgendwann will man ja aufrüsten / umrüsten. ;)

-das pumpenfiepproblem ist vermutlich auch im weitesten sinne behoben.

Wo? AMD hat gesagt die haben daran gearbeitet. Also dauert es noch ne Weile bis die kaufbar sind. Die Verfügbarkeit ist eh sehr sehr schwach.

-das 120/144Hz-Problem ist behoben, wenn man einen 14,-EUR adapter kauft :freak:

Wenn der denn dauerhaft hält. Dennoch würde ich auf 3DV verzichten und dass ist mir das Paket namens "Fury X" einfach nicht wert. Nicht für 730 Euro.

wirklich probleme sind da wohl eher die teilweise stark schwankende, unverständliche performance in einigen games.
das andere ist dann noch der preis.

mfg

Genau. Und warten, beten, hoffen dass man sich dem Problem XY in Spiel ABC annimmt mag ich besonders bei AMD lange nicht mehr machen. Und da VSR immer noch unflexibel gelöst wird kommt ein weiterer Negativpunkt hinzu.

SchinkenSpicker
2015-07-08, 18:41:38
Warum soll es nicht funktionieren?
UHD-BD werden natürlich nicht gehen, da HDCP 2.2 fehlt

Laut Guru3D (http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-980-ti-review,7.html) und diesem Thread (https://forums.geforce.com/default/topic/845270/gpus-with-hdcp-2-2-support/?offset=8) kann GM200 HDCP 2.2 doch.

fondness
2015-07-08, 18:59:47
Wo? AMD hat gesagt die haben daran gearbeitet. Also dauert es noch ne Weile bis die kaufbar sind. Die Verfügbarkeit ist eh sehr sehr schwach.


Alleine Mindfactory hat schon über 150 Fury X verkauft, eher ist die Nachfrage höher als erwartet.

Flusher
2015-07-08, 19:05:32
Alleine Mindfactory hat schon über 150 Fury X verkauft, eher ist die Nachfrage höher als erwartet.

Und wieviele davon sind wieder zurückgegangen bzw. wieviele Karten haben die Runde zu mehreren Kunden gemacht? Am Ende sind es nur 30 Karte gewesen, die halt über 5 Ecken verkauft wurden. :freak:

dildo4u
2015-07-08, 19:08:24
Keiner will sich mit Retouren rumschlagen,die Händler warten vermutlich auf die Gefixten Karten.

foenfrisur
2015-07-08, 19:13:14
Mag sein, aber irgendwann will man ja aufrüsten / umrüsten. ;)


wer rüstet auf hdmi um oder auf?
das ist wirklich nur für diejenigen interessant, die mit einem 4k-tv spielen oder filme glotzen.
der rest nimmt DP vom monitor, welches ohnehin besser ist ;)

Wo? AMD hat gesagt die haben daran gearbeitet. Also dauert es noch ne Weile bis die kaufbar sind. Die Verfügbarkeit ist eh sehr sehr schwach.

ja und? aber es ist wohl deutlich besser geworden, immerhin haben bereits welche die neuen karten gegengechecked, wenn ich mich nicht verlesen habe und für gut befunden ;)

Wenn der denn dauerhaft hält. Dennoch würde ich auf 3DV verzichten und dass ist mir das Paket namens "Fury X" einfach nicht wert. Nicht für 730 Euro.

der muss nur so lange halten, wie du den alten monitor benutzt und das wird er garantiert. und als ob du 3DV so oft und dauerhaft nutzen würdest. in 4K sowieso niemals und auch sonst hat es zu viele nachteile und ist imo sehr unangenehm auf dauer. also ein mini-argument gegen amd meinetwegen.

Genau. Und warten, beten, hoffen dass man sich dem Problem XY in Spiel ABC annimmt mag ich besonders bei AMD lange nicht mehr machen. Und da VSR immer noch unflexibel gelöst wird kommt ein weiterer Negativpunkt hinzu.

vsr macht aber auch einige sachen besser, als DS bei nvidia ;)
mit 4k dann auch wieder mehr egal.
aber auch daran wird ja noch weiter verbessert, wie amd sagt.

mfg

Raff
2015-07-08, 19:48:03
Fury Pro muss schon mal im Bereich um 10% hinter Fury X sein gegen OC 980.

http://abload.de/img/fijuiproqgkn4.png

Warum sollte sie das nicht schaffen? Die Leaks sprechen von einer vollen Speicherschnittstelle, allein beim Chip fehlt bisschen was.

MfG,
Raff

Hübie
2015-07-08, 19:51:38
AMD sagt viel wenn der Tag lang ist. Was genau macht VSR besser? Vergiss nicht dass man nach wie vor custom resolutions erstellen kann.
Und du weißt ja wohl am ehesten weshalb ich aktuell kein 3DV nutze ;)

Meine Argumentation gilt ja nicht für die Welt, sondern für meine. Da passt Fiji nicht mehr rein.

Ich stimme voll zu dass DP idR der bessere Anschluß ist ;) Glaube Fiji hat "nur" DP1.2 wo kein HDCP2.2 ggü HDMI 2.0 drin wäre, aber ich gucke ja eh keine Filme am PC. Wozu auch? :D

Raff
2015-07-08, 19:55:24
AMD sagt viel wenn der Tag lang ist. Was genau macht VSR besser? Vergiss nicht dass man nach wie vor custom resolutions erstellen kann.

Da gibt es sehr wenig. Im Grunde fällt mir nur ein Punkt ein: der Downfilter scheint immer noch besser zu sein. Ungerades VSR sieht besser aus als ungerades DSR, 2x2 nimmt sich nichts. Zumindest sind das meine aktuellen Erfahrungen, ohne mit der Lupe rangegangen zu sein. ;)

MfG,
Raff

dildo4u
2015-07-08, 19:57:49
Warum sollte sie das nicht schaffen? Die Leaks sprechen von einer vollen Speicherschnittstelle, allein beim Chip fehlt bisschen was.

MfG,
Raff
Bandbreite limitiert mit HBM vermutlich nicht also hängst nur am Chip.Das Problem ist die Karte boostet nicht ansonsten würde die Pro wie die 980TI vieleicht besser dastehen als der volle Chip.
Das würde viel Sinn machen wenn man sieht wie schlecht Fury X über alle Cores skaliert,vermutlich würde mehr Takt mher bringen als die zusätzlichen Cores.

ilibilly
2015-07-08, 20:03:51
Was will man da boosten,Amt fährt mit 1050 bei der X schon am Limit, mehr als 50-70 MHz ist bei den meisten nicht drin,bei Maxwell sinds 200-300mhz.
Imho fährt fury bereits am Limit ,mit ähnlich Spielraum wie bei Maxwell hätte man taktraten um 900-950 nehmen müssen,aber dann hätte man die Balkenlänge ncht

aufkrawall
2015-07-08, 20:06:18
Da gibt es sehr wenig. Im Grunde fällt mir nur ein Punkt ein: der Downfilter scheint immer noch besser zu sein. Ungerades VSR sieht besser aus als ungerades DSR, 2x2 nimmt sich nichts. Zumindest sind das meine aktuellen Erfahrungen, ohne mit der Lupe rangegangen zu sein. ;)

MfG,
Raff
Wie aktuell und welche Faktoren? imho sehen 25% Smoothness seit r352 ab 2,25x gleichzeitig scharf und flimmerfrei aus.
Darunter hat NV aber etwas Mist gebaut.

Hübie
2015-07-08, 20:09:57
Meine Beobachtung ist eher dass man den slider individuell einstellen muss.

BlacKi
2015-07-08, 20:13:03
Naja zuerst jammern wir das immer noch Altlasten behalten werden und gibts eine Grafikarte die neueste Anschlüsse setzt und man ist wieder unzufrieden.

pah, die haben einfach bei einer 700€ karte einen anschluss weggelassen nicht neue hinzugefügt...

so geht das!
http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_980_ti/i/geforce_gtx_980_ti_15.jpg

aufkrawall
2015-07-08, 20:42:47
Meine Beobachtung ist eher dass man den slider individuell einstellen muss.
Inidividuell für was? Vielleicht für 2x 50%, aber darunter bekommst du es momentan selbst mit 100% nicht flimmerfrei.

foenfrisur
2015-07-08, 21:05:55
@OT
ein neuer catalyst 15.7 ist on.

http://support.amd.com/en-us/kb-articles/Pages/AMDCatalyst15-7WINReleaseNotes.aspx

mfg

Hübie
2015-07-08, 21:14:37
Inidividuell für was? Vielleicht für 2x 50%, aber darunter bekommst du es momentan selbst mit 100% nicht flimmerfrei.

Je nach Faktor und Spiel. Das du übertreibst weiß hier eh jeder. Soviel Zeit verplempert hier kein anderer, mit solchen Stuß, wie du. :P

foenfrisur
2015-07-08, 21:26:23
hier sind genug leute im forum, die nach der absoluten perfektion streben.
daher diese oft vollkommenen übertreibungen.
in ein paar jahren haben die auch wieder andere sorgen, weil dann vielleicht 64xAF und 300x SDGSDFGSDAA zu scheisse aussieht... (wenn man sonst keine sorgen hat, woran man seine gedanken verschwenden könnte^^)

am ende spielen wir dennoch alle unsere games.

mfg

Hübie
2015-07-08, 21:30:28
Bezogen auf BQ hast du Recht. Ansonsten eher nicht. :P

Peter Gräber
2015-07-08, 22:03:55
Also hier gabs/gibt es mit mehreren NV Karten oder der Fury X keinerlei Probleme.

Das stimmt leider nicht. GTX 970 und GTX 980 haben je nach Alter der Firmware ein Problem, welches genau das hervorruft.

Und ich verstehe es persönlich leider immer noch nicht. Gerade hier, wo die Bildfetischisten rumrennen - 4K ist geil ja, aber flüssig bitte und bitte ohne Flimmern und bitte nicht mit heruntergesetzten Details. Manchesmal hat man ein wenig den Eindruck, dass diese Schlagwörter bei plötzlichem Besitz eines 4K-Monitors nicht mehr gelten. Die Bastelei geht bei jedem dann weiter - um die 4K-Auflösung zu halten, versucht jeder in jedem Spiel die passenden Abstriche zu machen, um die Auflösung halten zu können. Bastelarbeit nenn ich das und vor allem sehr subjektiv. Hab mir gerade sagen lassen, dass das doch Blödsinn ist, dass wir ACU mit vollen Detailstufen testen. Vor zwei Wochen durfte ich hören, dass das doch Blödsinn ist, dass wir C3 nicht mit vollen Detailstufen testen.

Thowe sagt das schon richtig, teils ist es so ein wenig Beta, seine angesprochenen Probleme zuerst ins Feld geführt, gefolgt von Titeln wie ACU beispielsweise, wo man eigentlich Lust hätte Supersampling drüberzubügeln, damit das Flimmern auch in 4K aufhört. Aber das geht bei ACU ja nicht einmal in FullHD.

Ich finde es durchaus berechtigt, dass weiterhin 4K-Benchmarks mit und ohne MSAA gezeigt werden. Manches Mal wird es wirklich überflüssig, doch manches Mal schraube ich dann lieber auf 2560 runter.