PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 390X: (P)Review-Thread


Seiten : 1 [2] 3 4

Thunder99
2015-06-21, 13:38:57
Sorry aber wenn du einen Preisvergleich machst dann mit Karten des gleichen Hersteller oder zumindest mit guten Custom Lösungen. Die 980 von Kfa^2 hat Referenz Design mit Aufkleber :rolleyes:
Zwischen MSI und MSI trennen sich ca. 100€

BlacKi
2015-06-21, 13:45:36
Sorry aber wenn du einen Preisvergleich machst dann mit Karten des gleichen Hersteller oder zumindest mit guten Custom Lösungen. Die 980 von Kfa^2 hat Referenz Design mit Aufkleber :rolleyes:
Zwischen MSI und MSI trennen sich ca. 100€

oder die gigabyte, da sinds 50€

Ja, wenn man jeden Tag drei Stunden Furmark spielt. :ugly:

bei 10h in der woche sind 13€ im jahr bei nur 80w mehr verbrauch IM SPIEL, beim surfen braucht die karte ja auch mehr!

aber egal wen es nicht stört soll zulangen, für mich wäre so eine karte nichts.

fondness
2015-06-21, 13:55:24
Die Gigabyte ist noch nicht mal erhältlich. :rolleyes:

Troyan
2015-06-21, 13:58:24
Das Argument ist einfach nur lächerlich, ganz davon abgesehen das die 140W im Schnitt Blödsinn sind.

Die MSI verbraucht bis zu 180W mehr...
Die Sapphire liegt bei 300W und somit 135W höher.

Wer weiß, wie groß die Streuung der Karten ist...


Die selben Leute kaufen dann eine Custom GTX980 und prügeln diese bei maximaler Spannung auf annähernd 1500 Mhz bei locker 300W.

Die ist dann wiederum 30% schneller als eine 390X... :freak:

aufkrawall
2015-06-21, 14:00:18
Es müssen auch nicht 300W für 1500Mhz sein, wenn 1450 sich sinnvoll mit ~220W Maximalverbrauch betreiben lassen.
Man merkt, dass fondness noch keine entsprechende Karte hatte.

StefanV
2015-06-21, 14:01:28
Das Argument ist einfach nur lächerlich, ganz davon abgesehen das die 140W im Schnitt Blödsinn sind.

Die selben Leute kaufen dann eine Custom GTX980 und prügeln diese bei maximaler Spannung auf annähernd 1500 Mhz bei locker 300W.
Ja, aber sowas von.

Zumal es auch die selben Leute sind, die damals die Heizöfen von GTX 470/480 verteidigt haben...
Oder bis an die kotzgrenze übertaktete Karten im Rechner haben, die dann mal eben so 200W mehr verbraten...

BlacKi
2015-06-21, 14:02:32
ausserdem laufen die 390x karten alle ausserhalb der spezifikation! die stromstecker sind nur für 275w ausgelegt.

Die Gigabyte ist noch nicht mal erhältlich. :rolleyes:
ja stimmt die 390x kommt erst morgen, die 980 in 3-5 tagen.

StefanV
2015-06-21, 14:22:01
ausserdem laufen die 390x karten alle ausserhalb der spezifikation! die stromstecker sind nur für 275w ausgelegt.
Erzähl hier keinen Scheiss!!

Die Spec sagt für 6 + 8 pin = 300W TDP.
Oder um das ganze zu präzsieren:
6pin PCIe = 75W
8pin PCIe = 150W
PCIe Slot = 75W
-------------------
300W gesamt

Sorry, aber ich versteh echt nicht, was du hier überhaupt willst. Wenn du kein interesse an AMD Produkten hast, dann halt dich aus den Diskussionen dazu raus!

Aber so muss man dir fast unterstellen, dass du von jemanden angestellt wurdest, bestimmte Produkte zu bewerben.
SOwas gabs in FOren schon häufiger, dass Mitarbeiter von Herstellern bestimmte Produkte schlecht reden und/oder die eigenen bewerben...

Aber hey, man muss halt den eigenen "Glauben" und die höheren Kosten des nV Zeugs rechtfertigen...

RoughNeck
2015-06-21, 14:25:17
Das Argument ist einfach nur lächerlich, ganz davon abgesehen das die 140W im Schnitt Blödsinn sind.

Die selben Leute kaufen dann eine Custom GTX980 und prügeln diese bei maximaler Spannung auf annähernd 1500 Mhz bei locker 300W.

Kam doch auch bei den Fermi Karten, da war es nicht lächerlich. Waren ja böse Nvidia Karten, bei den guten AMD Karten sieht man darüber hinweg.
Zudem kannst eine 980 auch mit FPS Lock betreiben, dann braucht die noch mal weniger und 300W sehen die 980 Karten nicht.
Außer man prügelt die auf 1600 MHZ rauf, was wohl die wenigsten tun.

Die AMD Karten saufen halt zu viel, das lässt sich nicht weg diskutieren. Außer man hat die rote Brille auf und wenn ich schon eine Karte kauf die viel verbraucht, dann soll die auch ordentlich Leistung haben und das hat die 390X nicht.
Auch der 980 fehlt es da aber die Karte braucht nur einen Bruchteil und man muss nicht immer hoffen das AMD Treiber rechtzeitig bringt.

StefanV
2015-06-21, 14:37:26
Jetzt saufen die AMD Karten ausnahmsweise mal etwas mehr und jeder stürzt sich drauf, um die nVidia Karten zu rechtfertigen.

Bei den Thermis hat der Verbrauch niemanden gestörtz. Zumal bei der 470 und 480 auch der Verbrauch im Idle um die 100W mehr war als bei der 5800 Serie...

DAS wird hier auch gerne vergessen, dass die AMD Karten im idle gar nicht soo besonders schlecht dastehen...

Dass nVidia Karten in der Vergangenheit gerade keine Kostverächter waren sondern eher das Gegenteil wird hierbei mal völlig ausgeblendet...

aufkrawall
2015-06-21, 14:41:07
Jetzt saufen die AMD Karten ausnahmsweise mal etwas mehr und jeder stürzt sich drauf, um die nVidia Karten zu rechtfertigen.

"Etwas". :freak:


DAS wird hier auch gerne vergessen, dass die AMD Karten im idle gar nicht soo besonders schlecht dastehen...

Oh doch, und zwar sehr schlecht: Ständig taktet der VRAM kurz auf den vollen Takt, gar nur beim Verschieben eines Fensters. Der Stromverbrauch geht dann gut hoch, wie man auch an der Temperatur merkt.
Das Interface grillt wohl ganz gut.


Dass nVidia Karten in der Vergangenheit gerade keine Kostverächter waren sondern eher das Gegenteil wird hierbei mal völlig ausgeblendet...
Genau, bei Thermi gabs überall nur Jubelperser...

RoughNeck
2015-06-21, 15:01:16
Jetzt saufen die AMD Karten ausnahmsweise mal etwas mehr und jeder stürzt sich drauf, um die nVidia Karten zu rechtfertigen.

Der war gut, 40W sind etwas, über 100W sind lächerlich.



Bei den Thermis hat der Verbrauch niemanden gestörtz. Zumal bei der 470 und 480 auch der Verbrauch im Idle um die 100W mehr war als bei der 5800 Serie...

Laber doch nicht so einen Blödsinn.
Es gab / gibt doch noch immer unzählige Threads wo man über den Verbrauch der Fermi Karten herzog. Unter Last war der Verbrauch zu hoch, im Idle waren es aber nicht so viel mehr

http://www.anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/19

174W 5870 - 190W GTX 480

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html

19W 5870 - 54W GTX 480



DAS wird hier auch gerne vergessen, dass die AMD Karten im idle gar nicht soo besonders schlecht dastehen...

Wenn die AMD Karten auch im Idle viel schlechter wären als die Nvidia Karten, wäre das in der heutigen Zeit ein Armutszeugnis.



Dass nVidia Karten in der Vergangenheit gerade keine Kostverächter waren sondern eher das Gegenteil wird hierbei mal völlig ausgeblendet...

Dafür waren sie schneller als die AMD Gegenspieler.
Eine 480 war schneller als eine 5870, eine 580 war schneller als eine 6970, usw...
Eine 390X ist aber nicht schneller als eine 980 und die 8GB bringen doch auch nichts. Das wird hier wieder völlig ausgeblendet, denn jetzt heißt es es sei ein Plus. Toll, ich habe 8GB RAM auf meiner Karte und kann dies nicht nützen da die Leistung fehlt. Tolles Plus.

Thunder99
2015-06-21, 15:12:50
Titan X ist es nicht anders. Zu langsam für 12GB. Aber 6GB wäre unsexy gewesen wie halt auch bei der R300er Serie 4GB maximal unsexy sind

Godmode
2015-06-21, 15:17:06
Titan X ist es nicht anders. Zu langsam für 12GB. Aber 6GB wäre unsexy gewesen wie halt auch bei der R300er Serie 4GB maximal unsexy sind

Die TX ist eine SLI Karte, am besten in Kombi mit einem 4K Monitor.

gedi
2015-06-21, 15:22:25
Als ob SLI das Spielerlebnis verbessern würde :rolleyes: Da kann das Ding hunderte von Gig an Vram haben, AFR bleibt AFR und ist ....
Oder soll das jetzt heißen, dass eine 390x wegen den 8G nur im CF was taugt?

captain_drink
2015-06-21, 15:43:07
Titan X ist Prestige, das ist ein schlechter Vergleich.

Die 8 GB sind ein nettes Extra, mehr aber nicht. Eher sind sie ein Feigenblatt, um dafür und für bessere Kühlung einen deutlichen Aufpreis verlangen zu können. Aus P/L-Sicht sind 290/X durch den neuen Treiber die weitaus interessanteren Karten.

gedi
2015-06-21, 15:45:06
Das ist eine Grafikkarte - wie meinst du das jetzt mit Prestige?

Matrix316
2015-06-21, 16:12:45
Prestige weils etwas ist, was man nicht unbedingt braucht, aber einen besser dastehen lässt.

Und eine 390X im Crossfire geht mit sehr hohen Auflösungen, Details und AA bestimmt um einiges besser ab als eine 290X mit 4 GB. Genauso wie eine Titan X im SLI bestimmt besser ist als eine 980TI.

Dawn on Titan
2015-06-21, 17:01:47
Stromverbrauch unter Last ist doch völlig egal. Es zählt FPS/Euro und da sind die AMD Karten überlegen.

aufkrawall
2015-06-21, 17:16:49
Wär mir auch egal, wenns leise wäre. War bisher aber nicht der Fall mit den AMD-Customs.
Hoffentlich gibts immer mehr Modelle mit AiO-WK.

Troyan
2015-06-21, 17:18:33
Stromverbrauch unter Last ist doch völlig egal. Es zählt FPS/Euro und da sind die AMD Karten überlegen.

Zahlst du deinen Strom in einer anderen Währung als mit Euro? :freak:

gnomi
2015-06-21, 17:21:45
FPS/Euro ist schnell wenig wert, wenn man dann Project Cars oder Unity @ Day 1 spielen will und es vergleichsweise lahm läuft...

Dawn on Titan
2015-06-21, 17:36:25
Wär mir auch egal, wenns leise wäre. War bisher aber nicht der Fall mit den AMD-Customs.
Hoffentlich gibts immer mehr Modelle mit AiO-WK.

MSI sieht doch okay aus. Auf dem Level der gelobten 980.

gedi
2015-06-21, 18:09:32
Sorgenfreie Performance hat man aber selbst mit einer 980Ti unter 1440p nicht. Z.B. Metro LL Redux spackt selbst mit einer Ti unter 1440p.

Thunder99
2015-06-21, 18:13:39
FPS/Euro ist schnell wenig wert, wenn man dann Project Cars oder Unity @ Day 1 spielen will und es vergleichsweise lahm läuft...
Daran muss AMD mehr arbeiten wenn sie die Möglichkeit haben. Aber Performance boost im laufe der Zeit macht auch nvidia mit ihren Treibern was ja gut ist :) Nur richtig grottig schlecht sollte es nicht sein am Anfang :freak:

Der erste Tests ob sie es besser machen (können) sehen wir ja an StarCitizen :wink:

R.I.P.
2015-06-21, 18:35:38
Titan X ist Prestige, das ist ein schlechter Vergleich.

Titan X ist rausgeworfenes Geld...vor allem weil kurz danach die 980Ti auf den Markt gekommen ist. Das ist jedes Mal das selbe und jedes Mal gibt es trotzdem Titan Käufer, die mit 12Gb Ram wahrscheinlich Pong spielen :freak:

aufkrawall
2015-06-21, 18:36:06
MSI sieht doch okay aus. Auf dem Level der gelobten 980.
Die ist für viele auch unerträglich laut im Vergleich zu besseren GM204-Customs.

Abgesehen davon, erstmal vernünftige Tests abwarten, die auch wirklich die Lautheit testen.

Dawn on Titan
2015-06-21, 18:38:48
techpowerup war ja dabei. Da sieht sie gut aus.

aufkrawall
2015-06-21, 18:40:09
Auch nur wenig sagende dB-Angaben. Wer danach kauft, ist selbst schuld.

Grumbart
2015-06-21, 18:52:41
Die ist für viele auch unerträglich laut im Vergleich zu besseren GM204-Customs Ernsthaft? Ich hatte eine Strix und die MSI Gaming, und fand die zu keinem Zeitpunkt unangenehm.

dargo
2015-06-21, 20:11:46
Ja sicher weil sie natürlich in jedem Spiel 140Watt mehr verbraucht und die Karte auch immer !!!! unter Vollast läuft beim zocken, weil es ja in keinem Spiel FPS locks gibt oder man auch nie mit VSYNC zockt. Mit der Realität hat die Angabe nix zu tun.
CPU-Limits nicht vergessen. :wink:

Auch nur wenig sagende dB-Angaben. Wer danach kauft, ist selbst schuld.
Der TH-Test ist doch aussagekräftig genug imho.
http://www.tomshardware.de/amd-radeon-r9-390x-r9-380-r7-370-grafikkarten,testberichte-241836-14.html

Knapp 1600RPM sind ganz ok. Ich kenne jetzt 1400RPM von der MSI GTX970 und fand diese noch akzeptabel. Zwar hörbar, aber nicht störend. Die MSI R9 390 non X könnte eventuell bei max. 1400-1500RPM liegen. Dazu fehlen aber genauere Tests. Leider wurde immer nur die X bisher getestet.

Hermelinmaster
2015-06-21, 20:34:40
Hi ^^

Ich bin neu hier und verfolge schon seit dem 970-Desaster diese Seite. Nun habe ich ein stetes Wechselbad der Gefühle, was die 390(X) betrifft.
Ich will nicht auf HDMI 2.0 verzichten, da ich nur alle paar Jahre aufrüste und aktuell alles für 4k (Gaming, Arbeiten und Videos) vorbereite. Meine 570 ist das nächste Objekt, das getauscht werden muss :biggrin:

Kann mir nun mal jemand erklären, wie ich den Punkt HDMI Connectors auf
http://www.msi.com/product/vga/R9-390-Gaming-8G.html#hero-specification
deuten muss? Das Selbe steht auch bei der 390X und der 380. Ich hoffe ja, dass MSI, wie im Vorfeld für die gesamten 390(X) spekuliert wurde, einen Zusatz-Chip verbaut hat, der HDMI 2.0 ermöglicht.

Kann das mal jemand testen, evtl. Raff oder y33H@ ? Das wäre super nett, wenn ich da mal Gewissheit bekommen könnte.

Btw: Ist es eigentlich möglich bei AMD 4k60 über HDMI 1.4 laufen zu lassen wie bei NVidia (glaube das funktioniert seit 7xx mittels Chroma-Subsampling)?

Danke schonmal für die Antworten und generelles Danke an dieses hochinformative und gutinformierte Forum und seine Member.

Liebe Grüße
Hermelinmaster

StefanV
2015-06-22, 00:47:13
Hi ^^

Ich bin neu hier und verfolge schon seit dem 970-Desaster diese Seite. Nun habe ich ein stetes Wechselbad der Gefühle, was die 390(X) betrifft.
Ich will nicht auf HDMI 2.0 verzichten, da ich nur alle paar Jahre aufrüste und aktuell alles für 4k (Gaming, Arbeiten und Videos) vorbereite.
Naja, das müsstest sogar bei der Titan X, guggsu hier:

Wie alle Maxwell-Grafikkarten der 2. Generation ist die GeForce GTX Titan X mit einem HDMI-2.0-Anschluss ausgestattet, mit HDCP 2.2 für Ultra-HD-Blu-rays kann aber nur der GM206 und damit vorerst nur die GeForce GTX 960 umgehen. Auch müssen GM200-Käufer darauf verzichten, den H.265-Codec (HEVC) per NVENC zu decodieren.

ERGO:
AUCH die Titan X unterstützt HDMI 2.0 nicht wirklich!
quelle (http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/).

Und dazu kommt, dass nVidia bei aktuellen Treibern immer noch nicht 'mal eben' den Farbbereich des HDMI Gerätes einstellen kann. Also zumindest ob man nun im begrenzten oder vollen RGB Bereich ist, ist da nicht ganz einleuchtend/klar.

Oder andersrum:
NUR GM206 (GTX 960) unterstützt wirklich HDMI 2.0, bei anderen ist es nicht voll unterstützt.

aufkrawall
2015-06-22, 01:01:18
Und dazu kommt, dass nVidia bei aktuellen Treibern immer noch nicht 'mal eben' den Farbbereich des HDMI Gerätes einstellen kann. Also zumindest ob man nun im begrenzten oder vollen RGB Bereich ist, ist da nicht ganz einleuchtend/klar.

Es funktioniert hier mit einem Iiyama problemfrei, einstellbar im Treiber-Panel.
Notfalls funktoniert edid-override eh immer, als letzte Möglichkeit. Nun wirklich kein Hinderungsgrund...

CB bringt Decoden und Encoden durcheinander.

iuno
2015-06-22, 01:07:51
Für den Kopierschutz Dreck interessieren sich hier denke ich aber die wenigsten. Will man mit 60 Hz bei 3840x2160 über HDMI einen TV betreiben, geht das halt aktuell mit Nvidia und mit AMD nicht.
Wo soll denn spekuliert worden sein, dass MSI einen extra-Chip verbauen soll? imho ausgeschlossen, außer vielleicht wenn es ein DP->HDMI Adapter wäre. Das werden einfach falsche Angaben sein, das kennt man ja:rolleyes:

Hermelinmaster
2015-06-22, 01:31:53
ERGO:
AUCH die Titan X unterstützt HDMI 2.0 nicht wirklich!

NUR GM206 (GTX 960) unterstützt wirklich HDMI 2.0, bei anderen ist es nicht voll unterstützt.

Hi StefanV
Das ist schlicht falsch. HDCP gehört nicht zu HDMI 2.0. HDMI 2.0 garantiert einen gewissen Durchsatz aus dem sich eine Auflösung und Frequenz ergibt, zum Beispiel 4k60. HDCP ist ein Kopierschutz, der ein Signal (das schließlich am TV ankommt) verschlüsselt, aber soviel ich weiß auch schon vorher einsetzt.
Eine Graka, Receiver, TV, etc. kann also HDMI 2.0 unterstützen und kein HDCP. Bei den meisten AV-Receivern ist dies auch tatsächlich der Fall. Entweder 4k60 ohne Kopierschutz oder HDCP2.2 mit 4k30 (bzw. 4k60 mit 4:2:0 Chroma-Subsampling)! Darüber hinaus können viele Geräte auch nicht mit HDCP 2.2 umgehen (TV+Receiver) obwohl HDMI 2.0 verbaut wurde.


Für den Kopierschutz Dreck interessieren sich hier denke ich aber die wenigsten.

Richtig, darum ging es mir tatsächlich nicht, sondern rein um 4k60 via HDMI.


Wo soll denn spekuliert worden sein, dass MSI einen extra-Chip verbauen soll? imho ausgeschlossen, außer vielleicht wenn es ein DP->HDMI Adapter wäre.

Es wurde generell spekuliert, dass Grenada HDMI 2.0 unterstützt. Da eine neue Maske unwahrscheinlich war ging man davon aus, dass man das Problem mit einem separaten Chip auf dem PCB lösen könnte, siehe hier:
http://www.3dcenter.org/news/was-wird-die-radeon-r300-serie-bezueglich-directx-12-vsr-freesync-und-hdmi-20-bieten-koennen


Das werden einfach falsche Angaben sein, das kennt man ja

Das wäre echt zu schade :-(

Knuddelbearli
2015-06-22, 03:32:29
Eine 390X ist aber nicht schneller als eine 980 und die 8GB bringen doch auch nichts. Das wird hier wieder völlig ausgeblendet, denn jetzt heißt es es sei ein Plus. Toll, ich habe 8GB RAM auf meiner Karte und kann dies nicht nützen da die Leistung fehlt. Tolles Plus.


Ich werde dich dran erinnern sobald es an Fiji geht ^^

Knuddelbearli
2015-06-22, 03:36:05
Hi ^^

Ich bin neu hier und verfolge schon seit dem 970-Desaster diese Seite. Nun habe ich ein stetes Wechselbad der Gefühle, was die 390(X) betrifft.
Ich will nicht auf HDMI 2.0 verzichten, da ich nur alle paar Jahre aufrüste und aktuell alles für 4k (Gaming, Arbeiten und Videos) vorbereite. Meine 570 ist das nächste Objekt, das getauscht werden muss :biggrin:

Kann mir nun mal jemand erklären, wie ich den Punkt HDMI Connectors auf
http://www.msi.com/product/vga/R9-390-Gaming-8G.html#hero-specification
deuten muss? Das Selbe steht auch bei der 390X und der 380. Ich hoffe ja, dass MSI, wie im Vorfeld für die gesamten 390(X) spekuliert wurde, einen Zusatz-Chip verbaut hat, der HDMI 2.0 ermöglicht.

Kann das mal jemand testen, evtl. Raff oder y33H@ ? Das wäre super nett, wenn ich da mal Gewissheit bekommen könnte.

Btw: Ist es eigentlich möglich bei AMD 4k60 über HDMI 1.4 laufen zu lassen wie bei NVidia (glaube das funktioniert seit 7xx mittels Chroma-Subsampling)?

Danke schonmal für die Antworten und generelles Danke an dieses hochinformative und gutinformierte Forum und seine Member.

Liebe Grüße
Hermelinmaster

darf man fragen wozu du hdmi 2.0 benötigst? hast ja nichts von Film schauen / TV geschrieben und Monitor hat heutzutage eh jeder DP worüber dann auch freesynch usw funktioniert ( auch wenn AMD mom versucht freesynch über HDMi zu laufen zu bekommen )

und Zusatzchip kann man eigentlich ausschliessen

Dawn on Titan
2015-06-22, 06:58:41
Zum Thema HDMI2.0 muss man festhalten.

a) NV unterstützt es auch nicht vollständig, das relevante HDCP 2.2
b) HDMI 2.o wird eine Randerscheinung sein, da der Displayport die bessere Lösung ist

Völlig unbedeutender Pseudovorteil, der da NV zugeschanzt wird.

robbitop
2015-06-22, 09:58:35
Als ob SLI das Spielerlebnis verbessern würde :rolleyes: Da kann das Ding hunderte von Gig an Vram haben, AFR bleibt AFR und ist ....
Oder soll das jetzt heißen, dass eine 390x wegen den 8G nur im CF was taugt?
SLI und AFR sind suboptimal. Aber dennoch bringt AFR, sofern es denn fehlerfrei läuft, ca 80 % mehr fps. Davon sind wegen den Frametimeschwankungen in etwa 50 % gefühlt mehr nutzbar.
Den Unterschied merkt man signifikant. 4K sind mit einer TX in SLI immer flüssig spielbar. Mit einer Single TX ist es je nach Spiel, Stelle im Spiel und Details in 4K noch zäh.

P/L ist bei AFR immer schlecht. Aber dass es nichts bringt ist Unsinn. Für SLI machen >6 GiB hin und wieder auch Sinn, denn damit sind eben andere Settings spielbar. 8 GiB hätten aber auch locker gereicht. Im Moment würden auch 6 GiB wohl zu 99,9 % noch reichen in 4K im SLI. Aber es wird wieder neue Spiele geben, die das knacken werden. Dann wären 8 GiB (oder mehr) schon schön bei der Leistung von TX @SLI.

Das wird auch der Fury X @CF ein Bein stellen IMO.

Hermelinmaster
2015-06-22, 10:59:30
darf man fragen wozu du hdmi 2.0 benötigst? hast ja nichts von Film schauen / TV geschrieben und Monitor hat heutzutage eh jeder DP worüber dann auch freesynch usw funktioniert ( auch wenn AMD mom versucht freesynch über HDMi zu laufen zu bekommen )

und Zusatzchip kann man eigentlich ausschliessen
Ja darfst Du :wink:

Ich hole mir in nächster Zeit einen 55" 4k TV. Dieser wird so aufgestellt, dass er vom Bett und vom Schreibtisch aus einsehbar ist.
Wie ich schon schrieb brauche ich das Teil für Gaming (mit einem Controller, da ist der Lag nicht so wichtig), Arbeit (CAD und Simulink, da sollte der zusätzliche Workspace nützlich sein) und Videos, zu denen ich auch Youtube, Netflix, Amazon Instant und im Winter 4k-Blurays zähle. Meine GoPro 4k-Videos werden damit auch bearbeitet.
Insbesondere bei den Videos ist mir nicht nur das Bild wichtig, sondern auch der Ton. Dieser wird über einen 4k60 fähigen AV-Receiver ausgegeben und diese gibt es nicht mit DisplayPort.
Was DisplayPort zu leisten im Stande ist, ist aller Ehren wert, aber etabliert ist er nur bei Monitoren. Spätestens wenn es an Home-Theatre geht ist mit DP Essig. Bei TVs gibt es nur die Panasonic und bei Beamern nur No-Name (+Epson für ~7000€ :freak: ).
Selbst meinen kleinen Monitor mit 29" verwende ich mit HDMI, da mein Laptop kein DP hat. Aber der Monitor wird eh nur für Textverarbeitung, Multi-Tasking und einige wenige FPS verwendet, das Meiste mach ich am TV, und da ist mir Panasonic einfach viel zu teuer.

Ich denke es ist eine valide Aussage, dass DP überlegen ist und besser über kürzer als länger HDMI ablösen sollte, aber aktuell kenne ich NIEMANDEN, der DP nutzt, geschweige denn bei dem HDMI nicht ausreichend wäre. Entsprechend wird sämtliche Home-Theatre-Peripherie auf HDMI ausgelegt.
Mein Gefühl sagt mir, dass AMD sich um die 25% der potentiellen Kundschaft gebracht hat, einfach nur durch das Weglassen von HDMI 2.0. Und was mich ärgert ist, dass es noch nicht mal eine weitere Alternative zu NVidia gibt.
Hoffentlich baut doch noch irgendein Hersteller einen Chip ein für HDMI 2.0 :biggrin:

Btw. dieses Adapter-Zeugs von DP auf HDMI hat noch nie richtig funktioniert, verursacht teilweise horrenden Lag und schleift oft keinen Ton durch. Ich weiß ehrlich nicht wer sowas kaufen sollte zu meist auch noch völlig überzogenen Preisen :(

ilibilly
2015-06-22, 11:54:36
Für den Kopierschutz Dreck interessieren sich hier denke ich aber die wenigsten. Will man mit 60 Hz bei 3840x2160 über HDMI einen TV betreiben, geht das halt aktuell mit Nvidia und mit AMD nicht.
Wo soll denn spekuliert worden sein, dass MSI einen extra-Chip verbauen soll? imho ausgeschlossen, außer vielleicht wenn es ein DP->HDMI Adapter wäre. Das werden einfach falsche Angaben sein, das kennt man ja:rolleyes:
Stimmt so nicht mein 980er läuft auf meinen 65" 4k60 ohne Probleme ,da brauchst dann auch kein AA mehr beim zocken,inputlag ist im pc Mode auch sehr niedrig,eigentlich wollt ich zur fury x switchen,um auch aktuellere Games in 4k zu geniesen,leider ist da über. HDMI nu 1440p möglich,somit wird wohl eine 980ti werden .
Kein hdmi 2.0 ist wirklich ein Fail,tolles hbm Interface und dann kein aktueller hdmi Anschluss ,schon traurig.

HOT
2015-06-22, 13:49:37
HDMI 2.0 braucht man doch gar nicht. Höchstens, wenn man die GraKa mit einem UHD-Fernseher koppeln will... und selbst die haben wahrscheinlich DP-Anschluss.
HDMI wird langfristig aus dem PC-Bereich wieder verschwinden (Gott sei dank), dem DP gehört die Zukunft.

gedi
2015-06-22, 15:07:50
SLI und AFR sind suboptimal. Aber dennoch bringt AFR, sofern es denn fehlerfrei läuft, ca 80 % mehr fps. Davon sind wegen den Frametimeschwankungen in etwa 50 % gefühlt mehr nutzbar.
Den Unterschied merkt man signifikant. 4K sind mit einer TX in SLI immer flüssig spielbar. Mit einer Single TX ist es je nach Spiel, Stelle im Spiel und Details in 4K noch zäh.

P/L ist bei AFR immer schlecht. Aber dass es nichts bringt ist Unsinn. Für SLI machen >6 GiB hin und wieder auch Sinn, denn damit sind eben andere Settings spielbar. 8 GiB hätten aber auch locker gereicht. Im Moment würden auch 6 GiB wohl zu 99,9 % noch reichen in 4K im SLI. Aber es wird wieder neue Spiele geben, die das knacken werden. Dann wären 8 GiB (oder mehr) schon schön bei der Leistung von TX @SLI.

Das wird auch der Fury X @CF ein Bein stellen IMO.

Ich hatte schon etliche mGPU-Konfigurationen und zum Benchen war es eine feine Sache, zum Spielen weniger. Die FPS sind zwar um 60-90% höher, allerdings leidet das Spiel-Erlebnis wegen der M-Ruckler doch erheblich, so dass dann auch keine rechte Freude aufkommen wollte.
Zudem gibt es Probleme mit G-Sync/Freesync, extreme Profilabhängigkeit (und das, obwohl beide IHVs noch nicht mal ihre Treiber im Griff haben) ...

Und zufriedenstellendes 4k-Gaming werden wir meiner Meinung nach erst im 16nm-Fertigungsprozess sehen. Im Moment sehe ich nur gute bzw. sehr gute 1440p und 1600p Kärtchen. Mehr ist im Moment imo nicht.

Matrix316
2015-06-22, 15:18:26
Titan X ist rausgeworfenes Geld...vor allem weil kurz danach die 980Ti auf den Markt gekommen ist. Das ist jedes Mal das selbe und jedes Mal gibt es trotzdem Titan Käufer, die mit 12Gb Ram wahrscheinlich Pong spielen :freak:
Ich hab mir damals extra die Miro Hiscore 3D gekauft, weil sie mehr Speicher hatte - aber wirklich gemerkt hat man davon auch nix :freak:

Meistens ist es eh so, dass wenn sich der Mehrspeicher lohnt, die Karte zu langsam ist und man dann aufrüsten muss.

BiG OnE
2015-06-22, 16:04:11
HDMI 2.0 braucht man doch gar nicht. Höchstens, wenn man die GraKa mit einem UHD-Fernseher koppeln will... und selbst die haben wahrscheinlich DP-Anschluss.
Bis auf Panasonic verbaut kein anderer Hersteller DP in seine Fernseher.

Undertaker
2015-06-22, 16:21:56
Es gibt aktuell sogar mehr PC-Monitore mit HDMI 2.0 als TVs mit DisplayPort-Anschluss... Und das wird sich wohl auch nicht so schnell ändern.

Sven77
2015-06-22, 16:24:13
Displayport wird bei TVs eine Ausnahmeerscheinung bleiben.. der Verzicht auf HDMI 2.0 ist schon ein ziemlicher Fail

Megamember
2015-06-22, 16:41:52
Das Powercolor 390 PCS+ Bios läuft schonmal problemlos auf meiner 290 PCS+. HAbs selbst noch nicht getestet soll aber im Schnitt 3% schneller sein bei gleichem Takt, nehm ich gerne mit.
Gemodded auf 4GB und 1250MHZ Ramtakt. Jetzt muss ich nurnoch irgendwie an ein 390X PCS+ Bios rankommen.

Lard
2015-06-22, 16:56:48
Das Powercolor 390 PCS+ Bios läuft schonmal problemlos auf meiner 290 PCS+. HAbs selbst noch nicht getestet soll aber im Schnitt 3% schneller sein bei gleichem Takt, nehm ich gerne mit.
Gemodded auf 4GB und 1250MHZ Ramtakt. Jetzt muss ich nurnoch irgendwie an ein 390X PCS+ Bios rankommen.
Das 390X PCS+ BIOS:
http://www.techpowerup.com/vgabios/173026/powercolor-r9390x-8192-150527.html

fondness
2015-06-22, 17:02:51
Hat zufällig auch jemand ein Sapphire 390 Bios? :naughty:

Megamember
2015-06-22, 17:05:00
Das 390X PCS+ BIOS:
http://www.techpowerup.com/vgabios/173026/powercolor-r9390x-8192-150527.html

Danke, aber da stimmen die Angaben nicht, das ist in wirklichkeit das Bios ohne X, steht auch in der Beschreibung.

Lard
2015-06-22, 17:16:05
Danke, aber da stimmen die Angaben nicht, das ist in wirklichkeit das Bios ohne X, steht auch in der Beschreibung.
Und wie wäre es mit einem Standart 390X BIOS?

Megamember
2015-06-22, 17:20:54
Hmm weiss net also die Referenzdesign 290X Biosse haben bei mir nicht funktioniert. Meine PCS+ ist nicht Referenz. Ausserdem berichten die Leute im Guru3d Forum von seltsam hohen vrm temps und Spannungsschwankungen.

Thunder99
2015-06-22, 18:02:00
Hat zufällig auch jemand ein Sapphire 390 Bios? :naughty:
am besten noch für die Vapor-X :naughty: :naughty:

Raff
2015-06-22, 19:57:59
Das Powercolor 390 PCS+ Bios läuft schonmal problemlos auf meiner 290 PCS+. HAbs selbst noch nicht getestet soll aber im Schnitt 3% schneller sein bei gleichem Takt, nehm ich gerne mit.
Gemodded auf 4GB und 1250MHZ Ramtakt. Jetzt muss ich nurnoch irgendwie an ein 390X PCS+ Bios rankommen.

"Gemoddet auf 4 GB" – wie das? Und es gibt keine Nebenwirkungen? Spannend. :D

Das BIOS einer R9 390 Nitro könnte ich euch morgen hier hochladen, falls jemand sein Glück versuchen möchte.

MfG,
Raff

Megamember
2015-06-22, 20:35:07
"Gemoddet auf 4 GB" – wie das? Und es gibt keine Nebenwirkungen? Spannend. :D

Das BIOS einer R9 390 Nitro könnte ich euch morgen hier hochladen, falls jemand sein Glück versuchen möchte.

MfG,
Raff

http://abload.de/img/390bios9rukh.jpg (http://abload.de/image.php?img=390bios9rukh.jpg)

Per hex editor, musste nur eine Zahl geändert werden, läuft alles wunderbar.
Taktraten ect., alles kann man ändern.

http://forums.guru3d.com/showthread.php?t=400050
http://www.hardwareluxx.de/community/f140/r9-290-x-bios-modding-wie-erstelle-ich-mein-eigenes-bios-hex-howto-1077140.html

HAbt ihr nicht zufällig schon die 390X PCS+ bei euch rumfliegen?

Raff
2015-06-22, 21:54:20
Interessant, das werde ich mir mal genauer ansehen. Warum wurde der Name String geändert? Die Karte müsste sich doch als 300 Series melden. Kannst du den 300er-Launch-Catalyst installieren?

Die 390X PCS+ ist zugesagt, aber noch nicht da.

MfG,
Raff

Megamember
2015-06-22, 22:17:21
Der 15.15 lässt sich leider nicht installieren, der name string lässt sich wohl nicht ändern bzw. man weiss noch nicht wie.

PHuV
2015-06-22, 22:41:00
Es gibt aktuell sogar mehr PC-Monitore mit HDMI 2.0 als TVs mit DisplayPort-Anschluss... Und das wird sich wohl auch nicht so schnell ändern.
So? Wieviele Monitore gibts den aktuell mit HDMI 2.0?
HDMI 2.0 braucht man doch gar nicht. Höchstens, wenn man die GraKa mit einem UHD-Fernseher koppeln will... und selbst die haben wahrscheinlich DP-Anschluss.
HDMI wird langfristig aus dem PC-Bereich wieder verschwinden (Gott sei dank), dem DP gehört die Zukunft.
Das glaube ich eher nicht. Aktuelle Videokameras im 4k-Bereich, DSLRs und Co haben alle durchweg HDMI an Board. Und alles, was Du aktuell mit Geräten über 40" betreiben willst, hat überwiegend HDMI-Anschlüsse vorzuweisen. Auch haben die meisten Notebooks bis heute HDMI + DP.

BlacKi
2015-06-22, 22:42:53
So? Wieviele Monitore gibts den aktuell mit HDMI 2.0?
15 monitore mit hdmi2.0
18 TV mit DP

PHuV
2015-06-22, 22:59:23
Ich seh bei Geizhals zwar nur 13, aber immerhin. Ich dachte, es wären weniger.

Thunder99
2015-06-22, 23:20:29
"Gemoddet auf 4 GB" – wie das? Und es gibt keine Nebenwirkungen? Spannend. :D

Das BIOS einer R9 390 Nitro könnte ich euch morgen hier hochladen, falls jemand sein Glück versuchen möchte.

MfG,
Raff
mach mal :D

Lard
2015-06-24, 03:15:15
hardware.fr: MSI Radeon R9 390X Gaming 8 Go en test (http://www.hardware.fr/focus/110/msi-radeon-r9-390x-gaming-8-go-test.html)
How AMD was able to go from 1250 to 1500 MHz? AMD could not answer us on this point, but by observing the behavior of the R9 390X we noticed that the GPU voltage increases from now on automatically when the memory is 1500 MHz, while the GPU kept to the rest frequency (300 MHz). AMD seems to have made a small change to its frequency management system to support this faster memory.

Am2501
2015-06-24, 12:09:53
Kennt jemand Tests von der MSI R9 390 (ohne X) Gaming 8G?

Thunder99
2015-06-24, 12:15:37
Computerbase hatte angekündigt das weitere Tests folgen sobald mehr Partnerkarten vorhanden sind

Troyan
2015-06-24, 12:21:18
hardware.fr: MSI Radeon R9 390X Gaming 8 Go en test (http://www.hardware.fr/focus/110/msi-radeon-r9-390x-gaming-8-go-test.html)

Das sind wirklich 350W bei der MSI. :eek:
Selbst in Anno 2070 ist die Gigabyte GTX980 fast doppelt so effizient.

/edit: Übertaktung auch nur auf 1150MHz mit +0,1V. Dann liegt man in Anno2070 bei 450W. :freak:

sulak
2015-06-24, 12:45:33
hardware.fr: MSI Radeon R9 390X Gaming 8 Go en test (http://www.hardware.fr/focus/110/msi-radeon-r9-390x-gaming-8-go-test.html)

Nicht ganz soviel wie bei HardOCP oder Techpowerup gemessen, aber +300Watt sind damit bestätigt. Wenn die Fury weniger verbraucht und in die Nähe einer GTX980 in Sachen Effizienz gelangt, ist das schon fast peinlich für AMD. Ein echter Refresh für den Chip wäre besser gewesen als ne Herdplatte daraus zu machen...

Seth
2015-06-24, 12:54:54
Wieso peinlich für AMD? Legen doch die Grafikkarten Hersteller fest was ihre Karten verbraten können.

Matrix316
2015-06-24, 13:13:11
Die Frage ist, wozu jetzt noch eine 390 oder 390X wenn die Furys eh bald kommen. Das ist so wie wenn jetzt intel noch mal Broadwell Desktops rausbringen würden, obwohl eh bald Skylake kommt. Ok, die machen das sogar :D, aber bis Skylake ist es ja noch etwas hin. Aber Fury kommt ja schon in einer Stunde oder so. ;)

Thunder99
2015-06-24, 13:21:39
Aktualisierung des Lineups nach unten hin. Vermute aber das war eher eine rhetorische Frage :D

Abgesehen vom Stromverbrauch stehen doch die R300er Karten besser da als die R200er. Wie es dann mit dem 15.20 Treiber aussieht müsste man dann neu bewerten.

Knuddelbearli
2015-06-24, 13:22:32
weill man fiji nicht für unter 300euro verkaufen kann / will

Ravenhearth
2015-06-24, 13:22:48
Weil nicht jeder 600€ für eine Karte übrig hat?

Matrix316
2015-06-24, 13:28:10
weill man fiji nicht für unter 300euro verkaufen kann / will
Könnte man schon, wenn man den etwas abspeckt. Aber man HAT doch noch Karten in dem Preisbereich, nämlich die 290X, 290, 280 etc. Da die Top Modelle keine 3er Nummer haben, sondern Fury heißen, sehe ich da keine Notwendigkeit eine komplette 3er Serie noch zusätzlich rauszubringen, sondern da würde ich abwarten, bis die Fiji halt so gut machbar sind, dass sie auch abgespeckt sich gut verkaufen würden.

Oder man hätte die Fury X lieber gleich 390X nennen sollen (und Fury dann 390).

AMDs Imageproblem war doch die ganze Zeit der hohe Stromverbrauch, laute Lüfter etc.. Das hätte man ja mit Fury alleine angehen können. SO bringt man gleichzeitig wieder ein Strommonster wie die 390X raus und sieht wieder etwas schlechter aus. Wäre NUR die Fury X rausgekommen, hätte keiner mehr die 290X beachtet und AMDs Image hätte sich bestimmt verbessert.

Irgendwie haben die 3xxer Karten einen komischen Beigeschmack.

Das ist so wie wenn man einen neuen Top CPU Prozessor mit super Effizienz rausbringt, nur um die alten Stromfresser zu rebranden, nur damit man unter dem neuen Topmodell auch was "aktuelles" hat.

Troyan
2015-06-24, 13:32:36
Fiji ist 600mm^2 groß, verwendet dazu Speicher, der nur für AMD produziert wird.
Kommt mit Wasserkühlung, um gleichwertige Leistung zu erreichen.

Das Ding ist viel zu teuer, um günstiger verkaufen zu können. AMD macht jetzt schon kaum Geld mit dem Karten - was denkst du, bleibt bei Fiji für $450 übrig?!

Matrix316
2015-06-24, 13:56:33
Fiji ist 600mm^2 groß, verwendet dazu Speicher, der nur für AMD produziert wird.
Kommt mit Wasserkühlung, um gleichwertige Leistung zu erreichen.

Das Ding ist viel zu teuer, um günstiger verkaufen zu können. AMD macht jetzt schon kaum Geld mit dem Karten - was denkst du, bleibt bei Fiji für $450 übrig?!

Prestige!

;D:D;D :naughty:

Raff
2015-06-25, 22:43:00
Update des PCGH-Artikels mit Werten der R9 390 und R9 380/4G inklusive neuer Full-HD-Benchmarks und, das ist selten, Leistungsindizes (Gesamtleistung):

AMD Radeon R9 390X, R9 390 und R9 380 im Test: GTX 980/970/960 in Bedrängnis? (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/)

Wenn noch ein paar weitere, leise Karten der Partner auftauchen, muss sich das Lineup keineswegs verstecken. Leistungsaufnahme ist nicht alles, das bewies Fermi. ;)

MfG,
Raff

Dural
2015-06-26, 09:47:57
gibt es die 390X Referenz überhaupt irgend wo? oder ist die nur gut für die Fotos?

fondness
2015-06-26, 11:42:21
Radeon R9 390X : Sapphire-Grafikkarte wird durch neues BIOS leiser
http://www.computerbase.de/2015-06/radeon-r9-390x-sapphire-grafikkarte-wird-durch-neues-bios-leiser/

HOT
2015-06-26, 11:47:25
Update des PCGH-Artikels mit Werten der R9 390 und R9 380/4G inklusive neuer Full-HD-Benchmarks und, das ist selten, Leistungsindizes (Gesamtleistung):

AMD Radeon R9 390X, R9 390 und R9 380 im Test: GTX 980/970/960 in Bedrängnis? (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/)

Wenn noch ein paar weitere, leise Karten der Partner auftauchen, muss sich das Lineup keineswegs verstecken. Leistungsaufnahme ist nicht alles, das bewies Fermi. ;)

MfG,
Raff
Ich find Hawaii ist immer noch der ausgewogenste Chip auf den Markt, auch wenn seine Leistungsaufnahme ein Makel ist. Aber irgendwas ist ja immer.

BlacKi
2015-06-26, 11:53:30
Die Frage ist, wozu jetzt noch eine 390 oder 390X wenn die Furys eh bald kommen.

8gb arbeitsspeicher! fury bekommt vermutlich nur als dual gpu 8gb teuren hbm speicher, und für 300-400€ wird man keine fury bekommen.

die nano und die fury ohne X wirds auch luftgekühlt geben.

ich auch
2015-06-26, 11:54:57
Radeon R9 390X : Sapphire-Grafikkarte wird durch neues BIOS leiser

http://www.computerbase.de/2015-06/radeon-r9-390x-sapphire-grafikkarte-wird-durch-neues-bios-leiser/

M4xw0lf
2015-06-26, 12:01:58
Update des PCGH-Artikels mit Werten der R9 390 und R9 380/4G inklusive neuer Full-HD-Benchmarks und, das ist selten, Leistungsindizes (Gesamtleistung):

AMD Radeon R9 390X, R9 390 und R9 380 im Test: GTX 980/970/960 in Bedrängnis? (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Radeon-R9-390X-Test-1162303/)
:up:
Wenn noch ein paar weitere, leise Karten der Partner auftauchen, muss sich das Lineup keineswegs verstecken. Leistungsaufnahme ist nicht alles, das bewies Fermi. ;)

MfG,
RaffDer konnte aber auch die Leistungsspitze für sich verbuchen (und außerdem stand Nvidia auf der Schachtel).

Disco_STFU
2015-06-26, 12:03:33
Radeon R9 390X : Sapphire-Grafikkarte wird durch neues BIOS leiser

http://www.computerbase.de/2015-06/radeon-r9-390x-sapphire-grafikkarte-wird-durch-neues-bios-leiser/

Sehr gut! :cool:

Frosty
2015-06-26, 21:45:09
ich hab ein frage zur r9 380: ist der tonga chip dieser karten speicherbandbreitenlimitiert oder limitiert die gpu-leistung in spielen?

mfg Frosty

samm
2015-06-26, 23:48:47
Würde mal sagen, dass die 380 da relativ ausgeglichen ist. Jede GPU kann in Spielen limitieren ;) Für ein eventuell angedachtes Übertakten wäre es wohl am Besten, sowohl Speicher als auch Core hochzuziehen. Einen guten Test, der das bei der 380 oder der 285 so gezielt untersucht wie damals bei der 7970 habe ich aber noch nicht gefunden.

Am2501
2015-06-27, 20:39:52
Ich habe gestern mal das Bios der Sapphire R9 390 Nitro bei Techpowerup hochgeladen.

Absolut überzeugende Karte im Übrigen. Odb im Idle, kein Fiepen oder sonstige störende Nebengeräusche und auch unter Last angenehm leise.

Dabei unter 70 Grad unter Last, mit langsam laufenden Gehäuselüftern! Unglaublich gute Karte, die Sapphire da produziert.

VOODOO-KING
2015-06-28, 08:00:58
weill man fiji nicht für unter 300euro verkaufen kann / will

gibt es realistische Chancen, dass die Fury Nano für 300€ auf dem Markt kommt?

Knuddelbearli
2015-06-28, 08:30:23

VOODOO-KING
2015-06-28, 08:36:00


ich habe gelesen, dass die Nano angeblich leistungstechnisch irgendwo zwischen 290 u. 290x pendeln wird. Also langsamer als R9 390 u. GTX 970 und diese Karten bewegen sich um die 350€...

Knuddelbearli
2015-06-28, 08:41:27
dann hast du falsch gelesen. es wurde gesagt über der 290X, mal knapp, mal deutlich da sind sie sich wohl selbst noch nicht sicher ^^
Außerdem wird die kompakte Form und der niedrige Verbrauch sicher den ein oder anderen Euro extra kosten.

Arcanoxer
2015-06-28, 09:33:22
Außerdem wird die kompakte Form und der niedrige Verbrauch sicher den ein oder anderen Euro extra kosten.
Die Nano soll eine 175W TDP haben, daran ist nichts revolutionäres in der Preisklasse. (für AMD schon)
Die Asus GTX970 hat eine 145W TDP und gibt es seit anfang des Jahres.

Knuddelbearli
2015-06-28, 09:38:23
1 weder bei amd noch nv sinds tdp
2 erwähne ich extra auch den formfaktor
3 soll sie eben schneller als 290X sein und damit sehr sicher schneller als 980 und ganz sicher vor der 970, die 980 ist ne ganz andere Preisklasse als die 970

Arcanoxer
2015-06-28, 09:42:29
1 weder bei amd noch nv sinds tdp
2 erwähne ich extra auch den formfaktor
3 soll sie eben schneller als 290X sein und damit sehr sicher schneller als 980 und ganz sicher vor der 970, die 980 ist ne ganz andere Preisklasse als die 970Eine GTX970 ist in aktuellen Blockbustern schneller als eine R290x, darum wird es die Nano nicht einfach haben.
Man kann nur spekulieren, also abwarten überraschen lassen. ;)

-/\-CruNcher-/\-
2015-06-28, 10:04:42
Vor allem Optimiert Nvidia noch an den Treibern die GTX 970 bekommt momentan einen schönen merkbaren boost dadurch ;)

Gegen Maxwell V2 mit dieser Treiber Optimierungsorgie die Nvidia hier angeht wird es jede Karte von AMD schwer haben ;)

Knuddelbearli
2015-06-28, 10:18:51
Eine GTX970 ist in aktuellen Blockbustern schneller als eine R290x, darum wird es die Nano nicht einfach haben.
Man kann nur spekulieren, also abwarten überraschen lassen. ;)

nicht mit dem 390X Treiber ;-)

Mancko
2015-06-28, 10:52:50
Eine GTX970 ist in aktuellen Blockbustern schneller als eine R290x, darum wird es die Nano nicht einfach haben.
Man kann nur spekulieren, also abwarten überraschen lassen. ;)

Vor allem ist die 970 ein Salvage Part einer ohnehin für das Performance Segment vorgesehenen GPU. Das ist schlimm genug für AMD. Sagt eigentlich alles aus zu deren derzeitiger Lage. Nvidia lacht sich doch total kaputt.

Knuddelbearli
2015-06-28, 11:27:49
naja Gm204 400mm² sehe ich nicht wirklich als Performance Segment

GK104 hatte nichtmal 300mm²
GF104 330mm²

Mr.Y
2015-06-29, 12:51:54
Heyho,
einmal eine generelle Frage: Die neuen alten Karten von AMD sind ja leider wohl des Speichers wegen nicht so sparsam wie die neue Fury, wenn es um Dual-Monitoring geht. Gibt es da manuell die Moeglichkeit etwa durch Anpassung des Bios/Software noch ein wenig den Karren aus dem Dreck zu ziehen, denn den Nachteil sehe ich viel viel hoeher an, als die paar mehr Watt unter Vollast (einfach weil Vollast wesentlich seltener auftritt).

HOT
2015-06-29, 15:05:21
naja Gm204 400mm² sehe ich nicht wirklich als Performance Segment

GK104 hatte nichtmal 300mm²
GF104 330mm²
Die Größen passen sich an. Da ja ein Node übersprungen wurde, sind jetzt eben die neueren Chips größer. Wenn die 14nm-Serie kommt wird sogar Fiji in den Performancemarkt abrutschen, die sind nämlich noch teurer als die 600mm².
Tonga hat ja auch 350mm² und ist eindeutig Mainstream. Wobei ich denke, dass NV ein Problem hat, wenn standardmäßíg Win10 und UHD gebencht wird, da 1.) die NV-Karten doch stark an der Bandbreite hängen, sich 2.) durch die höhere Auflösung der Engpass von Tesslation/Geometriedurchsatz auf Rendering also Shaderpower verschiebt und 3.) AMD die Vorteile des wirklich neuen Treiberbranches 15.xxx ausspielen kann, der die Geometriedurchsätze nochmal deutlich vom 15.15 (14.xxx) anhebt und die CPU-Last auch unter DX11 senkt.
Das ist wahrscheinlich auch der Grund, warum es noch keine 370X und 380X gibt, die werden releast, wenn man in Benchmarks mit GTX960 und 970 gleichauf liegt aufgrund der 3 Faktoren. So kann man die beiden Hawaii-Karten hochpreisig halten, die 8GB sind ja auch recht kostspielig.

Vor allem Optimiert Nvidia noch an den Treibern die GTX 970 bekommt momentan einen schönen merkbaren boost dadurch ;)

Gegen Maxwell V2 mit dieser Treiber Optimierungsorgie die Nvidia hier angeht wird es jede Karte von AMD schwer haben ;)
NV hatte ja keinen Aufholbedarf bei der Treiberoptimierung, der 15.xxx von AMD zeigt aber, das dort der Bedarf riesig war. Die 970 lässt sich eigentlich nur fixen, wenn NV die 2. Partition mit den 500MB komplett deaktiviert oder eine v2 mit vollen 256Bit und 4GB rausbringt.

von Richthofen
2015-06-29, 16:48:07
Soweit ich weiss existieren derzeit keine vergleichenden Roundup-Reviews zur 390 und 390X.

MSI R9 390(X) Gaming 8G und Sapphire Radeon R9 390(X) Nitro/Tri-X OC Karten machen scheinbar in vielen 300er Serie Launch-Reviews eine gute Figur:

Man liest von hochwertigen Bauteilen, guter Kühlung, erträglicher Lautstärke, höherer Taktung und abschaltenden Lüftern (wobei ich selbst kein Anhänger davon bin).

Kann man aktuell (ohne vergleichender Reviews) Empfehlungen geben?

HOT
2015-06-29, 17:18:13
Die MSI sind recht hoch getaktet, der Kühler soll aber ausreichend dimensioniert sein. Die X ist offenbar aber nicht allzu leise, kein Wunder bei der hohen Taktung.
Die Sapphire scheint recht leise zu sein, bietet aber nicht die Taktraten der MSI.
Zudem ist bei MSI die Maxpower von 450 auf 500W hochgesetzt, also Augen auf beim Netzteilkauf. Bei der Sapphire ist alles wie bei den bisherigen Hawaiis.

von Richthofen
2015-06-29, 17:32:19
Der neue MSI-Kühler scheint, trotz nur 2er Propeller einen guten Job zu machen. Bisher waren hinsichtlich Kühlung und Lautstärke nur 3-Lüfter Designs erträglich. Zudem gibt es eine Backplate und ein neu designtes PCB-Layout.
Interessant ist die Sache mit der Maxpower - MSI verwendet 6+8 Pin, wohingegen Sapphire gleich 8+8Pin Stromanschlüsse verlötet (und dazu geringer taktet).

Ohne Reviews wird die Entscheidung teils zum Glücksspiel. Andererseits nervt Intel-Grafik gerade gewaltig.

Thunder99
2015-06-29, 17:47:23
Warte auf den Test von CB mit deren Roundup der 300er Karten. Seit sie eine Hörprobe ihrer Karten machen und anbieten hast du die beste Auswahl welches Geräusch Profil dir am besten zusagt.
Mit Sapphire machst du nichts falsch. Aber die MSI ist ein heißer Kandidat als gleich gute oder vergleichbare bzw bessere Karte im Gesamten abzuscheiden. Deren Kühler hat 100mm Durchmesseer was ja auch mehr ist als die 85er oder 90er der Nitro :)

Nach mir haben sie eins der besten Kühlungungen bzw Kühldesigns :)

HOT
2015-06-30, 11:35:11
Der neue MSI-Kühler scheint, trotz nur 2er Propeller einen guten Job zu machen. Bisher waren hinsichtlich Kühlung und Lautstärke nur 3-Lüfter Designs erträglich. Zudem gibt es eine Backplate und ein neu designtes PCB-Layout.
Interessant ist die Sache mit der Maxpower - MSI verwendet 6+8 Pin, wohingegen Sapphire gleich 8+8Pin Stromanschlüsse verlötet (und dazu geringer taktet).

Ohne Reviews wird die Entscheidung teils zum Glücksspiel. Andererseits nervt Intel-Grafik gerade gewaltig.
THG hatte das ja anhand der 295X2 untersucht und festgestellt, dass selbst die 6-Pin-Anschlüsse nicht wärmer werden als die Kabel. Somit gibt es da gar keine Schwachstelle. Wenn Sapphire 2x 8-Pin verbaut, hat das eher keine technischen Gründe.

Thunder99
2015-07-02, 12:00:30
Bemerkenswerter Speichertakt :eek: 1730MHz. Aber es kommt nur 7,2% an, ergo was ca. die GPU auch übertaktet ist (8%). Scheint so das Hawaii mit 2560 Shader kein Bandbreitenlimit hat sondern maximal die X

http://www.techpowerup.com/reviews/Powercolor/R9_390_PCS_Plus/33.html

Palpatin
2015-07-02, 12:47:26
Bemerkenswerter Speichertakt :eek: 1730MHz. Aber es kommt nur 7,2% an, ergo was ca. die GPU auch übertaktet ist (8%). Scheint so das Hawaii mit 2560 Shader kein Bandbreitenlimit hat sondern maximal die X

http://www.techpowerup.com/reviews/Powercolor/R9_390_PCS_Plus/33.html
Die hat 390x hat doch deutlich mehr Bandbreite als alles von Nvidia, warum sollte die Bandbreite da in irgendeiner Weise limitieren?

von Richthofen
2015-07-02, 12:49:08
Bei Guru3D hat man sich die Powercolor auch angesehen.
http://www.guru3d.com/articles_pages/powercolor_radeon_r9_390_pcs_8gb_review,26.html

Hier kommt man mit PT +50% und +100mV VDDC auf ein kräftigeres Taktplus für den Chip. Der Speicher geht nicht ganz so hoch. Mglw. gibt es da auch ein Wechselspielchen.

Allgemein scheint Temperatur und Lautstärke bei den neuen Designs kein allzustarker Kritikpunkt mehr zu sein.

fondness
2015-07-02, 12:52:28
Jap, finde ich auch sehr positiv, die meisten Hersteller haben ihre Kühllösungen deutlich optimiert.

Thunder99
2015-07-02, 13:13:37
Die hat 390x hat doch deutlich mehr Bandbreite als alles von Nvidia, warum sollte die Bandbreite da in irgendeiner Weise limitieren?
Die Tests haben gezeigt das Hawaii sehr wohl mit mehr Bandbreite skaliert. Sonst würden die Stock 1500MHz auch nicht so gut rein hauen, trotz verbesserten Treiber. Um es genau zu analysieren bedarf es aber einen grundlegenden Test. Was CB damals gemacht hat war etwas subotimal da ohne MSAA getestet wurde

HOT
2015-07-02, 13:20:54
Hm profitiert er von der Bandbreite oder der geringeren Latenz?

Nightspider
2015-07-02, 13:24:48
442GB/s :O

Das ist ja quasi so hoch wie Fiji mit HBM. :ugly:

horn 12
2015-07-02, 13:28:57
Wieviel schneller ist in etwa die MSI 390X mit ihren Standard 1100 Mhz gegenüber der Sapphire R9 290 Tri-X New Edition mit 1100 Mhz Core.
Sind es mit dem R9 390-er Treiberupdate um die 15%, oder doch weniger ?

Würde sich ein UPDATE lohnen, oder besser die Fury (X) nehmen?

mironicus
2015-07-02, 13:31:06
Warte lieber auf die Fury Pro.

Thunder99
2015-07-02, 14:24:50
Würde ich an deiner Stelle auch machen horn12. Was sie aus Hawaii noch herausholen ist beachtlich. Aber für einen Besitzer einer R9 290(X) rentiert sich erst ab Fiji Pro Geld zu investieren (u.A. wegen GCN 1.2 verbesserter Architektur)

Megamember
2015-07-02, 14:26:53
Wieviel schneller ist in etwa die MSI 390X mit ihren Standard 1100 Mhz gegenüber der Sapphire R9 290 Tri-X New Edition mit 1100 Mhz Core.
Sind es mit dem R9 390-er Treiberupdate um die 15%, oder doch weniger ?

Würde sich ein UPDATE lohnen, oder besser die Fury (X) nehmen?

Es lohnt sich nicht horn, das weisst du aber auch selbst.:rolleyes:

Mr. Krabs
2015-07-06, 23:51:33
Lohnt sich wirklich nicht.

N0Thing
2015-07-07, 00:09:48
Würde ich an deiner Stelle auch machen horn12. Was sie aus Hawaii noch herausholen ist beachtlich. Aber für einen Besitzer einer R9 290(X) rentiert sich erst ab Fiji Pro Geld zu investieren (u.A. wegen GCN 1.2 verbesserter Architektur)

Wenn man sich die Benchmarks anschaut, dann lohnt es sich scheinbar erst dann, wenn man mit seiner 290(x) einen 4K oder mindestens 1440p Monitor nutzt. Bei Full HD sehe ich keinen Grund, um von einer 290(x) auf eine Fury zu wechseln.
Von daher:
Wechsel von 290(x) auf 390(x): lohnt nicht
Wechsel von 290(x) auf Fury lohnt sich vielleicht ab eine 1440p Monitor
Wechsel von 290(x) auf Fury lohnt sich vielleicht für einen 4K-Monitor. (4GB Vram)

Botcruscher
2015-07-07, 08:41:03
Lausige 1/3 schneller bei 700€ muss jeder selber entscheiden.

Palpatin
2015-07-07, 08:52:19
Wenn einem 4GB VRam nicht reichen lohnt sich der Wechsel auf die 390X bzw auf eine 290X mit 8GB jetzt mal ohne Alternativen der Konkurrenz zu betrachten. Die es zummindest im Preissegment der 390X mit 8GB eh nicht gibt.

HOT
2015-07-07, 09:30:49
Bezüglich der 4GB:
http://ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/index13.php
auch ansonsten ein sehr empfehlenswerter Test.

fondness
2015-07-07, 09:43:19
ASUS STRIX 390X wohl auch bald lieferbar:
http://geizhals.eu/asus-strix-r9390x-dc3oc-8gd5-gaming-90yv08g0-m0na00-a1282538.html?hloc=at&hloc=de

Damit besteht die Hoffnung auf ein weiteres, gutes Design.

dildo4u
2015-07-07, 10:19:50
PCGH hat ein paar Eindrücke zur 390X von MSI im Heft,das Ding zieht 400 Watt für ein Core OC von 50mhz der absolute Witz.

M4xw0lf
2015-07-07, 10:21:05
PCGH hat ein paar Eindrücke zur 390X von MSI im Heft,das Ding zieht 400 Watt für ein Core OC von 50mhz der absolute Witz.
Ist das wieder ein supi-repräsentativer Furmark- oder Risen3-Wert?
Hab das Heft nach wie vor nicht.

dildo4u
2015-07-07, 10:28:21
Vermutlich Anno damit haben sie den Mindest Takt getestet,das wäre sogar noch mal 90 Watt über Fury X und 200 Watt über einer 980.Vielleicht kann Raff noch mal was dazu sagen steht nicht genau da welches Game.

Sven77
2015-07-07, 10:30:11
Ich bin da eigentlich schmerzfrei, aber für sowas kann man ja wohl keine Empfehlung aussprechen.

HOT
2015-07-07, 12:32:23
PCGH hat ein paar Eindrücke zur 390X von MSI im Heft,das Ding zieht 400 Watt für ein Core OC von 50mhz der absolute Witz.
MSI hats bei dem Teil aber auch echt übertrieben. Die Karten würde ich eher als Ausnahme sehen, mehr Maxpower, ungedeckelter Verbrauch, Temp-Limit bei 92°C. Ich hab jetzt noch keine andere 390 in der Hand gehabt, aber im Vergleich zu meiner 290 TriX ist die MSI ein (qualitativ allerdings sehr hochwertiger) ziemlicher Grenzgänger.

Palpatin
2015-07-07, 12:43:44
Ich bin da eigentlich schmerzfrei, aber für sowas kann man ja wohl keine Empfehlung aussprechen.
Der Grüne Ministerpräsident färbt halt ab. :D

fondness
2015-07-07, 13:18:39
MSI hats bei dem Teil aber auch echt übertrieben. Die Karten würde ich eher als Ausnahme sehen, mehr Maxpower, ungedeckelter Verbrauch, Temp-Limit bei 92°C. Ich hab jetzt noch keine andere 390 in der Hand gehabt, aber im Vergleich zu meiner 290 TriX ist die MSI ein (qualitativ allerdings sehr hochwertiger) ziemlicher Grenzgänger.

Die MSI hat mehrere BIOS-EInstellungen um auch weniger Verbrauch zu ermöglichen.

HOT
2015-07-07, 13:22:16
Die MSI hat mehrere BIOS-EInstellungen um auch weniger Verbrauch zu ermöglichen.
Richtig. Hab sie jetzt erst mal auf normal gelassen (1040). Ist keine X.

aufkrawall
2015-07-07, 15:53:25
Wie ist die Lüfterqualität?

Liquaron
2015-07-07, 16:02:57
Gibt es auch kurze 390er für mein Mini ITX?

Die Dinger sind soooooo lang^^

Ex3cut3r
2015-07-07, 16:08:39
PCGH hat ein paar Eindrücke zur 390X von MSI im Heft,das Ding zieht 400 Watt für ein Core OC von 50mhz der absolute Witz.

Das ist krass. :biggrin: 300 Watt wären meine Schmerzgrenze.

Und bevor wieder die Hater angerannt kommen, nein ich habe keine Problem mit dem Stromverbrauch, aber die 400 Watt wurden unnötig alles aufheizen. Die Menge muss auch erstmal abgeführt werden. Und von leise kann dann auch nicht mehr wirklich die Rede sein. Top 980Ti modelle (Inno3D iChill) kommen auf 1,8 - 2,0 Sone. Da kommt ein AMD Modell nicht mal ansatzweise hin. Deswegen, fällt bei mir, leider AMD komplett weg.

Das einzige wo AMD punkten könnte wäre der Preis, aber das ihre Karten nicht immer gleich "verramschen" wollen kann ich verstehen.

r3ptil3
2015-07-07, 16:30:49
Die Menge muss auch erstmal abgeführt werden. Und von leise kann dann auch nicht mehr wirklich die Rede sein. ehen.

http://hexus.net/media/uploaded/2015/6/a813a8ef-05f9-4831-b787-7b676f4488f9.png
http://cdn.eteknix.com/wp-content/uploads/2015/06/sound3.jpg
http://www.guru3d.com/index.php?ct=articles&action=file&id=16383&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Sven77
2015-07-07, 16:43:45
http://hexus.net/media/uploaded/2015/6/a813a8ef-05f9-4831-b787-7b676f4488f9.png
http://cdn.eteknix.com/wp-content/uploads/2015/06/sound3.jpg
http://www.guru3d.com/index.php?ct=articles&action=file&id=16383&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Aber das hebelt doch nicht die Physik aus.. die Wärme muss auch raus aus dem Gehäuse usw.

Raff
2015-07-07, 16:59:55
Das ist krass. :biggrin: 300 Watt wären meine Schmerzgrenze.

Und bevor wieder die Hater angerannt kommen, nein ich habe keine Problem mit dem Stromverbrauch, aber die 400 Watt wurden unnötig alles aufheizen. Die Menge muss auch erstmal abgeführt werden. Und von leise kann dann auch nicht mehr wirklich die Rede sein. Top 980Ti modelle (Inno3D iChill) kommen auf 1,8 - 2,0 Sone. Da kommt ein AMD Modell nicht mal ansatzweise hin. Deswegen, fällt bei mir, leider AMD komplett weg.

Das einzige wo AMD punkten könnte wäre der Preis, aber das ihre Karten nicht immer gleich "verramschen" wollen kann ich verstehen.

Für dich wird bald etwas Attraktives von AMD erscheinen.

MfG,
Raff

M4xw0lf
2015-07-07, 17:02:12
Für dich wird bald etwas Attraktives von AMD erscheinen.

MfG,
Raff
In-einer-Woche-bald oder in-einem-Monat-bald? :upara:

Ex3cut3r
2015-07-07, 17:03:49
Nicht, euer Ernst oder? Guru3D??? ich lach mich tot, kommt der nächste mit HardwareLuxx an oder was???
Was nutzt mir das wenn ich dort ein AMD custom modell gegen Referenz Design's getestet wird?

@Raff du kleiner Schlingel, du weißt schon wie du mich auf Trab hälst. :D ;)

iuno
2015-07-07, 17:05:55
Für dich wird bald etwas Attraktives von AMD erscheinen.

MfG,
Raff
:uban:

<300 Watt, leise, attraktiv (Preis) :O
Wenn daraus mal nicht wieder zu hohe Erwartungen resultieren :P

Raff
2015-07-07, 17:11:51
Preise sind flexibel, Hardwarespec nicht. ;) Dauert nicht mehr lange.

MfG,
Raff

M4xw0lf
2015-07-07, 17:16:07
Preise sind flexibel, Hardwarespec nicht. ;) Dauert nicht mehr lange.

MfG,
Raff
Ich erinnere mich aber an ein, zwei Fälle von geänderten Hardwarespecs in letzter Zeit. :freak:

r3ptil3
2015-07-08, 12:01:50
Aber das hebelt doch nicht die Physik aus.. die Wärme muss auch raus aus dem Gehäuse usw.

Das mag ja sein, aber die Kühlleistung ist überdurchschnittlich.
Etwas was mir an den R9 390er am besten gefällt, halt abgesehen vom katastrophalen Verbrauch.

raffa
2015-07-08, 16:11:57
Für dich wird bald etwas Attraktives von AMD erscheinen.

MfG,
Raff

http://sapphirenation.net/theclock/

Ziemlich bald, so wie es aussieht.

r3ptil3
2015-07-08, 16:22:12
Nicht, euer Ernst oder? Guru3D??? ich lach mich tot, kommt der nächste mit HardwareLuxx an oder was???
Was nutzt mir das wenn ich dort ein AMD custom modell gegen Referenz Design's getestet wird?


Bitte? Was ist an Guru3D schlecht?

Dann schau dir selber weitere Reviews an. Die R9 390er sind für ihren Verbrauch wirklich sehr gut gekühlt.

maximus_hertus
2015-07-08, 16:24:29
http://sapphirenation.net/theclock/

Ziemlich bald, so wie es aussieht.

Freitag um 14 Uhr?! Sehr ungewöhnlich...

-/\-CruNcher-/\-
2015-07-08, 16:33:36
http://sapphirenation.net/theclock/

Ziemlich bald, so wie es aussieht.

Das Kühlkonstrukt sieht Massiv aus :)

Vielleicht eine Full Passiv Fiji Karte ?

Macht irgendwie den Eindruck wie eine Fury X von den Main PCB Massen und einem seitlichen doughterboard anstelle der AIO Verbindung zum externen Radi oder ist das der Radi direkt daneben angebaut ?

maximus_hertus
2015-07-08, 16:40:03
Das Kühlkonstrukt sieht Massiv aus :)

Vielleicht eine Full Passiv Fiji Karte ?

Macht irgendwie den Eindruck wie eine Fury X von den Main PCB Massen und einem seitlichen doughterboard anstelle der AIO Verbindung ?

Eher http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed

dildo4u
2015-07-08, 16:40:18
Das Kühlkonstrukt sieht Massiv aus :)

Vielleicht eine Full Passiv Fiji Karte ?
Nein das ist diese Karte.

http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed

Wenn du 300Watt passiv abführen willst brauchste sowas.


http://www.pcgameshardware.de/Komplett-PC-Hardware-217554/News/Deltatronics-Silentium-X99-mit-Passivkuehlung-Test-1163963/

Ex3cut3r
2015-07-08, 16:53:11
Das mag ja sein, aber die Kühlleistung ist überdurchschnittlich.
Etwas was mir an den R9 390er am besten gefällt, halt abgesehen vom katastrophalen Verbrauch.

Ja, da magst du recht haben, trotzdem ist mir das zu laut (vmtl. 3,3 Sone) Es da gibts nichts vergleichbares von AMD, was meine Erwartungen erfüllt, außer vlt. die Fury X aber die fiept ja unerträglich.

-/\-CruNcher-/\-
2015-07-08, 17:01:01
Ah jo aber es sieht wirklich so aus als nutzt man das Fury X Board und erweitert nach hinten hinaus einfach nur mit Kühlung, es sieht wie ein eigener teil aus der lediglich die Kühlkonstruktion (Heatpipe) fest hält über das normale PCB hinaus ;)

Wenn Nvidias 3rd Parties das selbe mit Pascal und HBM machen wird es richtig nice :)

Man gewinnt ja eindeutig eine menge Platz für die (Heatpipe) Kühlungsfläche :)

Könnte man auch eine Nano in der Art releasen und das dann vieleicht eher Full Passiv :)

Denke aber mal die Spawas werden immer problematischer für ein Full Passiv Design wie früher bedingt vor allem bei Nvidia durch diese mega schnellen switch zeiten.

dargo
2015-07-14, 19:39:18
Kann man bei der MSI R9 390 (non X) Gaming 8G die Spannung im Afterburner senken? Afaik geht das nur bei Referenz-PCBs. Hat die MSI ein Referenz-PCB?

Seth
2015-07-14, 22:05:32
Core Voltage und Aux Voltage lassen sich sowohl erhöhen als auch absenken.
Ist ein komplett neues PCB.

Bei 2:04 wird es erwähnt. Ab 6:35 auch zu sehen.
RryaX3R9Vq0

dargo
2015-07-14, 22:45:51
Ich sehe gerade, dass du selbst die MSI R9 390 Gaming 8G bereits hast. Erzähl mal ein wenig was zum Kühler. Wie schnell drehen die Lüfter bei dir ohne OC bei ~20°C Raumtemperatur. Ok... letzteres dürfte ohne Klima aktuell etwas schwierig werden. :D

Seth
2015-07-14, 23:42:23
Ich habe mal 2 Durchgänge Heaven in 1080p laufen lassen.
Raumtemperatur ca. 22°C (ohne Klima ;)).
Gehäuse ist ein Corsair Carbide Air 540 mit 3x 14cm Lüfter um die 800 RPM.

Lüfter der Karte war die meiste Zeit bei 52%(ca. 1790 RPM).
Ist dabei als Rauschen natürlich wahrnehmbar, aber für mich nicht störend.

Im Idle hab ich ca. 50°C mit abgeschalteten Lüfter (gehen ab 60°C an).

Sag bescheid wenn du noch irgendwas wissen willst. :)

dargo
2015-07-15, 08:43:13
Autsch... knapp 1.900RPM sind schon ziemlich viel. Bei Mindfactory schreibt einer der hätte bei 25°C Zimmertemperatur bloß 1.400RPM. Ist die Streuung so groß oder war der im CPU-Limit? X-D Heaven ist auch nicht Worst Case, die Lüfter dürften bei dir durchaus noch je nach Spielszene und Settings etwas schneller drehen. Ich hatte gehofft, dass wenigstens die MSI schön leise ist. :( Was haut MSI da wieder für eine Spannung drauf wenn du schon bei Last 1,219V hast? 1,250V? Das dürfte der Hauptgrund für die hohe Verlustleistung und somit recht hohen Lüfterdrehzahlen sein.

Hast du schon Undervolting probiert? Was geht denn so bei 1040Mhz Minimum?

PS: Immerhin sind die VRMs schön kühl.

fondness
2015-07-15, 10:04:51
Interessant wäre vor allem auch, ob die Sapphire nicht doch nach wie vor ein Stück leiser/besser ist. Leider ist das unmöglich zu vergleichen ohne das jemand exakt dasselbe Gehäuse/Testsystem verwendet. Je nach Testsystem gibt es hier enorme Unterschiede wie schnell der Lüfter drehen muss.

StefanV
2015-07-15, 10:08:54
Naja, hängt auch viel vom Gehäuse ab, ob man die Karte frei laufen lässt oder nicht (VSync on/off) usw...

Ich persönlich spiele gerade mit 1080p bei nur 50Hz und VSync ON.
DAS macht die Karte schon 'nen bisserl leiser...

Allerdings scheint diese MSI Karte auch verdammt kühl zu bleiben. 74°C sind ja auch nicht soo besonders viel...

dargo
2015-07-15, 10:13:32
Naja, hängt auch viel vom Gehäuse ab, ob man die Karte frei laufen lässt oder nicht (VSync on/off) usw...

Ich persönlich spiele gerade mit 1080p bei nur 50Hz und VSync ON.
DAS macht die Karte schon 'nen bisserl leiser...

Lol... dann kannst du genauso das PT senken, kommt aufs selbe raus. ;) Temperaturen und Lüfterdrehzahlen interessieren mich nur ungedrosselt. ;)

Thunder99
2015-07-15, 11:53:14
Hawaii bleibt einfach schwierig leise zu kühlen. 250-3xx Watt müssen halt abgeführt werden. Schätze MSI hat eines evt sogar DAS beste 2 Fan Design. Aber Sapphire hat wohl wieder die Nase vorne durch ein nochmals verbesserten Kühler. Man braucht einfach viel Kühlfläche

Seth
2015-07-15, 15:29:09
Ich persönlich spiele gerade mit 1080p bei nur 50Hz und VSync ON.
DAS macht die Karte schon 'nen bisserl leiser...

Kommt natürlich auch aufs Spiel an ;-)
League of Legends mit vsync 60Hz läuft bei mir mit 63°C bei 12-16% Lüfterdrehzahl (um die 600-700RPM) also kurz vor passiv.
Bei The Witcher 3 wird es etwas mehr sein. ;)

Drei Modelle der Radeon R9 390X im Test (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35979-drei-modelle-der-radeon-r9-390x-im-test.html)

Sind zwar die 390X, aber die Karten/Kühler an sich sind ja die gleichen wie die non X.
Saphire ist etwas Kühler, aber auch Lauter als die MSI.

Undervolting habe ich noch nicht getestet, kann ich aber mal machen.
Sind 1,219V viel? Ist ja auch nur das maximum das immer nur kurz auftritt. Die meiste Zeit sind es 1,188V oder 1,195V in Heaven.
Hängt die Spannung nicht auch von der ASIC Qualität ab? Habe da 67,7%. :frown:

dargo
2015-07-15, 16:17:15
Sind 1,219V viel?
Nunja... für eine non X imo schon. Ich hätte da eher um die 1,15V erwartet. Wie gesagt teste mal wenn du Lust hast wie sich die Lüfterdrehzahlen mit weniger Spannung verhalten. Würde mich interessieren ob sich da viel tut. Teste auch wenns geht mit weniger PT. Einmal mit 90% und 80%. Fallen dabei die Taktraten stark unter die 1000Mhz? Und auch hier... wie wirkt sich das ganze auf die Lüfterdrehzahlen aus?

Seth
2015-07-15, 16:41:41
So habe nochmal mit -100mV Core getestet.
Spannung meiste Zeit bei 1,102V - 1,109V.
Lüfter bei 48% 1650-1700RPM und 72°C, allerdings bei jetzt ca. 24°C Raumtemperatur.
Verbrauch Gesamtsystem: idle 75W, Last 310-315W meiste Zeit.

Frage zum PT. Das hat doch erst Auswirkung wenn die Karte in das PT läuft und sich runtertaktet oder? Habe mal mit 0% und -20% getestet. Taktraten bleiben stabil und Temperaturen, Verbrauch usw ist alles relativ gleich.

Edit:
Nochmal mit -100mv -50%PT
GPU Clock: 950-975MHz, meistens 970MHz
Spannung meiste Zeit bei 1,016V - 1,063V.
Lüfter bei 36%, 1450-1475RPM und 68°C, ca. 24°C Raumtemperatur.
Verbrauch Gesamtsystem: idle 75W, Last um 280W
Werte schwanken jetzt natürlich etwas stärker.

dargo
2015-07-15, 17:04:14
Die 36% Lüfter klingen schon deutlich besser.

Könntest du noch 50% PT und 60% PT ohne Vcoresenkung probieren? Wie wirkt sich das auf die Lüfter und Taktraten aus. Und ist das immer noch Heaven?


Frage zum PT. Das hat doch erst Auswirkung wenn die Karte in das PT läuft und sich runtertaktet oder?

Jup. Sobald du das PT erreichst (afaik 275W bei der 390, oder sinds 250W?) taktet sich die Karte runter und entsprechend wird auch die Spannung reduziert.


Habe mal mit 0% und -20% getestet. Taktraten bleiben stabil und Temperaturen, Verbrauch usw ist alles relativ gleich.

Dann bist du noch weit vom PT entfernt. Entweder die Karte ist sparsamer als ich dachte oder du brauchst ein Spiel welches die Karte richtig fordert. ;)

Seth
2015-07-15, 17:24:03
Standard Spannung, -40%PT
GPU Clock: 950-984MHz, meistens 960MHz
Spannung meiste Zeit bei 1,109V - 1,156V.
Lüfter bei 48%, ~1700RPM und 71°C, ca. 24°C Raumtemperatur.
Verbrauch Gesamtsystem: idle 75W, Last 280-290W

Standard Spannung, -50%PT
GPU Clock: 830-880MHz, stark schwankend
Spannung meiste Zeit bei 1,078V - 1,109V.
Lüfter bei 36%, ~1450RPM und 69°C, ca. 24°C Raumtemperatur.
Verbrauch Gesamtsystem: idle 75W, Last 270-280W

Und ja, ist alles noch Heaven.

dargo
2015-07-15, 18:18:03
Hast du zufällig noch paar fordernde Spiele? Mir fällt spontan nichts ein was gut fordernd wäre. Heaven ist so ne Sache. Ich meine Watch Dogs und AC: U waren dafür gut geeignet. Natürlich ohne Vsync und am besten 1440p. Letzteres notfalls mit VSR.

Edit:
Lässt sich eigentlich die Lüfterkurve bei der MSI ändern? Mit Afteburner bsw.?

dildo4u
2015-07-15, 18:22:15
Witcher 3 ist sher fordernd er muss nur Hairworks abschalten damit der Tesselator nicht limitiert.

maguumo
2015-07-15, 18:24:03
Witcher 3 ist sher fordern er muss nur Hairworks abschalten damit der Tesselator nicht limitiert.
Oder tesselation in Treiber auf x16 limitieren...

Seth
2015-07-15, 18:43:12
Lüfterkurve lässt sich einstellen ja. Selbst 10% (600RPM) sind möglich.

Spiele kann ich später auch noch mal testen.
Watch Dogs, AC:U und The Witcher 3 habe ich alle.
Irgend eine bestimmte Stelle?

dargo
2015-07-15, 18:48:43
Spiele kann ich später auch noch mal testen.
Watch Dogs, AC:U und The Witcher 3 habe ich alle.
Irgend eine bestimmte Stelle?
Nicht wirklich. Hauptsache du hast genug GPU-Last. Ergo am besten 1440p nehmen, auch wenn du stellenweise in den 40-er FPS-Bereich fallen solltest.

horn 12
2015-07-15, 22:23:01
@Dargo
35% bei meiner Sapphire Tri-X New Edition sind 1520 U/ min und nicht störend
2050 Umdrehungen sind 38% und da läuft die Karte mit 1100 Mhz und jetzt um die 82-83 grad im Hochsommer!

von Richthofen
2015-07-16, 00:13:07
Drei Modelle der Radeon R9 390X im Test (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35979-drei-modelle-der-radeon-r9-390x-im-test.html)

Sind zwar die 390X, aber die Karten/Kühler an sich sind ja die gleichen wie die non X.
Saphire ist etwas Kühler, aber auch Lauter als die MSI.


Endlich. Der erste vergleichende Test.
Hoffentlich kann man von identischen Kühllösungen zur 390 sprechen. Nicht dass man den ein oder anderen Millimeter Heatpipedurchmesser einspart - oder gleich eine Ganze.

Die Entscheidung für eine der Karten wird durch den Test mMn kein Stück leichter. Man liegt eng beieinander. Auch wenn die Strix in den Kühl- und Laustärketests leicht hinten liegt, so kann man sie doch am höchsten takten (immerhin für Hawaii sehr hohe 1250 MHz) und diesen hält sie mit angepassten Drehzahlen dann auch; wie die Bechmarks beweisen.

Seth
2015-07-16, 01:25:18
@Dargo
35% bei meiner Sapphire Tri-X New Edition sind 1520 U/ min und nicht störend
2050 Umdrehungen sind 38% und da läuft die Karte mit 1100 Mhz und jetzt um die 82-83 grad im Hochsommer!

Ist aber eine 290. Ist der Kühler, Lüfter und das PCB samt verbauten Komponenten identisch zur 390 von Sapphire? Weil sonst schwer vergleichbar.

Auch wenn die Strix in den Kühl- und Laustärketests leicht hinten liegt, so kann man sie doch am höchsten takten (immerhin für Hawaii sehr hohe 1250 MHz) und diesen hält sie mit angepassten Drehzahlen dann auch; wie die Bechmarks beweisen.

Die Taktbarkeit ist Hauptsächlich von der Güte der jeweiligen GPU abhängig behaupte ich jetzt mal. ;)

fondness
2015-07-16, 09:10:23
Endlich. Der erste vergleichende Test.
Hoffentlich kann man von identischen Kühllösungen zur 390 sprechen. Nicht dass man den ein oder anderen Millimeter Heatpipedurchmesser einspart - oder gleich eine Ganze.

Die Entscheidung für eine der Karten wird durch den Test mMn kein Stück leichter. Man liegt eng beieinander. Auch wenn die Strix in den Kühl- und Laustärketests leicht hinten liegt, so kann man sie doch am höchsten takten (immerhin für Hawaii sehr hohe 1250 MHz) und diesen hält sie mit angepassten Drehzahlen dann auch; wie die Bechmarks beweisen.

Jedenfalls scheinen alle drei Modelle sehr guter Ergebnisse abzuliefern, das ist schon mal ein erheblicher Fortschritt zu den 290er-Karten, wo die meisten Lösungen gelinde gesagt suboptimal waren.

dargo
2015-07-16, 09:48:45
Die Entscheidung für eine der Karten wird durch den Test mMn kein Stück leichter. Man liegt eng beieinander. Auch wenn die Strix in den Kühl- und Laustärketests leicht hinten liegt, so kann man sie doch am höchsten takten (immerhin für Hawaii sehr hohe 1250 MHz) und diesen hält sie mit angepassten Drehzahlen dann auch; wie die Bechmarks beweisen.
Naja... 10°C Unterschied zwischen der Sapphire und Asus würde ich jetzt nicht leicht hinten bezeichnen. Die Sapphire ist zwar minimal lauter, das dürfte aber keine 10°C erklären.

fondness
2015-07-16, 09:50:07
Die MSI scheint aber die Nasenspitze vorne zu haben, kaum heißer, aber doch deutlich leiser. Wobei die Ergebnisse bei HWLUXX generell seltsam sind, alleine schon das dort die FuryX die leiseste Karte unter idle ist...

dargo
2015-07-16, 10:08:32
Die MSI scheint aber die Nasenspitze vorne zu haben, kaum heißer, aber doch deutlich leiser.

Wo siehst du da was von deutlich? :confused:


Wobei die Ergebnisse bei HWLUXX generell seltsam sind, alleine schon das dort die FuryX die leiseste Karte unter idle ist...
Das ist das was ich immer bei solchen Tests nervig finde. Bei den Lautstärkemessungen sollte man imho immer Sone und die Lüfterdrehzahlen mitaufnehmen. Perfekt wären noch Videoaufnahmen. Damit kann ich mehr anfangen als mit reinen dBA Angaben. Hochfrequente Geräuche nimmt das menschliche Ohr nunmal wesentlich nerviger wahr als tieffrequente. In den dBAs sieht man das nicht.

Raff
2015-07-16, 10:09:59
Ich rate im Hawaii-Kontext ganz klar zur MSI. Die mag fett sein, aber das gibt ihr unter Dauerlast "the edge". Und wer sie zu durstig findet, kann sie undervolten.

In den dBAs sieht man das nicht.

Dafür gibt's Sone. ;)

MfG,
Raff

fondness
2015-07-16, 10:12:09
Wo siehst du da was von deutlich? :confused:


dB ist ein logarithmisches Maß, 1dB leiser ist schon deutlich.

dargo
2015-07-16, 10:13:46
dB ist ein logarithmisches Maß, 1dB leiser ist schon deutlich.
Trotzdem nichtssagend wenn es unterschiedliche Frequenzen sind.

fondness
2015-07-16, 10:17:00
Das Problem mit den Frequenzen hast du bei jeder Lautstärkenmessung. Da beides axial-Lüfter sind, denke ich allerdings nicht, das sich die Frequenzen groß unterscheiden werden.

samm
2015-07-16, 10:18:35
dBA ist aber bereits über die Frequenzen gewichtet, dass es sich für die Bewertung "wie man hört" eignet (näherungsweise, weniger sinnvoll bei niedrigen Frequenzen oder hohen Pegeln).

1dB mag statistisch deutlich sein, aber nicht wirklich wahrnehmbar. Beispielsweise entsprechen 3dB technisch eine Verdoppelung (des Schalldrucks), vom Hören her ist das erst bei etwa 10dB der Fall (Lautstärke).

dargo
2015-07-16, 10:25:25
Das Problem mit den Frequenzen hast du bei jeder Lautstärkenmessung.
Deshalb ist es optimal wenn die Tester Videos veröffentlichen. Wie es zb. CB oder TH schon tun.

Seth
2015-07-16, 17:04:49
Ich rate im Hawaii-Kontext ganz klar zur MSI. Die mag fett sein, aber das gibt ihr unter Dauerlast "the edge". Und wer sie zu durstig findet, kann sie undervolten.



Dafür gibt's Sone. ;)

MfG,
Raff

Wo wir gerade von der MSI und undervolten sprechen.
Habe mal etwas in The Witcher 3 getestet.
Verbrauch habe ich auch mit angegeben. Zu beachten dabei ist das mein Netzteil 7-8 Jahre alt und nur 80Plus ist. 12V brechen bei Übertaktung auch sehr stark ein, wird Zeit für ein neues denke ich. ;)

Daten bei google docs (https://docs.google.com/spreadsheets/d/1Jwaf6LqCvSMc6oq8F29Z4FHXOlsd3oZTAKtzOw8Ukyc/edit#gid=0)

Zusätzlich habe ich noch bei Standard Takt und -100mv den Lüfter auf feste 35% (1400RPM) gesetzt und habe etwas gespielt. Bin nie über 75°C gekommen. Dabei ist die Karte wirklich kaum aus den Gehäuselüftern raus zu hören.

Thunder99
2015-07-16, 17:27:15
Wow, ich kann maximal auf -25mV gehen bevor mir die Karte abschmiert. Chipgüte hat sich echt verbessert :eek:

Lard
2015-07-16, 21:16:18
Wow, ich kann maximal auf -25mV gehen bevor mir die Karte abschmiert. Chipgüte hat sich echt verbessert :eek:Die 390 bekommt auch automatisch +50mV mehr.
Seths VID ist 1,175V +50mV sind 1,225V.
Hinzu kommt ein leichter Vdroop, abhängig von der Spannung und Temperatur.

Thunder99
2015-07-16, 21:36:51
Die 390 bekommt auch automatisch +50mV mehr.
Seths VID ist 1,175V +50mV sind 1,225V.
Hinzu kommt ein leichter Vdroop, abhängig von der Spannung und Temperatur.
Meine Vapor-X hat standardmäßig ein Offset von +25mV (ASIC 69,6%)

SchnitzelKaiser
2015-07-19, 06:34:51
Da es keinen Thread für die R9 390 gibt, frag ich mal hier.

Ich habe mich entschieden möglichst bald die R9 390 von MSI zu holen, ein paar Fragen:

1.) Wieviel OC Potenzial hat die MSI Version? (1200MHz?)
2.) Reicht die R9 390 aus um künftige Triple A Spiele (Battlefront) auf max. Details zu spielen mit MSAA u. DirectX 12 (i7 4790K)

Danke schon mal!

Lg SchnitzelKaiser

maguumo
2015-07-19, 06:50:43
1.) Wieviel OC Potenzial hat die MSI Version? (1200MHz?)
Glücksspiel, wie mit jedem Chip. Im Endeffekt setzt fast immer der Chip das Limit, und da kannst du von OC Wunder bis Krüppel alles bekommen. Meine 290 bekomme ich nur mit hängen und würgen über 1100MHz, die vom Kollegen rennt recht locker über 1200. Beide auf dem gleichen (Referenz) PCB.


2.) Reicht die R9 390 aus um künftige Triple A Spiele (Battlefront) auf max. Details zu spielen mit MSAA u. DirectX 12 (i7 4790K)

Glaskugel? Woher sollen wir das wissen... Die Battlefront Alpha die PCGH an getestet hatte (vielleicht 2 Wochen her) lief mit einer 290X und Ultra Settings mit >70FPS bei FHD, das taugt vielleicht als grober Richtwert. Was andere Games angeht, ohne Benchmarks kann man das nicht einschätzen.

dargo
2015-07-19, 09:41:32
Wo wir gerade von der MSI und undervolten sprechen.
Habe mal etwas in The Witcher 3 getestet.
Verbrauch habe ich auch mit angegeben. Zu beachten dabei ist das mein Netzteil 7-8 Jahre alt und nur 80Plus ist. 12V brechen bei Übertaktung auch sehr stark ein, wird Zeit für ein neues denke ich. ;)

Daten bei google docs (https://docs.google.com/spreadsheets/d/1Jwaf6LqCvSMc6oq8F29Z4FHXOlsd3oZTAKtzOw8Ukyc/edit#gid=0)

Zusätzlich habe ich noch bei Standard Takt und -100mv den Lüfter auf feste 35% (1400RPM) gesetzt und habe etwas gespielt. Bin nie über 75°C gekommen. Dabei ist die Karte wirklich kaum aus den Gehäuselüftern raus zu hören.
Danke für den Vergleich. :up:

Thunder99
2015-07-19, 12:29:02
Da es keinen Thread für die R9 390 gibt, frag ich mal hier.

Ich habe mich entschieden möglichst bald die R9 390 von MSI zu holen, ein paar Fragen:

1.) Wieviel OC Potenzial hat die MSI Version? (1200MHz?)
2.) Reicht die R9 390 aus um künftige Triple A Spiele (Battlefront) auf max. Details zu spielen mit MSAA u. DirectX 12 (i7 4790K)

Danke schon mal!

Lg SchnitzelKaiser
Schwer zu sagen aber sollte gehen. 4k hält weniger aber ansonsten sind die Karten ja noch Top

HOT
2015-07-19, 14:18:49
Die MSI hat jedenfalls keine nervigen Frequenzen, wenn die unter Volllast läuft, hab neulich eine 390 in einem suboptimalen Gehäuse getestet.
Die Karte riegelt bei 92°C ab übrigens. Gefällt mir ausgesprochen gut das Teil.

Raff
2015-07-19, 14:45:36
Da es keinen Thread für die R9 390 gibt, frag ich mal hier.

Ich habe mich entschieden möglichst bald die R9 390 von MSI zu holen, ein paar Fragen:

1.) Wieviel OC Potenzial hat die MSI Version? (1200MHz?)
2.) Reicht die R9 390 aus um künftige Triple A Spiele (Battlefront) auf max. Details zu spielen mit MSAA u. DirectX 12 (i7 4790K)

Danke schon mal!

Lg SchnitzelKaiser

Vergiss die 1.200 am besten schnell. Viele Hawaii-Chips scheitern schon an 1.150 MHz – es sei denn, man setzt sie unter Wasser und maximiert die Spannung. Wenn eine R9 390 rund 1.100 MHz rockstable packt, ist das schon ordentlich und entspricht der Leistung einer 390X.

MfG,
Raff

Flusher
2015-07-19, 15:27:57
Wie skalieren die 390er eigentlich mit RAM-OC? Schlägt sich das überhaupt in FPS nieder? Die Bandbreite sollte ja für Hawaii, vollkommen ausreichend sein.

Thunder99
2015-07-19, 16:18:27
Denke mal bei der 290(X) hat es eher mal positiv bemerkbar gemacht. 390(x) haben ja schon von sich aus einen sehr hohen RAM Takt. Erwarte daher noch weniger messbare oder spürbare Verbesserung der fps als bei der 290er Serie

Seth
2015-07-19, 18:48:09
Die MSI hat jedenfalls keine nervigen Frequenzen, wenn die unter Volllast läuft, hab neulich eine 390 in einem suboptimalen Gehäuse getestet.
Die Karte riegelt bei 92°C ab übrigens. Gefällt mir ausgesprochen gut das Teil.

Ja die Lüfter sind echt angenehm, kann ich bestätigen. Andere Geräusche (Spulenfiepen) gibt die Karte auch nicht von sich. Auf die 92°C komme ich aber zum glück selbst mit 1150/1600MHz +100mV Core nicht annähernd. ;)
Hier noch mal der Link (https://docs.google.com/spreadsheets/d/1Jwaf6LqCvSMc6oq8F29Z4FHXOlsd3oZTAKtzOw8Ukyc/edit#gid=0)zu meinem kleinen Test in The Witcher 3.

Was zur Übertaktbarkeit.
Ohne Spannungserhöhung gehen 1110/1600MHz.
Für 1150MHz langen +50mV nicht aus und es gibt gelegentlich Bildfehler. Mit +75mV geht es.
Bei 1175MHz gibt es selbst mit +100mV Bildfehler.
Genauer habe ich das noch nicht ausgelotet.
Ist wie gesagt reine Glückssache wie gut die jeweilige GPU ist.

dargo
2015-07-23, 22:06:46
Gibts bis heute echt noch keine Tests der Gigabyte Radeon R9 390 WindForce 2X, 8GB?
http://geizhals.de/gigabyte-radeon-r9-390-windforce-2x-gv-r939wf2-8gd-a1296896.html?hloc=de

Unglaublich. :freak:

gedi
2015-07-23, 22:16:20
390x und Performanceprobleme in Project Cars - öhm (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36144-evga-geforce-gtx-980-ti-kingpin-im-test.html?start=15)???

dargo
2015-07-23, 22:19:38
Löl... was ist denn da los? :| Hat AMD jetzt schon in pCars dermaßen aufgeholt? :eek:

Kartenlehrling
2015-07-23, 22:31:53
Das sind Benchmark die nicht mal das "Papier" wert sind wo drauf sie gedruck sind.
Wenn sie nichtmal mit der gleichen Treiber testen, dann stimmt der Patchstand von Spiele auch nicht.

Grafikkarten
NVIDIA EVGA GTX 980 Ti KINGPIN 6GB @ 1550 / 2021 (GeForce 353.30)
NVIDIA GeForce GTX Titan X 12GB (GeForce 352.90)
NVIDIA GeForce GTX 980 Ti 6GB (GeForce 352.90)
NVIDIA GeForce GTX 980 (GeForce 352.90)
AMD AMD Radeon R9 290X 4GB (Catalyst 15.4 Beta 9. April)
Sapphire Tri-X R9 390X 8GB (Catalyst 15.150.0.0 Beta)

dargo
2015-07-23, 22:33:56
Das ändert nichts an der Tatsache, dass die Treiber und somit auch die Spielversion ziemlich aktuell auf Seite der 980TI Kingpin und 390X sind.

gedi
2015-07-23, 22:36:05
Ich halte den Test auch für Unfug - allerdings hat sich von den 352 zu 353-Treibern performancewise nicht so viel getan. Im Vergleich zur 290x mehr als doppelt so schnell - das nenne ich mal Treiberpflege :)

Afair gab es allerdings bereits mal einen ähnlichen Sprung. Ich meine es war Shift1

Kartenlehrling
2015-07-23, 22:42:08
HT4u hat sich dem Treiber ja auch angenommen, leider oder gottseidank haben sie pCar nicht geteste, aber zb. gtaV sind es unter 1080p gleich mal 6fps und wir reden nicht von >60fps .

http://ht4u.net/reviews/2015/amd_radeon_catalyst_treiber_15_5b_r_200_grafikkarten/
Mehr Leistung durch Catalyst Beta-Treiber?

Birdman
2015-07-23, 22:44:28
Im Vergleich zur 290x mehr als doppelt so schnell - das nenne ich mal Treiberpflege :)
Kann man auch Kundenverarsche nennen, wenn man eine 290x sein Eigen nennt.

gedi
2015-07-23, 22:48:36
Erstens wurden 290x und 390x nicht mit gleichem Treiber getestet und zweitens hoffe ich doch, dass manche den ironischen "Unterton" bemerkt haben.

dargo
2015-07-23, 22:49:37
Kann man auch Kundenverarsche nennen, wenn man eine 290x sein Eigen nennt.
Und wie kommst du drauf? Es ist doch klar, dass die R9 290X mit dem gleichen Treiber auch deutlich zulegen wird wenn die Ergebnisse der R9 390X stimmen.

maguumo
2015-07-23, 22:50:03
Kann man auch Kundenverarsche nennen, wenn man eine 290x sein Eigen nennt.
Nein, mit der kann man ja den gleichen Treiber verwenden. Macht hardwareluxx anscheinend nur nicht, dann könnte man für die Karte nicht so schön alte Ergebnisse recyceln.

gedi
2015-07-23, 22:56:01
Also wenn dem jetzt wirklich so sein sollte, dass Hawaii eine TX in Project Cars zersägt, dann kicke ich morgen meine Ti in den Müll. Es sollte imo klar sein, dass in dem Test gehörig etwas schief gelaufen ist.

maguumo
2015-07-23, 23:06:41
EDIT: Hier stand Mist, hatte nur auf die FHD Benchmarks geschaut...

Isen
2015-07-23, 23:29:53
Welches Setting verwendet HW denn genau, alles auf Anschlag?
Würde es dann mal selbst gegentesten, hab in etwa die selbe Hardware, könnte auch CF testen.

Letzte boost war vor ca 2 Wochen, danach hab ich nicht mehr geschaut.

gedi
2015-07-23, 23:31:05
Hoch

Isen
2015-07-23, 23:34:27
Regen, Fahrzeuge? ...

gedi
2015-07-23, 23:43:33
keine Angabe. Mach halt mal 20 Fahrzeuge und ohne Regen.

dildo4u
2015-07-23, 23:50:16
Da wurde Mist gebencht Techreport hat zumindest Fury mit 15.7 gebencht Ergebnisse sind wie immer.

Catalyst 15.7, that is actually a little fresher than the Cat 15.15 drivers used for the 390/X and Fury X. (Cat 15.7's internal AMD revision number is 15.20.) We weren't able to re-test all of the Radeons with the new driver, but we did test the R9 Fury with it.


http://techreport.com/review/28612/asus-strix-radeon-r9-fury-graphics-card-reviewed/3


Das einzige was es noch erklären könnte der Hardwareluxx Test ist ohne Gegner.Halt komplett unprofessionell nicht genau zu erklären was genau gebencht wird.

gedi
2015-07-23, 23:52:59
Luxx bencht nicht im Ultra-Setting

Isen
2015-07-23, 23:55:03
Kam ja vor kurzem noch nen Patch.
Kann ich ja nachvollziehen gleich.

Isen
2015-07-24, 04:50:10
keine Angabe. Mach halt mal 20 Fahrzeuge und ohne Regen.



Project Cars schmierte auf einmal jedesmal beim Laden ab... ätzend.
Also neu installiert und gleich mit der Stock Version eine komplette Runde auf der Nordschleife gezogen und im Anschluss ein 3 Runden Rennen und mit Fraps gebencht. Kein OC alles Stock.

Anhand der Werte vom Luxx sind das alles Solo-Rennen Benches ( Meine Solo .Min-Fps sind in etwa die selben daher Vermute ich das einfach mal ).

Project Cars v1.0 (Stock) @HIGH | Cat. 15.7 | 290x @Stock | 2560x1080

Solo Nordschleife: Avg: 91.831 - Min: 78 - Max: 111

Rennen Dubai Autodrome 3 Runden 20 Fahrzeuge: Avg: 59.338 - Min: 39 - Max: 85


Project Cars v1.4 @HIGH | Cat. 15.7 | 290x @Stock | 2560x1080

Solo Nordschleife: Avg: 95.955 - Min: 84 - Max: 125

Rennen Dubai Autodrome 3 Runden 20 Fahrzeuge: Avg: 63.360 - Min: 37 - Max: 93


Project Cars v2.0 @HIGH | Cat. 15.7 | 290x @Stock | 2560x1080

Solo Nordschleife: Avg: 90.080 - Min: 78 - Max: 108

Rennen Dubai Autodrome 3 Runden 20 Fahrzeuge: Avg: 68.162 - Min: 39 - Max: 99


Project Cars v2.5 @HIGH | Cat. 15.7 | 290x @Stock | 2560x1080

Solo Nordschleife: Avg: 90.076 - Min: 73 - Max: 105

Rennen Dubai Autodrome 3 Runden 20 Fahrzeuge: Avg: 67.399 - Min: 38 - Max: 98


Project Cars v2.5 @HIGH | Cat. 15.7 | 290x @Stock | 2560x1600

Solo Nordschleife: Avg: 78.089 - Min: 67 - Max: 94

Rennen Dubai Autodrome 3 Runden 20 Fahrzeuge: Avg: 67.149 - Min: 40 - Max: 94


Project Cars v2.5 @ULTRA | Cat. 15.7 | 290x @Stock | 2560x1080

Circuit de Spa-Francorchamps 3 Runden 20 Fahrzeuge:: Avg: 43.033 - Min: 23 - Max: 59


Project Cars v2.5 @ULTRA | Cat. 15.7 | 290x @Stock | 2560x1600

Genauso wie bei Techreport nur hier eben mit 2560x1600

Circuit de Spa-Francorchamps 3 Runden 20 Fahrzeuge: Avg: 43.431 - Min: 28 - Max: 52

Auch kein bock mehr... die Luxx Benches sind insofern soweit korrekt, nur eben Solo-Rennen.


Kam ja vor kurzem noch nen Patch.
Kann ich ja nachvollziehen gleich.

ab Patch 2.0 läuft es schlechter als v1.4... v2.5 hat daran nichts geändert.

dargo
2015-07-24, 07:19:58
Das einzige was es noch erklären könnte der Hardwareluxx Test ist ohne Gegner.Halt komplett unprofessionell nicht genau zu erklären was genau gebencht wird.
Wieso ist es unprofessionell ein Spiel im GPU-Limit zu benchen wenn man Grafikkarten bencht? :| Achja, ich vergass... es ist unprofessionell weil plötzlich eine R9 390X die 980/980TI und Titan X schlecht darstehen lässt und sich sogar mit einer stark übertakteten 980TI Kingpin anlegt. :ulol:

Luxx bencht nicht im Ultra-Setting
Schon klar. :)

Hoch, also eher PS4/XBox One Settings bzw. etwas drüber. Dann muss da aber was bei den Ultra Settings sein, dass den AMDs nicht so gut schmeckt. Anders kann ich mir die sehr guten Ergebnisse von Grenada nicht erklären. Ähnliches gibts ja auch schon bei Assetto Corsa. Eins bis zwei Settings killen @Ultra völlig die Performance.

dildo4u
2015-07-24, 11:24:42
Es ist genau so die Aufgabe der Karte das sie massen an Polygonen darzustellen hat ohne einzuknicken.Wäre man im CPU Limit würde es bei Techreport ja kein Unterschied zwischen dem AMD's und den Nvidia Karten geben.

Pirx
2015-07-24, 11:59:32
Um welche Masse an Polygonen handelt es sich denn?

Digidi
2015-07-24, 12:17:33
@Dildo4u

Wen Dan hat dear Entwickler bei den Polygonen gepennt und kein richtiges culling integrier und die Polygonen sind viel kleiner geworden als ein Pixel oder es werden auch die nicht sichtbaren Polygonen hinter einem Objekt mitgerechnet. Selbst wenn alle Polygonen so groß sind wie ein Pixel Haut die 290x noch 2.1 gigateiangl/s raus. Wenn jedes Polygon so groß ist wie ein Pixel wären das immer noch 230fps

Um mal die Rechnung genauer zu machen ein Rasterizer von AMD kann bei einem Polygon was so groß ist wie ein Pixel, 1 pixel pro Takt raushauen bei 1050Mhz sind das 1.050.000.000 Pixl pro Rasterizer. Die 290x hat 4 davon. Also kann sie 4.200.000.000 Pixel pro Sekunde raus hauen. Jetzt halbieren wir noch die Effizienz sind wir bei ca 2.100.000.000 Pixel. Das teilen wie durch die UHD Auflösung. Und siehe da wir kommen irgendwo bei 200 fps raus

Hier nachzulesen auf Seite 60-65
http://de.slideshare.net/mobile/DevCentralAMD/gs4106-the-amd-gcn-architecture-a-crash-course-by-layla-mah

dargo
2015-07-24, 12:34:23
Es ist genau so die Aufgabe der Karte das sie massen an Polygonen darzustellen hat ohne einzuknicken.Wäre man im CPU Limit würde es bei Techreport ja kein Unterschied zwischen dem AMD's und den Nvidia Karten geben.
Das mit dem CPU-Limit ist doch eh bald Geschichte. Mit DX12 werden beide IHVs in etwa gleichauf liegen. Schon unter DX11 rückt AMD immer näher an NV mit den neuesten Treibern. Hier fehlt aktuell nur noch ein Bench unter Windows 10 (DX11).

@Dildo4u

Wen Dan hat dear Entwickler bei den Polygonen gepennt und kein richtiges culling integrier und die Polygonen sind viel kleiner geworden als ein Pixel oder es werden auch die nicht sichtbaren Polygonen hinter einem Objekt mitgerechnet. Selbst wenn alle Polygonen so groß sind wie ein Pixel Haut die 290x noch 2.1 gigateiangl/s raus. Wenn jedes Polygon so groß ist wie ein Pixel wären das immer noch 230fps

Um mal die Rechnung genauer zu machen ein Rasterizer von AMD kann bei einem Polygon was so groß ist wie ein Pixel, 1 pixel pro Takt raushauen bei 1050Mhz sind das 1.050.000.000 Pixl pro Rasterizer. Die 290x hat 4 davon. Also kann sie 4.200.000.000 Pixel pro Sekunde raus hauen. Jetzt halbieren wir noch die Effizienz sind wir bei ca 2.100.000.000 Pixel. Das teilen wie durch die UHD Auflösung. Und siehe da wir kommen irgendwo bei 200 fps raus

Hier nachzulesen auf Seite 60-65
http://de.slideshare.net/mobile/DevCentralAMD/gs4106-the-amd-gcn-architecture-a-crash-course-by-layla-mah
Ich finde es eh schade, dass die PCGH & Co immer nur mit max. Details benchen. Ich würde mir zumindest zwei Presets wünschen (bsw. Ultra und High). Dann könnte man viel eher völlig ineffiziente Settings ausfindig machen. Es ist schon interessant, dass mit Konsolensettings (oder zumindest mit @High näher dran als @Ultra) plötzlich Grenada selbst einer stark übertakteter GTX980TI gefährlich wird. Hätte ich das Game und ne entsprechende Graka aktuell hätte ich schon lange den/die "Übeltäter" ausfindig gemacht.

Edit:
Man sieht hier auch ganz gut, dass NV bei den min.fps @1050p nur noch 18% vorne liegt.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36144-evga-geforce-gtx-980-ti-kingpin-im-test.html?start=12

Und wenn ich die einzelnen Maxwellwerte so sehe deutet das auf starkes CPU-Limit hin. Bitte bedenken, dass das noch nicht die neuesten Treiber und kein Windows 10 sind. Da ist also noch etwas Luft nach oben.

fondness
2015-07-24, 12:48:38
Das deutet mal wieder darauf hin, das die PC-Features fleißig auf NV optimiert wurden.

Isen
2015-07-24, 12:49:04
Hätte ich das Game und ne entsprechende Graka aktuell hätte ich schon lange den/die "Übeltäter" ausfindig gemacht.



Kann ich nachher machen. Nach und nach einzeln auf Ultra, jedes mit einzel Bench?

fondness
2015-07-24, 12:49:17
Gibts bis heute echt noch keine Tests der Gigabyte Radeon R9 390 WindForce 2X, 8GB?
http://geizhals.de/gigabyte-radeon-r9-390-windforce-2x-gv-r939wf2-8gd-a1296896.html?hloc=de

Unglaublich. :freak:

Warum testest du sie nicht einfach selbst? Gibt eh 14 Tage Rückgaberecht^^
Aber vermutlich ist man mit MSI oder Sapphire besser dran.

Digidi
2015-07-24, 12:49:37
AMD hat Probleme mit den dran calls das sieht man auch hier ganz deutlich!

http://www.golem.de/news/grafikkarte-auch-fury-x-rechnet-mit-der-mantle-schnittstelle-flotter-1507-115005.html

Man beachte die geringe Auflösung ! Wenn der Rasterizer am Ende wäre wären nicht Steigerungen zwischen 15-50% drinnen. Und Mantel ist noch nichtmal auf die Eigenheiten von Fury optimiert.

dargo
2015-07-24, 12:55:40
Warum testest du sie nicht einfach selbst? Gibt eh 14 Tage Rückgaberecht^^
Weil ich dazu im Sommer nicht wirklich Lust habe und eh gleich auf Windows 10 gehen möchte. Zudem werde ich mit der zukünftigen Graka gleich zusammen einen Freesync Bildschirm kaufen um die Kombination zu testen. Und im Moment möchte ich auch noch die R9 Nano abwarten, erst dann werde ich meine Kaufentscheidung endgültig treffen. Achja... pCars habe ich auch noch nicht. Nur um mal bissel rumzutesten sehe ich nicht ein für diese "Baustelle" noch um die 30€ zu investieren. Ich denke mal Herbst/Winter werde ich zuschlagen. :)

dargo
2015-07-24, 12:57:08
Das deutet mal wieder darauf hin, das die PC-Features fleißig auf NV optimiert wurden.
Na... wir wollen nicht gleich übertreiben. Wie gesagt... es kann sein, dass nur eins bis zwei Settings GCN extrem ausbremsen. Das muss man aber penibel untersuchen. Und leider ist keine Redaktion dazu bereit.

MartinRiggs
2015-07-24, 12:57:43
Das Problem ist das die ganze Bencherei der Redaktionen mehr oder minder für den Sack sind, ohne sie jetzt alle verteufeln zu wollen.
- teilweise unterschiedliche Treiber
- UHD mit dick AA
- max. Details auf Teufel komm raus.
- usw.....

Ich lese die PCGH gerne(jahaaaa im Abo!), aber das geht mir schon lange auf den Sack, man schlägt die Zeitung auf, liest nen Bench und denkt wieder uhhhh, das wird bei mir aber beschissen laufen.
Bei Online-Benches ist es oft nicht anders, hat also nix nur mit PCGH zu tun.

Nehme ich auf meinem gammeligen Kepler dann aber 1-2 Settings etwas runter läuft das Game selbst mit Downsampling fast immer wie Butter.
GTA 5 ist auch ein Beispiel, der Standard-Bench(alles max) killt jede Karte, dreht man das dämliche Gras runter fluppt das Game wie nix selbst auf älterer Hardware.
Im Text stehen dann solche Sachen fast schon als Randnotiz.

Ich möchte aber mit dem Redaktionen auch nicht tauschen, weil egal wie man es macht, irgendjemand hat immer was dran zu nöhlen, es gibt halt auch nicht DIE Wahrheit, auch wenn die Fanboys immer alles so drehen wie sie es grade brauchen.
Ich für meinen Teil teste daher immer alles selbst und mach mir mein eigenes Bild und das würde ich einigen auch mal empfehlen.

dargo
2015-07-24, 13:00:19
AMD hat Probleme mit den dran calls das sieht man auch hier ganz deutlich!

http://www.golem.de/news/grafikkarte-auch-fury-x-rechnet-mit-der-mantle-schnittstelle-flotter-1507-115005.html

Man beachte die geringe Auflösung !
Ich weiß ja nicht auf welchem Stand der Test von Golem ist. Die Draw Calls unter DX11 werden aber bei AMD kontinuierlich verbessert. Siehe entsprechende Threads im Forum von Guru3d. Der letzte Treiber müsste der 1055 sein, der unter Windows 10 am meisten Draw Calls raushaut.

Flusher
2015-07-24, 13:06:30
HT4U hat seinen Test zur 390X veröffentlicht

http://ht4u.net/news/31286_amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/

390X ca. 10 % schneller als 290X 4 GB

Isen
2015-07-24, 13:10:49
Kannst du im Grunde ignorieren, bei denen mit OC selbe Takte bei der 290x gefahren werden können. Lightning mit Samsungspeicher macht sogar im Memory takt mehr mit als die 390x

dargo
2015-07-24, 13:13:22
GTA 5 ist auch ein Beispiel, der Standard-Bench(alles max) killt jede Karte, dreht man das dämliche Gras runter fluppt das Game wie nix selbst auf älterer Hardware.
Im Text stehen dann solche Sachen fast schon als Randnotiz.

Ja... das ist das typische Beispiel für völlig ineffiziente Nutzung der schnelleren PC-Hardware wenn die Konsole die Assets vorgibt. Dann wird für den PC der einfachste Weg genommen und noch was über LoD dran geklatscht ohne nachzudenken. Aber immerhin sind die Settings in GTA V nahezu stufenlos. Von daher kann sich jeder da seinen Sweet Spot selbst finden. Irgendwie muss man ja auch die Enthusiasten beruhigen. :tongue:

dildo4u
2015-07-24, 13:35:24
HT4U hat seinen Test zur 390X veröffentlicht

http://ht4u.net/news/31286_amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/

390X ca. 10 % schneller als 290X 4 GB
Nvidia wurde wieder mit veralteten Treiber gebencht.

353.30 ist über ein Monat alt.

http://www.geforce.com/drivers/results/86504

15.7 wurde gebencht und kam im Juli. :rolleyes:

fondness
2015-07-24, 13:56:16
Das ist nunmal der letzte offizielle Treiber von NV, nicht die Schuld von HT4U. Zumal ein Monat nicht wirklich alt ist.

dildo4u
2015-07-24, 14:05:45
Hä der 353.30 ist offizieller WHQL vom 22.6 und wurde nicht getestet.Der 15.7 ist vom 8.7 und wurde getestet.Zum Glück sind diese Mauschelein jetzt Geschichte unter Win 10 kommen die Treiber per Window Update,hab in einer Woche schon 2 Treiber per Update bekommen.

StefanV
2015-07-24, 14:09:42
Zum Glück sind diese Mauschelein jetzt Geschichte unter Win 10 kommen die Treiber per Window Update,hab in einer Woche schon 2 Treiber per Update bekommen.
Hä?!
Das ist doch schon bei Windows 7 und 8(.1) so?!

dildo4u
2015-07-24, 14:11:55
Dort sind es keine Zwangsupdates hätte er mit Win 10 getestet hätte er neuere Treiber gehabt.

derF
2015-07-24, 14:16:59
Dort sind es keine. Zwangsupdates hätte er mit Win 10 getestet. hätte er ein Fahrrad und neuere Treiber gehabt, dann Kette.
Hab die Wortansammlung mal zu Sätzen repariert. :freak:

fondness
2015-07-24, 14:42:06
/Edit: Okay dildo falsch interpretiert, ich dachte es wurde mit dem 353.30 getestet.

dildo4u
2015-07-24, 14:44:11
Du hast mein Post falsch verstanden es wurde ein noch älterer als der 353.30 genutzt.


http://ht4u.net/reviews/2015/amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/index4.php

Schaffe89
2015-07-24, 15:39:07
HT4U hat seinen Test zur 390X veröffentlicht

http://ht4u.net/news/31286_amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/

390X ca. 10 % schneller als 290X 4 GB

Schau dir mal an was HT4U in Wolfenstein New Order und in Metro Last Light Redux misst, dort ist Nvidia fast doppelt so schnell.;D
Das ist wohl auch der Grund dafür, warum die 780 Ti soweit vorne ist.

Ich kenne diese Spiele aus dem FF und habe die mit Titan X und Fury X, sowie r9 290x gezockt und dort war die Performance anfangs auf AMD, zumindest in Wolfenstein erheblich besser, in Metro in etwa gleich.

Das ist auch jetzt noch so, verstehe wer will.

http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/4/#diagramm-metro-last-light-redux-1920-1080

Bei CB ausgeglichene Performance.

-/\-CruNcher-/\-
2015-07-24, 15:43:50
Ich halte den Test auch für Unfug - allerdings hat sich von den 352 zu 353-Treibern performancewise nicht so viel getan. Im Vergleich zur 290x mehr als doppelt so schnell - das nenne ich mal Treiberpflege :)

Afair gab es allerdings bereits mal einen ähnlichen Sprung. Ich meine es war Shift1

Da liegst du aber falsch der release treiber der GTX 980TI brachte nochmal einen ordentlichen Schwung für Maxwell (GM204/GM200) bis runter zu WDDM 1.1 spürbar vor allem bei der DSR Performance :)

Alle features des damaligen GTX 980TI Release treibers sind im 353.30 enhthalten, wenn man vergleicht sollte man alle Maxwell V2 zumindestens mit dem selben treiber vergleichen alte Charts sollte man generel über Board werfen und neue anfertigen, wer das nicht macht ist eh unseriös und nimmt seinen Job nicht ernst genug ;)

Thunder99
2015-07-24, 16:35:50
Dennoch schöner Test (dank des direkten Grafikkartenvergleichs) welcher zeigt, das ein Speicher "OC" bei Hawaii doch was bringt bzw die Karte damit skaliert.

Flusher
2015-07-25, 16:00:54
Dennoch schöner Test (dank des direkten Grafikkartenvergleichs) welcher zeigt, das ein Speicher "OC" bei Hawaii doch was bringt bzw die Karte damit skaliert.

Also Speicher-OC wurde ja nicht explizit getestet oder habe ich etwas übersehen? Es wurde immer die Kombination von höherem Chiptakt + Speichertakt gemessen.

Thunder99
2015-07-25, 19:36:38
Also Speicher-OC wurde ja nicht explizit getestet oder habe ich etwas übersehen? Es wurde immer die Kombination von höherem Chiptakt + Speichertakt gemessen.
1000/1250 @ 390x vs Standard, gut 50MHz mehr auf Chip welche aber nicht 10% bringen sondern eher der Speicher

dargo
2015-07-26, 18:32:06
Manno... bei MF wurden über 60 Stück davon verkauft und kein Hans schreibt was zum Kühler. :mad:
http://www.mindfactory.de/product_info.php/8192MB-Gigabyte-Radeon-R9-390-G1-Gaming-Aktiv-PCIe-3-0-x16--Retail-_1006608.html

Reklamationsquote liegt auch bei 0%. Also alle Käufer zufrieden oder hart im Nehmen? :D

fondness
2015-07-26, 18:34:08
Manno... bei MF wurden über 60 Stück davon verkauft und kein Hans schreibt was zum Kühler. :mad:
http://www.mindfactory.de/product_info.php/8192MB-Gigabyte-Radeon-R9-390-G1-Gaming-Aktiv-PCIe-3-0-x16--Retail-_1006608.html

Reklamationsquote liegt auch bei 0%. Also alle Käufer zufrieden oder hart im Nehmen? :D

Die 390X dürfte sich sehr ähnlich verhalten, da gibt es zumindest einen Kommentar:
http://www.mindfactory.de/product_info.php/8192MB-Gigabyte-Radeon-R9-390X-Gaming-G1-Aktiv-PCIe-3-0-x16--Retail-_1006607.html

Ich denke allerdings trotzdem das man mit MSI oder Sapphire besser fährt.

Frosty
2015-07-26, 18:59:19
Manno... bei MF wurden über 60 Stück davon verkauft und kein Hans schreibt was zum Kühler. :mad:
http://www.mindfactory.de/product_info.php/8192MB-Gigabyte-Radeon-R9-390-G1-Gaming-Aktiv-PCIe-3-0-x16--Retail-_1006608.html

Reklamationsquote liegt auch bei 0%. Also alle Käufer zufrieden oder hart im Nehmen? :D



der gigabyte kühler konnte bei 2 lüftern noch nie mit dem twin frozr von msi mithalten, was die lautheit betrifft. temps sind sicherlich in ordnung aber auf kosten der lautstärke- wie bei gigabyte üblich, die optimieren ihre karten seit jeher auf möglichst hohe kühlleistung. und bei der leistungsaufnahme der verlinkten karte von mehr als 275 watt wird das teil erst recht nicht leise sein....von daher sind die käufer der karte wohl wirklich hart im nehmen;)

dargo
2015-07-29, 17:08:48
WTF? Hier schreibt einer was von ca. 1.300RPM bei Last und seiner HIS Radeon R9 390 IceQ X2 OC. :eek:
http://www.mindfactory.de/product_info.php/8192MB-HIS-Radeon-R9-390-IceQ-X2-OC-Aktiv-PCIe-3-0-x16--Retail-_1006622.html

Das wäre der Hammer. Ich kann das aber kaum glauben bei 2x 90mm Lüfter. Oder HIS verbaut einen Wunderkühler. :D Wobei das Ding stolze 30cm lang ist, ergo viel Kühlfläche da.
http://www.hisdigital.com/un/product2-884.shtml

Edit:
Ich habe hier einen Test gefunden.
http://www.tweaktown.com/reviews/7248/radeon-r9-390x-iceq-x2-video-card-review-unique-far/index10.html

Bei 50% Fanspeed sind es 46dB, bei "Auto" 43dB in BF4. Die MSI R9 380 Gaming 4G, die ich hier gerade habe dreht bei 42% Lüfter mit 1500RPM und bei 47% Lüfter mit 1600RPM. Ich denke die 43dB @Auto könnten ca. 40-42% Lüfter entsprechen. Jetzt ist halt die Frage ob die Lüfterkurve bei HIS und MSI in etwa vergleichbar ist? Zudem wurde dort die 390X von HIS getestet und nicht die non X. Letztere dürfte noch etwas langsamer drehen wegen weniger Verlustleistung (die Temps. sind bei der HIS Radeon R9 390 IceQ X² OC im Link auch extrem gut).
http://www.techspot.com/review/1019-radeon-r9-390x-390-380/page7.html

Muss ich jetzt echt alle drei zum Testen bestellen? :|

* MSI R9 390 Gaming 8G
* Sapphire Radeon R9 390 Nitro 8GB
* HIS Radeon R9 390 IceQ X² OC 8GB

Edit 2:
Was mir bei der HIS auch extrem gut gefällt sind die zwei Biose. Es gibt ein Silent Bios und ein Standard Bios. Ersteres ist sogar 5dB leiser. Wenn man sich die recht niedrigen Temps der 390X so anschaut könnte das Silent Bios richtig interessant werden. :uponder:

Seth
2015-07-29, 17:38:11
Zur 390 von MSI hat bei Mindfactory auch einer was von 1400RPM bei einer Stunde Heaven geschrieben, was auch nicht wirklich hinkommen kann.
Der MSI Kühler ist schon ein Monster. Die Karte wiegt laut MSI 1,3kg (deren GTX 970 ~800g und selbst die 980ti nur gut 1kg)

Und zur Gigabyte 390. Was man liest ist deren Spannungseinstellung gelockt, was ja auch nicht so toll ist.