PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

VooDoo7mx
2017-08-31, 10:20:14
geflashte Vage 56 ohne zusätzliche Shader angeblich nur wenige Prozent langsamer als ein Vega 64 ?

http://www.gamestar.de/artikel/amd-radeon-rx-vega-56-deutlich-schneller-mit-vega-64-bios,3319118.html

Statt wie vorher mit maximal 1.471 MHz für den Grafikchip und 800 MHz für den HBM2-Videospeicher lief die geflashte Radeon RX Vega 56 nun mit bis zu 1.545 MHz für die GPU und 945 MHz für das VRAM.
Kann durchaus möglich sein. Das Chipdesign ist an sich komplett unausgegoren und kaum vernünftig ausbalanciert.
Sieht man ja auch in Vergleich zu den nVidia Karten. Grgrnübrt einer 1070FE kann sich eine Vega 56 öfter durchsetzen als eine 64 ggf. obwohl der Abstand in Rechenelsitung zwischen 1070/V56 zu 1080/V64 sehr ähnlich ist. Nur bringt die AMD Karte davon viel weniger auf die Straße ggü der nVidia Karte, welche die zusätzliche Rechenleistung 1zu1 in mehr Performance aussetzt.

Ansich ist Vega 56 deutlich ausbalancierter als Vega 64.

Schaffe89
2017-08-31, 10:27:44
Nein es hat bei Nvidia nun auch ewig gedauert bis für Maxwell DX12 kommt

Directx12 war von Anfang an verfügbar, nur Async Compute nicht, das erst nach einem weiteren Treiberupdate keine Leistung mehr auf Maxwell kostete.
Du solltest async compute nicht mit Directx12 verwechseln.

Auch hat Nvidia mit ARK Evolved ein Dx12 Update update Angekündigt das ist bis heute noch nicht raus

Also soviel ich mich erinnern kann war das der Entwickler der da was angekündigt hatte.

Hübie
2017-08-31, 10:31:14
Nein es hat bei Nvidia nun auch ewig gedauert bis für Maxwell DX12 kommt, und da geht nur der Treiber, aber er bringt nicht wie versprochen die Verbesserung. Wie soll er auch? Maxwell kann kein Context switch.

Auch hat Nvidia mit ARK Evolved ein Dx12 Update update Angekündigt das ist bis heute noch nicht raus und war meiner Meinung nach genau so wie der DX12 Ankündigung eine reine Publicity Meldung und ein weitere Tiefpunkt in den Werbetexten von Nvidia. Ich sag nur 3,5GB

Kann es sein dass du Fermi meinst? :| Maxwell kann context switches iirc auf GPC-Ebene. Kostet aber Leistung da dort jede Pipeline geflusht wird. Pascal hat preemption auf Pixel-Level und kann afair auch die übersendeten Primitives auslagern so lange compute workload arbeitet. So richtig concurrent ist es also nicht. Das stimmt schon. Ich behaupte einfach mal dass die stalls bei NV-Archs grundsätzlich schon mal geringer durchs Design sind und man eben einen anderen Punkt im Kompromiss der Dinge Vorrang gegeben hat. Das muss man jetzt weder hoch loben, noch herabwürdigen (auf keiner Seite). ;)

Dino-Fossil
2017-08-31, 10:43:33
Ansonsten hatte ich entweder mit der 480 vorher Probleme in Dead Effect 2 oder die Vega hat durch irgend etwas in ihrer Architektur viel mehr Leistung.
Der Anstieg ist so hoch das es nicht mit mehr Takt usw. erklärbar ist.

Das du vorher andere Probleme hattest ist natürlich nicht auszuschließen, aber eigentlich sollte Vega in der Tat mehr Rums pro GFLOP bieten, wenn denn mal alle neuen Features rund laufen.

Der_Korken
2017-08-31, 11:52:20
Grgrnübrt einer 1070FE kann sich eine Vega 56 öfter durchsetzen als eine 64 ggf. obwohl der Abstand in Rechenelsitung zwischen 1070/V56 zu 1080/V64 sehr ähnlich ist. Nur bringt die AMD Karte davon viel weniger auf die Straße ggü der nVidia Karte, welche die zusätzliche Rechenleistung 1zu1 in mehr Performance aussetzt.

Die 1080 hat gegenüber der 1070 33% mehr Shader inkl. Mehrtakt, während die Vega64 auf die Vega56 nur 14% mehr Shader inkl. Mehrtakt hat. Das ist schon ein deutlicher Unterschied. Bei der Speicherbandbreite sind es immerhin noch 25% vs 18%.

Also die UV Versuche waren schon interessant, leider auch sehr buggy.
Manchmal funktionierte es schlicht nicht, später kam die Karte dann nicht mehr in den 2D Modus zurück wenn man das Spiel beendete.

Kann es sein das das Treiber Menü von Vega total verbuggt ist?

Buggy? Wie kommst du denn darauf ;D

Die Software hinkt so weit hinterher, dass man Vega eigentlich auch erst zum Jahresende hätte releasen können.

vinacis_vivids
2017-08-31, 12:47:50
Kann durchaus möglich sein. Das Chipdesign ist an sich komplett unausgegoren und kaum vernünftig ausbalanciert.
Sieht man ja auch in Vergleich zu den nVidia Karten. Grgrnübrt einer 1070FE kann sich eine Vega 56 öfter durchsetzen als eine 64 ggf. obwohl der Abstand in Rechenelsitung zwischen 1070/V56 zu 1080/V64 sehr ähnlich ist. Nur bringt die AMD Karte davon viel weniger auf die Straße ggü der nVidia Karte, welche die zusätzliche Rechenleistung 1zu1 in mehr Performance aussetzt.

Ansich ist Vega 56 deutlich ausbalancierter als Vega 64.

Dieses 3dmarks kann die zusätzlichen Shader überhaupt nicht auslasten. Reagiert halt nur auf Takt weshalb eine RX56 bei gleichen Takt nur 3% langsamer ist als eine RX64. Der *bench* kann weder ordentliches AC noch DX12.

Was soll da auf die Straße kommen wenn der Code nicht parallelisiert werden kann und die API auch noch beschränkt? Spiele, die auf Vega optimiert sind und neue Tier levels auch verwenden können, müssen erst noch kommen.

Rohleistung 1:1 auf die Straße sieht so aus:
https://abload.de/img/4kbdemod3kze.png

Alles clean, ohne Gameworks, reiner low lvl Machinencode, keine Mogelsettings per Treiber oder sonstiges.

=Floi=
2017-08-31, 15:13:02
Dieses 3dmarks kann die zusätzlichen Shader überhaupt nicht auslasten. Reagiert halt nur auf Takt weshalb eine RX56 bei gleichen Takt nur 3% langsamer ist als eine RX64. Der *bench* kann weder ordentliches AC noch DX12.

Was soll da auf die Straße kommen wenn der Code nicht parallelisiert werden kann und die API auch noch beschränkt? Spiele, die auf Vega optimiert sind und neue Tier levels auch verwenden können, müssen erst noch kommen.

Rohleistung 1:1 auf die Straße sieht so aus:
https://abload.de/img/4kbdemod3kze.png

Alles clean, ohne Gameworks, reiner low lvl Machinencode, keine Mogelsettings per Treiber oder sonstiges.


http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/

Win7
nix DX12

Grendizer
2017-08-31, 15:34:39
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/

Win7
nix DX12


ja aber auch nix DX11... das Ding ist exremst Low Level programmiert.

Rancor
2017-08-31, 15:50:16
Seiner/Ihrer Argumentation folgend ist das aber schlüssig denn:

AMD kann nur in LL richtig trumpfen -> deshalb ist nur LL in Zukunft wichtig und alle DX 11 Benchmarks haben keine Aussagekraft, besonders die nicht, wo VEGA Schwächen zeigt -> Nvidia wird dann bald mit Pascal und wehenden DX 11 Fahnen untergehen... Dann kann er endlich in Frieden ruhen ;D

Ist natürlich blanker Unsinn, aber so denkt und argumentiert er/sie permanent.

vinacis_vivids
2017-08-31, 15:54:24
LL ist für alle Firmen wichtig. AMD forciert LL und das ist gut so. Raw power ist genügend da, muss jetzt von der Software mehr rausgeholt werden.

Aber du wirst das nicht verstehen können.

pilzsammler2002
2017-08-31, 15:58:30
LL ist für alle Firmen wichtig. AMD forciert LL und das ist gut so. Raw power ist genügend da, muss jetzt von der Software mehr rausgeholt werden.

Aber du wirst das nicht verstehen können.

Jap, bisher verpufft die Power ja eher in schlechten "Ports"... :mad:

@Rancor
Sie sollte als anrede passen :freak:

Rancor
2017-08-31, 15:59:43
LL ist für alle Firmen wichtig. AMD forciert LL und das ist gut so. Raw power ist genügend da, muss jetzt von der Software mehr rausgeholt werden.

Aber du wirst das nicht verstehen können.

AMD macht das schon seit 4 Jahren und bisher ist da in der Industrie nicht sonderlich viel bei rum gekommen. Ein paar halbgare LL Ports, wenn man so will. Die Zeit für eine breite Low Level Integrationen ist noch nicht gekommen.

Aber das wirst du nicht verstehen ( wollen ) :biggrin:

pilzsammler2002
2017-08-31, 16:02:45
AMD macht das schon seit 4 Jahre und bisher ist da nicht sonderlich viel bei rumgekommen.

Würde ich so nicht sagen. man muss nur mal schauen wie gut die Konsolen (im Verhältniss zur Power) laufen...

Rancor
2017-08-31, 16:02:51
Deine geistigen Ergüsse.... :facepalm:

;D Naaa, Gehen dir die Argumente aus ? :cool:

Würde ich so nicht sagen. man muss nur mal schauen wie gut die Konsolen (im Verhältniss zur Power) laufen...
Naja es geht ja um PC Enviroment. Im Konsolen Bereich ist eine LL Integration ja auch einfacher und schon viel, viel länger present, da die Hardware sich nicht unterscheidet.

Allein von GCN 2 über 3 bis zu VEGA gibts ja Architekturunterschiede. Dafür sollen die Entwickler jetzt auch noch alle per Hand optimieren, da der Treiber vom Hersteller ihn das nicht mehr abnimmt?
Das gleiche dann nochmal für Nvidia?

Ich gehe davon aus, das das ein erheblicher Mehraufwand ist. Gibt es hier Entwickler die da wirklich mal was zu sagen können wie aufwendig eine LL Integration für die vielen verschiedenen GPU Typen/Architekturen ist ?

Korvaun
2017-08-31, 16:31:29
Das die Konsolen rel. gut darstehen sollte nicht weiter verwundern, die Hardware ist ja nun reichlich gereift/gealtert und entsprechende Engines müssten im Jahr 2017 wirklich gut optimiert sein auf eine Hardware von 2011...

Vega wird wohl nie so effizient wie Pascal werden, dafür ist das Teil einfach zu groß und heiß. Aber ein guter, bugfreier und optimierter Treiber ist doch ne Grundvorraussetzung für ein gleichmäßig gutes Spielgefühl über alle Titel hinweg. Was Vega da aktuell bietet ist einfach mies. Hardwarefeatures sind nicht ordentlich umgesetzt/optimiert und die Spieleperformance schwankt stark von Titel zu Titel. Das auf die Entwickler abzuschieben ala "benutzt einfach DX12/Vulkan und optimiert von Hand auf Vega, DX11 ist out, seid ihr doof/rückständig oder was" ist sinnlos.

Locuza
2017-08-31, 16:50:09
Nein es hat bei Nvidia nun auch ewig gedauert bis für Maxwell DX12 kommt, und da geht nur der Treiber, aber er bringt nicht wie versprochen die Verbesserung. Wie soll er auch? Maxwell kann kein Context switch.

Auch hat Nvidia mit ARK Evolved ein Dx12 Update update Angekündigt das ist bis heute noch nicht raus und war meiner Meinung nach genau so wie der DX12 Ankündigung eine reine Publicity Meldung und ein weitere Tiefpunkt in den Werbetexten von Nvidia. Ich sag nur 3,5GB
Jede Behauptung in deinem Beitrag ist falsch oder krude.
Maxwell hat von Anfang an DX12 unterstützt, ein Treiber welcher das explizite Scheduling von Compute-Queues unterstützt, wird wegen der statischen Partitionierung niemals zum Einsatz kommen und ja hier hat Nvidia marketingtechnisch gemogelt.

Maxwell unterstützt Context Switching, taten auch schon viel ältere GPUs, aber wesentlich gröber und auch entsprechend langsam.

Nvidia hat niemals ein DX12-Update für ARK angekündigt, dass waren die Entwickler.

Dieses 3dmarks kann die zusätzlichen Shader überhaupt nicht auslasten. Reagiert halt nur auf Takt weshalb eine RX56 bei gleichen Takt nur 3% langsamer ist als eine RX64. Der *bench* kann weder ordentliches AC noch DX12.

Was soll da auf die Straße kommen wenn der Code nicht parallelisiert werden kann und die API auch noch beschränkt? Spiele, die auf Vega optimiert sind und neue Tier levels auch verwenden können, müssen erst noch kommen.

Rohleistung 1:1 auf die Straße sieht so aus:
https://abload.de/img/4kbdemod3kze.png

Alles clean, ohne Gameworks, reiner low lvl Machinencode, keine Mogelsettings per Treiber oder sonstiges.
Kein ordentlich AC? So nennst du also den größten Performancegewinn aller aktuellen Anwendungen unter Radeons.
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

BF1 skaliert mit dem selben Takt und DX12 auch nur zu 3% mit Vega 64:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/7/#diagramm-battlefield-1-rx-vega-56-vs-vega-64-vs-fury-x

Und das ist auch nicht das einzige Spiel, welches eine miese CU-Skalierung aufweist.

Eins ist aber positiv zu bewerten, eine unter 4KB große Demo, welche vollständig in die Caches passt und nur Compute-Shader verwendet läuft richtig gut auf GCN.

ja aber auch nix DX11... das Ding ist exremst Low Level programmiert.
Der Entwickler hat eine implizite Grafik-API verwendet und die Demo läuft unter jedem Hersteller.
Extremst Low-Level programmiert, aber das bezieht sich dann definitiv nicht auf die API, welche die Entwickler verwendet haben.

Digidi
2017-08-31, 17:05:46
Jede Behauptung in deinem Beitrag ist falsch oder krude.
Maxwell hat von Anfang an DX12 unterstützt, ein Treiber welcher das explizite Scheduling von Compute-Queues unterstützt, wird wegen der statischen Partitionierung niemals zum Einsatz kommen und ja hier hat Nvidia marketingtechnisch gemogelt.

Maxwell unterstützt Context Switching, taten auch schon viel ältere GPUs, aber wesentlich gröber und auch entsprechend langsam.

Nvidia hat niemals ein DX12-Update für ARK angekündigt, dass waren die Entwickler.


Und du bist der GPU Gott verstehe! Ja ich mache Fehler weil ich vielleicht nicht so im GPU Business drin bin wie du für mich ist das mein 4 Hobbie.

Im übrigen hättest du mich sogar mehr korrigieren müssen den ja Nvidia kann Context Switch, aber AMD braucht gar kein Context switch. Das sagst du dann natürlich nicht!
https://m.heise.de/newsticker/meldung/Async-Shaders-Fehlende-DirectX-12-Funktion-auf-Nvidia-Grafikkarten-ein-vollkommenes-Desaster-2801497.html
Und im gleichen Artikel der Beweis daß Nvidia eben nicht von Anfang an DX12 könnte:
Deswegen wundere er sich, weshalb der Nvidia-Treiber dies vorgaukelt. Oxide Games habe den Renderpfad für Nvidia-Grafikkarten angepasst und Async Compute deaktiviert, nachdem die Versuche die Funktion zu nutzen ein "vollkommenes Desaster" gewesen seien. Durch Async Compute könne AMDs GPU-Performance in Direct3D-12-Spielen steigen.

Und bei Ark Evolve war es komisch das nach dem Dx12 Lunch auf einmal ein high rated Nvidia Titel mit Dx12 prahlt ohne zu kommen. Ein Schelm wer böses dabei denkt.

=Floi=
2017-08-31, 18:32:11
wurde das temp target für die 64er nun auf 75°C gesenkt? also effektive 10°C weniger zur verfügung oder stimmt das nicht?

Locuza
2017-08-31, 18:36:11
[...]
Im übrigen hättest du mich sogar mehr korrigieren müssen den ja Nvidia kann Context Switch, aber AMD braucht gar kein Context switch. Das sagst du dann natürlich nicht!
https://m.heise.de/newsticker/meldung/Async-Shaders-Fehlende-DirectX-12-Funktion-auf-Nvidia-Grafikkarten-ein-vollkommenes-Desaster-2801497.html
Wann ein Context-Switch erfolgt und in welcher Granularität die Verwaltung der Befehle geschieht ist ein komplexes Thema und ich als Laie halte mich da ein wenig fern, definitive Behauptungen aufzustellen.
Es lag auch kein Vergleich mit GCN zu Grunde, sondern nur Maxwell kann das nicht, entsprechend habe ich mich auch nur darauf bezogen.

Und im gleichen Artikel der Beweis daß Nvidia eben nicht von Anfang an DX12 könnte:

DX12 ist die ganze API, worum es geht ist ein Teilaspekt vom API-Design, MultiEngine, wo Entwickler ihre Befehle in unterschiedliche Queue-Typen (GFX, Compute oder Copy) sortieren können und dank der genaueren Aufteilung es der Hardware einfacher machen, dass ganze effektiver zu verwalten.

Die verwirrende Geschichte bei Ashes dreht sich darum, dass scheinbar bei der Verwendung von zusätzlichen Compute-Queues die Performance eingebrochen ist, allerdings kümmert sich der Treiber und/oder die DX12 Runtime über die konkrete Verwaltung der Queues und für Fermi/Kepler und Maxwell werden offensichtlich die Befehle nicht getrennt behandelt, sondern in eine gemeinsame Queue einsortiert.

Rein vom Prinzip sollte das auflösen mehrerer Queue-Typen nicht zu einem übermäßigen Einbruch führen und so zeigt sich z.B. beim 3D Mark Time Spy gar keinen Unterschied, ob zusätzlich eine Compute-Queue verwendet wird oder nicht.
Sniper Elite 4 zeigt auch nur geringe Abweichungen:
https://www.overclock3d.net/reviews/software/sniper_elite_4_performance_review/5


Und bei Ark Evolve war es komisch das nach dem Dx12 Lunch auf einmal ein high rated Nvidia Titel mit Dx12 prahlt ohne zu kommen. Ein Schelm wer böses dabei denkt.
Wirklich merkwürdig, dass ein Early Access Game auf Basis der UE4 mit gerade mal experimentellen DX12-Support ihre DX12-Ankündigung zur fragilsten Zeit (Launch einer neuen und überaus komplexen API) nicht umgesetzt hat.
Es war total unsinnig vom Entwickler DX12 so früh anzukündigen und noch viel mehr das als Copy&Paste-Leiche jede Woche oder Monat mitzuschleppen.

Das einzige was Nvidia negativ begünstigt haben kann, ist die DX12-Treiberqualität zu der Zeit.

Loeschzwerg
2017-08-31, 18:47:43
Will aber die Silberne Version!

Die Limited Edition kommt vielleicht Dienstag, wenns gut geht...

Also... Habe meine Limited ja bei Caseking für 679€ am Launchtag vorbestellt. Gestern sehe ich die Karte bei Alternate für 649€ drin... Natürlich sofort Caseking angeschrieben ob sich was machen lässt und tataaaa, bekomme ich 30€ Nachlass =) Angepeilte Lieferung ist 15.9., es geht also voran.

BeetleatWar1977
2017-08-31, 18:56:18
Juhu - heute in der Mittagspause geschafft eine MSI Vega 56 bei Mindfactory zu schießen - ist schon versand, sollte morgen da sein.......

Edit: Laut Handbuch geht Afterburner zum Übertakten - Jemand hier schon probiert?

Digidi
2017-08-31, 18:56:40
@Locuza
Ja das klingt schon vernünftiger. sorry für den Fehler mit dem Context switch. Aber das ich nur Bull shit erzähle stimmt auch nicht.

Und bei Ark survival Evolve entweder der Marketingleiter ist kirre oder es gab Druck seitens Nvidia um mit was ähnlichem zu kontern.

Hugo40
2017-08-31, 18:58:11
Rein vom Prinzip sollte das auflösen mehrerer Queue-Typen nicht zu einem übermäßigen Einbruch führen und so zeigt sich z.B. beim 3D Mark Time Spy gar keinen Unterschied, ob zusätzlich eine Compute-Queue verwendet wird oder nicht.

Beziehst du dich hier explizit auf Maxwell? Laut den Entwicklern deaktiviert der Grafiktreiber AC bei Maxwell im 3DMark.
https://steamcommunity.com/app/223850/discussions/0/366298942110944664/#c366298942110979143

gravitationsfeld
2017-08-31, 19:32:35
Oh Gott, der Thread ist purer Krebs.

Digidi
2017-08-31, 19:47:11
Oh Gott, der Thread ist purer Krebs.

Klär uns auf?

captain_drink
2017-08-31, 20:43:25
Klär uns auf?

Als ob handfestes Fachwissen hier irgendwie von Wert wäre. Das wird allenfalls als Munition im nimmermüden AMD-NV-Grabenkrieg verballert.

Achill
2017-08-31, 21:14:51
Dieses 3dmarks kann die zusätzlichen Shader überhaupt nicht auslasten. Reagiert halt nur auf Takt weshalb eine RX56 bei gleichen Takt nur 3% langsamer ist als eine RX64. Der *bench* kann weder ordentliches AC noch DX12.

Was soll da auf die Straße kommen wenn der Code nicht parallelisiert werden kann und die API auch noch beschränkt? Spiele, die auf Vega optimiert sind und neue Tier levels auch verwenden können, müssen erst noch kommen.

Rohleistung 1:1 auf die Straße sieht so aus:
https://abload.de/img/4kbdemod3kze.png

Alles clean, ohne Gameworks, reiner low lvl Machinencode, keine Mogelsettings per Treiber oder sonstiges.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/

Win7
nix DX12

ja aber auch nix DX11... das Ding ist exremst Low Level programmiert.

Meines Wissen ist das im eigentlichen Sinn nicht LL - das sind einfach auf Größe optimierte Shader (glaube war OpenGL - aber nicht was auf die schnelle gefunden) sowie Binary - muss halt alles in 4kb rein passen.

--
Btw ist Vega64 schneller als noch zum Test der Vega FE:

(1080p)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61011

+Takt Vega64 LE (1750) zu FuryX OC (1200): ~46%
+FPS Vega64 LE (1750) zu FuryX OC (1200): ~109%
--

Hübie
2017-08-31, 21:16:42
Beziehst du dich hier explizit auf Maxwell? Laut den Entwicklern deaktiviert der Grafiktreiber AC bei Maxwell im 3DMark.
https://steamcommunity.com/app/223850/discussions/0/366298942110944664/#c366298942110979143

Der Teil ist doch eindeutig durchgestrichen. :rolleyes:

@graviationsfeld: Nach all den Jahren solltest du doch mit Grabenkämpfen vertraut sein. :wink:

Hugo40
2017-08-31, 21:22:59
Den Abschnitt dahinter auch gelesen?

NV driver runs asynchronous tasks in one queue on Maxwell, similar to if they were submitted in one queue ("async off" in Time Spy). If NVIDIA enables Async Compute in the drivers on Maxwell, Time Spy will start using it. Performance gain or loss depends on the hardware & drivers.

gravitationsfeld
2017-08-31, 21:59:18
Klär uns auf?
Der 3DMark-Entwickler sagt wie es ist und Leute labern mit den groessten Dreck den ich jemals gelesen hab dagegen.

Einer redet irgend was von "async is multi engine" und glaubt er wuerde Dinge besser verstehen als Futuremark. Unfassbar. Und der ganze Muell ueber Doom. Ich hab glaub mehre IQ-Punkte verloren nur beim Drueberschauen. Wat.

G3cko
2017-08-31, 22:17:39
5960X @ 4,5Ghz
64GB RAM (32GB HBCC :freak:)

XFX Vega 64 @ EKWB
GPU-P6 1600MHz @ 1080mV
GPU-P7 1660MHz @ 1150mV (real liegen "nur" 1630MHz an)
HBM2 1100MHz @ 1050mV

https://img1.picload.org/image/rwplpcir/1630-1100.png

@Stock komme ich auf 4180 Punkte @ ziemlich genau 400Watt
Mit OC knacke ich die 5 nicht nur bei der Punktzahl sondern auch beim Verbrauch. 500Watt. Exakt 100Watt mehr.

Locuza
2017-08-31, 22:31:50
[...]
Und bei Evolve entweder der Marketingleiter ist kirre oder es gab Druck seitens Nvidia um mit was ähnlichem zu kontern.
Ich weiß nicht ob es vorher einen Kontext gab, aber ich kann dir hier gar nicht folgen.

Beziehst du dich hier explizit auf Maxwell? Laut den Entwicklern deaktiviert der Grafiktreiber AC bei Maxwell im 3DMark.
https://steamcommunity.com/app/223850/discussions/0/366298942110944664/#c366298942110979143
Von Fermi bis Maxwell, da die Ressourcen nur statisch eingeteilt werden können und weswegen Nvidia das niemals so ausführen wird, aus dem GTX 1080 White-Paper:
In Maxwell generation GPUs, overlapping workloads were implemented with static partitioning of the GPU into a subset that runs graphics, and a subset that runs compute.
This is efficient provided that the balance of work between the two loads roughly matches the partitioning ratio.
However, if the compute workload takes longer than the graphics workload, and both need to complete before new work can be done, and the portion of the GPU configured to run graphics will go idle.
This can cause reduced performance that may exceed any performance benefit that would have been provided from running the workloads
overlapped.
Hardware dynamic load balancing [Ab Pascal] addresses this issue by allowing either workload to fill the rest of the machine if idle resources are available
https://international.download.nvidia.com/geforce-com/international/pdfs/GeForce_GTX_1080_Whitepaper_FINAL.pdf

Zergra
2017-08-31, 22:35:02
wurde das temp target für die 64er nun auf 75°C gesenkt? also effektive 10°C weniger zur verfügung oder stimmt das nicht?
Mit dem aktuellen Treiber sieht es so aus ja.

Digidi
2017-08-31, 22:46:16
Ich weiß nicht ob es vorher einen Kontext gab, aber ich kann dir hier gar nicht folgen.


ARK sollte das erste Dx12 Game überhaupt sein und das mit einer Bomben Grafik. So was schreit ein Entwickler nicht raus wenn er nicht Rückhalt vom Partner Nvidia hat. Nvidia hat dann halt festgestellt das es wohl doch nicht so ohne weiteres läuft U d hat den Entwickler gebeten zurückzutreten.

http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-ohne-Termin-Nvidia-unter-Verdacht-1173883/

horn 12
2017-08-31, 22:48:49
Dann hält die Karte auch Ihren Takt weniger und wird gar lauter als mit vorherigem Treiber
?
Vega nun in ITALIEN mässig lieferbar, meine Silberne mag aber immer noch nicht kommen...

Locuza
2017-08-31, 22:51:02
@Digidi

Ahh, ich dachte du meintest "Evolve" und bist auf ein ganz anderes Spiel gesprungen.
Bei Ark: Survival Evolved gab es jedenfalls bestimmt kein Druck von Nvidia.

Digidi
2017-08-31, 22:56:19
@Locuza
Habs oben ergänzt. Der Druck war sicher da. Kahm da nicht auch noch ein anderes Dx12 Game raus zur selben Zeit? Nvidia bräuchte unbedingt hier für einen Gegenpol. Ark war wegen der guten Grafik und der hohen CPU Belastung gut dafür geeignet.

Danke für die Korrektur habs verbessert.

G3cko
2017-08-31, 23:03:34
ARK sollte das erste Dx12 Game überhaupt sein und das mit einer Bomben Grafik. So was schreit ein Entwickler nicht raus wenn er nicht Rückhalt vom Partner Nvidia hat. Nvidia hat dann halt festgestellt das es wohl doch nicht so ohne weiteres läuft U d hat den Entwickler gebeten zurückzutreten.

http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-ohne-Termin-Nvidia-unter-Verdacht-1173883/

Das erinnert stark an DX10.1
Nachdem der Patch AMD Karten stark beschleunigte wurde er kurzerhand wieder zurückgezogen. War auch ein Nvidia-the-way-its-meant-to-be-payed Spiel.
http://www.gamestar.de/artikel/assassins-creed-patch-entfernt-directx-101-unterstuetzung,1944673.html

Locuza
2017-09-01, 00:04:30
@Locuza
Habs oben ergänzt. Der Druck war sicher da. Kahm da nicht auch noch ein anderes Dx12 Game raus zur selben Zeit? Nvidia bräuchte unbedingt hier für einen Gegenpol. Ark war wegen der guten Grafik und der hohen CPU Belastung gut dafür geeignet.
[...]
Es gibt in meinen Augen keine schlüssigen Gründe, wieso es dort Druck hätte geben sollen.
Es kamen im Verlauf der Zeit mehrere Spiele mit DX12 heraus, die ebenfalls am GameWorks-Programm teilgenommen haben oder mit Nvidia in irgendeiner Form kooperiert haben, wie Gears of War (Ultimate Edition und 4) oder Rise of the Tomb Raider.
Das Spiel ist offiziell erschienen und hat immer noch keinen DX12-Support.
Irgendwann sollte man auch los lassen, von der Vorstellung, dass Nvidia direkten Druck ausgeübt hat.

Elite_Warrior
2017-09-01, 00:18:39
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61015&stc=1&d=1504217729

Was ich ziemlich spannend finde sind Clocks im Idle. Hab den Coreclock schon bis 26MHz fallen sehen. Ist das ein Auslesefehler? Denn das ist schon brutal niedrig. Im Crimsontreiber wird auch der gleiche Wert ausgegeben.
€: Ist eine Vega56

unl34shed
2017-09-01, 00:27:29
Nein, das stimmt. Core clock soll bis auf 27MHz runter gehen können. Steht glaube im CB Review.

Das sind dann aber nur die Shader, die IF soll höher takten, damit genug Daten an die Display Engine gelangen (Der teil der zum Ansprechen der Monitore zuständig ist).

Locuza
2017-09-01, 00:29:03
Das ist der neue Deep-Sleep-Modus von Vega:
Die verbesserte Energieeffizienz von Vega soll sich nicht nur unter Last, sondern auch im Leerlauf auf dem Windows-Desktop bemerkbar machen. hier gibt es einen neuen Deep-Sleep-Modus, der die GPU teilweise nur mit 27 MHz taktet. Verschiebt man ein Fenster, liegen knapp 50 MHz an, auf Internetseiten mit viel Anzeigen sind es rund 100 MHz.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/#abschnitt_10_vorteile_der_vegaarchitektur

Elite_Warrior
2017-09-01, 00:32:49
Danke, hab ich wohl überlesen.

akuji13
2017-09-01, 08:31:45
Woran könnte es liegen das auf dem desktop/beim browsen ca. alle 60 Sekunden der Lüfter einmal kurz etwas hochdreht?

Ansonsten habe ich den Rechner nun nicht mehr 20cm neben dem Ohr stehen sondern ca. 100cm links hinter dem Schreibtisch was dazu führt das selbst der worst-case von 2400 U/MIN mit moderater Lautstärke der Boxen kaum noch auffällt.

Die nun gesunkene Raumtemperatur macht sich auch nahezu 1:1 bei der GPU Temperatur bemerkbar.
Lag ich vorher bei 79-86° sind es nun 69-75°.

Wenn man ein geschlossenes oder gar gedämmtes Gehäuse hat dürfte es insgesamt recht angenehm sein für einen Kühler dieser Bauart.

unl34shed
2017-09-01, 08:48:43
Nicht genug Frischluft im Gehäuse oder der Lüfter dreht im idle etwas zu langsam. --> Temperatur geht über einen Grenzwert und er will nachregeln.

Das die Zimmertemperatur da 1zu1 rein geht ist normal und simple Physik.

akuji13
2017-09-01, 08:56:48
Am Gehäuse hat sich nichts geändert und die Luft im Raum ist 7° kühler als am Vortag wo es das Problem noch nicht gab.

Grendizer
2017-09-01, 09:22:05
anderer Thread

Schaffe89
2017-09-01, 09:50:08
Eins ist aber positiv zu bewerten, eine unter 4KB große Demo, welche vollständig in die Caches passt und nur Compute-Shader verwendet läuft richtig gut auf GCN.

Vielen Dank für deinen Beitrag, immer wieder lesenswert.

Raff
2017-09-01, 09:55:21
Das ist der neue Deep-Sleep-Modus von Vega:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/#abschnitt_10_vorteile_der_vegaarchitektur
Danke, hab ich wohl überlesen.

Dieser Modus funktioniert aber nicht immer, bei vielen Systemen sind – anscheinend abhängig vom Bildschirm – 852 MHz (GPU) die Regel.

MfG,
Raff

foenfrisur
2017-09-01, 10:36:40
Also bei mir klappt der deep sleep super.
Dachte schon es wäre ein bug und wird falsch ausgelesen.
Temperaturen gehen teilweise unter 30grad.

Mfg

pilzsammler2002
2017-09-01, 10:46:02
Dieser Modus funktioniert aber nicht immer, bei vielen Systemen sind – anscheinend abhängig vom Bildschirm – 852 MHz (GPU) die Regel.

MfG,
Raff

Gibt es vllt Unterschiede je nach anbindung (ob DP oder HDMI) :confused:

Palpatin
2017-09-01, 10:46:59
Wenn man sich manche Spiele Benches anschaut, scheint Vega eher öfters mal nicht aus dem Deep Sleep aufzuwachen. :weg:

foenfrisur
2017-09-01, 10:52:04
Ich kann btw für den Monitor 12bpp aktivieren, was doch eigentlich für hdr Monitore sein sollte oder?

In battlefield ist dann alles etwas überstrahlter dargestellt.

Soll das so oder ist das auch ein alternatives falsch aktiviertes Feature?

Mfg

Edit.
Ich habe eigentlich keinen HDR Monitor.

Digidi
2017-09-01, 11:13:44
Wenn man sich manche Spiele Benches anschaut, scheint Vega eher öfters mal nicht aus dem Deep Sleep aufzuwachen. :weg:

Mit solche Kommentaren musst du aufpassen das dich die Moderation nicht in den Deep Sleep Modus versetzt.


Jetzt geht zwar deep sleep Aber der DSBR und primitive Shader sind immer noch nicht richtig implementiert. Hoffe das kommt bald.

MechWOLLIer
2017-09-01, 11:56:51
Dieser Modus funktioniert aber nicht immer, bei vielen Systemen sind – anscheinend abhängig vom Bildschirm – 852 MHz (GPU) die Regel.

MfG,
Raff
Dann liest du nicht den tatsächlichen Takt, sondern den DPM-State aus. Der unterste beträgt 852 MHz.

Screemer
2017-09-01, 14:51:09
Dann liest du nicht den tatsächlichen Takt, sondern den DPM-State aus. Der unterste beträgt 852 MHz.
hast du von rys eigentlich ne rückmeldung bekommen, wann ocat in pubg funktionieren soll?

unl34shed
2017-09-01, 17:32:13
Mindfactory hat wieder 56er lagernd für 409 (ohne Pack)
https://www.mindfactory.de/product_info.php/8GB-Powercolor-Radeon-RX-VEGA-56-8G-HBM2-HDMI-TRIPLE-DP_1189368.html

fondness
2017-09-01, 17:38:59
Dann liest du nicht den tatsächlichen Takt, sondern den DPM-State aus. Der unterste beträgt 852 MHz.

So schnell entstehend alternative Fakten^^.

aufkrawall
2017-09-01, 17:48:08
Unklug, den Begriff inflationär für simple Irrtümer zu verwenden.

N0Thing
2017-09-01, 17:59:18
Mindfactory hat wieder 56er lagernd für 409 (ohne Pack)
https://www.mindfactory.de/product_info.php/8GB-Powercolor-Radeon-RX-VEGA-56-8G-HBM2-HDMI-TRIPLE-DP_1189368.html

Danke für die Info, da schlage ich mal zu und schaue mir das Kärtchen mit eigenen Augen an. :)

horn 12
2017-09-01, 21:16:53
Hi Leute!
Keine Sapphire Fury Nitro auf Vega 64 Umsteiger HIER im Forum unterwegs ?

PS: Meine Silbere Karte will und will einfach nicht kommen

Sicness
2017-09-01, 22:34:25
Hi Leute!
Keine Sapphire Fury Nitro auf Vega 64 Umsteiger HIER im Forum unterwegs ?

PS: Meine Silbere Karte will und will einfach nicht kommen

Zaehlt auch Sapphire Fury TriX auf Vega 64 Umsteiger?

akuji13
2017-09-01, 22:44:58
Merkt man das überhaupt? :D

Wenn ich mir anschaue wie grottig Dishonored 2 läuft hätte ich mir das upgrade auch sparen können.
Zum Glück gibt es ja auch Gegenbeispiele. :)

Sicness
2017-09-01, 23:24:37
Merkt man das überhaupt? :D

Wenn ich mir anschaue wie grottig Dishonored 2 läuft hätte ich mir das upgrade auch sparen können.
Zum Glück gibt es ja auch Gegenbeispiele. :)

Bei mir wars u.a. einem merkwuerdigen Kompatibilitaetsproblem geschuldet. Ich konnte mit meiner Sapphire Fury an einem Eizo FS2735 keine hoehere Refresh Rate als 60Hz einstellen, auch Freesync funktionierte nicht. Gab dann jeweils Signalfehler. Habe wochenlang mit Support von AMD, Sapphire und ASUS diskutiert und Amazons DP-Kabel Sortiment halb aufgekauft. Schlussendlich muss es irgendwo zwischen Board und Graka gelegen haben. Mit Vega statt der Fury gibts keine Probleme, auch mit einem Gigabyte Board statt dem Crosshair VI lief alles einwandfrei. Die Fury ist mittlerweile bei ASUS in TW zum debuggen, man hat wohl den Fehler gefunden und gelobt Besserung.

Diese Problematik und die Lust auf ein neues Spielzeug waren bei mir massgeblich fuer Vega. Mit meinen alten Ranzspielen war die Fury auch nicht wirklich gefordert :ugly:

Jake Dunn
2017-09-01, 23:43:04
Wenn ich mir anschaue wie grottig Dishonored 2 läuft hätte ich mir das upgrade auch sparen können.


Warum?

http://www.guru3d.com/articles-pages/amd-radeon-rx-vega-64-8gb-review,27.html

dildo4u
2017-09-01, 23:53:10
Krank wie dort die 1080 Ti abgeht 37 zu 57 in 4k.

horn 12
2017-09-02, 00:31:53
@Raff
@Anddill
@Format C

Wann kommt bitte das Sapphire Custom Modell der Vega 56/64 auf den Markt
Weiss man da bereits etwas, oder hat AMD Sapphire echt vergrault da eben der Publisher Powercolor gar Besser liefern kann als Sapphire und dies war noch nie der Fall...

Hoffe Sapphire stellt die Karten im Custom Modell mal echt langsam vor ...

akuji13
2017-09-02, 01:19:19
Warum?

http://www.guru3d.com/articles-pages/amd-radeon-rx-vega-64-8gb-review,27.html

Genau darum. :wink:

Ob 35 oder 53 fps...ist beides viel zu wenig in dem Spiel.
Die engine braucht viele fps um sauber zu laufen.

dildo4u
2017-09-02, 10:37:57
Hier hat einer schon ein 64 Strix Modell.

https://youtu.be/zACYU4MWJLQ

Hasenpfote
2017-09-02, 14:29:08
Hier hat einer schon ein 64 Strix Modell.[/url]Einer? Immer erstmal die Kommentare lesen!yes, Im Asus guy and also hardware enthusiast for many years :)
....Realse date will be some in September, the price is still TBD

Raff
2017-09-02, 14:59:14
Afterburner-Support für Vega incoming: https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-34#post-5467749

MfG,
Raff

BeetleatWar1977
2017-09-02, 15:19:18
Afterburner-Support für Vega incoming: https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-34#post-5467749

MfG,
Raff
Betrifft die Lüfter - Powertarget, Boost und Speichertakt gehen mit der aktuellen Beta schon. Getestet mit Brandneuer Vega 56 :biggrin:

Kartenlehrling
2017-09-02, 15:30:26
es gibt auch wieder XFX RXvega64 für 509€ bei minfatory (https://www.mindfactory.de/product_info.php/8GB-XFX-Radeon-RX-Vega-64-Black-Aktiv-PCIe-3-0-x16--Retail-_1186799.html) + 2x Spiele.

unl34shed
2017-09-02, 17:10:24
Ich muss hier echt mal ein Lob an den Referenzkühler lassen, nachdem ich die Vega meines Bruders mit auf den Morpheus umbauen durftemusste. Alles aus Alu, auch wenn es sich teilweise nach Plastik anfühlt bzw. aussieht (es ist sehr gut lakiert).
Da ist aus technischer Sicht sehr viel Herzblut in die Karte geflossen, da tut es umso mehr weh, dass die Leistung aktuell nicht ganz zur TI reicht.

Auch die Lautstärke der Referenz war nicht so schlimm. Im IDLE nicht wirklich zu hören und unter last zwar wahrnehmbar, aber nicht unbedingt störend.
Wenn man es natürlich übertreibt und den Lüfter auf 100% dreht, dann ist sie, DHE typisch, recht laut.

Nach dem Umbau auf den Morpheus kann ich nur eins Sagen. Es ist leider nicht meine :love2: (sind hier nur glückliche Menschen? Gibt es keinen heul smiley?)

Werte von BIOS 2@stock
IDLE auf dem Desktop 25°C
Und unter Last kaum auf über 60°C zu bringen.

Bilder vom Umbau.
imgur Album (https://imgur.com/a/41C8y)
Ja, nicht der normale Umbau, ist bekannt.

von Richthofen
2017-09-02, 17:21:39
Weisen die Chips auf dem Package unterschiedliche Bauhöhen auf (molded/unmolded) bzw. gab es womöglich Probleme bei der Montage/Fixierung des Heatsink?

unl34shed
2017-09-02, 17:39:28
Dier Karte war molded und auch ohne Höhenunterschied. Wir haben den Kühler ohne die die Unterlegscheiben, die für Hawaii dabei waren montiert und um mögliches Kippen zu vermeiden die gegenüberliegenden Schrauben gleichzeitig reingeschraubt. Auch wurde das Original Haltekreuz(?) auf der Rückseite weiterverwendet, da das vom Morpheus nicht für die Kondensatoren unter der GPU gedacht ist und die original Backplate hätte dann auch nicht weiter verwendet werden können. Der Anpressdruck ist aber schon gewaltig auf dem Chip, auch beim Boxed Kühler.

Der Höhenunterschied ist aber auch nicht so Kritisch, 40µm sind weniger als ein Haar. Da dürften den Herstellern eher die 0,1mm höhen unterschied des Packages Probleme bereiten, wobei auch das in den üblichen Toleranzbereichen liegen dürfte, mit denen sie eh immer zu rechnen haben.

Mal schauen, wie es bei meiner Vega 56 ist, die geht wohl Montag zur Post und ich hab leider jetzt auch Lust ein Morpheus drauf zu packen, so ein Misst.

von Richthofen
2017-09-02, 18:02:57
Mal schauen, wie es bei meiner Vega 56 ist, die geht wohl Montag zur Post und ich hab leider jetzt auch Lust ein Morpheus drauf zu packen, so ein Misst.


Gut, die Abbildungen der einzelnen Varianten sind sicher nicht maßstabsgetreu:
http://www.tomshardware.de/amd-vega-package-probleme-unterschiede,news-258365.html
Es bleibt trotzdem zu hoffen, dass es auch eine "molded"sein wird. Das Problempotential erscheint mir einfach geringer.

Bin gespannt wann der erste eine unmolded-Version mit Flüssigmetallpaste umbaut.

G3cko
2017-09-02, 19:40:38
Also meine XFX Vega64 ist molded.

Th3o
2017-09-02, 23:27:59
@unl34shed
Was hat der Umbau gekostet? Bedarf es eines Profis diesen Umbau zu machen?

2Ms
2017-09-03, 03:11:34
Ich muss hier echt mal ein Lob an den Referenzkühler lassen,...

...unter Last kaum auf über 60°C zu bringen.

Bilder vom Umbau.
imgur Album (https://imgur.com/a/41C8y)
Ja, nicht der normale Umbau, ist bekannt.
Genau sowas möchte ich hier im Thread lesen. Nah dran am Consumer.
Bisher sah ich mehr oder weniger nur Spekulationen, warum es die 64 nicht bringt, oder auch die 56er nicht, aber selten, etwas über den alltäglichen Gebrauch der Hardware.
Also gerne mehr Experimente und Umbauten oder Mods. :)

Digidi
2017-09-03, 04:15:12
Dier Karte war molded und auch ohne Höhenunterschied. Wir haben den Kühler ohne die die Unterlegscheiben, die für Hawaii dabei waren montiert und um mögliches Kippen zu vermeiden die gegenüberliegenden Schrauben gleichzeitig reingeschraubt. Auch wurde das Original Haltekreuz(?) auf der Rückseite weiterverwendet, da das vom Morpheus nicht für die Kondensatoren unter der GPU gedacht ist und die original Backplate hätte dann auch nicht weiter verwendet werden können. Der Anpressdruck ist aber schon gewaltig auf dem Chip, auch beim Boxed Kühler.

Der Höhenunterschied ist aber auch nicht so Kritisch, 40µm sind weniger als ein Haar. Da dürften den Herstellern eher die 0,1mm höhen unterschied des Packages Probleme bereiten, wobei auch das in den üblichen Toleranzbereichen liegen dürfte, mit denen sie eh immer zu rechnen haben.

Mal schauen, wie es bei meiner Vega 56 ist, die geht wohl Montag zur Post und ich hab leider jetzt auch Lust ein Morpheus drauf zu packen, so ein Misst.
Sicher das die Karte molded ist? Auf den Bildern ist doch noch zwischen drin Wärmeleitpaste?

unl34shed
2017-09-03, 09:21:50
@unl34shed
Was hat der Umbau gekostet? Bedarf es eines Profis diesen Umbau zu machen?

Vega64 - 509€
Morpheus - 64€
eLoops - 30€
Kleinkram - <5€
--------------------
~600€

Das setzt natürlich voraus, dass eine passende Crimpzange (40€), Lötkolben und eine Fräse (vllt. geht auch ein Dremel) vorhanden ist. Will man das Lüfter-Kabel nicht selbst bauen geht auch als Alternative ein mini-PWM auf normalen PWM + PWM-Y-Adapter, fanden wir aber nicht wirklich sexy.

Kleinkram = MiniPWM Stecker und ein bisschen Schrumpfschlauch
Gehäuse: WR-WTB 620004113322
Kontakte: WR-WTB 62000113722
Buchse: WR-WTB 62000411622 <- Wird nicht benötigt, nur der Vollständigkeit halber

Sicher das die Karte molded ist? Auf den Bildern ist doch noch zwischen drin Wärmeleitpaste?

Ja, definitiv gemolded (= vergossen und plangefräst). Isopropanol war aus, deswegen wurde der Chip nur trocken abgewischt und es sind da ein paar winzige Reste hängen geblieben. Die Standard Wärmeleitpaste ist leider recht trocken.

Lowkey
2017-09-03, 10:33:57
Der Phobya PWM Adapter hätte es nicht getan?

Bei dem Umbau bekommt man Lust eine Vega zu kaufen und umzubauen - und sie in die Vitrine zu stellen ;)


Es ist jedes Mal ein Wunder, wenn eine Karte mit so einem Extrakühler fast passiv unter Last laufen könnte.


Edit: ach da hast Teile des AMD Kühlers weggesägt?

unl34shed
2017-09-03, 10:50:19
Das Problem ist, man braucht einen mini-PWM Y Adapter. Klar hätten wir auch den Phobya nehmen können und da die Lüfter anlöten, aber der war nicht da.
Ursprünglich war auch geplant mit den beiden Kabeln direkt in den Stecker zu fahren, aber die wirklich passende Crimpzange kommt trotz Prime Bestellung erst am Montag an. Und mit den vorhandenen Zangen war es ein zu großes gefummel und nicht zuverlässig hinzubekommen.

Ja, das sind die Teile die vom Referenzkühler übrig sind. Schöner wäre da noch ein flacher Kühlkörper über die komplette Fläche der Karte, aber dafür fehlt aktuell die CNC Fräse. Dann wäre der Umbau wirklich perfekt.
Und sägen ist so ein böses Wort, da wurde mit einer Fräse bearbeitet. Wenn man so etwas macht, dann richtig ;)

Lowkey
2017-09-03, 11:33:24
Den Mini PWM Adapter gibt/gab es bei Alpenföhn.
Sägen ist das, was man einfach machen kann. Fräsen ist etwas schwerer ohne passendes, teures Werkzeug.

Ich hätte wohl einen Kupferblock unter den Raijintek geschraubt. Die Lösung ähnelt der Lösung bei der Referenzedition der Nvidia Karten, wo man den Kühlkörper auf der GPU entfernt, aber die Spawas samt Lüfter auf der Karte läßt. Auf die GPU kommt dann die Asetek-Version in Rund per Kabelbinder (Adapter gibt es bei Arctic Cooling für ein paar Euro). Der Vorteil ist der, dass man keine Siegel bricht oder die Garantie verliert oder etwas dauerhaft verändern muss.

Screemer
2017-09-03, 12:29:29
ich hab immer den von gelid/phobya benutzt. am günstigsten ist der bei aquatuning, wenn man noch ein bisschen anderes zeug braucht: http://www.aquatuning.de/kabel/luefterkabel-und-adapter/20542/phobya-pwm-adapter-fuer-vga. auf ebay wenn gibts die auch für um die 3,20€ inkl.

Hardwarepro
2017-09-03, 13:06:36
Wäre die AIO Wasserkühlung nicht besser? Ich habe im HWLuxx eine Vega 56 für fast Herstellerpreis bekommen und habe gesehen, dass es immer wieder die Leute ihre zuviel bestellten Vegas im Luxx verkaufen. 509€ sind zu viel.

In meinem Fall wäre Vega 56 430€ + Alphacool Wakü 170€ auch 600€. :freak:

http://www.aquatuning.de/wasserkuehlung/sets-und-systeme/interne-sets/alphacool/eiswolf/22291/alphacool-eiswolf-120-gpx-pro-ati-rx-vega-m01-black?c=246

So wie Etherium jetzt wieder paar Doofies gefunden und der Preis ist wieder auf über 350€ gestiegen.

"Ein Doofie ist kein Mammute - stirbt nie aus"

horn 12
2017-09-03, 13:37:38
@akuji13

Wie zufrieden bist nun mit deiner VEGA 56
Lautstärkemässig und Performance Technisch ?
Würdest Dir die Karte nochmals kaufen, in Anbetracht auch auf deine Fury X bezogen?
Dank Dir!

akuji13
2017-09-03, 14:25:44
Insgesamt bin ich zufrieden.
Habe noch nie so lange eine Karte mit dem box Kühler genutzt. :D

Wie gesagt, er ist laut und die Temperatur auch recht hoch.
Allerdings durch den Aufstellungsort meines Rechners und dem angenehmen Geräusch des Lüfters mit Ton im Spiel zwar deutlich hörbar bei 2400 U/Min aber trotzdem ok.

Bei Spielen wo die Drehzahl die 1800 nicht überschreitet geht er schon fast völlig unter, ab 1600 höre ich es nur noch in ruhigen Zwischensequenzen.
Bei älteren Titel kommt die Drehzahl teilweise gar nicht über 900 und dann höre ich auch nichts mehr.

Was mich nicht stört aber mir erst jetzt wieder bewusst wird ist der Einfluß von Auflösung und fps auf die Lüfterdrehzahl.
Läuft ein Spiel z. B. nur in WQHD und/oder 60 fps ist diese deutlich geringer als in UHD (per VSR) oder mit 144 fps.
Das ist logisch, davon merkt man mit WaKü oder einer besseren Kühlung nur meist gar nichts.

Sowohl meine RX480 Red Devil, als auch Fury X oder Gigabyte Fury haben mich immer irgendwie gestört.
Bei der X war das Fiepen die Hölle, die anderen waren zwar leiser aber hatten eine blöde Frequenz.

Was die Leistung angeht ist es ok und auch das was ich erwartet habe.

Ein Bulletstorm ist mit FS und fps zwischen 100-144 fps ein Genuß. =)
Für ein Dishonored 2 reicht die performance in WQHD nicht aus für mich, das Spiel läuft hakelig und der Monitor schliert mir bei so wenigen frames zu stark, also wird es am NV Rechner weitergespielt.
Ein Watch Dogs 2 hat zwar auch weniger fps als am anderen Rechner, das läuft aber total weich und macht ebenfalls viel Spaß.
Die C-Liga Spiele wie Alien Rage oder Dead Effect (1+2) spielen sich gegenüber der 480 völlig anders und zwar um Längen besser.

Für 399€ hat es sich definitiv für mich gelohnt und ich würde sie wieder kaufen.
Die Fury (für 430€) oder die Fury X (729€) waren was P/L angeht mMn nicht so gut.

Was das Bild ein bißchen trübt ist der Treiber bzw. dessen Oberfläche, die stürzt mir häufiger mal ab wenn ich VSR aktivere oder GPU Skalierung.
Ist allerdings etwas was weniger wird weil man gerade am Anfang natürlich mehr probiert.

Der WattMan ist irgendwie auch nutzlos.
Ob ich nun Power Save nutze oder Turbo unterscheidet sich nur durch die Mhz, selbst im PS dreht der Lüfter bis auf 2400 hoch und die Temperatur sinkt zwar etwas aber nicht wie erhofft.

Alles in allem ist das Gesamtpaket sogar besser als von mir erwartet. :)

BeetleatWar1977
2017-09-03, 14:59:18
kurzer zwischenbericht von klein Beetle :biggrin:

meine Vega 56 - definitv zu warm^^


mal ernsthaft: Die im Bios hinterlegten Standardspannungen sind Crap, ich hab kein Problem bei Stocktaktungen um 150(!)mV zu Untervolten.......

momentan bin ich drüber die minimalen Spannungen bei den einzelnen Powerstates (und ja, es lassen sich alle beeinflussen) auszuloten.

btw: SoftPowerplay geht mit Vega, aber damit er die Werte übernimmt, neustarten, Wattman zurücksetzten, auf benutzerdefiniert gehen, manuell einstellen(da sollten dann bei den Spannungen schon die richtigen Werte stehen) und übernehmen.

Edit: HWinfo64 zeigt die Sensoren meiner Vega 56 an - incl. zB HBM-temps.....

https://abload.de/img/hwinfovusiq.jpg

horn 12
2017-09-03, 15:00:48
Vielen herzlichen Dank
Da derzeit noch meine Fury Nitro im Rechner werkelt, denke ich das 60% Lüfterspeed (Fury Nitro mit 2430 U/Min)
dem Geräusch der Vega 64 in etwa entspricht,- und dies wäre mir schon zu laut.
Fixiere ich den Lüfter bei Vega auf 2100 U/min werde ich wohl Leistung verlieren und Karte nicht höher als 1400 Mhz takten
Wie hoch taktet deine Karte unter ULTRA HD wenn Lüfter auf 2000 U/m beschränken würdest.

Gerade probiert, 49% Lüfter bei Fury sind 1975 Umdrehungen und dies würde für Vega auch passen,verliere aber Leistung dann.
Zudem bekommt mein Shop am Dienstag/ Mittwoch endlich die Sapphire Limited Edition rein und versendet dann.

anddill
2017-09-03, 17:58:10
Vega hat einen ganz andren Sound als die bisherigen AMD Referenz-Karten. Das übliche kräftige Surren des Lüfters gibt es bei Vega nicht. Dafür halt das Rauschen bis Zischen der durch den Kühler gepressten Luft, welches durch das Alu-Gehäuse noch verstärkt wird.

Ich hab inzwischen bei meiner Karte nochmal 100W "gefunden". Ich hab wohl noch nicht so ganz verstanden wie der ganze Sync- und Chillkram funktioniert. Ich hatte Chill an mit einer Range von 40-73Fps, und war der Meinung daß das dann halt für statische Ladebildschirme etc. gilt. Galt aber für alles, und offensichtlich versucht der Treiber die Framerate in der Mitte des vorgegebenen Bandes zu halten. was dann so etwa 56Fps sind, und die lagen dann meist an.
Ich hab jetzt das Band auf 60-73Fps gestellt, und hab im Spiel ca. 65/66 Fps (Mit Ausreißern natürlich). Der PC zieht jetzt bis zu 360W, im Mittel im Spiel 300-340W.
Dabei wird der Lüfter nun doch hörbar. Was erstaunlich ist ist die Dynamik, wie schnell und kräftig Leistungsaufnahme und Lüfter auf Scenenwechsel reagieren.
Ich bin schon am Überlegen ob ich mir nicht doch ein Gehäuse zulegen sollte, das nicht nur aus Löchern besteht. Wie gesagt, das Luftgeräusch des Ref-Kühlers ist gut zu bedämpfen.

MrNice
2017-09-03, 21:31:33
Servus zusammen,

ich habe grade auf meine funktionierende Vega, die vorher problemlos gelaufen ist, einen EKWB Kühler montiert und nun habe ich nach dem Einbinden ins System laufend Blackscreens.
Zu meinen restlichen Komponenten:

- Asus Z87-Pro
- Corsair RM650x
- 8GB DDR3 1600
- XFX Vega 64
420er Radi

Ich habe das Gefühl, dass die Krate nicht mehr so viel aus der Steckdose zieht. Das Problem stellt sich so dar, dass ich in den Games direkt einen Blackscreen bekomme. So wies aussieht, denke ich dass nur die Graka ein Problem hat, da auch die LEDs auf der Rückseite ausgehen. Davor mit dem Luftkühler war alles i.O. Die Beleuchtung von der Tastatur ist noch an, nur der Montior fährt in den Energiesparmodus.
Der KomplettPC hat vorher beim 3DMark Firestrike unter Luft und nur CPU unter Wasser, über 400W aus der Steckdose gezogen. Jetzt hat er nichtmal 300W, und ich glaube dass sie nicht mehr genug Strom bekommt. Kann ich die Lüfter Abfrage irgendwie deaktivieren? Weil ich glaube die Taktet einfach nicht mehr hoch. Ich habe Bios1 und Balanced gewählt.

Über Hilfe wäre ich dankbar.

phoenix887
2017-09-03, 21:42:24
Insgesamt bin ich zufrieden.
Habe noch nie so lange eine Karte mit dem box Kühler genutzt. :D

Wie gesagt, er ist laut und die Temperatur auch recht hoch.
Allerdings durch den Aufstellungsort meines Rechners und dem angenehmen Geräusch des Lüfters mit Ton im Spiel zwar deutlich hörbar bei 2400 U/Min aber trotzdem ok.

Bei Spielen wo die Drehzahl die 1800 nicht überschreitet geht er schon fast völlig unter, ab 1600 höre ich es nur noch in ruhigen Zwischensequenzen.
Bei älteren Titel kommt die Drehzahl teilweise gar nicht über 900 und dann höre ich auch nichts mehr.

Was mich nicht stört aber mir erst jetzt wieder bewusst wird ist der Einfluß von Auflösung und fps auf die Lüfterdrehzahl.
Läuft ein Spiel z. B. nur in WQHD und/oder 60 fps ist diese deutlich geringer als in UHD (per VSR) oder mit 144 fps.
Das ist logisch, davon merkt man mit WaKü oder einer besseren Kühlung nur meist gar nichts.

Sowohl meine RX480 Red Devil, als auch Fury X oder Gigabyte Fury haben mich immer irgendwie gestört.
Bei der X war das Fiepen die Hölle, die anderen waren zwar leiser aber hatten eine blöde Frequenz.

Was die Leistung angeht ist es ok und auch das was ich erwartet habe.

Ein Bulletstorm ist mit FS und fps zwischen 100-144 fps ein Genuß. =)
Für ein Dishonored 2 reicht die performance in WQHD nicht aus für mich, das Spiel läuft hakelig und der Monitor schliert mir bei so wenigen frames zu stark, also wird es am NV Rechner weitergespielt.
Ein Watch Dogs 2 hat zwar auch weniger fps als am anderen Rechner, das läuft aber total weich und macht ebenfalls viel Spaß.
Die C-Liga Spiele wie Alien Rage oder Dead Effect (1+2) spielen sich gegenüber der 480 völlig anders und zwar um Längen besser.

Für 399€ hat es sich definitiv für mich gelohnt und ich würde sie wieder kaufen.
Die Fury (für 430€) oder die Fury X (729€) waren was P/L angeht mMn nicht so gut.

Was das Bild ein bißchen trübt ist der Treiber bzw. dessen Oberfläche, die stürzt mir häufiger mal ab wenn ich VSR aktivere oder GPU Skalierung.
Ist allerdings etwas was weniger wird weil man gerade am Anfang natürlich mehr probiert.

Der WattMan ist irgendwie auch nutzlos.
Ob ich nun Power Save nutze oder Turbo unterscheidet sich nur durch die Mhz, selbst im PS dreht der Lüfter bis auf 2400 hoch und die Temperatur sinkt zwar etwas aber nicht wie erhofft.

Alles in allem ist das Gesamtpaket sogar besser als von mir erwartet. :)

Wie ist das Spielgefühl im Vergleich zu Nvidia? Weil ich überlege ein Sidegrade zu machen von der GTX1080 zur Vega 64. Weil es fühlt sich irgendwie falsch an ein Ryzen mit Nvidia zu paaren^^ oder meinst du es gibt sich nicht viel?

Botcruscher
2017-09-03, 21:59:09
Der Kühler ist auf jeden Fall kein Vergleich zu Hawaii. AMD soll mal lieber Treiber fixen. Bei 1030mV limitiert auf jeden Fall nicht der Kühler. Nur bei ETH Mining geht es an die 75°.

akuji13
2017-09-03, 22:14:40
Wie ist das Spielgefühl im Vergleich zu Nvidia? Weil ich überlege ein Sidegrade zu machen von der GTX1080 zur Vega 64. Weil es fühlt sich irgendwie falsch an ein Ryzen mit Nvidia zu paaren^^ oder meinst du es gibt sich nicht viel?

Da die andere Karte eine 1080 Ti ist muss man vorsichtig sein mit einem Vergleich.

Es gibt solche und solche Titel.
Dishonored 2 läuft viel schlechter (selbst im Vergleich zu einer 1070), ein Ashes of Singularity oder andere pro AMD Titel viel besser.
Die meisten Titel laufen der Leistung entsprechend und ohne Probleme.

In der Vergangenheit hatte ich mit FS häufiger Spiele wo es Probleme macht also nicht oder nicht richtig lief gegenüber GS, das kann nun aber auch ganz anders sein.

Insgesamt kann man sagen das gibt sich nicht viel.

-=Popeye=-
2017-09-03, 22:52:00
Wie ist das Spielgefühl im Vergleich zu Nvidia? Weil ich überlege ein Sidegrade zu machen von der GTX1080 zur Vega 64. Weil es fühlt sich irgendwie falsch an ein Ryzen mit Nvidia zu paaren^^ oder meinst du es gibt sich nicht viel?

Der Wechsel von deinem 5820k zu 1600X war schon sinnlos.

Und jetzt möchtest du von einer 1080 zu Vega64 wechseln, ernsthaft?

edit: Wenn du unbedingt Geld loswerden willst kannst du es auch einfach verbrennen.

Jake Dunn
2017-09-04, 00:22:09
momentan bin ich drüber die minimalen Spannungen bei den einzelnen Powerstates (und ja, es lassen sich alle beeinflussen) auszuloten.

btw: SoftPowerplay geht mit Vega, aber damit er die Werte übernimmt, neustarten, Wattman zurücksetzten, auf benutzerdefiniert gehen, manuell einstellen(da sollten dann bei den Spannungen schon die richtigen Werte stehen) und übernehmen.


Und wie?

2Ms
2017-09-04, 00:28:21
Servus zusammen,

ich habe grade auf meine funktionierende Vega, die vorher problemlos gelaufen ist, einen EKWB Kühler montiert und nun habe ich nach dem Einbinden ins System laufend Blackscreens.
Zu meinen restlichen Komponenten:

- Asus Z87-Pro
- Corsair RM650x
- 8GB DDR3 1600
- XFX Vega 64
420er Radi

Ich habe das Gefühl, dass die Krate nicht mehr so viel aus der Steckdose zieht. Das Problem stellt sich so dar, dass ich in den Games direkt einen Blackscreen bekomme. So wies aussieht, denke ich dass nur die Graka ein Problem hat, da auch die LEDs auf der Rückseite ausgehen. Davor mit dem Luftkühler war alles i.O. Die Beleuchtung von der Tastatur ist noch an, nur der Montior fährt in den Energiesparmodus.
Der KomplettPC hat vorher beim 3DMark Firestrike unter Luft und nur CPU unter Wasser, über 400W aus der Steckdose gezogen. Jetzt hat er nichtmal 300W, und ich glaube dass sie nicht mehr genug Strom bekommt. Kann ich die Lüfter Abfrage irgendwie deaktivieren? Weil ich glaube die Taktet einfach nicht mehr hoch. Ich habe Bios1 und Balanced gewählt.

Über Hilfe wäre ich dankbar.
War dein Chip gemolded ? Und hast du ein Monitoring-Programm wie HwInfo64 oder Afterburner installiert ?
Wäre schön, du würdest mal schauen, welche Temps beim Firestrike erreicht werden.

Wie wird der Full-Cover-Kühler eigentlich auf der Karte befestigt ? Sind doch nicht nur die schwarzen Schrauben (https://www.computerbase.de/bildstrecke/79403/1/), die man vonoben sehen kann, oder ? (Sind sie nicht! Die schwarzen Schrauben halten wohl nur die Plexiglasabdeckung auf dem Kühler)

Edit: Habe mir das Installations-Handbuch zum Kühler angesehen. Bei den Unmengen an Schrauben hätte ich Angst, das Die durch den Kühler zuzerquetschen. Aber wird ja nicht deine erste Montage sein.

Dann vielleicht den Treiber nochmals installieren, auf richtigen Sitz der Graka im Slot achten, alle PCIe-Kabel vom Netzteil anschließen ;), und ... hoffen !
2. Edit: Vergleiche dochmal deine Daten mit denen von "Achill" im Vega-Review-Extra (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11480436#post11480436).

Mortalvision
2017-09-04, 07:30:46
Kühler verkantet?

phoenix887
2017-09-04, 09:45:32
Da die andere Karte eine 1080 Ti ist muss man vorsichtig sein mit einem Vergleich.

Es gibt solche und solche Titel.
Dishonored 2 läuft viel schlechter (selbst im Vergleich zu einer 1070), ein Ashes of Singularity oder andere pro AMD Titel viel besser.
Die meisten Titel laufen der Leistung entsprechend und ohne Probleme.

In der Vergangenheit hatte ich mit FS häufiger Spiele wo es Probleme macht also nicht oder nicht richtig lief gegenüber GS, das kann nun aber auch ganz anders sein.

Insgesamt kann man sagen das gibt sich nicht viel.

ok danke

Der Wechsel von deinem 5820k zu 1600X war schon sinnlos.

Und jetzt möchtest du von einer 1080 zu Vega64 wechseln, ernsthaft?

edit: Wenn du unbedingt Geld loswerden willst kannst du es auch einfach verbrennen.

Das hatte andere private Gründe. Außerdem lag ein halbes Jahr dazwischen. Ryzen war eine günstige Alternative wieder 6c/12 zu haben. Einfach mit vorschnelle Verurteilungen zurückhalten;)

Sicness
2017-09-04, 09:55:41
Servus zusammen,

ich habe grade auf meine funktionierende Vega, die vorher problemlos gelaufen ist, einen EKWB Kühler montiert und nun habe ich nach dem Einbinden ins System laufend Blackscreens.
Zu meinen restlichen Komponenten:

- Asus Z87-Pro
- Corsair RM650x
- 8GB DDR3 1600
- XFX Vega 64
420er Radi

Ich habe das Gefühl, dass die Krate nicht mehr so viel aus der Steckdose zieht. Das Problem stellt sich so dar, dass ich in den Games direkt einen Blackscreen bekomme. So wies aussieht, denke ich dass nur die Graka ein Problem hat, da auch die LEDs auf der Rückseite ausgehen. Davor mit dem Luftkühler war alles i.O. Die Beleuchtung von der Tastatur ist noch an, nur der Montior fährt in den Energiesparmodus.
Der KomplettPC hat vorher beim 3DMark Firestrike unter Luft und nur CPU unter Wasser, über 400W aus der Steckdose gezogen. Jetzt hat er nichtmal 300W, und ich glaube dass sie nicht mehr genug Strom bekommt. Kann ich die Lüfter Abfrage irgendwie deaktivieren? Weil ich glaube die Taktet einfach nicht mehr hoch. Ich habe Bios1 und Balanced gewählt.

Über Hilfe wäre ich dankbar.

Hast du dich genau an die Anleitung gehalten und die dicken und duennen Pads korrekt angebracht? Ich wuerde den Block nochmal deinstallieren und nachsehen, ob ueberall Kontakt zwischen Waermeleitmittel und Kuehler gegeben ist.

Rancor
2017-09-04, 09:59:47
Also ein Wechsel von einer 1080TI zu einer VEGA 64 macht imho wenig Sinn.

Megamember
2017-09-04, 10:33:23
Also ein Wechsel von einer 1080TI zu einer VEGA 64 macht imho wenig Sinn.

http://www.esreality.com/files/placeimages/2008/64163-thx4info.jpg

phoenix887
2017-09-04, 10:57:09
Also ein Wechsel von einer 1080TI zu einer VEGA 64 macht imho wenig Sinn.

Habe eine 1080 non Ti. JA wie gesagt, würde ich es psychologische Gründe haben, ein reines AMD System zu haben. Bei Akuji13 hat sich die Frage angeboten, da er direkt vergleichen kann..daher meine Frage und hat es sich erledigt. Da muss man jetzt nicht so ne Welle machen:biggrin:

Botcruscher
2017-09-04, 11:15:47
Wenn die 1080 gut weggeht und die 56 für 399 zu bekommen ist geht das schon. Lohnt zwar nicht von der Geschwindigkeit aber es ist auch kein finanzielles Problem.
Dishonored 2 ist ja schon seit Erscheinen der letzte Softwaremüll.

MrNice
2017-09-04, 13:20:58
Servus,

ich habe gestern nochmal den Kühler runtergeschraubt und direkt gesehen, dass der Abdruck der WLP auf dem Kühler kein Quadrat sondern nur halb auf dem Wasserkühler war. Dann ist mir aufgefallen, dass ich dieses Quadrat, dass unter dem Chip montiert war, und mit Federn den Druck zwischen PCB und Kühler erhöht, nicht montiert war. Als dass dann festgeschraubt war, waren die Blackscreens verschwunden.

Leider muss ich jetzt feststellen, dass die Karte wohl nicht vernünftig hochtaktet, wenn Last anliegt. Wenn ich bspw. Furmark in 720p im Window laufen lasse, habe ich einen GPU Takt zwischen 950 und 1300MHz, der RAM droppt auch immer wieder von 945MHz auf 800MHz. Kurzzeitig bspw. in Firestrike Extreme taktet sie hoch auf 1532MHz, hält den Takt aber nicht konstant auf maximaler Leistung.

Die Karte läuft mit dem Bios1 und Balanced Profile. Das nächste Problem ist, wenn ich im Wattmann etwas einstelle, habe ich wieder Blackscreens. Ich wollte der Karte einfach mal etwas mehr Power geben, um zu sehen, ob der Takt konstanter auf Max oder kurz darunter bleibt, und habe das Powerlimit um 20% erhöht, doch dann gibts wieder Blackscreens.

Bin grad @work, werde weiter testen, wenn ich daheim bin.

2Ms
2017-09-04, 13:28:27
... Das nächste Problem ist, wenn ich im Wattmann etwas einstelle, habe ich wieder Blackscreens. Ich wollte der Karte einfach mal etwas mehr Power geben, um zu sehen, ob der Takt konstanter auf Max oder kurz darunter bleibt, und habe das Powerlimit um 20% erhöht, doch dann gibts wieder Blackscreens.

Treiberbug im 17.8.2
Solltest auf eine ältere Version downgraden.

MrNice
2017-09-04, 13:37:04
Wenn ich das noch richtig in Erinnerung habe, hatte ich gestern bei den Problemen auf den 17.8.1 downgegraded und dieser zeigt leider auch die Probleme.

RoughNeck
2017-09-04, 13:52:13
Die Treiber für Vega sind aktuelle leider der letzte Müll.
Deswegen liegt die Karte auch hier neben mir. Zudem können die Tools auch noch nicht mit Vega, da warte ich mal ab bis AMD einen brauchbaren Treiber bringt.

horn 12
2017-09-04, 13:59:19
Echt, so mies die Treiber und die Hardware so toll ...

Muss ich meine Karte abbestellen,- denn jene wird morgen auf Lager sein...
Meine Fury hat auch Käufer gefunden für 285 Euro :-)

Zergra
2017-09-04, 14:02:47
Ich habe mit allen Treiber bis auf den Beta6 das Problem das nach einem Start entweder der Monitor mit 30Hz angetrieben wird -> Monitor an aus oder das die Codecs verbugt sind. Daher sobald ein Video geöffnet wird spackt alles herum, da hilft nur ein Neustart.

Mir geht das echt auf die nerven...

RoughNeck
2017-09-04, 14:22:11
FreeSync hat sich bei mir in Game einfach abgeschalten (Monitor ist ein iiyama G-Master GB2760QSU-B1) und lief nach dem Neustart auch nur mehr mit 30 HZ.
Musste dann immer das DisplayPort Kabel ab und anstecken, dann ging es wieder. Ich warte einfach ab, die TI tut was sie soll und bis Weihnachten sind die Treiber hoffentlich soweit brauchbar das ein 24/7 Betrieb möglich ist.

MrNice
2017-09-04, 17:20:03
Hab gerade mal den Wattmann auf Turbo gestellt und keine Benutzerdefinierten Einstellungen vorgenommen.

Anbei eine Grafik vom GPU und Mem Clock. Dieser bleibt trotz Benchmarkrun nicht konstant auf dem Maximal Takt. Ist das normal, oder sollte der bei Last konstant sein?

https://abload.de/thumb/wattmann_graph_clockoijp3.jpg (http://abload.de/image.php?img=wattmann_graph_clockoijp3.jpg)

Achill
2017-09-04, 18:49:04
Hab gerade mal den Wattmann auf Turbo gestellt und keine Benutzerdefinierten Einstellungen vorgenommen.

Anbei eine Grafik vom GPU und Mem Clock. Dieser bleibt trotz Benchmarkrun nicht konstant auf dem Maximal Takt. Ist das normal, oder sollte der bei Last konstant sein?

https://abload.de/thumb/wattmann_graph_clockoijp3.jpg (http://abload.de/image.php?img=wattmann_graph_clockoijp3.jpg)

Den Benchmark müsstest du mal noch sagen - dann kann ich bei mir schauen - aber auf den ersten Blick sieht es normal aus. Hier mal der "Valley Benchmark" im Fenster:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61068

Beim Wechsel der Szene geht GPU- und HBM2-Takt runter. Wenn die GPU nicht ganz ausgelastet wird (grüne Kurfe), dann geht der Takt auch runter (orange).

--

MrNice
2017-09-04, 19:14:22
Ja klar, sorry. Das war der Unigine Heaven Bench im Fenster in 1080p.
Ok, dann schaut das also normal bei mir aus.

Gerade habe ich BF1 gestartet, und hatte ein komisches Problem. Treiber ist inzwischen wieder der 17.8.2 mit Profil Turbo Bios1.
Habe mal eine Kampagnen Mission geladen, hatte ein Overlay laufen, und im Menü 1200MHz core takt, im Ladescreen auf 80, nach dem Laden der Mission hat die Karte nicht mehr hochgetaktet und ist bis max 800MHz gegangen.
Also beendet, ein Profil für BF1 angelegt und wieder rein, sonst nichts geändert, und die Karte taktet hoch.

Naja, aber jetzt funzt bei mir auch der Wattman besser, ich kann jetzt auch das PT ändern, ohne dass ich blackscreens habe.

Steve1
2017-09-04, 22:47:35
Habe seit letzter Woche Freitag auch die Vega 56, leider habe ich eine unscharfe Schriftqualität meist im Browser (Firefox, Edge). Mit meiner Radeon 7950 war die Schriftqualität scharf.

Zergra
2017-09-04, 23:59:53
Kann es sein das 10Bit im Treiber an sind oder VSR, war bei mir so...

Steve1
2017-09-05, 00:36:00
10 Bit sind bei mir eingestellt, was ist besser (8 oder 12 Bit)? VSR ist bei mir ausgeschaltet.

akuji13
2017-09-05, 06:31:14
Du kannst 12 Bit auswählen?

foenfrisur
2017-09-05, 07:09:18
Gpu Skalierung aktivieren, kann es auch sein.

Mfg

NikLaw
2017-09-05, 07:10:15
Ich habe ja auch mit einer RX 56 geliebäugelt und hätte sogar eine für 399 EUR haben können, da ich zufällig bei Mindfactory war.

Wenn ich von den ganzen Problemen hier lese, bleib ich wohl bei meiner RX 480. Wer weiß, ob überhaupt noch ein Treiber für die Vega kommt, der vernünftig funktioniert.

Vielleicht war es auch ein Fehler auf Freesync zu setzen, im Moment läuft ja alles gut bei mir, aber ob AMD mit Navi nochmal richtig auf die Beine kommt? Ich hab da so meine Zweifel.

G3cko
2017-09-05, 07:15:49
Also bei mir läuft bisher alles. Aber vielleicht sind meine Ansprüche auch nicht so hoch, dass ich nun direkt 2 Wochen nach release anfange alles zu untersuchen wo der Treiber noch seine Probleme hat... Ich zocke dann halt einfach.

BeetleatWar1977
2017-09-05, 07:30:36
Und wie?
Irgendwo in dem Fred http://www.overclock.net/t/1633446/preliminary-view-of-amd-vega-bios verstecken sich die Antworten, wenn ich Zeit habe, mach ich mal ne Deutsche Anleitung.

https://abload.de/img/wattmannmojdy.jpg
meine momentanen 24/7 Settings^^


Habe seit letzter Woche Freitag auch die Vega 56, leider habe ich eine unscharfe Schriftqualität meist im Browser (Firefox, Edge). Mit meiner Radeon 7950 war die Schriftqualität scharf.
hatte ich auch - musste ClearType neu einstellen!

Hübie
2017-09-05, 07:56:26
Ich weiß nicht ob dass alle wissen, aber man kann im Wattman einen Rechtsklick im Taktdiagramm machen und z.B. die ganz rechte, vertikale Linie "als Minimalzustand" definieren. Dann taktet die nicht mehr herunter, sobald Last abfällt. :smile:

dildo4u
2017-09-05, 09:23:15
Hardocp: AMD Radeon RX Vega 64 versus Radeon R9 Fury X

https://www.hardocp.com/article/2017/09/05/amd_radeon_rx_vega_64_versus_r9_fury_x/15

Hübie
2017-09-05, 09:48:45
Warum zum Teufel kauen die immer und immer wieder die alten Schinken durch, die sicherlich jeder hier Anwesende, der halbwegs Interesse an den Titeln hat, durchgezockt hat? Das ist doch nicht Status quo. Oder wollen die vermitteln, dass man doch bitte nur alte Spiele spielen soll, wenn man Vega hat? :rolleyes:

VooDoo7mx
2017-09-05, 09:59:57
Hardocp: AMD Radeon RX Vega 64 versus Radeon R9 Fury X

https://www.hardocp.com/article/2017/09/05/amd_radeon_rx_vega_64_versus_r9_fury_x/15

Hier sieht man echt nochmal wie unglaublich schlecht das Teil eigentlich ist. Wenn man mal GM200 mit GP102 vergleicht konnte bei etwa gleichen Stromverbrauch die Leistung um ~80% und mehr gesteigert werden.
AMD schafft bei so einen Generationssprung gerade mal 30% mehr Leistung bei gestiegenen Stromverbrauch und über 1 Jahr Verspätung.
Man hat ja immer gesagt, dass Vega 10 Fiji done right ist aber das ganze Design ist nochmal inefiizienter und schlechter ausbalanciert geworden. im Endefekkt ist Vega 10 Fiji done even wronger.
Sorry aber der Vega Chip ist einfach nur schlecht. Richtig schlecht. Der schlechteste AMD GPU seit R600.

dildo4u
2017-09-05, 10:00:05
Warum zum Teufel kauen die immer und immer wieder die alten Schinken durch, die sicherlich jeder hier Anwesende, der halbwegs Interesse an den Titeln hat, durchgezockt hat? Das ist doch nicht Status quo. Oder wollen die vermitteln, dass man doch bitte nur alte Spiele spielen soll, wenn man Vega hat? :rolleyes:

Das Meiste neue ist ja noch nicht raus Mass Effect,Dirt 4 und Sniper Elite 4 sind von 2017.Ein Test zum Ende des Jahres mit Battlefront 2,Wolfenstein 2 und Destiny 2 wäre aber interessant.

akuji13
2017-09-05, 10:25:19
Manchmal kann man sich aber auch nur an den Kopf fassen...warum vergleicht man die Fury nicht mit der Liquid?

RoughNeck
2017-09-05, 11:51:40
Manchmal kann man sich aber auch nur an den Kopf fassen...warum vergleicht man die Fury nicht mit der Liquid?

Vielleicht habens keine bekommen?!
Ist ja nicht so als könnte AMD die Nachfrage decken, da werden die Karten auch lieber verkauft als zum testen geschickt.
Aber ich gebe dir recht, die Liquid macht vieles besser, nur beim Verbrauch ist die Out of the Box schlimmer.

Piefkee
2017-09-05, 12:53:59
Hier sieht man echt nochmal wie unglaublich schlecht das Teil eigentlich ist. Wenn man mal GM200 mit GP102 vergleicht konnte bei etwa gleichen Stromverbrauch die Leistung um ~80% und mehr gesteigert werden.
AMD schafft bei so einen Generationssprung gerade mal 30% mehr Leistung bei gestiegenen Stromverbrauch und über 1 Jahr Verspätung.
Man hat ja immer gesagt, dass Vega 10 Fiji done right ist aber das ganze Design ist nochmal inefiizienter und schlechter ausbalanciert geworden. im Endefekkt ist Vega 10 Fiji done even wronger.
Sorry aber der Vega Chip ist einfach nur schlecht. Richtig schlecht. Der schlechteste AMD GPU seit R600.

Dem kann ich leider nur zustimmen. Bin wirklich AMD/RTG treu. Aber Vega ist für mich defintiv gescheitert. Zumindest was Gaming betrifft.

AMD hat sich mit Vega 10 vollkommen auf das Profi Geschäft konzentiert, weil da einfach die höheren Gewinne zu machen sind. Und da sieht Vega 10 wirklich gut aus.( Siehe Nvidia Patch für GP102/GP100).

Was ich wirklich interessant finde ist die Analyse von AdoredTV über Vega. AMD hat den großen Fehler gemacht sein komplettes LineUp vorzustellen für 2016-2017. In dem LiniUp ist für 2016 kein HPC vorgesehen. Nvidia wusste also das von AMD nichts im HPC kommt, erst 2017. Das ist meiner Meinung auch der Grund warum GP104 (1080), der eigentlich der Performance Chip ist, im High Performanace bereich verkauft wird, natürlich auch für den Preis. War ziemlich Dumm von AMD...

akuji13
2017-09-05, 13:41:08
Vielleicht habens keine bekommen?!
Ist ja nicht so als könnte AMD die Nachfrage decken, da werden die Karten auch lieber verkauft als zum testen geschickt.
Aber ich gebe dir recht, die Liquid macht vieles besser, nur beim Verbrauch ist die Out of the Box schlimmer.

Na dann lasse ich den Teil des Tests weg oder besorge mir eine.

Ich habe keine Ahnung wie groß der Einfluß bei Vega/Fury ist, aber mit meiner 470 damals war es ein riesiger Unterschied.
Durch eine WaKü oder einen custom Luftkühler wie dem Peter sank die Leistungsaufnahme deutlich bei gleichzeitiger Taktsteigerung.

Daredevil
2017-09-05, 13:59:52
Vielleicht geht AMD ja hier auch den 2 Step Ryzen weg.

Breites Produkt mit wenig Takt weil Abwärme und im nächsten Step hat man immer noch ein breites Produkt, senkt die Abwärme und schraubt nur am Takt.

Tick Kerne > Tock IPC+Takt? :D

Für mich wars das auch mit Vega.
Meine 980ti ist ein zu guter Deal, dass sich ein "aufrüsten" nicht lohnt.

RoughNeck
2017-09-05, 14:20:10
Na dann lasse ich den Teil des Tests weg oder besorge mir eine.

Ich habe keine Ahnung wie groß der Einfluß bei Vega/Fury ist, aber mit meiner 470 damals war es ein riesiger Unterschied.
Durch eine WaKü oder einen custom Luftkühler wie dem Peter sank die Leistungsaufnahme deutlich bei gleichzeitiger Taktsteigerung.

Die Liquid hält ohne einzugreifen ziemlich gut die 1700 MHZ, mit Ausreißern nach oben (1750 MHZ) und Ausreißern nach unten (1550 - 1600 MHZ).
Mit reduzierten Volt und höheren PT hält die Karte dann dauerhaft die 1750 MHZ.
Wenn AMD dann endlich mal die Treiber im Griff hat und die Features freigeschalten hat, dann ist Vega zu empfehlen.

Jake Dunn
2017-09-05, 14:31:02
Hardocp: AMD Radeon RX Vega 64 versus Radeon R9 Fury X

https://www.hardocp.com/article/2017/09/05/amd_radeon_rx_vega_64_versus_r9_fury_x/15

Vega mit altem Treiber, Wakü vs. Luft :rolleyes:

scully1234
2017-09-05, 17:32:10
Manchmal kann man sich aber auch nur an den Kopf fassen...warum vergleicht man die Fury nicht mit der Liquid?


Warum macht man Vergleiche des Top Dogs nicht immer mit H2O?

Wo würden dann im Vergleich wohl andere Karten performen...

Die Mehrzahl der Interessenten sind nun mal immer noch der Blödmarkt Käufer, der solch ein gestelltes H2O Szenario gar nicht einsortieren könnte, gegen andere Karten die die selbe Leistung und noch mehr auch bereits mit Luft adäquat bewältigen

Grendizer
2017-09-05, 19:40:49
Warum macht man Vergleiche des Top Dogs nicht immer mit H2O?

Wo würden dann im Vergleich wohl andere Karten performen...

Die Mehrzahl der Interessenten sind nun mal immer noch der Blödmarkt Käufer, der solch ein gestelltes H2O Szenario gar nicht einsortieren könnte, gegen andere Karten die die selbe Leistung und noch mehr auch bereits mit Luft adäquat bewältigen


Bin mir gerade nicht sicher wie ich das alles einsortieren soll. Wenn ich eine Vega 64 Liquid vergleiche, dann muss ich sie auf Grund des Preisniveaus gegen eine 1080 TI benchen, ansonsten paßt es nicht.
Ich denke auch das bei Media Markt und Saturn vor allem Karten bis 1050 bzw. 460/470 umgesetzt werden, ist aber eine reine Vermutung meinerseits.

akuji13
2017-09-05, 19:47:14
Eine Liquid ist übrigens genau wie die Fury X durchaus für genannte Käuferschicht gedacht durch die AiO. ;)

Grendizer
2017-09-05, 19:49:04
Eine Liquid ist übrigens genau wie die Fury X durchaus für genannte Käuferschicht gedacht durch die AiO. ;)

Meinst du wirklich das jemand einfach so 750 Euro beim Media Markt für eine Grafikkarte hinlegt ? Ich weiss nicht...

N0Thing
2017-09-05, 19:49:30
Warum macht man Vergleiche des Top Dogs nicht immer mit H2O?

Wo würden dann im Vergleich wohl andere Karten performen...

Die Mehrzahl der Interessenten sind nun mal immer noch der Blödmarkt Käufer, der solch ein gestelltes H2O Szenario gar nicht einsortieren könnte, gegen andere Karten die die selbe Leistung und noch mehr auch bereits mit Luft adäquat bewältigen

Die Fury X wurde nun einmal mit einer Wasserkühlung ausgeliefert, da wäre ein Direktvergleich mit der V64 Liquid schon interessant. Eine GTX 1080Ti wäre ja weiterhin in Front, da muß man sich keine Sorgen machen und gleich fordern, daß alle Karten in Benchmarks unter Wasser gesetzt werden, damit AMD ja nicht zu gut aussehen könnte.

akuji13
2017-09-05, 22:41:19
Meinst du wirklich das jemand einfach so 750 Euro beim Media Markt für eine Grafikkarte hinlegt ? Ich weiss nicht...

Nein.

Bei uns im örtlichen MM gab es nie eine Fury X und auch keine Vega Liquid.
Es gibt dort nahezu keine Grafikkarten außer den absoluten low cost Dingern, es könnte also gar keiner kaufen. :wink:

Man muss aber nicht blöd sein um solche Karten zu kaufen.
Foren übergreifend erkenne ich schon Interesse an Karten mit relativ guten Temperaturen/Performance dank der AiO.
Etliche wollen das ohne einen Aufwand betreiben zu müssen.

Letztlich geht es aber auch nur darum das wie bereits erwähnt ein richtiger Vergleich Vega Liquid vs. Fury X hätte lauten müssen.

-=Popeye=-
2017-09-05, 23:49:18
Kann dieses Media Markt und Saturn Geschwafel auch nicht nachvollziehen, hier bekommt man dort maximal GTX1060 oder RX 480, alles darüber gibt es nur in deren Online Shops.

Jake Dunn
2017-09-06, 01:36:36
Irgendwo in dem Fred http://www.overclock.net/t/1633446/preliminary-view-of-amd-vega-bios verstecken sich die Antworten, wenn ich Zeit habe, mach ich mal ne Deutsche Anleitung.

https://abload.de/img/wattmannmojdy.jpg
meine momentanen 24/7 Settings^^


:up:



GPU-Z 2.3.0 unterstützt nun Vega :)

https://abload.de/img/exta3e.jpg (http://abload.de/image.php?img=exta3e.jpg)

hq-hq
2017-09-06, 09:04:55
Kann dieses Media Markt und Saturn Geschwafel auch nicht nachvollziehen, hier bekommt man dort maximal GTX1060 oder RX 480, alles darüber gibt es nur in deren Online Shops.

den Märkten sind die Preise nicht stabil genug und für die großen Grakas kommen zu wenig Kunden, darum gibts die wie du sagst nur online :freak:
aber du kannst die online bestellen und in einen Markt liefern lassen ^^

Loeschzwerg
2017-09-06, 12:27:19
Es geschehen noch Zeichen und Wunder, meine Air Limited ist unterwegs :uup:

bnoob
2017-09-06, 13:17:00
Alternate bekommt am 12.9. wieder Vega 56 rein und bedient damit die übrig gebliebenen 399€-Besteller (mich, höhö)

Quelle: Alternate-Hotline, gerade

Mangel76
2017-09-06, 16:35:36
Alternate bekommt am 12.9. wieder Vega 56 rein und bedient damit die übrig gebliebenen 399€-Besteller (mich, höhö)

Quelle: Alternate-Hotline, gerade

Gut zu wissen. Ich warte nämlich auch noch auf meine :-)

Beeblebrox
2017-09-06, 16:55:02
Danke für die Info. Wird meine erste Referenzkarte seit Jahren. Brauche aber ein neues Spielzeug :smile:

RoughNeck
2017-09-06, 17:55:52
http://www.guru3d.com/articles_pages/asus_radeon_rog_rx_vega_64_strix_8gb_review,8.html

Die Strix is ja mal ein richtiger Fail.
Langsamer als die Referenz, dabei nur unwesentlich kühler und leiser. Erinnert mich an die 290X.

horn 12
2017-09-06, 18:03:54
Was hast Du für Deine Limited Edition bitte Bezahlt
Ital. Shop hat Karte auf Lager, ganze 2 Stück davon,- ----> aber der Preis... 759 Euro!

Mein Shop hat eben noch keine erhalten,
Zugreifen bei der Sapphire Vega 64 Limited Edition für 759 Euro inkl. Versand .... Ist mir dann doch fast etwas zu hoch gegriffen !

https://www.eprice.it/schede-video-SAPPHIRE/d-10600031

Thunder99
2017-09-06, 18:05:51
http://www.guru3d.com/articles_pages/asus_radeon_rog_rx_vega_64_strix_8gb_review,8.html

Die Strix is ja mal ein richtiger Fail.
Langsamer als die Referenz, dabei nur unwesentlich kühler und leiser. Erinnert mich an die 290X.
Hier ist es anders:
https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

Wer hat Recht? ;) :confused:

Korvaun
2017-09-06, 18:27:52
Was hast Du für Deine Limited Edition bitte Bezahlt
Ital. Shop hat Karte auf Lager, ganze 2 Stück davon,- ----> aber der Preis... 759 Euro!

Mein Shop hat eben noch keine erhalten,
Zugreifen bei der Sapphire Vega 64 Limited Edition für 759 Euro inkl. Versand .... Ist mir dann doch fast etwas zu hoch gegriffen !

https://www.eprice.it/schede-video-SAPPHIRE/d-10600031

Lol, horn12, du bist echt ein eisenharter Fanboi ;)
Für das Geld bekommt man ne ordentliche 1080Ti Custom, die um Welten besser ist als ne Ref-Vega64... und da regen sich die Leute immer über die nV Abzock Preise auf, tsts...

RoughNeck
2017-09-06, 18:49:37
Hier ist es anders:
https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

Wer hat Recht? ;) :confused:

CB hatte ein Vorserienmodell.
Guru3D eine Retail Karte.

Grendizer
2017-09-06, 19:00:21
Edit:

Schlammsau
2017-09-06, 19:42:06
So oder so, die Vega64 kratzt gerade so an der GTX1080 und das bei fast doppelter :eek: Verlustleistung.
Das muss man auch erst mal schaffen aber die Miner werden AMD da schon aus der Patsche helfen wenn es stimmt, dass man seine V64 auf über 43MH/s prügeln kann.

Man merkt, dass ich ein wenig enttäuscht bin was? :biggrin:

Daredevil
2017-09-06, 19:45:12
Solang es nicht die einzige Karte am Markt ist, braucht man auch nicht enttäuscht sein.
Wenn man den Fehler macht und 8 Monate auf ne Karte wartet, während alle anderen ihre Games in 4k zocken mit ner soliden 1080, ist man halt selbst schuld. :D

bnoob
2017-09-06, 19:47:25
Ich behelfe mir bis dahin mit dem Vergleich 780 - 290X über die Jahre :)

Natürlich ist mir klar, dass eine 1070 die bessere Option zum jetzigen Zeitpunkt wäre, aber ich kaufe nunmal nicht jedes Jahr eine neue Grafikkarte, und meine ATi/AMD-Karten sind eigentlich immer gut gereift. nVidia zu kaufen würde mir gegen den Strich gehen, und die Vega 56 ist zumindest technologisch gesehen das interessantere Stück Hardware.

Ex3cut3r
2017-09-06, 19:47:50
Solang es nicht die einzige Karte am Markt ist, braucht man auch nicht enttäuscht sein.
Wenn man den Fehler macht und 8 Monate auf ne Karte wartet, während alle anderen ihre Games in 4k zocken mit ner soliden 1080, ist man halt selbst schuld. :D
So siehts aus, wenn man allerdings einen Freesync Bildschirm hat, hat man keine andere Wahl. Und dann verstehe ich es auch.

horn 12
2017-09-06, 19:58:32
Eben FreeSync LG 27UD68-P /B
und der Preis fällt schon noch, spätestens Oktober.

Daredevil
2017-09-06, 20:07:41
So siehts aus, wenn man allerdings einen Freesync Bildschirm hat, hat man keine andere Wahl. Und dann verstehe ich es auch.
Ich hab nen Freesync Monitor. :redface:

Raff
2017-09-06, 20:16:46
Ich prophezeie gute Vega-56-Herstellerdesigns. Die 64er wird aber wohl ein heißes, lautes Ding bleiben – es sei denn, man rückt da mit richtig viel Metall (Triple-Slot) oder LCE-mäßig mit Flüssigkeit an.

MfG,
Raff

Daredevil
2017-09-06, 20:25:47
Ich schließ da auch nen 360er Radi an, wenn die Karte potential hat. :D
Leider starte ich nicht von "Nichts", sondern von einer 980ti und da habe ich manchmal das Gefühl, Vega56 ist seine Schwester und fast genauso von Leistung als auch Verbrauch her. ( Out of the Box.. )

TGKlaus
2017-09-06, 20:34:13
Ich prophezeie gute Vega-56-Herstellerdesigns.

Kann man damit noch im November rechnen?

von Richthofen
2017-09-06, 20:39:36
GPU-Z 2.3.0 unterstützt nun Vega :)

https://abload.de/img/exta3e.jpg

Dann könnten doch die Vega-Besitzer bitte mal testen ob sich ein ASIC-Wert auslesen lässt. Oder fällt das wie bei Pascal hintenrunter?

Jake Dunn
2017-09-06, 20:46:37
Dann könnten doch die Vega-Besitzer bitte mal testen ob sich ein ASIC-Wert auslesen lässt. Oder fällt das wie bei Pascal hintenrunter?

Geht nich

mighty_qwerty
2017-09-06, 20:49:21
Dann könnten doch die Vega-Besitzer bitte mal testen ob sich ein ASIC-Wert auslesen lässt. Oder fällt das wie bei Pascal hintenrunter?

immer noch "not supported... "

Zergra
2017-09-06, 20:55:15
Die Lüfter Drehzahl wird ja auch noch falsch ausgelesen ?

Hasenpfote
2017-09-06, 21:03:15
Ich prophezeie gute Vega-56-Herstellerdesigns.Dein Wort in Gottes Gehörgang. Aktuell hat ja nur Asus eigene Vega Designs angekündigt. Angeblich sollten ja Mitte September Vega Customs kommen. Auch da ist bisher nix von zu sehen. :confused:

Thunder99
2017-09-06, 21:25:42
CB hatte ein Vorserienmodell.
Guru3D eine Retail Karte.
Komisch. Zwischen verkackt, Montagsmodell oder "defekt" kann da alles sein. Der Unterschied ist zu groß, dass es immer so ist :confused:. Wenn doch, wer hat dann bei ASUS die Karte durchgewunken? :freak:

dildo4u
2017-09-06, 21:35:45
Asus lässt die 1080 Ti mit dem Kühler nur mit 280 Watt laufen,der Chip will einfach zu viel Saft.Wenn man sich die 1080 Ti Test's so durchliest scheint bei 280 Watt das Sinvolle Limit für ne Luftgekühlte Karte zu sein.
Die 1080 Ti AMP Xtreme von Zotac ist z.b deutlich Lauter als der Rest der Custom 1080 Ti und liegt auch bei 320 Watt wie Vega Strix.

aufkrawall
2017-09-06, 21:37:46
Manuelle Lüfterkurve geht mit Afterburner + Vega btw. nicht, weil AMD wieder irgendwas zusammengstrichen hat.

Erbsenkönig
2017-09-06, 22:23:27
Manuelle Lüfterkurve geht mit Afterburner + Vega btw. nicht, weil AMD wieder irgendwas zusammengstrichen hat.

Ach, das ist ja nett. Weiß man schon, ob es nie gehen wird? Oder ist es nur eine temporäre Einschränkung?

aufkrawall
2017-09-06, 22:27:58
Soll wohl nicht so einfach sein:
https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-34#post-5467749

TGKlaus
2017-09-06, 22:29:36
Manuelle Lüfterkurve geht mit Afterburner + Vega btw. nicht,

Da es der Afterburner mittlerweile regelmäßig verkackt, nutzt den doch kein vernünftiger User mehr.

aufkrawall
2017-09-06, 22:35:37
Genau. Erst sabotiert Unwinder AMD absichtlich, und jetzt, wo AMD ihn mit Hardware austattet, verkackt ers halt. Du und Konsorten seid schon drollig.

Raff
2017-09-06, 22:42:17
Kann man damit noch im November rechnen?

Dein Wort in Gottes Gehörgang. Aktuell hat ja nur Asus eigene Vega Designs angekündigt. Angeblich sollten ja Mitte September Vega Customs kommen. Auch da ist bisher nix von zu sehen. :confused:

Wenn ein Vega-Design einmal steht (und die Packages nicht nochmal geändert werden ;)), dann steht es. Und es funktioniert dann für eine Vega 64, eine Vega 56 und auch eine noch erfundene Vega 48. Kühler kann man beispielsweise mithilfe unterschiedlich vieler Heatpipes skalieren.

Asus lässt die 1080 Ti mit dem Kühler nur mit 280 Watt laufen,der Chip will einfach zu viel Saft.Wenn man sich die 1080 Ti Test's so durchliest scheint bei 280 Watt das Sinvolle Limit für ne Luftgekühlte Karte zu sein.
Die 1080 Ti AMP Xtreme von Zotac ist z.b deutlich Lauter als der Rest der Custom 1080 Ti und liegt auch bei 320 Watt wie Vega Strix.

MSI hat's mit großem Materialaufwand geschafft, auch 300 Watt leise nutzbar zu machen (GTX 1080 Ti Lightning). Ich würde diese auch psychologisch interessante Marke somit als Obergrenze festlegen.

MfG,
Raff

TGKlaus
2017-09-06, 23:03:17
Mit Polaris war der ABurner mehrfach nicht zu gebrauchen.
Ob das an Unfähigkeit des Herstellers liegt oder an Vorsatz ist mir egal.
Ne Software die das System mehrfach instabil macht fliegt, ganz einfach.

PS: Sachen wie das "drollig" kannst du mal ganz klar stecken lassen!

Linmoum
2017-09-06, 23:03:53
Sapphire muss einfach nur 'ne Nitro wie bei der Fury auflegen, dann gibt's auch bei 'nem dreistelligen Verbrauch mit einer 3 vorne keine Probleme bzgl. leiser Kühlung unter Luft.

Hoffentlich kommt da in der Hinsicht (unabhängig von irgendwelchen Verbrauchswerten, die RX56 ist sowieso die einzig interessante der beiden) was von den Herrschaften. :P

dildo4u
2017-09-06, 23:09:19
Laut dem Hard OCP Test zieht Fury Pro oft weniger als Vega 56,war jetzt keine Sonderleistung die Sapphire vollbracht hat.

dildo4u
2017-09-07, 10:12:15
Undervolt & Overclock, Radeon RX Vega 56 vs. GeForce GTX 1070

https://youtu.be/YZBcpOBbey8

Dino-Fossil
2017-09-07, 11:24:05
Hier ist es anders:
https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

Wer hat Recht? ;) :confused:

Eben gesehen:

Yesterday we published the ASUS Radeon RX 64 STRIX review. As shown, it performs awfully similar towards the reference Radeon RX 64. This morning I received a phone call from ASUS, asking us if we’d be willing to take down the article for a few days as they have made a mistake.

The sample we received did not get a final BIOS for its final clock frequencies and fan tweaking. Ergo, the sample we received carries a default reference BIOS.

Für die des Englischen Unkundigen: Anscheinend falsches BIOS auf der Karte...

pilzsammler2002
2017-09-07, 11:36:54
Hmmmm ein Fall von "wir sind die ersten" und dann nur schnell schnell release?

Ich bin mal gespannt auf die Sapphire Karten :D
Ich weiss man kann es vllt nicht festmachen aber alle Karten die ich von Sapphire aus der 14nm gen haben verhalten sich gleich...
1x 480 Nitro + (beim kumpel)
3x 470 Nitro + 8 GB @ 2000mhz
1x 460 Nitro 4GB
1x 560 Pulse 2 GB

Alle Karten laufen im höchsten State mit 975 mv stabil @ stock mhz
Aber 950 mv ist für alle zuwenig und sie crashen :freak: :freak: :freak:

Ob ich sowas dann auch bei der "Vega Nitro" schaffe :biggrin:

Schlammsau
2017-09-07, 12:19:07
Eben gesehen:


Für die des Englischen Unkundigen: Anscheinend falsches BIOS auf der Karte...
Irgendwie unbegreiflich wie sowas passieren kann.

Pirx
2017-09-07, 12:31:41
Irgendwie unbegreiflich wie sowas passieren kann.
Fehler sind menschlich, oder?

akuji13
2017-09-07, 12:42:45
Qualitätskontrolle aber scheinbar nicht mehr üblich. ;)

Smee
2017-09-07, 13:02:43
Qualitätskontrolle aber scheinbar nicht mehr üblich. ;)

Wo gibt es denn heute noch QS bei den meisten Firmen sitzen da irgendwelche Knallköpfe die für sonst nichts zu gebrauchen sind;D

Back to topic:

Weiß man sonst schon was zu den Customs außer die sache mit dem falschen BIOS @ asus?

Nazar
2017-09-07, 13:04:37
Qualitätskontrolle aber scheinbar nicht mehr üblich. ;)

Um das leisten zu können, das Menschen keine Fehler mehr machen, darf kein Mensch mehr an irgend einem Prozess beteiligt sein. :wink:

Edit: Wenn wirklich "so viel" (wie immer der dann auch aussehen mag ;)) Unterschied nur durch ein BIOS Update hervorgerufen werden sollte, müsste dies doch für fast alle Karten möglich sein oder ist das Layout und die Hardware so unterschiedlich?

Smee
2017-09-07, 13:11:05
Um das leisten zu können, das Menschen keine Fehler mehr machen, darf kein Mensch mehr an irgend einem Prozess beteiligt sein. :wink:

Edit: Wenn wirklich "so viel" (wie immer der dann auch aussehen mag ;)) Unterschied nur durch ein BIOS Update hervorgerufen werden sollte, müsste dies doch für fast alle Karten möglich sein oder ist das Layout und die Hardware so unterschiedlich?

Es gab ja mal das Gerücht, dass die Bauteile verschiedene Höhen je nach Fertigung am Package haben. Oder hat sich das als Fehlinformation bestätigt?

Edit:
Zumindest wenn man diesem Artikel (http://www.tomshardware.fr/articles/radeon-vega-package-gpu-hbm,1-65141.html) glauben schenken darf.

RoughNeck
2017-09-07, 14:44:06
Um das leisten zu können, das Menschen keine Fehler mehr machen, darf kein Mensch mehr an irgend einem Prozess beteiligt sein. :wink:

Edit: Wenn wirklich "so viel" (wie immer der dann auch aussehen mag ;)) Unterschied nur durch ein BIOS Update hervorgerufen werden sollte, müsste dies doch für fast alle Karten möglich sein oder ist das Layout und die Hardware so unterschiedlich?


Ach komm
Bei Nvidia wäre sowas undenkbar, das was sich AMD leistet ist einfach lächerlich. Auch wenn jetzt AMD bei der Strix nichts für kann, es spricht doch Bände über die Kommunikation und zusammenarbeit von AMD und deren Partner.

Flusher
2017-09-07, 14:54:54
Ach komm
Bei Nvidia wäre sowas undenkbar, das was sich AMD leistet ist einfach lächerlich. Auch wenn jetzt AMD bei der Strix nichts für kann, es spricht doch Bände über die Kommunikation und zusammenarbeit von AMD und deren Partner.

Dass Asus pennt und ein falsches Bios aufgespielt hat auf die Karte, hat doch nichts mit der Kommunikation mit AMD zutun. Sowas passiert durch Zeitdruck und hier kann man AMD zumindest vorwerfen, den Launch übers Knie gebrochen zu haben.

- Unfertige Treiber
- Geringe Stückzahlen
- keine Custom Modelle nach 4 Wochen
- Performance unter den Erwartungen

Besonders Letzteres kann durchaus sich auch auf die Priorisierung der Entwicklung bei den AIBs auswirken.

Loeschzwerg
2017-09-07, 17:42:32
Habe vor wenigen Minuten meine Limited aus der Packstation gefischt =)=) Bilder folgen!

Edit:
Bildaaaaaa :uup::uup:
https://abload.de/thumb/imgp6221sju0k.jpg (http://abload.de/image.php?img=imgp6221sju0k.jpg) https://abload.de/thumb/imgp6226a1uay.jpg (http://abload.de/image.php?img=imgp6226a1uay.jpg) https://abload.de/thumb/imgp6228ueurx.jpg (http://abload.de/image.php?img=imgp6228ueurx.jpg) https://abload.de/thumb/imgp62304eu40.jpg (http://abload.de/image.php?img=imgp62304eu40.jpg) https://abload.de/thumb/imgp62318su9b.jpg (http://abload.de/image.php?img=imgp62318su9b.jpg) https://abload.de/thumb/imgp6232v8unn.jpg (http://abload.de/image.php?img=imgp6232v8unn.jpg)

Es ist erstaunlich wenig Beipack vorhanden für so eine sündhaft teure Limited Edition. Nicht mal Schutzkappen für die Displayanschlüsse... schwache Leistung, die gab es sogar bei der R9 Nano von VTX3D. Sonst aber ein sehr schickes und wertiges Teil! :cool:

HTB|Bladerunner
2017-09-07, 19:01:15
Ja, die ist zweifellos sehr schick! Da ich selber eine Nano habe interessiert mich natürlich auch ein kleiner Vergleich vor allem hinsichtlich der Lautstärke. :naughty:

Hat eigentlich schon jemand untersucht warum sich das "Design" der Slotblenden bei der LE und der BE unterscheidet? Weniger Verwirbelung der ausströmenden Luft? Höhere Luftdurchflussmenge?

Wiseman
2017-09-07, 19:08:06
Hier ist es anders:
https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

Wer hat Recht? ;) :confused:

Respekt, du hast gestern als Einziger gesunden Menschenverstand bewiesen, indem du auf die auffallende Diskrepanz zwischen Computerbase und Guru3d hingewiesen hast. Beim Guru3D-Review konnte doch was nicht stimmen, da bei CB die ASUS ROG STRIX Vega 64 als kühler, leiser (37dB unter Last, aus geschlossenem Gehäuse nicht heraushörbar) und schneller beschrieben wurde (9% flotter als die Referenzkarte in 4k). Nun, seit heute wissen wir, wer Recht hatte. Guru3D hat sein Review bereits zurückgezogen wegen der ASUS-Panne mit dem falschen BIOS.

Folgendes dürfte für alle Fury (non-X) Besitzer, die so wie ich auf eine Custom Vega 64 oder Custom Vega 56 umsteigen wollen, interessant sein:

Ein Gutes hatte ja das Pannen-Review von Guru3D. Guru3D hatte lobenswerterweise auch die Fury (non-X) in seine Tests von 15 bis 20 Games einbezogen. Ich war gestern so frei und überprüfte bei jedem Spiel, um wieviel die ROG STRIX Vega 64 im Vergleich zur Fury (non-X) in der 4k-Auflösung zulegt.

Die Leistungssteigerung war naturgemäß von Spiel zu Spiel unterschiedlich, bewegte sich so zwischen 30% und 60%, häufig um die 45%. Wenn ich jetzt noch die 9% Steigerung hinzunehme, die CB mit dem Custom-BIOS in 4k erzielte, dann wären wir bei etwa 50% Steigerung im Durchschnitt.

Mit einer 50%-igen Leistungssteigerung auf meine Fury (non-X) wäre somit die ASUS ROG STRIX Vega 64 durchaus eine Option für mich. Leise scheint sie ja auch zu sein. Flüsterleise ist für mich ein ganz wichtiges Kriterium geworden seit meiner Sapphire Fury TriX.

Aber zunächst mal schauen, was andere Boardpartner zu bieten haben. Hat nicht Sapphire für die zweite Septemberhälfte eine gelungene Custom Vega 56 angekündigt?

Ach ja, warum ich auf eine Vega 64 oder 56 umsteigen werde? Nun, erstens habe ich im letzten Jahr einen guten und teueren FREESYNC 4k-Monitor gekauft. Und zweitens möchte ich jetzt (endlich) 8GB VRAM haben, meine Fury hat ja nur 4GB.

horn 12
2017-09-07, 19:09:46
Ja, dies ist auch eine berechtigte Farge, ebenso die Schlitze auf der Rückseite der Karte...
Sollte damit die Karte nicht um einiges Kühler bleiben als die Black AIR Version ...

PS:
Ja selbst Sapphire Fury Nitro Besitzer und FreeSync Nutzer Monitor Modell: LG 27UD68-P /B
und eben auch nur 4GB Nutzer der Fury,- da gelüstet es schon nach mehr auch wenn der Preis viel zu hoch erscheint,
500 bis für die Limited Edition 550 wäre Ok, aber gut 100 Euro teurer geht langsam echt nimmer...

Achill
2017-09-07, 19:22:26
[..]
Es ist erstaunlich wenig Beipack vorhanden für so eine sündhaft teure Limited Edition. Nicht mal Schutzkappen für die Displayanschlüsse... schwache Leistung, die gab es sogar bei der R9 Nano von VTX3D. Sonst aber ein sehr schickes und wertiges Teil! :cool:

Schutzkappen waren bei mir dabei, bei beiden Lieferungen.

Loeschzwerg
2017-09-07, 19:29:06
Sauerei :( Sind deine auch von Sapphire?

Zergra
2017-09-07, 19:34:50
Sauerei :( Sind deine auch von Sapphire?
Er hat aber die Liquid...

Die LE ist ja im Grunde nur eine Black mit anderem Gehäuse.
Selbst die Verpackung ist identisch, bis auf den Aufkleber...

BeetleatWar1977
2017-09-07, 19:43:25
Bei der Referenz Vega 56 waren auch welche dabei^^ MSI in meinem Fall


Edit: und 1x 8-pin Adapter.....

Jake Dunn
2017-09-07, 19:45:01
Bei meiner Sapphire (Vega56) war auch nichts dabei, bei der XFX 56er vom Kumpel waren Kappen und zwei 8pin Adapterkabel mit drin.

Grendizer
2017-09-07, 19:55:26
Jepp bei meiner XFX 64 Black waren auch Schutzkappen für die Anschlüsse und sogar auf dem PCI-E Stecker sowie 2 Stromadapter dabei.
Edit: Und ein großer Zettel, das man aktuelle Update im Internet bekommt

Loeschzwerg
2017-09-07, 20:14:32
Eigentlich hatte ich Sapphire immer als Premiumhersteller in Erinnerung, aber gut :freak:

Langlay
2017-09-07, 20:29:05
Bei der XFX Vega64 waren bei mir keine Kappen bei, bei der Powercolor Vega56 waren Displaykappen bei und die Kappe für den PCI-E war bei beiden dabei.

horn 12
2017-09-07, 20:51:10
@Loschzwerg

Spulenfiepen bei Deiner Sapphire bemerkbar ?
Was haltest vom Lüfter, und wie laut im Vergleich zur Nano, Fury ?
Erste Eindrücke zur Karte, Nogos auch bitte!

Cadmus
2017-09-07, 20:52:53
Heute eine Mail von Alternate bekommen:

Sehr geehrte(r) Herr XXX,

vielen Dank für Ihre Bestellung einer Radeon RX Vega 56 8GB von MSI.

Leider ist es derzeit nicht möglich den Auftrag wie von Ihnen gewünscht zu bedienen. Der Artikel wurde vom Hersteller nun aufgekündigt.

Derzeit verfügen wir über ein kleines Kontingent der Grafikkarte vom Hersteller XFX.
Es handelt sich um ein technisch identisches Modell, lediglich der Karton unterscheidet sich durch das entsprechende Herstellerlogo.

Gerne tauschen wir die Grafikkarte in Ihrer Bestellung entsprechend aus. Selbstverständlich ändert sich der von Ihnen bezahlte Bestellwert nicht.

Sollten wir bis zum 11.09.2017 keine Rückmeldung von Ihnen erhalten, dann gehen wir davon aus, dass Sie kein Interesse mehr an der Ware haben und werden Ihren Auftrag stornieren. Der Bestellwert würde Ihnen in diesem Fall vollständig auf die von Ihnen verwendete Zahlungsart erstattet.


Mit freundlichen Grüßen

_________________________________
ALTERNATE GmbH


Was denkt ihr, habe ich daraus irgendwelche herstellerspezifischen Nachteile?

Langlay
2017-09-07, 20:59:56
Was denkt ihr, habe ich daraus irgendwelche herstellerspezifischen Nachteile?

Maximal der Aufkleber aufm dem Lüfter is anders, also ich würde wechseln.

Cadmus
2017-09-07, 21:05:01
Maximal der Aufkleber aufm dem Lüfter is anders, also ich würde wechseln.

Danke. Ich habe keinerlei Erfahrungen mit XFX, aber man lernt ja immer dazu 😊

Zergra
2017-09-07, 21:05:59
Danke. Ich habe keinerlei Erfahrungen mit XFX, aber man lernt ja immer dazu ��
Die Karten werden alle von Sapphire gebaut. Daher spielt das bei Ref Designs gar keine Rolle..

bnoob
2017-09-07, 21:41:37
Der einzige Unterschied sind die Garantiebedingungen der Hersteller, wenn das für dich wichtig sein sollte zwecks Kühlertausch

Sicness
2017-09-07, 21:45:53
Radeon Software Crimson ReLive Edition 17.9.1 Highlights (https://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-ReLive-Edition-17.9.1-Release-Notes.aspx)

Fixed Issues
After resuming from sleep and playing back video content the system may become unresponsive on Radeon RX Vega series graphics products.
Radeon ReLive Toolbar and Instant Replay features may experience issues or fail to work when playing Guild Wars 2™.
Mouse stuttering may be observed on some Radeon RX graphics products when Radeon WattMan is open and running in the background or other third party GPU information polling apps are running in the background.
Radeon Software Installer may shrink or appear very small when installing on some 4K HDTVs.
Radeon Settings may sometimes experience a hang or crash when viewing the Display tab.
Moonlight Blade™ may fail to launch on some Radeon Graphics Core Next series products.
Titanfall™ 2 may experience a hang or crash on some Radeon GCN1.0 series graphics products.
Random corruption may appear in Microsoft desktop productivity applications.

Known Issues
On a limited number of systems Radeon Software may display an erroneous "1603 Error" after installing Radeon Software. This error will not affect your Radeon Software installation.
Unstable Radeon WattMan profiles may not be restored to default after a system hang. A workaround is to launch Radeon WattMan after reboot and restore settings to default.
Overwatch™ may experience a random or intermittent hang on some system configurations.
GPU Scaling may fail to work on some DirectX®11 applications.
Secondary displays may show corruption or green screen when the display/system enters sleep or hibernate with content playing.
Bezel compensation in mixed mode Eyefinity cannot be applied.

Package Contents
The Radeon Software Crimson ReLive Edition 17.9.1 installation package contains the following:
Radeon Software Crimson ReLive Edition 17.9.1 Driver Version 17.30.1081 (Windows Driver Store Version 22.19.676.0)

-=Popeye=-
2017-09-07, 22:16:29
...

Das hatte andere private Gründe. Außerdem lag ein halbes Jahr dazwischen. Ryzen war eine günstige Alternative wieder 6c/12 zu haben. Einfach mit vorschnelle Verurteilungen zurückhalten;)

War keine vorschnelle Verurteilungen sondern nur eine Feststellung, da sich performance technisch nichts ändert.

pilzsammler2002
2017-09-08, 08:25:47
Jemand schon den Treiber installiert?

Geht jetzt UV "vernünftig" :biggrin:

Elite_Warrior
2017-09-08, 15:22:29
Habe das vorher nicht getestet, werde aber mal die Tage mit dem UV beginnen. Gibt es einen guten Stabilitätsbenchmark den man im Fenster laufen lassen kann? Furmark scheint mir nicht wirklich geeignet.

yamamoto_dc
2017-09-08, 16:04:26
Radeon Software Crimson ReLive Edition 17.9.1 Highlights (https://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-ReLive-Edition-17.9.1-Release-Notes.aspx)

Fixed Issues
After resuming from sleep and playing back video content the system may become unresponsive on Radeon RX Vega series graphics products.
Radeon ReLive Toolbar and Instant Replay features may experience issues or fail to work when playing Guild Wars 2™.
Mouse stuttering may be observed on some Radeon RX graphics products when Radeon WattMan is open and running in the background or other third party GPU information polling apps are running in the background.


Ah danke, Mausstottern und Hänger habe ich gestern gehabt, kam wohl doch von meiner neuen Vega64. Schön, dass das schon behoben wurde.

:smile:

Nazar
2017-09-08, 17:01:30
Habe gestern meine Sapphire Vega 64 von Lüfter auf EK-Wakü umgebaut und dann festgestellt, dass sie Spulenpfeifen hat. Der Lüfter hat das vorher "gut" überdeckt.
Der neuste Treiber 17.9.1 hatte im Firestrike gleich mal um die 900 Punkte mehr gebracht (22085 auf 23008).
Leider bekomme ich keinen höheren Taktraten als 1580 MHz obwohl die Karte im Turbomodus läuft.
Mit Wattmann und Afterburner gemessene Temps liegen bei 39°C während des 3DMark Belastungstests.
Der neu Treiber ist unter Time Spy ein wenig langsamer aber die FPS sind flüssiger, als ob sie die Framedrops deutlich reduzieren konnten (Freesync war off).
Ich teste jetzt noch mit DCS.

Opprobrium
2017-09-08, 17:17:06
Du könntest ja mal versuchen, dass LC Bios draufzuflashen

fondness
2017-09-08, 17:54:36
Powerlimit schon aufgedreht?

BeetleatWar1977
2017-09-08, 19:10:46
Kann mal bitte jemand was gegentesten?
Spannungswert HBM - der scheint nicht die Spannung des Speichers zu regeln, sondern gibt vor ab welcher GPU-Spannung der Speicher mit Fullspeed läuft......

dman
2017-09-08, 19:27:46
Vega 64 von MSI und XFX grade bei Mindfactory im Mindstar für 499€
https://www.mindfactory.de/Highlights/MindStar

Oh man...eigentlich wollte ich doch die Vega 56...hrhr

Jake Dunn
2017-09-08, 19:48:12
Kann mal bitte jemand was gegentesten?
Spannungswert HBM - der scheint nicht die Spannung des Speichers zu regeln, sondern gibt vor ab welcher GPU-Spannung der Speicher mit Fullspeed läuft......

Ja..HMB Spannung ist 1,25V bei Vega56 und 1,35V bei Vega64

Durch Bios flash vom 64er auf 56er hat man 1,35V und kommt über 1000

bnoob
2017-09-08, 19:53:49
Naja was soll ich sagen... gerade bei der MSI Ref zugeschlagen und meine Alternate 399€ Vega 56 storniert...

Bei den 100€ Aufpreis war mein Bauch zu schnell.

Pappenheimer
2017-09-08, 20:10:07
Hmm würde mich auch reizen zu zuschlagen aber ich habe nur ein 500 Watt be quiet! Straight Power 10 CM Modular 80+ Gold Netzteil. Ja oder nein? Für das erste System in der Sig.

CyLord
2017-09-08, 20:10:09
Oh ärgerlich, letzte Woche war die XFX 10€ teurer und habe die erhalten. Aber was soll´s...

x-force
2017-09-08, 20:17:04
Ja oder nein? Für das erste System in der Sig.

auf keinen fall, vor allem bist du doch schon gut ausgerüstet. das hat eher was von einem sidegrade

Pappenheimer
2017-09-08, 20:23:36
auf keinen fall, vor allem bist du doch schon gut ausgerüstet. das hat eher was von einem sidegrade

Die 1070 würde in meinen Zweitrechner wandern und für meinen Hauptrechner hätte ich gerne Freesync. :)

Ich hoffe das die Vega56 wenigstens mit meinem Netzteil geht.

BeetleatWar1977
2017-09-08, 20:26:23
Ja..HMB Spannung ist 1,25V bei Vega56 und 1,35V bei Vega64

Durch Bios flash vom 64er auf 56er hat man 1,35V und kommt über 1000
mien HBM ist sowieso schon von der warmen sorte - das wäre glaub ich zuviel....

btw. Thema UV:

https://abload.de/img/wattmann2f1kj7.jpg
Nu wirds aber langsam albern...... mal die Basisspannung auch noch reduzieren......

Zergra
2017-09-08, 20:56:00
Hmm würde mich auch reizen zu zuschlagen aber ich habe nur ein 500 Watt be quiet! Straight Power 10 CM Modular 80+ Gold Netzteil. Ja oder nein? Für das erste System in der Sig.
Sehe jetzt kein Problem mit dem Netzteil, solange kein OC betrieben wird und die Karte auf Balanced läuft...:rolleyes:

horn 12
2017-09-08, 21:03:53
Langsam aber sicher kommen echt Karten von AMD
Liefersituation verbessert sich ständig
und wie zufrieden bist nun, lieber @Zergra mit der Vega 64

@Löschzwerg
Von Dir hört man auch nix mehr zwecks der Vega 64 Limited Edition,
So extrem beim Zocken oder Karte schon abgebrannt...

Zergra
2017-09-08, 21:08:50
Langsam aber sicher kommen echt Karten von AMD
Liefersituation verbessert sich ständig
und wie zufrieden bist nun, lieber @Zergra mit der Vega 64

Kommt auf den Tag drauf an, die letzten Tage hat mich der Treiber extrem frustriert. Hatte die Ebay Auktion gestern schon erstellt gehabt, da kam ein neuer Treiber :freak:. Werde die Karte jetzt wohl behalten, die Leistung reicht mir vollkommen und sobald Verfügbar, die AIO von Alphacool verbauen. Dann müsste das Paket stimmen. :biggrin:

RoughNeck
2017-09-08, 21:13:50
Langsam aber sicher kommen echt Karten von AMD
Liefersituation verbessert sich ständig
und wie zufrieden bist nun, lieber @Zergra mit der Vega 64

@Löschzwerg
Von Dir hört man auch nix mehr zwecks der Vega 64 Limited Edition,
So extrem beim Zocken oder Karte schon abgebrannt...

Echt horn
Kauf dir eine 1080 TI habe Spaß daran.

x-force
2017-09-08, 21:17:52
Die 1070 würde in meinen Zweitrechner wandern und für meinen Hauptrechner hätte ich gerne Freesync. :)

Ich hoffe das die Vega56 wenigstens mit meinem Netzteil geht.

wenn du das eh vorhast, nimm die 64.

der volle chip wird wahrscheinlich besser gebinnt sein und mit untervolting und beschränktem powerlimit zu deinem netzteil am besten passen, wenn es ein vega sein soll.

BeetleatWar1977
2017-09-08, 21:21:31
HWinfo zeigt 52W bei SC2 und 55W bei WoT(Chip Power)..... max Details 1080p Vsync an(60hz).... Lüfter dezente 700RPM im Mittel :freak: wie war das nochmal mit warm und laut......

Morgen mal aufwendigere Sachen anwerfen, Profil scheint erstmal zu passen :up:

BeetleatWar1977
2017-09-08, 21:23:28
wenn du das eh vorhast, nimm die 64.

der volle chip wird wahrscheinlich besser gebinnt sein und mit untervolting und beschränktem powerlimit zu deinem netzteil am besten passen, wenn es ein vega sein soll.
Sehe jetzt kein Problem mit dem Netzteil, solange kein OC betrieben wird und die Karte auf Balanced läuft...:rolleyes:
Hmm würde mich auch reizen zu zuschlagen aber ich habe nur ein 500 Watt be quiet! Straight Power 10 CM Modular 80+ Gold Netzteil. Ja oder nein? Für das erste System in der Sig.
bei mir hat das alte 650W Alphacool nicht gereicht^^ das hatte 2x25A Rails (1x Board, 1xPCIe) war zu wenig:freak:

fondness
2017-09-08, 21:31:22
HWinfo zeigt 52W bei SC2 und 55W bei WoT(Chip Power)..... max Details 1080p Vsync an(60hz).... Lüfter dezente 700RPM im Mittel :freak: wie war das nochmal mit warm und laut......


AMD wirbt ja sogar damit, dass Vega10 der Chip mit der höchsten Energiebandbreite ist. 55W sind natürlich schon sehr nice.

Loeschzwerg
2017-09-08, 21:38:29
Die V64 Air ist mal ne ganze Ecke hörbarer als die R9 Nano @ default, zumindest in meinem Systemaufbau.

Die Nano dreht bei mir nie großartig über ~2100 @ default und regelt auch schnell wieder runter, die V64 liegt bei recht konstanten ~2400 RPM.

Keine Ahnung ob damit jemand was anfangen kann... das Video war in wenigen Minuten zusammengepfuscht:
https://www.youtube.com/watch?v=jZ7tt3zrRw0

Spulenfiepen ist vorhanden, aber deutlich weniger ausgeprägt als bei der Nano.


@Löschzwerg
Von Dir hört man auch nix mehr zwecks der Vega 64 Limited Edition,
So extrem beim Zocken oder Karte schon abgebrannt...

Ne, nur geplagt von der Arbeit und wenig Zeit ^^

BeetleatWar1977
2017-09-08, 21:40:08
AMD wirbt ja sogar damit, dass Vega10 der Chip mit der höchsten Energiebandbreite ist. 55W sind natürlich schon sehr nice.
Und ich bin mir nochnichtmal sicher ob ich schon ganz unten bin ;)
Kommt auf den Tag drauf an, die letzten Tage hat mich der Treiber extrem frustriert. Hatte die Ebay Auktion gestern schon erstellt gehabt, da kam ein neuer Treiber :freak:. Werde die Karte jetzt wohl behalten, die Leistung reicht mir vollkommen und sobald Verfügbar, die AIO von Alphacool verbauen. Dann müsste das Paket stimmen. :biggrin:
Alphacool AiO Vega (http://www.aquatuning.de/wasserkuehlung/sets-und-systeme/interne-sets/alphacool/eiswolf/22291/alphacool-eiswolf-120-gpx-pro-ati-rx-vega-m01-black?sPartner=googleshoppingde&gclid=CjwKCAjw_8jNBRB-EiwA96Yp1scalR09pdNg2VFT4ozUFAlRhX0XlC_6NGFhUeFUREbu5nOu2KRVxxoCF8IQAvD_BwE) Die hier? bin ich auch am Überlegen......

Zergra
2017-09-08, 21:40:29
bei mir hat das alte 650W Alphacool nicht gereicht^^ das hatte 2x25A Rails (1x Board, 1xPCIe) war zu wenig:freak:
Bei mir reicht das Antec 550W, kommt natürlich sehr Stark auf die Rails an.

Und ich bin mir nochnichtmal sicher ob ich schon ganz unten bin ;)

Alphacool AiO Vega (http://www.aquatuning.de/wasserkuehlung/sets-und-systeme/interne-sets/alphacool/eiswolf/22291/alphacool-eiswolf-120-gpx-pro-ati-rx-vega-m01-black?sPartner=googleshoppingde&gclid=CjwKCAjw_8jNBRB-EiwA96Yp1scalR09pdNg2VFT4ozUFAlRhX0XlC_6NGFhUeFUREbu5nOu2KRVxxoCF8IQAvD_BwE) Die hier? bin ich auch am Überlegen......


Genau die, aber dann den Radiator gegen einen 360 oder so tauschen :biggrin:

BeetleatWar1977
2017-09-08, 21:43:25
Genau die, aber dann den Radiator gegen einen 360 oder so tauschen :biggrin:

Soviel Platz hab ich nicht - hab ja schon einen 240er für den FX im Gehäuse^^

2Ms
2017-09-08, 21:46:28
AMD wirbt ja sogar damit, dass Vega10 der Chip mit der höchstenEnergiebandbreite ist. ...
Was meint "Energiebandbreite" ?

Achill
2017-09-08, 21:51:24
Ich habe mit dem Alphacool und den passiven Kühler keine guten Erfahrungen mit meinen 390X gemacht. Ich brauchte einen zusätzlichen Luftstrom um die Kühlrippen gut mit zu kühlen. Darum bin ich jetzt auch auch auf Fullcover gegangen.

Evtl. ist das bei Vega64 nicht ganz so kritisch, da der HBM2 mit abgedeckt wird, die VRMs jedoch nicht.

akuji13
2017-09-09, 08:45:44
HWinfo zeigt 52W bei SC2 und 55W bei WoT(Chip Power)..... max Details 1080p Vsync an(60hz).... Lüfter dezente 700RPM im Mittel :freak: wie war das nochmal mit warm und laut......

Morgen mal aufwendigere Sachen anwerfen, Profil scheint erstmal zu passen :up:

Und da haben wir die Fehler schon gefunden. :D

Der Unterschied zwischen 1080p 60Hz und z. B. WQHD mit 144Hz ist gewaltig was die Stromaufnahme und das daraus resultierende Lüftergeräusch angeht.
Dazu dann noch einen richtigen Grafikkracher und schwups sind die 2400 U/MIN dein Freund. :wink:

BeetleatWar1977
2017-09-09, 09:13:48
Und da haben wir die Fehler schon gefunden. :D

Der Unterschied zwischen 1080p 60Hz und z. B. WQHD mit 144Hz ist gewaltig was die Stromaufnahme und das daraus resultierende Lüftergeräusch angeht.
Dazu dann noch einen richtigen Grafikkracher und schwups sind die 2400 U/MIN dein Freund. :wink:
erstens: für ein Online Game solte die Frametime zwar kleiner als der Ping sein - aber wann komm ich schonmal unter 15^^
zweitens: The Division 1080p - Ultra - da peakts dann schonmal bis 165W und der Lüfter dreht hoch..... im Allgemeinen gehts aber
drittens: The Division 2160p - da ist dann Dauerlauf angesagt, ja:D

akuji13
2017-09-09, 09:19:48
Das mit dem Lüfter kenne ich auch z. B. bei den alten Schätzchen wie RTCW.

Auch wenn der Lüfter sonst ok ist, das ist schon schön so gar nichts zu hören. :)

horn 12
2017-09-09, 09:36:22
Nun, bleibe bei AMD dies ist so sicher wie das Amen in der Kirche
Mein Shop hat auch erneut Super Preis ausgerufen, vielleicht ist es heute, spätestens Montag soweit und jene versenden, wenn Karte wieder lieferbar ist.
Sapphire LE soll selben Preis erhalten...

War der Preis zu dem ich kaufte:
http://www.qmaxtech.it/it/schede-video/215688-gigabyte-radeon-rx-vega-64-silver-8g-8gb-4719331302580.html

dildo4u
2017-09-09, 09:43:20
HWinfo zeigt 52W bei SC2 und 55W bei WoT(Chip Power)..... max Details 1080p Vsync an(60hz).... Lüfter dezente 700RPM im Mittel :freak: wie war das nochmal mit warm und laut......

Morgen mal aufwendigere Sachen anwerfen, Profil scheint erstmal zu passen :up:
Funktioniert VSR bei den Games nicht,dürften doch locker in 4k60 laufen.


PUBG AMD RX Vega 64 Vs GTX 1080 Vs AMD RX Vega 56 Vs GTX 1070 Frame Rate Comparison

https://youtu.be/RIEwoiv_oIs

BeetleatWar1977
2017-09-09, 10:54:43
Funktioniert VSR bei den Games nicht,dürften doch locker in 4k60 laufen.


PUBG AMD RX Vega 64 Vs GTX 1080 Vs AMD RX Vega 56 Vs GTX 1070 Frame Rate Comparison

https://youtu.be/RIEwoiv_oIs
Machen sie - aber ich hab VSR erst heute früh bei The Division aktiviert, wenn ich mal ein paar Runden gemacht habe, gibts die 4K Werte

palace
2017-09-09, 11:24:28
https://abload.de/img/wattmann2f1kj7.jpg
Hi, wie hast Du denn P2 bis P5 setzen können? Die sind doch gesperrt?

PS: Habe testweise 64er BIOS auf 56er und Ethereum getestet; bei gleichen Einstellungen war die Karte langsamer, als wären die Speicherlatenzen höher.

BeetleatWar1977
2017-09-09, 11:34:19
Hi, wie hast Du denn P2 bis P5 setzen können? Die sind doch gesperrt?

PS: Habe testweise 64er BIOS auf 56er und Ethereum getestet; bei gleichen Einstellungen war die Karte langsamer, als wären die Speicherlatenzen höher.
da werden sie geholfen:
http://www.overclock.net/t/1633446/preliminary-view-of-amd-vega-bios/250#post_26297003

64er Bios auf 56er: 1.35V HBM Spannung anstelle von 1.25 - könnte dann ein Problem mitm Powertarget sein......

Hier wird eine zerlegt: https://www.youtube.com/watch?v=_BdT1NxCN-4 alles Baugleich^^

ich werd meine evtl mal das WE noch zerlegen und die WLP checken..... evtl hab ich auch nur einen ziemlich warmen Chip erwischt..... aber sicher ist sicher.....

palace
2017-09-09, 11:45:37
da werden sie geholfen:Na, da hab ich ja noch was zu tun...

Danke!

Edit: Bin jedenfalls wieder auf das 56er Bios zurück.

Messias
2017-09-09, 12:02:33
Ich habe nun auch den "Irrsinn" begangen, mir eine MSI Vega64 bei Mindstar für 499€ zu holen.
Mal sehen...
Dann habe ich ein passenderes Pendant zu meinem Ryzen 1700x.

Bin gespannt und hoffe, da kommen noch ein paar positive Überraschungen per Treiber nach. :freak: