PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 [42] 43 44 45

dargo
2018-07-06, 11:55:44
Falls es nicht zuviel Aufwand darstellt wäre ich sehr am folgenden Skalierungstest interessiert.
Vega10 mit 384GB/s (1,5 Gbps), ~448GB/s (1,75) und den 512GB/s bei 2 Gbps.

Als Einzelner kann man nicht alle Spiel durchtesten, aber wenigstens würde ich bei einem Spiel gerne wissen, wie die Skalierung der Leistung mit der vorhandenen Bandbreite ausschaut, dazu gibt es kaum Daten und teilweise vertraue ich den 2,2 Gbps beim Vergleichtest mit den Referenzeinstellungen von CB nicht.
RX Vega64 LCE mit PP-Table einer Referenz RX Vega64 Lukü.

https://abload.de/img/witcher3_2018_07_06_1josjf.jpg

https://abload.de/img/witcher3_2018_07_06_1f2sxa.jpg

https://abload.de/img/witcher3_2018_07_06_1jqs6z.jpg

https://abload.de/img/newcolossus_x64vk_2014ksqs.jpg

https://abload.de/img/newcolossus_x64vk_201kds4k.jpg

https://abload.de/img/newcolossus_x64vk_201u1s3l.jpg

https://abload.de/img/forhonor_2018_07_06_1g7st4.jpg

https://abload.de/img/forhonor_2018_07_06_1nwslx.jpg

https://abload.de/img/forhonor_2018_07_06_1z8sf0.jpg

Das GPU-Takt Verhalten bei Wolf 2 ist etwas merkwürdig. Eigentlich sollte der GPU-Takt mit steigendem Speichertakt im gleichen Power Budget fallen. Und bei 875Mhz ist er am höchsten.

Das sollte nur zeigen, wie ineffizient der Windows-Treiber mit der CPU umgeht.
OpenGL Treiber hat nichts mit dem Windows Treiber zu tun. Übrigens ist der OpenGL Treiber bei Nvidia auch extrem schlecht. Das zeigt Doom wunderbar im Vergleich mit Vulkan.

danarcho
2018-07-06, 12:32:11
OpenGL Treiber hat nichts mit dem Windows Treiber zu tun. Übrigens ist der OpenGL Treiber bei Nvidia auch extrem schlecht. Das zeigt Doom wunderbar im Vergleich mit Vulkan.
Ich meinte doch nur, dass der OpenGL Windows Treiber arge Probleme im CPU-Limit hat. Dass Nvidia das gleiche Problem plagt, ändert doch rein gar nichts.

Hier (https://www.phoronix.com/scan.php?page=article&item=june-2018-gpus&num=2) siehst du das typische Beispiel: Unter niedrigen Auflösungen ist der Linux-Treiber deutlich schneller und unter hohen Auflösungen gewinnt der Windows-Treiber (dank besserem Shader-Compiler). Du kannst sogar sehen, dass das Problem unter Vulkan, wenn auch abgeschwächt, ebenfalls existiert.
Doom zeigt "wunderbar", wie man auf Anwendungsseite mit Multithreading und generell niedriger CPU-Last, praktisch immer ins GPU-Limit kommt, so dass man von der erhöhten CPU-Last beim Treiber nichts merkt.

iuno
2018-07-06, 12:58:08
Ich wüsste ehrlich gesagt nicht warum man heute noch Ressourcen in OpenGL stecken sollte. Das Ding ist quasi tot.
Ja, genau. Deshalb hat es auch gerade einen neuen Major Release bekommen.
AMD teilt diese Ansicht im Uebrigen auch nicht, denn offenbar wollen sie nach den Consumern auch die professionellen Kunden noch komplett auf die freien Treiber umstellen. Dafuer implementieren sie gerade nach und nach Kompatibilitaetsprofile, wogegen man sich in Mesa jahrelang gestraeubt hat, die manche "pro" Anwendungen aber halt brauchen.
AMD tut auch ganz gut daran, weiterhin in OpenGL zu investieren, wenn sie weiterhin ihre Hardware abseits von Windows-Spielern verkaufen wollen. Du kannst auch mal Igor fragen, was er oder beispielsweise CAD Kunden von dem alten Treiber halten.

OpenGL Treiber hat nichts mit dem Windows Treiber zu tun.
Der OpenGL Treiber fuer Windows ist der selbe wie der im -pro stack fuer Linux. Und er teilt sich auch Code mit anderen APIs. Natuerlich hat das alles miteinander zu tun.

Seitdem hat sich sicherlich etwas getan, bei AMD arbeiten mehrere Angestellte täglich am Compiler und Treiberverbesserungen, aber als spitze scheint man den Compiler nach wie vor nicht bezeichnen zu können.
A new (fully rewritten) shader compiler would be a big step in catching up with NVIDIA.
AMD hat ja inzwischen (nach Jahren des Wartens) mal den Vulkan Treiber (AMDVLK) veroeffentlicht bekommen, also im Source-Code. Der stammt ja prinzipiell vom Windows-Treiber ab, mit dem "alten" compiler und mit einer Abstraktionsschicht, auf der AMD dann die verschiedenen APIs implementiert. AMDVLK wurde extra fuer den OS-Release auf LLVM-Basis umgebaut und so wie ich das verstanden habe moechte man das irgendwann auch in Windows heruebernehmen. Jetzt hat man die Situation, dass man unter Linux fuer AMD drei verschiedene Vulkan-Treiber hat:
- radv, den Community-Vulkantreiber im Mesa-Projekt,
- AMDVLK (CS), der so auch auf Windows laeuft und
- AMDVLK (OS), AMDVLK mit LLVM backend.

radv laeuft wohl momentan am effizientesten was die CPU angeht, einfach weil die Abstraktionsschicht nicht da ist. Die beiden amdvlk Varianten sind dafuer schneller was die GPU betrifft und untereinander vergleichbar. Dazu kommt, dass LLVM Verbesserungen auch fuer radv vorteilhaft sein werden und im uebrigen auch fuer den OpenGL Treiber radeonsi, denn den baut man momentan so um, dass er im compiler-frontend den Code mit den Vulkan Treibern teilt (natuerlich abgesehen vom ersten Schritt, wo GLSL das erste mal in eine IR uebersetzt wird) und dann auch NIR und dasselbe LLVM backend benutzt. Und natuerlich benutzt auch ROCm ein llvm backend. Insofern hat AMD schon auch ein starkes Interesse, dass die Situation damit besser wird. Und dass AMDVLK mit LLVM jetzt schon aehnlich laeuft wie der alte ist imho ein gutes Zeichen.

dargo
2018-07-06, 13:05:10
Ja, genau. Deshalb hat es auch gerade einen neuen Major Release bekommen.
AMD teilt diese Ansicht im Uebrigen auch nicht, denn offenbar wollen sie nach den Consumern auch die professionellen Kunden noch komplett auf die freien Treiber umstellen. Dafuer implementieren sie gerade nach und nach Kompatibilitaetsprofile, wogegen man sich in Mesa jahrelang gestraeubt hat, die manche "pro" Anwendungen aber halt brauchen.
AMD tut auch ganz gut daran, weiterhin in OpenGL zu investieren, wenn sie weiterhin ihre Hardware abseits von Windows-Spielern verkaufen wollen. Du kannst auch mal Igor fragen, was er oder beispielsweise CAD Kunden von dem alten Treiber halten.

Das Thema war Treiberoverhead in Spielen. OpenGL ist spätestens seit Vulkan in dem Bereich tot. Wenn jetzt noch ein Entwickler Spiele für OpenGL entwickelt der hat nicht mehr alle Tassen im Schrank.

iuno
2018-07-06, 13:09:15
Genauso wie dx11?
Es hat nicht jeder AAA Budget :rolleyes:
Mit gerade mal einer handvoll Ausnahmen sind alle multiplattformspiele auf Steam mit OpenGL. Das ist auch der ueberragende Grossteil der Neuerscheinungen

dargo
2018-07-06, 13:13:00
Es gibt schon ein paar Titel mit Vulkan die kein AAA sind.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059

Selbst Windows Titel die später für Linux kommen bekommen Vulkan.

Rancor
2018-07-06, 14:33:37
Das Thema war Treiberoverhead in Spielen. OpenGL ist spätestens seit Vulkan in dem Bereich tot. Wenn jetzt noch ein Entwickler Spiele für OpenGL entwickelt der hat nicht mehr alle Tassen im Schrank.

:facepalm:

Ey musst du diese Kacke eigentlich in jedem Thread wiederholen? Meine Fresse. Deine Kampf gegen DX 11 und OpenGL ist echt langsam lächerlich. Deine Äußerungen werden nicht richtiger nur weil du sie an jeder nur möglichen Stelle wiederholst.. :mad:

N0Thing
2018-07-06, 14:39:19
Seitdem hat sich sicherlich etwas getan, bei AMD arbeiten mehrere Angestellte täglich am Compiler und Treiberverbesserungen, aber als spitze scheint man den Compiler nach wie vor nicht bezeichnen zu können.

Brauchen die Konsolen nicht auch Shader Compiler? Wenn die Ergenisse auf den Konsolen relativ gut ausfallen, warum ist der Sprung zu einem guten Compiler für den PC so schwierig, wenn es scheinbar eine vernünftige Basis bei den Konsolen vorhanden ist?

danarcho
2018-07-06, 14:48:48
Brauchen die Konsolen nicht auch Shader Compiler? Wenn die Ergenisse auf den Konsolen relativ gut ausfallen, warum ist der Sprung zu einem guten Compiler für den PC so schwierig, wenn es scheinbar eine vernünftige Basis bei den Konsolen vorhanden ist?
Ja, das war ja auch meine Frage. Leider sind beide Compiler closed-source. Bei LLVM ist relativ klar, wo die Schwächen liegen (schwache divergence analysis, nur pow2 register sizes/alignment, scheduler hat kein plan von occupancy etc), weshalb der closed-source shader compiler von AMD auch noch eine Weile besser bleiben wird. Aber null plan, was die Konsolen verwenden oder warum das Zeug nicht veröffentlich wird. Große Geheimnisse können da imho eh nicht drinstecken.

Locuza
2018-07-06, 15:08:10
@ dargo

Super Benches! (y)
Zeitlich habe ich nur die Ergebnisse bei TW3 überflogen, dass schaue ich mir später genauer an.

@ Konsolen

Es ist vermutlich ein Mittel für den Wettbewerb eigene Shader Compiler zu schreiben bzw. eigenständig zu optimieren.
MS verwendet eine angepasste DX-API und hat vermutlich ein paar Zusätze bei HLSL, Sony hat eine eigene Shader-Sprache mit PSSL definiert, die scheinbar nah an HLSL anliegt, aber dennoch für eine andere Code-Generierung hier und da sorgen dürfte.

Man möchte offensichtlich keine Spezialisten für Shader-Compiler bezahlen, wo die Arbeit öffentlich und für alle zugänglich ist.
Entsprechend kocht jeder seine eigene Suppe, trotz gleicher Hardware.
AMD hat ihr Team was sich darum kümmert, Sony und MS ihr Eigenes.

iuno
2018-07-06, 15:21:13
Ich weiss nicht, ob es da so viele Geheimnisse gibt. Das selbe wurde ja auch lange zu freien Treibern im Allgemeinen gesagt, letztendlich sind die Architekturen aber wohl viel zu verschieden, als dass die Konkurrenz daraus einen Vorteil ziehen koennte. Ich koennte mir eher vorstellen, dass das Personal einfach insgesamt zu knapp ist.

dargo
2018-07-06, 15:51:38
@ dargo

Super Benches! (y)
Zeitlich habe ich nur die Ergebnisse bei TW3 überflogen, dass schaue ich mir später genauer an.

Kein Thema, ich schaue mal heute Abend ob ich noch 2-3 Games dazu bekomme.

btw.
Was versprichst du dir eigentlich von den Ergebnissen?

Locuza
2018-07-06, 16:41:37
Nicht viel, außer eine klarere Sicht darüber zu haben, ob Vega10 an Bandbreitenmangel leidet und wenn ja wie stark.
Bei dem naheliegenden Vergleich mit Fiji, wo Vega10 40-50% mehr Takt besitzt aber sogar ein Tick weniger Bandbreite ist es natürlich interessant, ob das Vega10 einschränkt oder die bessere DCC und der DSBR das in den meisten Fällen abfangen können.

dargo
2018-07-06, 16:47:01
In den Taktregionen in denen eine 220W ASIC Vega operiert mangelt es ihr keineswegs an Bandbreite mit 484GB/s. Bei den hochgeprügelten Customs ist es auch kaum anders. Das hatte ich mir schon hier und da angesehen.

btw.
Bei dem von VV verlinkten Video muss man etwas aufpassen. Eine RX Vega64 LCE hat im Bios 1 per Default eine ASIC Power von 264W. Im Video sieht man, dass diese oft nicht erreicht werden. Liegt höchstwahrscheinlich am nur High-Preset, ergo leichtes CPU-Limit. Und wenn das passiert taktet die Vega höher als sonst üblich (die ~1650Mhz kommen mir nämlich ein klein wenig zu hoch vor in dem Spiel, müsste ich mir hier selbst genauer ansehen). Bis zu einem gewissen Grad der GPU-Last natürlich. Ist die Last extrem niedrig gehts wieder runter mit dem Takt.

Edit:
RX Vega64 LCE mit PP-Table einer Referenz RX Vega64 Lukü.

https://abload.de/img/wreckfest_x64_2018_07hushh.jpg

https://abload.de/img/wreckfest_x64_2018_07oqsad.jpg

https://abload.de/img/wreckfest_x64_2018_07pzsyl.jpg

https://abload.de/img/farcry5_2018_07_06_21wysdt.jpg

https://abload.de/img/farcry5_2018_07_06_21t0svy.jpg

https://abload.de/img/farcry5_2018_07_06_211rs94.jpg

https://abload.de/img/acorigins_2018_07_06_zisf4.jpg

https://abload.de/img/acorigins_2018_07_06_02svo.jpg

https://abload.de/img/acorigins_2018_07_06_91s91.jpg

Bei ACO ist minimale Dynamik in der Szene drin, die Frames sind aber stabil dabei. Ich hoffe 6 Games reichen?

Witzig dabei im Vergleich ist wieder mein 24/7 UV-Setting.

https://abload.de/img/wreckfest_x64_2018_079is9k.jpg

Etwa 10-11% mehr Leistung bei ~100W weniger Verbrauch. :D

dargo
2018-07-07, 08:42:22
Ich habe wieder was lustiges bei Vega entdeckt. Was stimmt hier nicht? ;D

https://abload.de/img/wreckfest_x64_2018_0764ss3.jpg

https://abload.de/img/wreckfest_x64_2018_0762skz.jpg

https://abload.de/img/wreckfest_x64_2018_07pispi.jpg


Edit:
Man glaubt es nicht wenn man es nicht selbst gesehen hat. Mit dem Trick habe ich auch bei meinem UV plötzlich in Wreckfest 13% mehr Leistung bei nur ~13W bzw. 4% mehr Verbrauch. :crazy:

Standard UV = 124fps mit ~297W (Gesamtrechner hinter NT)
UV mit "Trick" = 140fps mit ~310W (Gesamtrechner hinter NT)


https://abload.de/img/wreckfest_x64_2018_073vs8b.jpg

https://abload.de/img/wreckfest_x64_2018_07krsk2.jpg

Ich glaube das Powermanagement hat AMD bei Vega immer noch nicht richtig im Griff was den Treiber angeht. :freak: Anders kann ich mir das nicht erklären.

WTF? Das scheint auch noch spielespezifisch zu sein. X-D Bei Far Cry 5 sieht alles normal aus.

https://abload.de/img/farcry5_2018_07_07_10h5sy7.jpg

https://abload.de/img/farcry5_2018_07_07_10vnsgv.jpg

aufkrawall
2018-07-07, 12:58:23
Ich habe wieder was lustiges bei Vega entdeckt. Was stimmt hier nicht? ;D

Für den Mesa-Treiber unter Linux hatte man jüngst Workarounds gegen Hardwarebugs bez. des Taktmanagements bei Vega eingebaut.

horn 12
2018-07-08, 14:40:00
NF-P12 redux-1700 PWM
https://geizhals.eu/noctua-nf-p12-redux-1700-pwm-nf-p12-redux-1700-pwm-a1818328.html

Diese Lüfter in der Front, ganze 2 Stück sollten genügend Frischluft bringen für RX Vega im Referenz Design?

gravitationsfeld
2018-07-08, 17:03:01
Für den Mesa-Treiber unter Linux hatte man jüngst Workarounds gegen Hardwarebugs bez. des Taktmanagements bei Vega eingebaut.
Hast du die CL?

aufkrawall
2018-07-08, 17:10:11
https://www.phoronix.com/forums/forum/hardware/graphics-cards/1026974-radv-gets-a-performance-improving-workaround-for-vega-helps-dota-2?p=1027023#post1027023

dargo
2018-07-08, 18:31:37
Ich habe mir jetzt noch zusätzlich The Division, Wolfenstein 2 und Witcher 3 angesehen. Dort passt alles. Scheint also wirklich nur ein Bug in Wreckfest zu sein, dass Vega nicht die volle Performance liefert.

horn 12
2018-07-08, 18:38:15
@Dargo

https://geizhals.eu/thermaltake-view-27-gull-wing-schwarz-ca-1g7-00m1wn-00-a1506213.html

Bringt dies was bei RX 64 Referenz Design
Bild 44 bitte mit unten montiertem Lüfter, vom HD Käfig aus gesehen.

dargo
2018-07-08, 18:41:49
Keine Ahnung, musst du selbst testen.

gravitationsfeld
2018-07-09, 01:53:27
https://www.phoronix.com/forums/forum/hardware/graphics-cards/1026974-radv-gets-a-performance-improving-workaround-for-vega-helps-dota-2?p=1027023#post1027023
Nichts in der Changelist hat was mit Power-Management zu tun. Da geht's um einen Bug in Vega wegen Scissor-Rects. Der vorherige Weg war einfach die Pipeline zu flushen wenn Scissor gewechselt wird, jetzt setzen sie Scissor bei jedem Context-Wechsel was das Problem umgeht.

Daredevil
2018-07-14, 16:11:29
Was gibts denn so für Kühler Alternativen für ne Referenz Karte? Der PCGH Brocken, der letztens gezeigt wurde, ist mir ein wenig 2 much. :D
Hab mir ne Vega 56er Karte erschnappert fürn schmalen Taler ,die meine GTX1060 6GB ersetzen soll wegen Freesync dies das. Karte wird eh undervolted und wenn die 10-20% mehr leistet und dabei ruhig bleibt, bin ich damit zufrieden.

Muss es der fette Raijintek Morpheus II sein, oder gibts noch was anderes?
Weil sonst kann ich mir auch für ~130€ Neu nen GPX Eiswolf holen und den an meinen Radiator anschließen. Nur nen 130€ WaKü-Block für ne 56er ist auch irgendwie komisch ( Ich schnall ja auch keine WaKü auf ne 1070... ). Da würde ich eher auf Gebrauchte/Outlet Ware um die ~80€ warten, dann wäre das noch so halb okay.
Karte ist zum daddeln. ;)

Edit:
Hmmmmmmmmmmmmmmmmmmmmmm
Erstmal schauen, ob da Samsung Speicher drauf ist.
http://abload.de/img/unbenanntaqscp.png

Digidi
2018-07-14, 16:25:11
Nichts in der Changelist hat was mit Power-Management zu tun. Da geht's um einen Bug in Vega wegen Scissor-Rects. Der vorherige Weg war einfach die Pipeline zu flushen wenn Scissor gewechselt wird, jetzt setzen sie Scissor bei jedem Context-Wechsel was das Problem umgeht.

Ist das ein Hardwarebug den man da versucht zu umgehen?

horn 12
2018-07-14, 19:20:54
https://abload.de/img/rxvegauntervolting_08m6sq5.png (http://abload.de/image.php?img=rxvegauntervolting_08m6sq5.png)

Sobald Vega 7nm kommt geht die Karte an die Sammler oder zum Minen in den Zweitrechner :-)


Kommen 2 bis 3 Neue Gehäuse-Lüfter rein und das Setting bleibt dann so bestehen.

Daredevil
2018-07-14, 19:38:41
Jemand schon mal die WLP durch was höher wertiges ersetzt beim Ref Design?

SKYNET
2018-07-14, 19:45:32
Jemand schon mal die WLP durch was höher wertiges ersetzt beim Ref Design?

laut igor wohl schon auf MX2/4 level die WLP bei den ganzen grakas inzwischen... ich selber glaub das zwar nicht, weil ich grundsätzlich mit MX2 bessere temps hatte bisher, aber das liegt evtl. auch an der menge, original ist ja immer nach dem motto "viel hilft viel" X-D und bei mir eher "soviel wie nötig, sowenig wie möglich"... verstreiche das zeug auch immer hauchzart mit nem kleinen gummispachtel so das der DIE noch durchschimmert, mehr brauchs einfach nicht.

Daredevil
2018-07-14, 19:49:10
Oh jow, habs auch gerade gefunden.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11736744&postcount=10178

Da muss ich mal noch weiter recherchieren, so wirklich glaube ich da auch nicht dran.
Liquid Metal steht ja auch noch zur Auswahl beim DIE, wenn man die Referenz kühler bekommen mag. Nur muss man für den HBM halt dann WLP nutzen, weil wegen der Höhe.

Edit:
Eiswolf Werte habe ich auch im PCGH Forum gefunden mit 240er Radi

Temps bei Firestrike:

GPU: 53°C
Hotspot: 85°C
HBM: 54°C
VRM SOC: 54°C
VRM MEM: 60°C

GPU Power Draw: 393W XD
53°C Core bei 360W ist natürlich ne Hausnummer. :X

Langlay
2018-07-14, 20:21:45
Edit:
Eiswolf Werte habe ich auch im PCGH Forum gefunden mit 240er Radi


53°C Core bei 360W ist natürlich ne Hausnummer. :X

53°C Core am 240mm Radi halt ich für bei >300W für ziemlich wenig. Mit meiner Vega56 +EK Waterblock und >250W ASIC ist bei mir die Coretemp schon bei ~60° und der Hotspot ist dann allerdings trotzdem noch <80°C.

Und ich hab 1x 280mm Radi und 1x 420mm Radi mit ~700-1000 RPM Lüftern.

Achill
2018-07-14, 21:03:06
Ich habe unter CPU wie auch meiner Vega mit EK Waterblock die Gelid Extrem WP und bin sehr zufrieden.

Habe mit Silent-Settings meiner Loop (450-600 rpm Lüfter und 3000-4000 rpm Pumpe) und überfahren der Vega (400W Chip was +500W für die Karte mach dürfte) bei 28.9°C Raumtemp nach 10 min FurMark:
- GPU Core Temp 54°C
- GPU Hot Spot 78°C
- GPU VDDC 59°C
- GPU MVDD 65°C

Habe ein 420x30mm und 280x30mm und nur Push mit den Lüftern ...

Raff
2018-07-14, 21:41:32
Eine derart große Differenz zwischen Hotspot und dem Rest des Kerns deutet übrigens auf tendenziell zu wenig Paste hin.

MfG,
Raff

Daredevil
2018-07-14, 22:02:14
Ich habe unter CPU wie auch meiner Vega mit EK Waterblock die Gelid Extrem WP und bin sehr zufrieden.

Habe mit Silent-Settings meiner Loop (450-600 rpm Lüfter und 3000-4000 rpm Pumpe) und überfahren der Vega (400W Chip was +500W für die Karte mach dürfte) bei 28.9°C Raumtemp nach 10 min FurMark:
- GPU Core Temp 54°C
- GPU Hot Spot 78°C
- GPU VDDC 59°C
- GPU MVDD 65°C

Habe ein 420x30mm und 280x30mm und nur Push mit den Lüftern ...
Alter, da heizt du den Raum aber auch massiv auf zur Sommerzeit, oder?
Das ist ja konsequent bis ans letzte Mhz übertaktet, gefällt mir. :D

Hört sich aber gut an, die meisten heißen Komponenten sind ja eh um den DIE rum, deswegen lässt sich das Ding vermutlich auch so gut mit ner WaKü kühlen, mh? In meinem Fall wäre es ja kein FullCover, aber mit dem Eiswolf habe ich schon gute Erfahrungen gemacht in Verbindung mit ner 1080 und dem 420er Radi. Das ging locker flockig von statten.
Wenn is Horns Drehzahlen sehe, freu ich mich aber schon automatisch weniger auf die Karte... ich hab zwar n halbes Jahr mit den Karten hantiert, aber zum zocken kamen die selten. Hoffentlich hat die Samsung RAM, ich hab Bock auf 1100Mhz HBM2, drückt mir die Daumen. :D

Achill
2018-07-15, 12:06:42
Eine derart große Differenz zwischen Hotspot und dem Rest des Kerns deutet übrigens auf tendenziell zu wenig Paste hin.

MfG,
Raff

Ja, solch eine Differenz tritt nur mit solch extremen Settings auf, bei einen gesunden Betrieb ist die Differenz kleiner und liegt bei ~16°C. Hast du Erfahrungen gemacht, dass die Hot-Spot-Temp sinkt nach dem wechseln der WLP? Da ich aktuell keine Probleme habe ist mir das fummelige Öffnen der Vega es nicht wert - evtl. wenn ich mal die Loop öffne um was umzubauen/reinigen.

--

Alter, da heizt du den Raum aber auch massiv auf zur Sommerzeit, oder?
Das ist ja konsequent bis ans letzte Mhz übertaktet, gefällt mir. :D

Hört sich aber gut an, die meisten heißen Komponenten sind ja eh um den DIE rum, deswegen lässt sich das Ding vermutlich auch so gut mit ner WaKü kühlen, mh? In meinem Fall wäre es ja kein FullCover, aber mit dem Eiswolf habe ich schon gute Erfahrungen gemacht in Verbindung mit ner 1080 und dem 420er Radi. Das ging locker flockig von statten.
Wenn is Horns Drehzahlen sehe, freu ich mich aber schon automatisch weniger auf die Karte... ich hab zwar n halbes Jahr mit den Karten hantiert, aber zum zocken kamen die selten. Hoffentlich hat die Samsung RAM, ich hab Bock auf 1100Mhz HBM2, drückt mir die Daumen. :D

Ja, darum ist es auch nicht mein 24/7 setup sondern da fahre ich ~1650/1050 Mhz bei ~220W Core ... auf die letzten paar Frames verzichte ich lieber - besonders im Sommer wenn hier im Dachgeschoss auch schnell mal 30°C Raumtemp. sind - gestern war es ja schon später mit offenen Fenster ... ^_^

horn 12
2018-07-15, 16:46:40
Meine Karte macht wohl zumindest 1050 Mhz HBM mit, und dieser heizt ganz stark
Hotspot ca. 5 bis 7 Grad höher als HBM Temperatur.

Langlay
2018-07-15, 17:16:32
https://abload.de/img/300wasic89xo4.jpg

So siehts bei mir aus nach 10minuten, ganz gesättigt war das System aber noch nicht, ich denke 1-2°C wären da noch dazugekommen.

Der Airflow in meinem Tower (Bequiet Dark Base Pro 900) ist halt nicht optimal und es ist auch recht warm (26.5°C).

Mein Alltagsetting hat allerdings auch nur 160W Core.

Taigatrommel
2018-07-16, 12:38:16
Wer Interesse hat:
Die Sapphire Vega 64 Nitro gibt es heute im Mindstar für 549,-€

Daredevil
2018-07-16, 13:03:35
Wär das die 3 8-Pin Slot Variante, hätte ich vielleicht zugegriffen.
Aber so greift die Raffsche "Ist nicht das dickste Model" Phänomen und irgendwie ist das ungeil. :D

Aber schon ganz nett für so einen Kracher. Ne 1080 mit so nem Kühler bekommt man für den Preis definitiv nicht. :<

Taigatrommel
2018-07-16, 13:17:44
Wär das die 3 8-Pin Slot Variante, hätte ich vielleicht zugegriffen.
Aber so greift die Raffsche "Ist nicht das dickste Model" Phänomen und irgendwie ist das ungeil. :D

Aber schon ganz nett für so einen Kracher. Ne 1080 mit so nem Kühler bekommt man für den Preis definitiv nicht. :<

Die gibt es leider nicht mehr, die Produktion wurde schon vor Monaten eingestellt. Ich verstehe aber was du meinst, habe die ja selbst im Rechner und der Hintergedanke, dass dies nicht *das* Modell ist, ist irgendwo immer da. Obwohl sich diese abgespeckte Version kaum verstecken braucht.

Daredevil
2018-07-16, 13:21:14
Das wäre in dem Sinne auch nur aus Basteltrieb gewesen, weil man dann Drölftausend Watt auf die Karte jagen kann und sie mit nem WaKü Block dann als unvernünftige Pfeilspitze der Vega Serie sehen kann.

Neutral betrachtet haben wir hier die Vega Karte mit der besten Kühlung. Die Kostet zwar normal ein paar Taler mehr, aber diese Qualität kann man Sapphire ruhig bezahlen. :)

pilzsammler2002
2018-07-16, 17:28:11
Das wäre in dem Sinne auch nur aus Basteltrieb gewesen, weil man dann Drölftausend Watt auf die Karte jagen kann und sie mit nem WaKü Block dann als unvernünftige Pfeilspitze der Vega Serie sehen kann.

Neutral betrachtet haben wir hier die Vega Karte mit der besten Kühlung. Die Kostet zwar normal ein paar Taler mehr, aber diese Qualität kann man Sapphire ruhig bezahlen. :)

Die Sapphire (non-limited) läuft undervoltet bei 900mv fast durchgehend passiv :)
Mit Chill geht eigentlich nie der Lüfter an, ausser in Wildlands (immer nur kurz) und Witcher 3 (auch dort nur gelegentlich) :)

SKYNET
2018-07-16, 18:46:24
Das wäre in dem Sinne auch nur aus Basteltrieb gewesen, weil man dann Drölftausend Watt auf die Karte jagen kann und sie mit nem WaKü Block dann als unvernünftige Pfeilspitze der Vega Serie sehen kann.

Neutral betrachtet haben wir hier die Vega Karte mit der besten Kühlung. Die Kostet zwar normal ein paar Taler mehr, aber diese Qualität kann man Sapphire ruhig bezahlen. :)

alternate hat sie noch im shop :)

Daredevil
2018-07-18, 21:28:15
Danke, brauch ich nicht mehr. Meine 300€ Vega 56 Ref ist nun da, gekauft von einer englisch sprechenden Person in den Kleinanzeigen, die leider keine Rechnung hatte, da die Karte in Süd Afrika gekauft wurde. .. .. .. :D

Ich hab die Karte direkt mal umgebaut und neue WLP draufgeklatscht und die Temperatur hat sich um sage und schreibe 2°C verbessert. Das war nicht so der Hit.

Bin gerade dabei, ein wenig die Game Effizienz auszuloten, da habe ich natürlich erstmal direkt Yin und Yang getroffen.

Vega 56 @ Vega 64 Bios @ Vega 56 Stock Settings
Power Target | Taktraten |ASIC Power | Superposition 4K | Trine3 4k 2xSSAA
Stock | 1200/0800 | 150w |4765 | 37fps
HBM OC| 1200/1020 |150w +0,0%| 4922 +3,3% |37fps +0,0%
+10pt |1240/1020 | 164w +9,0% |5050 +2,6% | 41fps +10,8%
+20pt |1274/1020 | 180w +9,8% |5176 +2,5% | 46fps +12,2%
+30pt |1314/1020 | 194w +7,8% |5275 +1,9% |50fps +8,7%
+40pt |1378/1020 | 210w +8,2% |5336 +1,1% | 54fps +8,0%
+50pt |1412/1020 |224w +6,7% | 5381 +0,8% |59fps +9,2%


Superposition ist ja eh nicht die Stärke von Vega, skaliert mit Speicherbandbreite ganz gut, aber gemessen am Stromverbrauch bekommt die Karte da überhaupt nichts hin.
Mein Lieblingseinheizer Trine3 in 4K+2xSSAA hingegen skaliert überdurchschnittlich gut.

Ein paar Impressionen. (:


Geöffnet:
https://abload.de/img/img_20180718_1452375ad1u.jpg

Alte WLP:
https://abload.de/img/img_20180718_145417tjcc1.jpg

Krümelzeug:
https://abload.de/img/img_20180718_145425wqezw.jpg

Zahnpasta:
https://abload.de/img/img_20180718_1454317cdqg.jpg

Grobes entfernen:
https://abload.de/img/img_20180718_1455234qic5.jpg

Schweinerei auf dem DIE geklärt:
https://abload.de/img/img_20180718_145948cwfeo.jpg

Etwas mehr als zuwenig Klecksi Klecksi wegen HBM:
https://abload.de/img/img_20180718_150101v7iqa.jpg

Ab dafür :)


Hatte leider kein Liquid Metal mehr da, aber ich wollte eh nur mal schauen, ob das überhaupt was bewirkt und die Antwort ist Nein. :<
Die GPU und HBM Temp ist minimal gesunken ( 2-3°C ) und die Hotspot Temp um 3°C gestiegen.
Vega ist so ne Bitch. :rolleyes:

PS: Jaja ich weiß, die Karte ist uralt und unspannend, aber ich hatte damit bislang nur geschürft. :D
PPS: Samsung Ram ! <3
PPPS: Undervolten mit dem OverdrineNTool ist einfach nur Cancer pur, ich hasse das so sehr bei AMD, dass man kein gescheites Tool nutzen kann. Aber egal, Freesync.

BlackArchon
2018-07-18, 21:44:55
Gibt es eigentlich kompatible Nachrüst-Kühler für die Referenz-Vegas?

Daredevil
2018-07-18, 21:59:25
Es gibt ne "dicke" Bastellösung:
http://www.pcgameshardware.de/Grafikkarten-Kuehler-Grafikkarte-255486/Videos/Raijintek-Morpheus-II-Radeon-RX-Vega-64-kalt-gestellt-1260292/

Ansonsten kann man da ne AiO Wakü draufpappen von Alphacool, nur inwieweit sich das lohnt, muss man natürlich überdenken.
Leise wird es selbstverständlich, aber viel mehr Performance geht dann letztendlich nur auf Kosten vom Verbrauch.

Edit: Ich lass die Sache mit dem Alphacool WaKü Block erstmal sein. 120€ nur für "leise" und ein paar Prozent Leistung, bis es unvernünftig wird, isses mir dann doch nicht wert. Sie soll ja eh nur die Leistung der GTX1060 ein wenig anheben und Freesync bringen. Dann lass ich die Karte halt bei 1.1Ghz laufen, was solls. :D

BlackArchon
2018-07-18, 22:29:20
Danke für den PCGH-Link. Das ist mir nichts, das macht einfach keinen durchdachten Eindruck. Und wenn ich eh 100 Euro für Kühler und Lüfter ausgeben muss, lohnt sich das auch finanziell nicht.

Daredevil
2018-07-18, 22:34:04
Muss man halt warten, bis die Kollegen hier im Sale sind. ;)
https://www.aquatuning.de/wasserkuehlung/sets-und-systeme/interne-sets/alphacool/eiswolf/22291/alphacool-eiswolf-120-gpx-pro-amd-rx-vega-m01-black?c=21344

Meinen letzten GPX Pro hab ich für 70€ geschossen, war aber halt für ne 1080.
" > 25 ab Lager verfügbar" klingt zumindest sehr verlockend nach einer Fehldisposition in Zeiten der Custom Karten. :D

N0Thing
2018-07-19, 00:58:31
Bin gerade dabei, ein wenig die Game Effizienz auszuloten, da habe ich natürlich erstmal direkt Yin und Yang getroffen.

Könntest du auch noch Benchmarks liefern, wo der Speichertakt bei 800MHz bleibt und der Rest so, wie du aktuell vorgegangen bist?

Daredevil
2018-07-19, 03:10:48
Könntest du auch noch Benchmarks liefern, wo der Speichertakt bei 800MHz bleibt und der Rest so, wie du aktuell vorgegangen bist?
In welchem Test jetzt speziell? Irgendwelche Wünsche?
Ich könnte auch mal den FinalFantasy 15 Benchmark rausholen, ich hab mir heute bestimmt ca. 50x den Superposition angeschaut, das wird mittlerweile sehr öde. :D

Raff
2018-07-19, 08:09:03
Grundsätzlich gilt: Vega + Morpheus 2(.1) = full of win. Hier ein sehr informativer User-Test mit anleitender Funktion: http://extreme.pcgameshardware.de/overclocking-grafikkarten/512389-vega56-64-oc-uv-anleitung-rajintek-morpheus-2-inkl-backplate-oder-custom-wakue.html#post9415884

MfG,
Raff

N0Thing
2018-07-19, 18:25:05
In welchem Test jetzt speziell? Irgendwelche Wünsche?
Ich könnte auch mal den FinalFantasy 15 Benchmark rausholen, ich hab mir heute bestimmt ca. 50x den Superposition angeschaut, das wird mittlerweile sehr öde. :D

Einfach noch einmal mit Trine 3, dann kann man die Ergebnisse gut denen mit 1020MHz gegenüber stellen.

Elite_Warrior
2018-07-19, 21:47:50
...Morpheus 2(.1)...

Wo gibts denn die 2.1 Version? Was ist daran anders? Hatte mal bei Raijintek angefragt aber damals keine Info bekommen.

pilzsammler2002
2018-07-20, 12:20:29
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/

Was schon vor Jahren mal gepredigt wurde von Gamestar wurde jetzt nochmal bestätigt... :rolleyes:

M4xw0lf
2018-07-20, 12:21:23
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/
Höggschd inderessand.

Sven77
2018-07-20, 12:26:12
Höggschd inderessand.

Gibt keinen Grund dafür da HDR nicht rechenlastig ist, dürfte also ein Treiber-Bug sein

pilzsammler2002
2018-07-20, 12:27:03
Gibt keinen Grund dafür da HDR nicht rechenlastig ist, dürfte also ein Treiber-Bug sein
Den gibt es schon seit über nem Jahr dann... Villeicht liegt es auch an der Komprimierung die nicht alles "weglassen" kann???? :freak::freak::freak:

;D

Sven77
2018-07-20, 12:32:38
Villeicht liegt es auch an der Komprimierung die nicht alles "weglassen" kann???? :freak::freak::freak:


Weiss nicht wie ich darauf antworten soll..

pilzsammler2002
2018-07-20, 12:44:03
Weiss nicht wie ich darauf antworten soll..
:confused:
Liegt es nicht im bereich des möglichen das Nvidia die ganze Komprimierungsgeschichte in HDR nicht wirklich umsetzen kann da es etwas mehr Arbeit verlangen würde...
Ich meine sie machen ja jetzt schon alles über den Treiber. Die Hardware ist ja im Verhältniss zu AMD recht "dumm"...

Sven77
2018-07-20, 12:45:59
Wir reden hier von simplen LUTs, das kannst auch mit dem Taschenrechner machen und es würde nix ausmachen..

aufkrawall
2018-07-20, 12:50:23
NV kriegts aber offenbar irgendwie nicht richtig gebacken. Wundert mich mittlerweile allerdings auch nicht mehr...

Sven77
2018-07-20, 12:52:14
NV kriegts aber offenbar irgendwie nicht richtig gebacken. Wundert mich mittlerweile allerdings auch nicht mehr...

Das steht ausser Frage, aber momentan ist HDR am PC ja noch mehr als Nische.. es gibt auf jedenfall keinen Grund warum die HDR Ausgabe langsamer als SDR sein sollte, weder Hardware- noch Softwareseitig.

pilzsammler2002
2018-07-20, 12:53:07
Wir reden hier von simplen LUTs, das kannst auch mit dem Taschenrechner machen und es würde nix ausmachen..

Das erklärt dann nicht wieso AMD wenig verliert und Nvidia viel... Aber wenn's so ez wäre dürfte ja keiner was verlieren...

von Richthofen
2018-07-20, 13:50:03
Gibt keinen Grund dafür da HDR nicht rechenlastig ist, dürfte also ein Treiber-Bug sein

Da bin ich nicht so sicher. Zumindest das Tone Mapping fällt an....oder wird das durch einen Chip im Monitor (G-Sync Modul) berechnet?

pilzsammler2002
2018-07-20, 13:52:09
Da bin ich nicht so sicher. Zumindest das Tone Mapping fällt an....oder wird das durch einen Chip im Monitor (G-Sync Modul) berechnet?
Dann hat Freesync eben kein HDR :freak:

Sven77
2018-07-20, 13:53:35
Da bin ich nicht so sicher. Zumindest das Tone Mapping fällt an...

Tone Mapping meine ich damit(LUTs). Und das fällt immer an, ob SDR oder HDR..

dildo4u
2018-07-20, 13:56:59
Sony hat die PS4 von 2013 HDR fähig gemacht,würde mich sehr wundern wenn es nur in die Nähe von 10% Performance Verlust kommt.Ich schätze Nvidia wartet auf den neuen GPU Launch um endlich ein umfassendes Treiber Update zu bringen.

vinacis_vivids
2018-07-20, 14:04:42
Sony hat die PS4 von 2013 HDR fähig gemacht,würde mich sehr wundern wenn es nur in die Nähe von 10% Performance Verlust kommt.Ich schätze Nvidia wartet auf den neuen GPU Launch um endlich ein umfassendes Treiber Update zu bringen.

Update für die Farbqualität nehme ich mal an ...
Die PS4 ist GCN :tongue:

SKYNET
2018-07-20, 14:10:16
gute neuigkeiten für vega besitzer, wenig verluste durch HDR, NV bricht bis zu 20% ein ;D

https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/

Savay
2018-07-20, 14:11:18
Ich schätze Nvidia wartet auf den neuen GPU Launch um endlich ein umfassendes Treiber Update zu bringen.

So wie AMD noch den Treiber für die Prim Shader bringen will?! :wink:

vinacis_vivids
2018-07-20, 14:30:39
Der ist schon da, ja im Treiber drin!!!, aber das schon eine alte Info.

Sven77
2018-07-20, 14:32:22
gute neuigkeiten für vega besitzer, wenig verluste durch HDR, NV bricht bis zu 20% ein ;D

https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/

:facepalm:

Daredevil
2018-07-20, 14:32:56
Uha, things are getting hot in here. :D
Der 300€ Kleinanzeigen Vega 56 Verkäufer hat noch ne zweite Vega bei sich Zuhause, die er ebenfalls loswerden möchte.
Bald gibts Crossfire Action. :)

Zwei Vega56 im Crossfire bei 100w (pro Karte ) sind ja dann auch irgendwo leise und effizient, wenn Crossfire denn skaliert ( Haha ). Bastelspaaaaß. <3

horn 12
2018-07-20, 17:16:55
Dann verkauf ich Dir meine RX VEGA 64 :-)

Raff
2018-07-21, 10:31:47
Wo gibts denn die 2.1 Version? Was ist daran anders? Hatte mal bei Raijintek angefragt aber damals keine Info bekommen.

Ich meine die Revision, welche offizielle Vega-kompatibel ist (http://www.pcgameshardware.de/Grafikkarten-Kuehler-Grafikkarte-255486/Videos/Raijintek-Morpheus-II-Radeon-RX-Vega-64-kalt-gestellt-1260292/). Der heißt immer noch Morpheus II, aber mit dem Anhängsel "Vega". Derzeit scheint er aber noch nicht im Handel zu sein.

MfG,
Raff

SKYNET
2018-07-21, 10:35:30
Ich schätze Nvidia wartet auf den neuen GPU Launch um endlich ein umfassendes Treiber Update zu bringen.

oder sie machens geschickt im nvidia style: die neuen karten haben kaum verlust wie AMD, und die alten werden weiterhin künstlich eingebremst, damit sie sagen können "du willst HDR? kauf was neues" :rolleyes:

Elite_Warrior
2018-07-21, 11:48:03
@Raff: Vielen dank! Ich glaube das Problem bei der Standard Morpheus ist dass die Bodenplatte eine leicht konvexe Form hat. Da bei Vega die GPU nicht mittig sitzt hat es wohl zu einen anstieg des Hotspots geführt. Zumindest konnte ich das selber feststellen und auch einige User die einen Umbau hinter sich hatten. Ich denke dieser Problematik hat sich Raijintek zugewendet, schade dass sie dafür so lange brauchen.

DrFreaK666
2018-07-21, 17:59:02
Wurde die GPU der One S nicht höher getaktet, da sie im Vergleich zur Classic HDR beherrst??

https://www.pcgameshardware.de/Xbox-One-Konsolen-232351/News/One-S-Shrink-SoC-TSMC-1203455/amp/

Daredevil
2018-07-22, 14:19:32
Gibt es irgendwo nen Test, wo Vega 56 und Vega Ref bei gleichem Takt bzw. Power Limit verglichen werden?
Ich sehe zwar überall, dass die 64 natürlich schneller als eine 56 ist, frage mich aber wie viel wirklich durch die Einheiten dazu kommt.

Mal als Beispiel von der CB Rangliste:

Beispiel The Witcher 3 – 2.560 × 1.440, Hoch-Preset
Vega 64 64,8fps
Vega 56 56,3fps

Vega 64 Verbrauch 300w
Vega 56 Verbrauch 233w

Die Vega64 hat dort 15,1% mehr FPS bei 28,8% mehr Verbrauch im Vergleich zur 56er Version.
Die Frage die ich mir nun stelle, kommt das wirklich von den Mehreinheiten, oder kommt es hauptsächlich durch das deutlich höhere Power Target?

Edit:
Ach lol! CB hat sich das ja mal vorgenommen.
https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/2/#abschnitt_im_benchmarkduell_64_cus_vs_56_cus

5 Prozent? ;D
Die 64er kostet im Schnitt ~50-100€ mehr und bietet Takt- und PowerTarget bereinigt nur 5% mehr? :D
Das ist doch völlig sinnlos, sich die größere Karte zu holen, oder profitiert man irgendwo ganz deutlich davon?

Edit2:
Ich sollte mal mehr lesen, bevor ich poste. :>
So kann F1 2017 zumindest um neun Prozent auf Vega zulegen. In Kingdom Come: Deliverance sind es gar 12 Prozent und damit nahe an den optimalen 14 Prozent.
Okay. :D

aufkrawall
2018-07-22, 14:29:48
Salvage Chips sind allgemein ineffizienter, sofern die Kühlung beim Full Chip entsprechend dem Mehrverbrauch besser ist und beide takt- und spannungsbereinigt laufen. Das schlägt aber eher bei vielen deaktivierten Einheiten wie bei der 1070 durch.

BlackArchon
2018-07-22, 14:52:39
Gibt es irgendwo nen Test, wo Vega 56 und Vega Ref bei gleichem Takt bzw. Power Limit verglichen werden?
Ich sehe zwar überall, dass die 64 natürlich schneller als eine 56 ist, frage mich aber wie viel wirklich durch die Einheiten dazu kommt.
...Hier bei Gamersnexus gibt es auch so etwas: https://www.youtube.com/watch?v=jHRP1uVBqfY

Daredevil
2018-07-22, 18:32:29
Das ist interessant, Danke! :)
Dann muss ich mir ja gar nicht so viel Gedanken machen, wenn ich meine 56er mit einem neuem Kühler bestücken will, weil ich das Gefühl habe, nicht die "dickste" Ausführung zu besitzen.
Der Unterschied zwischen den beiden Karten ist ja tatsächlich überschaubar, der Aufpreis zu einer 64er aber kaum gerechtfertig.

Unterschiedlich sind größtenteils ja echt nur die Bios-Settings und das Power Target, welches gefahren wird. Mit dem 56er Bios kann man runtergehen bis auf 75w Asic, das ist mit dem 64er Bios nicht möglich. Weiter runter mit dem Verbrauch kommt man nur mit Chill, da sind unter 50w möglich.
Aber gut.... aktuell ist eine Custom Gigabyte Vega 64 auch günstiger als jede Vega 56 auf dem Markt, was solls. :D

Aber dann kann man die Benchmark Ergebnisse ja eigentlich nicht so wirklich vergleichen.
Man sagt ja eine Vega 56 soll eine GTX1070 bekämpfen, während eine Vega64 Richtung 1070ti/1080 geht.
Mit gleichem PowerTarget sind beide Vegas ja so flexibel, wie sie sein möchte, also ist eine Vega56 mit dem PT einer Vega64 halt auch in der 1070ti/1800 Region zu finden. So habe ich das bislang nie gesehen.

horn 12
2018-07-22, 19:35:50
Eine Vega 1450 bis 1650 Mhz ist mindestens so schnell wie eine GTX 1080 bis über GTX 1080 OC , also kaum langsamer als eine GTX 1080 TI FE Edition.
und dies bei Neuen Games, bzw. Neuen Releases (Hauptsächlich)

Taigatrommel
2018-07-22, 20:43:12
Die Gigabyte Vega 64 gibt es heute im Mindstar für 499,-€
Damit dürfte erstmals in diesem Jahr eine Vega 64 zur UVP angeboten werden.

horn 12
2018-07-22, 20:52:22
Wäre es die Nitro OC+ von Sapphire würde ich zugreifen !!
So bleibe ich stark und warte auf Navi

Tyrann
2018-07-23, 11:26:55
habe mir für 450,- eine gebrauchte Vega 56 mit Wakü auf ebay geschossen,

bin dann mal gespannt wie der Sprung von meiner aktuellen R9 290 sein wird

vinacis_vivids
2018-07-23, 18:00:43
Mal als Beispiel von der CB Rangliste:

Beispiel The Witcher 3 – 2.560 × 1.440, Hoch-Preset

Edit2:
Ich sollte mal mehr lesen, bevor ich poste. :>

Okay. :D

Um mal etwas Salz in die Suppe zu geben:
https://abload.de/img/screenshot_2018-07-23b2dxn.png

Witcher 3 ist ein geiles Game, ohne Frage. Aber dieses Logo "it meant to be played" wird langsam absurd :tongue:
Die Engine brauch 25Tflops um 4k@60 fps zu "zaubern", was schwach ist.

Daredevil
2018-07-23, 18:54:32
Ich bin vor allem gespannt, was die Effizienz angeht von zwei 56ern.
Die maximale Balkenlänge kommen dann in den Benchmarkthread, aber hier gehts ja um sinnvolles spielen und eine relativ hohe AMD Performance. Achja, und ich will es leiser haben.
Zwei Ref Kühler bei ~75-100w Asic pro Karte sind schon geiler als eine bei 220w.

Ich habe früher ja das ganze nur ganz kurz angeschnitten, jetzt habe ich da mehr Zeit und Lust zu. :)


Dark Souls 4k Max Settings:

Stock Voltage - Bios2
Vega 56 Turbo Mode: 31 FPS, 170w GPU, 384w System, 2206RPM, 1310 MHz
Vega 64 Turbo Mode: 34 FPS, 230w GPU, 470w System, 2396RPM, 1386 MHz

Vega 56 + 64 Crossfire @ -50% PT @ Undervolting @ Bios2 @ Power Save Mode
47Fps, 95w GPU ( Vega64 ), 430w System, 1700RPM, 770 MHz

+52% Performance
-9% Stromaufnahme
-23% Umdrehungen pro Minute

https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcR-KrgswuOP5Yrjpejf4NkiDfUV8S5iOdk_OsBBzLQbLhB6d6FECw

Aber Crossfire halt. Leistung schwankt pro Spiel, Spiel stürzt gerne auch mal ab. Ab und an peakt die Aufnahme so hoch, das sich mein System ( 650w ) abschaltet. Machste nix.

Zudem habe ich jetzt nen 850w Netzteil. :D

vinacis_vivids
2018-07-23, 19:43:18
Ich hab mich schon gewundert, da CB jetzt auch keine Referenz für den effizienten Betrieb einer Vega ist. Da ist das Forum hier schon auf einem anderen Level. Ich wünsche viel Spass mit Vega56@CF@UV ;)

Sven77
2018-07-23, 20:24:38
Gibt es ernsthaft keinen Fullcover-Wakü für Vega unter 100Eur? Was ist da los?

iuno
2018-07-23, 20:29:30
Ist doch ein normaler Preis oder etwa nicht?

Gibts eigentlich eine Uebersicht, welche Customs Referenz PCBs nutzen, zwecks FC?

Sven77
2018-07-23, 20:32:51
Ist doch ein normaler Preis oder etwa nicht?

Imho nicht wenn das Design bald ein Jahr auf dem Markt ist.. gebraucht auch nix

edit: ich suche klar ein FC für Referenz

Taigatrommel
2018-07-23, 20:35:36
Ist doch ein normaler Preis oder etwa nicht?

Gibts eigentlich eine Uebersicht, welche Customs Referenz PCBs nutzen, zwecks FC?
Im Endeffekt gar keine. Die kommenden Asrock Modelle und auch die MSI "Air Boost" Karten setzen AFAIK auf das Referenz PCB, alle anderen Modelle (Sapphire Nitro, Asus Strix, PC Red Devil, Gigabyte) setzen entweder auf deutlich modifizierte oder komplett eigens entwickelte Platinen.

Tyrann
2018-07-23, 20:44:36
Gibts eigentlich eine Uebersicht, welche Customs Referenz PCBs nutzen, zwecks FC?
https://www.ekwb.com/configurator/waterblock/3830046994301

bloodflash
2018-07-23, 21:00:32
Ich hab mich schon gewundert, da CB jetzt auch keine Referenz für den effizienten Betrieb einer Vega ist. Da ist das Forum hier schon auf einem anderen Level. Ich wünsche viel Spass mit Vega56@CF@UV ;)

Nach dem ganzen Mist mit Intel (z.B. ME, Meltdown, Spectre) und dem nVidia-Murks (NDA, 970, GW, Branding) plane ich gerade auf Ryzen und Vega (die Preise standen bisher im Weg).

Und bei Vega der Leistungshunger.

Hast Du da Links zum Regeln der Problematik, die einfach umzusetzen sind?
Ich verzichte gerne auf 5-10% der Leistung, wenn ich dazu adäquate niedrige Verbrauchswerte bekomme.

dargo
2018-07-23, 21:06:18
Hast Du da Links zum Regeln der Problematik, die einfach umzusetzen sind?
Ich verzichte gerne auf 5-10% der Leistung, wenn ich dazu adäquate niedrige Verbrauchswerte bekomme.
Guckst du... (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818):)

Daredevil
2018-07-23, 21:07:52
Einen Anhaltspunkt siehst du ja schon hier > https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11747639&postcount=10293

Trine skaliert gut, Superposition schlecht.
Also kommt es immer auf die Anwendung an, wie Effizient deine Karte ist.

Generell und Quick an Easy kannst du einfach das Power Target senken auf z.B -20 ( 220w bei einer Vega 64 -20% > 176w ) und den verlorenen Takt aufgrund der Limiterung mit Undervolting ausgleichen. Dazu Quick and Easy den Regler im MSI Afterburner nach links schieben oder ausführlich dir verschiedene Profile im OverdriveNTool erstellen.
Dargo hat dazu n eigenen Thread gemacht.

vinacis_vivids
2018-07-23, 21:08:48
Jo, dargo hat ein UV Thread eröffnet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818

Bei PCGH gibs auch einen interessanten Thread:
http://extreme.pcgameshardware.de/overclocking-grafikkarten/486587-amd-radeon-rx-vega-64-und-rx-vega-56-overclocking-undervolting-thread.html

Ansonsten: Einige Karten haben einen silent-bios -> ein click und der Verbrauch ist reduziert. Aber was ich sagen muss: Es macht sehr viel Spaß AMD Karten zu trimmen.

bloodflash
2018-07-23, 21:18:42
Danke Euch!

Die Links helfen definitiv weiter :smile:

Sven77
2018-07-23, 21:28:37
Es macht sehr viel Spaß AMD Karten zu trimmen.

Naja, das ist wie wenn man sich ein Fleshlight schnitzen muss.. mag manchen Spass machen, am Ende wollen es die meisten einfach benutzen

Daredevil
2018-07-23, 22:20:41
Danke Euch!

Die Links helfen definitiv weiter :smile:
Ich wollte ja mal die 50 Mbit Upload testen. :D
Hab da mal gerade ein kleines Video zu gemacht, das sollte ein wenig weiterhelfen, da man auch direkt die FPS sieht.

Mit dem Power Limit und Undervolting kann man sich aber die Karte bauen, die man gerne hätte.
Tdw8W4P-QdQ

Aber nicht vergessen:
Undervolting ist kein Geschenk der Götter sondern hat klare Grenzen, die man selber mit seiner individuellen Karte ausloten muss.

bnoob
2018-07-24, 14:05:32
Im Endeffekt gar keine. Die kommenden Asrock Modelle und auch die MSI "Air Boost" Karten setzen AFAIK auf das Referenz PCB, alle anderen Modelle (Sapphire Nitro, Asus Strix, PC Red Devil, Gigabyte) setzen entweder auf deutlich modifizierte oder komplett eigens entwickelte Platinen.
MSI Air Boost ist eine hundertprozentige Refplatine, nur billigerer Kühler und hässliche Backplate (Ref mit Drachenaufdruck), hab gerade eine auf FC umgebaut.

Der Watercool-Kühler kostet billigstensfalls 105€, ist extrem hochwertig und easy zu montieren, da würe ich über keinen anderen Kühler nachdenken.

Allerdings waren beide Karten die ich umgebaut habe mit gemoldetem Package, kein Plan ob es mit den zwei anderen Unterarten anders aussieht.

Taigatrommel
2018-07-24, 16:21:27
MSI Air Boost ist eine hundertprozentige Refplatine, nur billigerer Kühler und hässliche Backplate (Ref mit Drachenaufdruck), hab gerade eine auf FC umgebaut.

[...]

Allerdings waren beide Karten die ich umgebaut habe mit gemoldetem Package, kein Plan ob es mit den zwei anderen Unterarten anders aussieht.
Na das ist doch gut zu wissen, damit wird die Asrock ebenfalls dem Referenzdesign entsprechen. Schade halt, dass z.B. die MSI mit die derzeit teuerste Karte, damit zahlen Käufer, welche die Karte unter Wasser setzen wollen, gleich "doppelt".

Ich habe heute meine Sapphire Nitro+ auseinander genommen um neue Paste auf den Chip zu schmieren und andere Wärmeleitpads zu installieren. Das alles gestaltete sich als recht simpel, die Karte kann man recht problemlos auseinander nehmen, mein Package ist ebenfalls eingegossen, wodurch sich eine quasi perfekte Verteilung der ab Werk aufgetragenen Wärmeleitpaste ergab. Da es sich um das ebenerdige Package handelte, habe ich die Kryonaut entsprechend verstrichen.
Zumindest für die GPU Temperaturen hat es nichts gebracht, andererseits ist es jetzt schon spürbar wärmer hier im Zimmer als noch heute Mittag, somit ist kein 1:1 Vergleich möglich. Ob die neuen Pads etwas für die VRM Temperaturen gebracht haben, kann ich leider nicht messen.

Daredevil
2018-07-26, 00:32:24
Wer Bock hat, vielleicht ein/zwei Prozentchen aus seiner Karte zu holen, kann ja mal fröhlich ( und vorsichtig! ) am PCIe Takt schrauben.
Gerade bei solchen armen Menschen wie mir, die noch mit einer PCIe 2.0 Plattform rumlaufen, kann das vielleicht irgendetwas nicht fühlbares bringen. ^^
( Memory Read und write schwankt fröhlich hin und her )
-----------------------PCIe Takt 100 ---------------------------------------------PCIe Takt 105:
https://abload.de/img/gpgpu4gc7a.pnghttps://abload.de/img/gpgpu2hbded.png

=Floi=
2018-07-26, 01:06:34
das ist langsamer?!

Waren die karten beim OC schon warm?

Daredevil
2018-07-27, 00:31:10
Nochmal ein kleiner Nachtrag mit meinem Custom Gigabyte Problem.
Aktuell sieht es so in meinem Gehäuse aus ( Front unten ebenfalls 230mm Lüfter )
https://abload.de/img/img_20180725_100602u1ifq.jpg
und die Temperaturen schauen ( logischerweise weil Sommer ) deutlich schlechter aus, als mit einer einzigen Gigabyte Karte
https://abload.de/img/unbenannte6d7i.png
aber trotzdem läuft das alles stabil, auch wenn mein Mainboard am kochen ist. ( Jede Vega wird mit ca. 100w belastet )
Irgendwas muss da doch verkehrt gelaufen sein mit diesem Custom Modell, weil die Hitzeentwicklung+Absturz war ja reproduzierbar ab einer bestimmten Temperatur. ( Die ja nicht der Hotspot sein muss )
Aber das auch nur mal fürs Protokoll. :D

@Floi
Memory Read und Write schwank fröhlich hin und her, das habe ich doch geschrieben?!

Elite_Warrior
2018-07-27, 01:32:06
@Daredevil: Ahjo, wollte mich herzlich bei dir bedanken wegen dem Tipp für die südafrikanische 300€ Vega. Habe die auch von der selben Person ergattert und die läuft genau so rund wie meine erste Vega. Top :up:

Daredevil
2018-07-28, 00:14:07
Haha, haste dich auch bei dem Greg eingedeckt. Ja perfekt! :)

pilzsammler2002
2018-07-28, 08:55:04
Naja, das ist wie wenn man sich ein Fleshlight schnitzen muss.. mag manchen Spass machen, am Ende wollen es die meisten einfach benutzen

Einfach im Treiber ein Klick auf powesafe und gut ist...

Raff
2018-07-28, 09:20:42
Naja. Nee. Das zieht einfach 15 Prozent ab, der Boost sinkt fühl- und messbar – im Grunde kein guter Trade-off. Dann lieber die Spannung ordentlich runter und Takt etwas rauf. Damit erhält man fast aus dem Stand ein besseres Ergebnis. Und wenn man sich reinkniet, sowieso. :)

MfG,
Raff

dargo
2018-07-28, 09:54:04
Naja. Nee. Das zieht einfach 15 Prozent ab, der Boost sinkt fühl- und messbar – im Grunde kein guter Trade-off.
So ein Quatsch. In der Praxis sind es bei mir -8% bis -9% Performance bei unglaublichen 25% weniger Verbrauch.

https://abload.de/img/witcher3_2018_07_28_07giv9.jpg

https://abload.de/img/witcher3_2018_07_28_0d4ef7.jpg

https://abload.de/img/farcry5_2018_07_28_09d7ckm.jpg

https://abload.de/img/farcry5_2018_07_28_09hzck0.jpg

Bei einer RX Vega64 mit Default 220W Asic dürfte der Performanceverlust noch minimal kleiner ausfallen da die GPU-Taktraten kleiner ausfallen während die Bandbreite gleich bleibt. Jedenfalls sollte der Verlust nicht größer sein.

Sven77
2018-07-28, 11:06:42
Öh gibts bei mir gar nicht

=Floi=
2018-07-31, 04:22:25
https://www.computerbase.de/2018-07/crossfire-sli-test-2018/2/#diagramm-frametimes-amd-crossfire-far-cry-5

keine sauberen frametimes.
in dem test skaliert CF zwar einigermaßen, aber die frametimes sind eher mau.

BeetleatWar1977
2018-07-31, 06:12:04
So ein Quatsch. In der Praxis sind es bei mir -8% bis -9% Performance bei unglaublichen 25% weniger Verbrauch.

https://abload.de/img/witcher3_2018_07_28_07giv9.jpg

https://abload.de/img/witcher3_2018_07_28_0d4ef7.jpg

https://abload.de/img/farcry5_2018_07_28_09d7ckm.jpg

https://abload.de/img/farcry5_2018_07_28_09hzck0.jpg

Bei einer RX Vega64 mit Default 220W Asic dürfte der Performanceverlust noch minimal kleiner ausfallen da die GPU-Taktraten kleiner ausfallen während die Bandbreite gleich bleibt. Jedenfalls sollte der Verlust nicht größer sein.

Doch ist er , zumindestens ohne UV, da der Speichertakt dann gerne mal auf n tiefere Stufe fällt...... (das leidige Problem bei vielen AIR: P3 HBM mit P5 GPU verbunden)

dargo
2018-08-02, 09:08:36
Das ist natürlich blöd bei der Air. In dem Fall sollte man eingreifen um einen Wechsel in den P2 von HBM2 zu vermeiden. Oder eben P2 anpassen.

Daredevil
2018-08-02, 12:28:49
Fun Fact, wenn man das PT auf -50 dreht und in WoW in CPU limitierten Szenen rumläuft ( FPS Target bei 100, Qualistufe Max ) , geht die Vega 56 Ref gut und gerne mal auf ~400Mhz runter, was lt. ASIC OSD dann ~30w beträgt.
Wenn man die Details runterschraubt, sind auch 12w möglich. ;D ( Bei 100 FPS, wohlgemerkt. )

Irgendwo bewegen wir uns dann bestimmt schon bei IGP Leistung. :D
Und ja, die Power sinkt. 48°C beim zocken ist jetzt nicht so super hoch.

dargo
2018-08-02, 12:58:03
Ist dieses WoW @DX12 immer noch so stark cpu-limitiert?

Daredevil
2018-08-02, 13:11:16
Bei mir auf jeden Fall, aber ich hab auch nur ne Single Thread Leistung von knapp nem Ryzen 1600.
In Städten wie Dalaran komme ich so auf ~50fps, egal bei welcher Grafikstufe oder Auflösung.

Wenn man dann außer Ort ist ( Alte Welt ), schellen die FPS locker flockig hoch auf 150fps+, aber erstens hab ich ja Freesync, zweitens nen 144hz Monitor und drittens brauche ich in WoW nicht soviel fps. Da limitier ich dann lieber das Power Target und die FPS auf 100.
Das kommt auch der Zimmertemperatur zuguter. :D

SKYNET
2018-08-02, 13:58:47
Fun Fact, wenn man das PT auf -50 dreht und in WoW in CPU limitierten Szenen rumläuft ( FPS Target bei 100, Qualistufe Max ) , geht die Vega 56 Ref gut und gerne mal auf ~400Mhz runter, was lt. ASIC OSD dann ~30w beträgt.
Wenn man die Details runterschraubt, sind auch 12w möglich. ;D ( Bei 100 FPS, wohlgemerkt. )

Irgendwo bewegen wir uns dann bestimmt schon bei IGP Leistung. :D
Und ja, die Power sinkt. 48°C beim zocken ist jetzt nicht so super hoch.

48°c. bei 30W? dann ist der kühler aber mal richtig scheisse :freak:

Savay
2018-08-02, 14:04:21
Ist dieses WoW @DX12 immer noch so stark cpu-limitiert?

Hängt halt echt vom CPU Unterbau und der GPU bzw. der Auflösung und den Settings, sowie der Szene ab...ganz grob hebt es das Limit im Schnitt geschätzt um 50% an (im absoluten Extremfall ggü. 7.x auch mal durchaus um mindestens 100%)! Je nach Ausgangslage bleibt das dann CPU limitiert oder eiert grade so an der Grenze zum GPU Limit rum.

Mit meinem Stock 2700X renne ich mit der Vega64 Outdoor und auch in Städten eigentlich so mittlerweile sehr häufig und nahezu vorwiegend in ein GPU Limit. (Aber auch max. Details und unter UHD!)
In Raids bleibt es eigentlich fast komplett CPU limitiert....aber auf allgemein eher höherem Niveau...ist aber auch stark abhängig vom konkreten Kampf und der Effektdichte.
Da kann man die Radeons größtenteils echt guten Gewissens (wie gehabt!) in den absoluten Stromsparmodus schicken! (abhängig vom FPS Target natürlich) :wink:

Was dazu führt (zumal ich sowieso ein 59FPS Target mit dem ingamelimiter gesetzt habe), dass die Vega64 von sich aus faktisch massivst Energieeffizienter wird als meine alte GTX970! :biggrin:

Übrigens braucht man dazu nichtmal das PT reduzieren...die GPU taktet bei kleiner Last ja von sich aus runter.

Dino-Fossil
2018-08-02, 14:11:09
48°c. bei 30W? dann ist der kühler aber mal richtig scheisse :freak:

Kommt wohl eher darauf an, wie der eingestellt ist.
Bei meiner 480 geht er unter 50° erst gar nicht an.

akuji13
2018-08-02, 14:33:07
Richtig.

Ein zusätzliches "Problem" ist der nie optimale Übergang zwischen Kühler und GPU.
Der Kühler kann die Abwärme ja nicht aus der GPU "raussaugen".

Was dazu führt (zumal ich sowieso ein 59FPS Target mit dem ingamelimiter gesetzt habe), dass die Vega64 von sich aus faktisch massivst Energieeffizienter wird als meine alte GTX970! :biggrin:

Übrigens braucht man dazu nichtmal das PT reduzieren...die GPU taktet bei kleiner Last ja von sich aus runter.

Wenn man sich 60fps als Limit setzt bekommt man eine ganz andere Karte als wenn man z. B. 120 anvisiert (auch ohne das sie erreicht werden).
Ist mir neulich besonders im Doom IV aufgefallen wie unterschiedlich da z. B. die Lüfterstuerung agiert bzw. agieren muss.

Bis 60fps unhörbar bei wenigen hundert U/MIN, darüber wirds dann schnell deutlich hörbar.

aufkrawall
2018-08-02, 14:36:18
Das macht doch die Physik. ;)

][immy
2018-08-02, 14:47:07
48°c. bei 30W? dann ist der kühler aber mal richtig scheisse :freak:
liegt wohl eher daran, das spätestens seit der RX5xx Serie die Kühler sich erst bei 70°C überhaupt einschalten. Vorher läuft z.B. meine RX570 rein passiv.

Daredevil
2018-08-02, 14:51:56
48°c. bei 30W? dann ist der kühler aber mal richtig scheisse :freak:
Mit der anderen GPU schürf ich aber nebenbei Ethereum, da wirds schon warm hier in dem Puff. :D
GPUs bei 82w Asic @ 2800rpm, Rest idle.

Motherboard 58 °C (136 °F)
CPU 46 °C (115 °F)
1. CPU / 1. Kern 48 °C (118 °F)
1. CPU / 2. Kern 49 °C (120 °F)
1. CPU / 3. Kern 45 °C (113 °F)
1. CPU / 4. Kern 46 °C (115 °F)
1. CPU / 5. Kern 43 °C (109 °F)
1. CPU / 6. Kern 46 °C (115 °F)
GPU1: GPU Diode 59 °C (138 °F)
GPU1: GPU Hotspot 65 °C (149 °F)
GPU1: GPU Speicher 63 °C (145 °F)
GPU2: GPU Diode 55 °C (131 °F)
GPU2: GPU Hotspot 58 °C (136 °F)
GPU2: GPU Speicher 63 °C (145 °F)
Crucial_CT525MX300SSD1 39 °C (102 °F)

Ist haltn Backofen, da machste nix.
Aber das läuft alles rockstable, von daher kein Thema.

Savay
2018-08-02, 14:57:13
[immy;11759119']liegt wohl eher daran, das spätestens seit der RX5xx Serie die Kühler sich erst bei 70°C überhaupt einschalten. Vorher läuft z.B. meine RX570 rein passiv.

Naja das hängt ja irgendwie auch ein wenig von der konkreten Karte ab und ggf. auch dem BIOS ab.

Ne normale Vega sieht von der Steuerung afair ja keinen Lüfterstillstand vor...das wird ja bei den Customs dann irgendwie nachträglich über eine Fuzzylogic realisiert.

Bei meiner Red Devil springt der Lüter im Silent und OC BIOS AFAIR bei >=50° (!?) an und geht bei <40° wieder aus.
Im "Standard"-BIOS läuft er dagegen dauerhaft.

Daredevil
2018-08-02, 15:08:00
Wenn man bei ner Ref die Mindestumdrehung auf 100rpm dreht im OverdriveN, bekommt man mit der auch locker ein Zero Fan Mode hin.
Der Zero Fan Modus ist aber auch Standardmäßig aktiv, wenn man z.B. Crossfire nutzt.
Die zweite Karte dreht sich dabei gar nicht mehr im idle.

https://abload.de/img/111y2etf.gif

Daredevil
2018-08-04, 11:13:14
Was ist das denn wieder für ein Bullshit? :D
Ich hab zu den beiden Vegas ne 1080ti gesteckt über PCIe 1x und der Voltage Slider ist seitdem ausgegraut im Afterburner.
Treiber neu installiert, Afterburner neu installiert. Hilft alles nichts. No Voltage mehr for me. ._.

https://abload.de/img/unbenanntodfin.png

Edit:
Mit dem Workaround hier kann man bedingt wieder etwas undervolten:
https://rog.asus.com/forum/archive/index.php/t-81916.html

vinacis_vivids
2018-08-04, 23:40:03
A Look at RX Vega 64 Efficiency
http://www.overclockersclub.com/reviews/vega_efficiency/

dargo
2018-08-05, 16:24:25
Hier mal zwei aktuelle Videos von mir mit UV in Forza Motorsport 7 @4k. :)

V37aaE6G7P8 Bua0Dy_x7oU

Ist mit 914mV in P7. ReLive kostet ca. 6-8% Performance und fügt leider wie gehabt Ruckler in die Videos ein.

vinacis_vivids
2018-08-07, 01:48:08
Vega lässt sich extrem effizient betreiben. In den meisten Fällen kann man 100W ohne nennenswerte Leistungsverluste einsparen:
https://www.bitsandchips.it/english-review/10436-amd-vega-as-efficient-as-a-gtx-1080-it-s-possible?showall=1

Daredevil
2018-08-07, 02:05:52
800mv ist aber auch ne Hausnummer. :freak:
Ich betreib meine Vega56 aktuell bei -45 PT 82w Asic @ 0,8112v ( GPUz ) und komme in WoW ziemlich gut klar, aber da sind wir auch nur bei WoW und das ist nichts forderndes.
Mit Taktraten von 1120Mhz Core, 788 HBM2, 850MHz SoC bin ich weit entfernt von normaler Performance. Aber ich taste mich alle 1-2 Tage immer weiter nach unten. :tongue:

AMD wird aber schon einen Grund gehabt haben, wieso sie ihre GPU mit 1.2v befeuern, obwohl es mit 0.8v auch geht.

Edit:
Ach, der Typ hat seine Vega unter Wasser.... ja dann kann man auch noch ne gute Ecke mit dem Saft runter gehen. Das macht Dargo ja auch nicht anders.
LuKü siehts dann schon ein wenig anders aus. Je heißer, desto mehr Saft will die Karte.

dargo
2018-08-07, 06:33:55
AMD wird aber schon einen Grund gehabt haben, wieso sie ihre GPU mit 1.2v befeuern, obwohl es mit 0.8v auch geht.

Eine Vega10 läuft in keinem Spiel mit 1,2V. ;) Im Schnitt sind es ca. 1,0V.
https://www.tomshw.de/2018/01/12/vega-leistungsaufnahme-performance-kuhlung-lautstarke/4/

Raff
2018-08-07, 08:57:56
Auch das lässt sich nicht pauschal beantworten. Eine Ref-air-enzkarte rennt beispielsweise ständig ins Temp-Limit und drosselt sich daher stark, eine Custom-Air kann das bess-air. Und eine LCE fährt nochmals höhere Spannungen. Aber, ja: Sicher ist nur, dass alle 1,2 Volt nicht halten können, da der Strom damit viel zu hart ist.

MfG,
Raff

dargo
2018-08-07, 09:04:43
Logisch... wenn die Karte ins Temp-Limit läuft verringert sich der Takt weiter und somit wird auch ein tieferes P-State mit noch weniger Spannung gefahren.

pilzsammler2002
2018-08-07, 21:46:02
Ich habe jetzt seit gefühlt 10 Jahren regelmäßig neue AMD/Ati und Nvidia Karten :)

Angefangen bin ich mit nem 286 :P

Aber ich hatte bisher noch keine AMD Karte die sich nicht hart undervolten ließ... Immer viel zu viel Volt ab Werk.
Muss dazu sagen das ich aber nur Sapphire und XFX (selten) bei AMD kaufe...
Wo sind die ganzen miesen Chips die diese übertriebene Spannung benötigen?
Warum übertreibt AMD im GPU Bereich so mit den Spannungen... Das wirkt sich ja auch Negativ auf die Tests aus :/
Dabei sind die Karten im UV Vergleich ziemlich nah/gleichwertig mit den Nvidias (auch UV)...
Bzw. der Unterschied ist so gering das man da nicht drüber reden muss... In beide Richtungen :)

Daredevil
2018-08-07, 22:36:58
Vielleicht wegen der Elektromigration, um RMAs zu minimieren?
Wenn Hardware alt wird und Elektromigration passiert, braucht eine Karte irgendwann ab einem bestimmten Punkt mehr Volt als im Neuzustand. Das gleiche gilt auch für die Temperatur, je heißer eine Karte wird, desto mehr Volt kann Stabilität bringen.
Wenn man dort großzügig ausgibt, hat man natürlich viel mehr Raum.

Man sieht das ja immer ab und an, wo viele Nvidia Custom OC Karten ( Palit :D ) bei ihren eigenen Stock Taktraten nicht mehr stabil laufen und deswegen wieder zurück geschickt werden, sowas tritt in diesen Rekord Sommern ebenfalls deutlich öfter auf und nagt natürlich am Vertrauen der Kunden. AMD/ATI will seine Fanbase ja nicht vergraulen. :)

Sowas könnte ich mir zumindest vorstellen.

dargo
2018-08-09, 09:46:52
@pilzsammler2002

Es wird sicherlich Workloads geben wo die Spannung benötigt wird. Nur gehören dazu offenbar nicht Spiele. Ich könnte mir durchaus vorstellen, dass im Bereich Compute es entsprechende Workloads gibt.

Raff
2018-08-09, 09:57:36
Yep, genau da gibt's Grenzfälle, wo man mit so mancher spielstabilen Spannung kein Land mehr sieht.

___________

Mal was anderes. Habt ihr schon die ultimative luftgekühlte Vega gesehen? Da ist sie (nein, nicht der Schlumpf). :biggrin:

https://abload.de/thumb/radeonvegafrontieredim6cqv.png (https://abload.de/image.php?img=radeonvegafrontieredim6cqv.png) https://abload.de/thumb/radeonvegafrontieredi14diy.png (https://abload.de/image.php?img=radeonvegafrontieredi14diy.png)

MfG,
Raff

Tarkin
2018-08-09, 10:46:13
Habt ihr schon die ultimative luftgekühlte Vega gesehen? Da ist sie (nein, nicht der Schlumpf). :biggrin:


Very nice! Und wann gibts den Test auf PCGH? :biggrin:

pilzsammler2002
2018-08-09, 15:18:26
Yep, genau da gibt's Grenzfälle, wo man mit so mancher spielstabilen Spannung kein Land mehr sieht.

Hast du da mal nen Beispiel Raff?

Schicke Karte :freak:

bnoob
2018-08-09, 15:23:33
Bei OpenCL-Workloads (BOINC Pentathlon) ist mir das schon häufiger passiert

Savay
2018-08-09, 15:26:03
Hast du da mal nen Beispiel Raff?


WoW unter DX12 mit nem schlechten ASIC. :tongue:
Meine Karte kackt bei den momentanen Temperaturen mit nem aktuellen Treiber schlicht schon unter Default settings nach ner Weile ab.

UV ist ohne den Boost Takt (deutlich) zu reduzieren auch absolut nicht drin...selbst ne Senkung auf 1,175V ist nicht drin.
Einzige Abhilfe: Takt vom P7 drastisch runter.

Wer in der Silizium Lottiere die Arschkarte gezogen hat merkt auch mit BIOS Defaults das die Vegas oberhalb von 1,5Ghz eher recht wackelig ausgelegt sind und nur wiederwillig höher takten.
Die 1,2V sind da einfach ein Zugeständnis an die "Ausbeute" die sie platt über alle Chips gewählt haben.

Das Ding rennt halt in ne Taktwand.

pilzsammler2002
2018-08-09, 17:29:31
WoW unter DX12 mit nem schlechten ASIC. :tongue:
Meine Karte kackt bei den momentanen Temperaturen mit nem aktuellen Treiber schlicht schon unter Default settings nach ner Weile ab.

Was für ne Marke hast du wenn ich fragen darf :)

Savay
2018-08-09, 17:41:33
PowerColor RedDevil V64

Der Kühler ist definitv nicht unterdimensioniert. ;) Es ist auch weder ein Temperatur noch ein Leistungsproblem...mir ist irgendwann über nen fehlerhaftes UV Profil aufgefallen, dass die Karte immer dann stabil wird, sobald der effektive Takt sinkt...
Ich war mir zunächst komplett unsicher...aber nachdem ich dann mal Furmark hab laufen lassen, war klar wo das Problem liegen muss...da taktet die Karte bei vollem PT ja kaum über 1,15-1,2GHz.

Ich hab jetzt als Hilfsmaßnahme einfach erstmal die P7 um ~90Mhz abgesenkt...was kaum bis keinen Einfluss auf den effektiven Takt hat aber die Abstürze zumindest in Spielen behoben hat.

Grundsätzlich ist das IMO aber ein RMA Fall, da ja schon die Defaults einfach nicht komplett stabil sind...es zeigt aber trotzdem das grundsätzliche Problem der Vegas auf....die sind einfach nicht so takt-freudig wie sie es hätten sein sollen...und die Abhilfe war einfach die VDDC für P7 auf diese recht hohen 1,2V festzunageln.

dargo
2018-08-09, 20:03:42
PowerColor RedDevil V64

Der Kühler ist definitv nicht unterdimensioniert. ;) Es ist auch weder ein Temperatur noch ein Leistungsproblem...mir ist irgendwann über nen fehlerhaftes UV Profil aufgefallen, dass die Karte immer dann stabil wird, sobald der effektive Takt sinkt...
Ich war mir zunächst komplett unsicher...aber nachdem ich dann mal Furmark hab laufen lassen, war klar wo das Problem liegen muss...da taktet die Karte bei vollem PT ja kaum über 1,15-1,2GHz.

Das ist kein verlässliches Indiz. Bei 1,15-1,2Ghz ist die Spannung auch deutlich niedriger als bei den üblichen Taktraten in Games. Kontaktiere mal Powercolor ob die ein anderes Bios haben. Nicht, dass das Problem hier wieder in einer fehlerhaften P-State Implementierung bei den Customs auftritt. Ansonsten ein klarer Fall für die Garantie wenn die Karte in Games nicht stabil läuft. Hast du die Probleme mit jedem Treiber oder nur mit bestimmten?

Savay
2018-08-09, 20:21:10
Das ist kein verlässliches Indiz.


Das die Karte durch senken des P7 um 90Mhz aber "stabil" wurde schon.
Ich hab ja nun auch lang genug gesucht woran es liegt.

Es fängt wie gesagt ja schon damit an das UV ohne Taktraten zu ändern absolut nicht drin sitzt, es bei den unteren P-States aber halbwegs geht...nur in P6 & P7 geht nahezu garnichts.

Hast du die Probleme mit jedem Treiber oder nur mit bestimmten?

Ab 18.7.1 gibt es harte Freezes...bei älteren ab und an mal nen Treiberreset.

Vorallem P7 ist halt einfach nicht stable bei meiner GPU.

Savay
2018-08-09, 20:23:36
Doppelpost

dargo
2018-08-09, 20:46:14
Das die Karte durch senken des P7 um 90Mhz aber "stabil" wurde schon.

Auch bei einer Senkung von 90Mhz sinkt entsprechend die Spannung. Im Prinzip hat jeder Takt eine eigene Spannung. Die hinterlegten P-States sind nur grobe Anhaltspunkte.


Es fängt wie gesagt ja schon damit an das UV ohne Taktraten zu ändern absolut nicht drin sitzt, es bei den unteren P-States aber halbwegs geht...nur in P6 & P7 geht nahezu garnichts.

Dazu müsste man erst wissen wie genau du beim UV vorgehst.


Vorallem P7 ist halt einfach nicht stable bei meiner GPU.
P7 siehst du eh nie in Games. Eine Custom RX Vega64 sollte in Games bei P5 bis P6 landen. Wo genau hängt immer etwas von der GPU-Last und dem Powerlimit, den der Hersteller vorgibt ab.

Edit:
Zeige mal bitte die Default P-States deiner Karte. Das hier wäre bsw. eine Referenz.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590150&postcount=60

Hacki_P3D
2018-08-09, 20:48:08
Reicht mein Bitfenix Whisper M 450 Netzteil eigentlich für eine Vega 56/64 in Kombi mit einem 1700X ?

Unter Schutzschaltungen sieht man die max. Werte
https://www.computerbase.de/2017-03/bitfenix-whisper-m-fsp-hydro-x-test/3/

BlackArchon
2018-08-09, 20:54:10
Wenn du keine Komponente übertaktest, reicht es wahrscheinlich gerade so.

Savay
2018-08-09, 21:11:08
Auch bei einer Senkung von 90Mhz sinkt entsprechend die Spannung. Im Prinzip hat jeder Takt eine eigene Spannung. Die hinterlegten P-States sind nur grobe Anhaltspunkte.


Das ist mir klar das es ein Curve Editor ist...nur was ändert es daran das die GPU offensichtlich in ne Clockwall rennt?!


Dazu müsste man erst wissen wie genau du beim UV vorgehst.


So wie du...nur mit dem Unterschied das sich in P6&7 nichtmal um profane 25mV reduzieren lassen...

Das Teil ist halt an sich nen RMA Fall...zeigt aber halt auch wieso die Vegas soviel Spannung bekommen...bei mir muss ich nämlich ne exponentielle Kurve drüber legen...und nix lineares wie du es machst.
Jeder bei dem das UV so wie bei dir klappt hat halt das Glück, dass das Takt/Spannungsverhalten der konkreten GPU im Regelbereich halt noch annähernd linear ist und die Clockwall eben noch etwas höher liegt.

Die Dinger sind in Summe halt etwas auf Kante genäht.


P7 siehst du eh nie in Games.

Das weiß ich das man sie nicht direkt sieht...zumindest dauerhaft.

Die On-Chip-Regelung erzeugt den effektiven mittleren Takt offensichtlich u.a. dadurch, dass sie in hoher Frequenz zwischen bestimmten States hin und her schaltet...wenn die Karte jetzt nun in nem hohen P-State bei Freqzuenz X instabil ist, knickt das Kartenhaus halt einfach zusammen wenn der Anteil des höheren P-States über einen bestimmten kritischen Wert hinaus anliegt.


Edit:
Zeige mal bitte die Default P-States deiner Karte. Das hier wäre bsw. eine Referenz.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590150&postcount=60

Sieht aus wie bei der Ref

vinacis_vivids
2018-08-09, 23:19:11
Das die Karte durch senken des P7 um 90Mhz aber "stabil" wurde schon.
Ich hab ja nun auch lang genug gesucht woran es liegt.

Es fängt wie gesagt ja schon damit an das UV ohne Taktraten zu ändern absolut nicht drin sitzt, es bei den unteren P-States aber halbwegs geht...nur in P6 & P7 geht nahezu garnichts.



Ab 18.7.1 gibt es harte Freezes...bei älteren ab und an mal nen Treiberreset.

Vorallem P7 ist halt einfach nicht stable bei meiner GPU.

Klingt eher nach Stromversorgung oder unsaubere Installation. Schon mal am anderen stabile Rechner getestet?

Langlay
2018-08-09, 23:22:10
Reicht mein Bitfenix Whisper M 450 Netzteil eigentlich für eine Vega 56/64 in Kombi mit einem 1700X ?

Unter Schutzschaltungen sieht man die max. Werte
https://www.computerbase.de/2017-03/bitfenix-whisper-m-fsp-hydro-x-test/3/


Ich hab ne Vega56 und einen 2700X und eine 500W Enermax Platimax und hatte bis jetzt noch keine Probleme. Auch mit 2700X @ 4.3 GHz Allcore und die Vega56 @ 250W ASIC Power.

dargo
2018-08-10, 05:54:46
Das ist mir klar das es ein Curve Editor ist...nur was ändert es daran das die GPU offensichtlich in ne Clockwall rennt?!

Nicht bei ~1500Mhz. Eben bei dem Curve Editor vermute ich einen Fehler von Powercolor was Spannung pro Takt angeht. Speziell bei deiner GPU. Ist natürlich nur eine Vermutung. Verwendet deine Karte eigentlich die gleichen Taktraten wie eine Referenz in den PP-Tables und Powercolor erhöht nur das PT oder sind die Taktraten auch anders?

Sorry, hast ja oben schon gesagt gleich wie Referenz.


So wie du...nur mit dem Unterschied das sich in P6&7 nichtmal um profane 25mV reduzieren lassen...

Kann ich kaum glauben. Hast du auch die Taktrate in P7 dafür reduziert? Eventuell musst du nur die Kurve etwas stärker "verbiegen" als ich. Ich reduziere übrigens P7 um 20Mhz. Du sagtest ja selbst, dass wenn du P7 um 90Mhz reduzierst (also die Kurve stärker verbiegst) die Karte stabil ist. Mache mal folgenden Test... lasse die Taktraten Default und erhöhe die Spannung in P7 um 10-20mV. Wirds dann besser? Eventuell musst du hier das PT minimal erhöhen damit die gleiche Taktrate erreicht wird und nicht vorher schon das PT limitiert.

Egal wie man es dreht... wenn die Karte die Defaultsettings nicht schafft ist es ein klarer RMA-Fall.

Savay
2018-08-10, 13:19:57
Klingt eher nach Stromversorgung oder unsaubere Installation.

Ist es nicht...

OCCT hatte ich als Stresstest probiert...Wenn ich den Takt in P7 wieder senke läuft er locker durch...wenn nicht dann crasht die GPU.
Am PT ändert sich effektiv nichts wenn ich die Boostfrequenz senke.

Zudem erreicht kein Spiel die Leistungsaufnahme die mit OCCT simulierbar ist.

vinacis_vivids
2018-08-10, 13:34:52
@ Savay
OCCT ist kein Test fürs NT und ich bin sicher du hast kein Wattmesser hinter dem Netzteil dran. Es geht ums Abfangen der Spitzenlast und nicht (nur) die konstant hohe Auslastung.

Savay
2018-08-10, 13:35:06
Nicht bei ~1500Mhz.

Wie definierst du bitte eine Clockwall?

Es ist halt der Punkt ab dem eine gegebene Spannung X nicht mehr ausreicht um eine Frequenz Y stabil zu betreiben.
Wenn man das als Graph aufzeichnet hat man eine Funktion die in den niedrigen Frequenzen eher linear verläuft...zur "Clockwall" hin aber exponentiell ansteigt.

Beim einen Chip liegt die Grenze mal höher oder niedriger als beim anderen.


Kann ich kaum glauben. Hast du auch die Taktrate in P7 dafür reduziert?

Ja, ich hatte alles mögliche probiert.

Das Profil das einigermaßen (zumindest ein paar Minuten) lief war folgendes:
63870

Ich hatte es auch noch mit 1590 in P7 probiert, hat aber auch nicht dauerhaft geholfen.
Mir wurd es dann aber irgendwann zu blöd und ich hab es rausgelöscht...jetzt läuft einfach P7 über Wattman erstmal @1540 und gut ist...mit dem Rest soll PowerColor sich rumschlagen wenn sie sich dann hoffentlich bald mal melden.
An der effektiv anliegenden Frequenz ändert es ja auch kaum was.

@ Savay
OCCT ist kein Test fürs NT

Dafür gibt es extra den PowerSupply Stresstest der die GPU und CPU so weit es geht auslastet. :freak: Dadurch erreichst du ne Leistungsaufnahme die idR kein Spiel hinbekommt...noch dazu schwankt sie dauernd.

BTW kannst du gerne beantworten was du denn meinst das sich großartig an der Leistungsaufnahme etwas ändert wenn ich lediglich P7 um 90Mhz absenke.
Dadurch wird es halt stabil...wenn ich es nicht mache ist es das nicht und crasht...egal ob unter OCCT oder in nem Spiel das weit weniger hohe Auslastung erzeugt...auch mit abgesenktem PT auf 220W(!) crasht es ohne absenken der Boostfrequenz früher oder später.
Was gibt es daran bitte zu deuteln? Die P7 Frequenz hat fast 0,0 Einfluss auf das PT der Karte.

ich bin sicher du hast kein Wattmesser hinter dem Netzteil dran.

Da ich ihn verlegt haben nein...aber was soll der mir sagen? Bei "400W" crasht es ohne absenken von P7 genauso wie bei "500W", wogegen es bei "400W" mit absenken von P7 genauso läuft wie bei "500W"?!

Für alles andere müsste ich eher nen Speicheroszi dran hängen und die 12V Schiene durchmessen...das hab ich zu Hause aber nicht.

dargo
2018-08-10, 13:48:34
Das Profil das einigermaßen (zumindest ein paar Minuten) lief war folgendes:
63870

Du hast hier einen recht großen Spannungsunterschied zwischen P6 und P7. Flukturiert die Spannung bei Last stark mit diesen Settings in Games? Ich frage mich ob diese hohen Sprünge in der Spannung nicht eventuell das NT überfordern. Probiere auch mal bitte in P7 1580Mhz und 1030mV.

Savay
2018-08-10, 13:52:56
Probiere auch mal bitte in P7 1580Mhz und 1030mV.

Das brauch ich erst gar nicht probieren...das crasht garantiert sofort. :wink:

Ich könnte vlt mal 1540 probieren.

EDIT..

Mit 1550 und 1030mV läuft es mehr oder weniger...dann läuft die Karte aber unter OCCT auch bspw. effektiv nur mit ca. 1000-1100MHz statt (es kommen mit ausgehebelter Telemetrie halt ~217W ASIC raus) mit den roundabout ~1350Mhz ohne das UV Profil.

EDIT2:

Trage ich 1580 statt 1550 ein gibt es unter OCCT nen schwarzen Bildschirm und ich muss resetten.


Du hast hier einen recht großen Spannungsunterschied zwischen P6 und P7. Flukturiert die Spannung bei Last stark mit diesen Settings?

Natürlich tut sie das...außerdem wirkt sich das nicht grade positiv auf die Performance aus weil die Karte oft irgendwo in nem "falschen" P-State hängen bleibt wenn man so ne "krumme" Kurve nehmen muss.
U.a. deswegen hatte ich dann auch irgendwann keinen Bock mehr drauf.


Ich frage mich ob diese hohen Sprünge in der Spannung nicht eventuell das NT überfordern.

Diese Sprünge sind unter der Default PowerTable aber nicht da...und wie gesagt...ohne das Absenken der Frequenz crasht es früher oder später mit UV Profil, ohne UV Profil und sowohl mit 260W PT als auch mit 220W PT...erst wenn ich mit dem PT noch weiter runtergehe (190W und weniger) läuft es auch ohne das Absenken der P7 Frequenz...es wird halt nur langsamer.

vinacis_vivids
2018-08-10, 14:57:50
@Savay
Ich hatte schon Crossfire Systeme vor über 10 Jahten betrieben. Es ist die Spitzenlast, die dein System in die Knie zwingt. Stärkeres/besseres NT rein und es ist Ruhe. Und ja, das wird im Voltcraft auch angezeigt. Keine Grafikkarte bzw. Chip läuft stabil um urplötzlich einen Shutdown zu verursachen. Außerdem bitte mal die Karte in einem anderen System testen um auch mal Aussagen verifizieren zu können. Ansonsten wurde nun wirklich alles geschrieben und gesagt. Zu 99% liegt das Problem vor dem Bildschirm, ich weiß es ist schwer zu schlucken, ist aber so. Wir sind hier alle keine 12 Jahre alt mehr.

dargo
2018-08-10, 15:03:06
@Savay

Du solltest imho besser die GPU-Last in Games nachstellen damit du in den höheren Frequenzbereich kommst und nicht einen "Powervirus" nehmen. :)


Diese Sprünge sind unter der Default PowerTable aber nicht da...
Da komme ich jetzt nicht mit. Mit den 50mV Unterschied zwischen den einzelnen P-States sollte es aber Sprünge geben solange du die Telemetrie nicht verlässt. Was ja bei Default nicht der Fall sein sollte.
https://www.tomshardware.co.uk/powercolor-red-devil-rx-vega-64-8gb,review-34369-5.html

und wie gesagt...ohne das Absenken der Frequenz crasht es früher oder später mit UV Profil, ohne UV Profil und sowohl mit 260W PT als auch mit 220W PT...erst wenn ich mit dem PT noch weiter runtergehe (190W und weniger) läuft es auch ohne das Absenken der P7 Frequenz...es wird halt nur langsamer.
Du hast nicht zufällig die Möglichkeit ein anderes NT und/oder System zu testen? Mit DDU hast du aber schon alles gesäubert? :)

Savay
2018-08-10, 15:34:16
Stärkeres/besseres NT rein und es ist Ruhe.

Und wenn es das nicht war bezahlst du es mir oder wie?! :freak: Das NT ist übrigens keine 3 Jahre alt.

Bevor ich jetzt anfange Kohle rein auf Verdacht auszugeben schaue ich mir das lieber nochmal im Detail an!


Du solltest imho besser die GPU-Last in Games nachstellen damit du in den höheren Frequenzbereich kommst und nicht einen "Powervirus" nehmen. :)

Ich weiß nicht was mir das Gefummel jetzt noch bringen soll, wo es offensichtlich irgendwo ein Problem mit dem P7 State zu geben scheint...wo auch immer es dann am Ende klemmt.


Da komme ich jetzt nicht mit.

Gemeint war, dass die Sprünge nicht so extrem hoch sind wie mit dem kruden UV Profil weiter oben.


Du hast nicht zufällig die Möglichkeit ein anderes NT und/oder System zu testen? Mit DDU hast du aber schon alles gesäubert? :)

Werde ich nochmal machen...die Karte kam aber aus nem Haswell System in das Ryzen Setup und lief da auch auf dem Intel nicht 100% koscher. (gelegentliche Treiberresets)

Ja habe ich...mehrmals. 18.7 rauf...18.7 runter...18.5 rauf...18.8 rauf...18.8 runter...18.5 rauf...und ganz am Ende 18.8 rauf und P7 auf 1540Mhz gesetzt.

Savay
2018-08-10, 15:38:56
Doppelpost

dargo
2018-08-10, 15:42:49
Gemeint war, dass die Sprünge nicht so extrem hoch sind wie mit dem kruden UV Profil weiter oben.

Jetzt ergibt es wieder Sinn. Naja... egal. Ich habe immer mehr den Eindruck die GPU die da bei dir verbaut ist hätte gar nicht erst als RX Vega64 verkauft werden dürfen. Gib bescheid was Powercolor dazu sagt. :)

vinacis_vivids
2018-08-10, 17:00:22
@Savay
Komm schon, du weißt es ganz genau auch wenn du es nicht glauben willst. Vega hat ne Taktwall bei 1700-1750Mhz und schluckt dabei bis zu 400W. Gerne kannst du zu mir kommen und 4K The Witcher 3 looping fahren. Mein 1000W NT lacht nur drüber. Wenn eine AMD GPU abkackt, dann gib’s n freeze und Treiber Reset und niemals einen Shutdown per Schutzschaltung durch das Netzteil.

Savay
2018-08-10, 17:37:34
niemals einen Shutdown per Schutzschaltung durch das Netzteil.

Habe ich jemals etwas von Shutdowns durch ne Schutzschaltung gesagt? :rolleyes:

Es gibt genau 23 Phänomene bei mir:
A) Der Treiber freezt und resettet gelegentlich (18.5.1 und älter)
B) Der Bildschirm wird schwarz und der Sound läuft weiter. (18.7.1 und neuer), die GPU fällt ins kleinste P-State (sieht man ja an der LED) und das automatische Treiberreset zieht nicht mehr und das System muss manuell resettet werden.
C) das Performance Overlay flickert unter DX12 und es gibt Bildfehler wenn es aktiv ist.

Es tritt beides sowohl mit PT ab ca. 200W bis 260W auf, als auch beim Undervolting...mit neuen Treibern häufiger als mit älteren.

Sowohl A) als auch B) treten nicht mehr auf wenn ich P7 auf ~1540Mhz reduziere. C) immernoch.

Vega hat ne Taktwall bei 1700-1750Mhz und schluckt dabei bis zu 400W.

Aha...und das unterschreibst du für jede einzelne GPU die jemals bei GF vom Band gefallen ist, oder doch nur für deine?!?! :)

Daredevil
2018-08-10, 18:57:51
Das was du beschreibst ist eine instabile/Defekte Karte, sowas kenne ich ebenfalls. ( Beim UV bzw. Nutzen des Afterburners )
Vega ist in der Hinsicht sehr zickig ( bei mir zumindest ), mit dem Nvidia Treiber ( 2017/2018 ) habe ich noch nie mein System neu starten müssen, egal bei welchem Settings.

Wenn ich bei Mining Last die Lüfter Drehzahl im Afterburner ändere, geht direkt der Monitor aus. :D
Know your Tweaking tools, der Afterburner ist nicht die erste Wahl. ^^

Hacki_P3D
2018-08-11, 23:07:14
Welche Custom Vega sollte man eigentlich bevorzugen?

Powercolor Red Devil?
Asus ROG Strix?
Gigabyte RX Vega Gaming?
Sapphire Nitro+?

Oder ist das relativ egal, wenn man sowieso Undervoltet?

Schaue grade, dass ich an eine gebrauchte ran komme (falls das Sinn macht)

Screemer
2018-08-11, 23:09:36
Nitro+ soll wohl die beste sein.

Daredevil
2018-08-11, 23:16:33
Ich würde in erster Linie zur Sapphire greifen und danach zur Asus, da die beiden ein sinnvolles eigenes PCB haben und die Kühler durchdacht und bewährt sind. ( Die Nitro ist halt sehr fett. )
Danach kommt die Powercolor mit ihrem Nano PCB und zur Toaster Gigabyte sage ich jetzt nichts mehr, das tut einfach nicht not.

Hacki_P3D
2018-08-11, 23:18:57
Super, danke. Damit kann ich schon mal was anfangen :)

Ist sowas "seriös"?

https://www.ebay-kleinanzeigen.de/s-anzeige/sapphire-radeon-nitro-rx-vega-56-8gb/917124008-225-9668

Mir fällt auf, dass viele Vegas auf Ebay Kleinanzeigen im Februar gekauft wurden, bei Cyberport zB...gab es da ne Aktion? Konnte auf Mydealz nichts dazu finden ^^

Daredevil
2018-08-11, 23:42:52
Im Januar/Februar war Mining noch hochprofatibel, deswegen kommen wohl viele Karten aus der Zeit.
Aber mit Rechnung-Garantie-Paypal kann man da selten was falsch machen, ich hab letztens auch ne Ref Vega56 für 300€ geschossen und bin Happy damit.
Die Preise purzeln aktuell im Neumarkt also muss der Gebrauchtmarkt mitziehen.

Im Februar hab ich noch ne Vega64 für 620€ verkauft. :ugly:

Hacki_P3D
2018-08-12, 00:13:51
Ah stimmt ja, Mining, das Thema fällt bei mir immer irgendwie hinten runter..hehe

Interessant finde ich immer die Beschreibungen, "fast nicht benutzt" oder "lag nur rum" etc...weißte gleich, dass es Mining Karten sind (was per se ja nicht schlecht sein muss)

Für 300€ hätte ich eine Ref aber auch genommen :D

Daredevil
2018-08-12, 00:57:11
Und bei Cyberport wurde vermutlich soviel gekauft, weil die dauerhaft ne 0% Finanzierung anbieten.
Viele wollten Sicherlich die Mining Welle mitnehmen und haben sich ungünstig mit einer 0% Finanzierung verschuldet.

Hacki_P3D
2018-08-12, 14:03:59
Die Gigabyte im Mindstar kostet jetzt 399€.
Ist aber auch die einzige Karte welche so reduziert wird.
Eine gebrauchte Asus könnte ich für 360€ bekommen, bin mir aber echt nicht sicher ob der Zeitpunkt jetzt "ideal" ist.

Edgecrusher86
2018-08-16, 11:46:43
Es gibt ein neues Roundup für WQHD - ASUS V64 Custom vs. MSI 1080 Custom:

Hardware Unboxed - Can Custom Vega 64 Beat The GTX 1080? 2018 Update [27 Game Benchmark] (1440p; 16.08.)

https://www.youtube.com/watch?v=cJFm51OFcNA

https://abload.de/img/169i7u.jpg

https://abload.de/img/212c6z.jpg

Raff
2018-08-17, 17:16:23
Und wenn man 100 Watt Lüfterleistung draufschmeißt, wird das nochmal besser! :ulol: :biggrin: :hammer:

Luftkühlung extrem | 100-Watt-Lüfter auf RX Vega 64 (https://www.youtube.com/watch?v=m1LkYfs2k_Y)

MfG,
Raff

TwoBeers
2018-08-18, 10:47:43
Suuuper Idee Raff. ;D

Aber 320W und nur 40°C is nich schlecht.
Und man sieht auch schön, wie sich an der Performance quasi nix tut. Is schon lustig, wie die Graka zwar irgendwie mehr macht, mehr verbraucht, aber hinten nix bei rum kommt.

Achill
2018-08-18, 11:20:58
Und wenn man 100 Watt Lüfterleistung draufschmeißt, wird das nochmal besser! :ulol: :biggrin: :hammer:

Luftkühlung extrem | 100-Watt-Lüfter auf RX Vega 64 (https://www.youtube.com/watch?v=m1LkYfs2k_Y)

MfG,
Raff

Nettes Video, hat mich auch erinnert an: "Nett" ist die kleine Schwester von ... ;) ;D

Suuuper Idee Raff. ;D

Aber 320W und nur 40°C is nich schlecht.
Und man sieht auch schön, wie sich an der Performance quasi nix tut. Is schon lustig, wie die Graka zwar irgendwie mehr macht, mehr verbraucht, aber hinten nix bei rum kommt.

Ja, ab 1550-1600 gibt es nur noch wenig Skalierung. Bis 1600 Mhz hilft es wenn der HBM ~1050 Mhz noch mitmacht. Darüber macht es kaum Sinn weswegen das UV mit den Settings von Dargo auch so zu empfehlen ist, weil man dadurch in der 1500-1600 Mhz Range landet.

dargo
2018-08-18, 11:51:09
Ich bin eher erschrocken, dass Raff bei diesem Vergleich nicht mal auffällt, dass seine Vega bereits intern drosselt. Wie kann die GPU bei ca. +25% mehr Powerlimit mit ca. 50Mhz weniger takten? ;) Irgendwas passt da in dem Test jedenfalls nicht. Möglicherweise liegts auch am Afterburner in Verbindung mit Wattman. Auch verstehe ich nicht so ganz warum Raff da 100mV im AB mehr drauf haut. Eigentlich sollten PT-Limits alles regeln.

iuno
2018-08-18, 12:25:19
Er wollte halt maximalen Verbrauch haben. Wie die einzelnen Spannungen/Taktraten sind, sollte ja egal sein, hauptsache das PT limitiert an derselben Grenze. Ist natuerlich unguenstig bzw. ganz und gar unsinnig um sonst irgendwas bzgl. des Chipverhaltens zu zeigen, aber dafuer ist das Video ja auch nicht da.

RoughNeck
2018-08-18, 12:26:19
Overvolten bringt bei Vega auch nichts.
Nur jeder Tester egal ob YouTube oder die üblichen Seiten machen es. Dabei wäre es so einfach, im AB den Regler auf -100 stellen und fertig.

Ich denke Raff wollte zeigen dass mit den Lüftern auch 300 Watt und mehr möglich ist ohne dass die Temperatur merklich steigt.

TwoBeers
2018-08-18, 12:30:41
Ich denke Raff wollte zeigen dass mit den Lüftern auch 300 Watt und mehr möglich ist ohne dass die Temperatur merklich steigt.

Denke ich auch. Hier ging's nicht um max Performance, sondern um max Leistungsaufnahme.
Ich fands nur trotzdem erstaunlich, dass die Karte zwar mehr "macht" .. weil irgendwas muss sie ja machen, um die Leistungsaufnahme zu rechtfertigen, aber das irgendwie alles nur in Abwärme und null in fps umgesetzt wird.

Th3o
2018-08-18, 12:43:22
Das Lüftergeräusch hat mich an einen Jet in der Aufwärmphase oder an eine berühmt berüchtigte Nvidia Karte erinnert.

dargo
2018-08-18, 13:23:36
Overvolten bringt bei Vega auch nichts.
Nur jeder Tester egal ob YouTube oder die üblichen Seiten machen es. Dabei wäre es so einfach, im AB den Regler auf -100 stellen und fertig.

Ich denke Raff wollte zeigen dass mit den Lüftern auch 300 Watt und mehr möglich ist ohne dass die Temperatur merklich steigt.
Ich weiß was Raff zeigen wollte. Nur verhält sich seine Vega nicht wie sie sollte. Ergo weiß ich aus dem Video gar nicht ob ihn die angezeigten Werte da nicht einfach nur veräppeln. Wenn man das Powerlimit erhöht sollte der Takt steigen und nicht fallen, schließlich hat die GPU dann mehr Raum sich auszutoben. Irgendwo ist da bei ihm der Wurm drin. Hat Raff eigentlich bei dem Vergleich den Verbrauch auch gemessen? Eins vom beiden ist jedenfalls mindestens falsch. Entweder der angezeigte Takt oder die "errechnete" ASIC Power.

RoughNeck
2018-08-18, 13:51:40
Er hat mit Anno getestet, eventuell ist da die CPU der Flaschenhals.
Die Temp ist ja auch gestiegen, also gehe ich davon aus dass die Karte da mehr gezogen hat.

dargo
2018-08-18, 14:26:17
Klar... wenn die Temp. steigt ist die ASIC Power auch höher. Wobei... steigt die Temp. jetzt wirklich wegen der höheren ASIC Power oder nur weil die Karte länger belastet wird? :D Das mit dem kleineren Takt ist dennoch merkwürdig.

horn 12
2018-08-18, 19:20:47
Vega im Preis gesenkt ?
299 und 399 Dollar


https://wccftech.com/what-does-radeon-do-now-to-stay-competitive/

MartinRiggs
2018-08-18, 19:23:42
Das könnte schon sein, die Gigabyte Vega im Mindstar fällt ständig im Preis und wird trotzdem scheinbar kaum gekauft.

dildo4u
2018-08-18, 19:35:58
Mach kein Sinn was zu kaufen so lange es keine Preis Infos zu den NV Karten gibt.
Selbst wenn man Freesync braucht könnte eine RTX 2070 für 500€,die Vega 64 auf 400 drücken.

Linmoum
2018-08-18, 19:39:01
Vega im Preis gesenkt ?
299 und 399 Dollar


https://wccftech.com/what-does-radeon-do-now-to-stay-competitive/
Nein, steht da auch nicht.

Und bei einer 2070 mit 1080 Leistung wird 'ne Vega64 auch nicht auf 400€ gedrückt, ist jetzt mit der 1080 genauso wenig der Fall.

dildo4u
2018-08-18, 20:13:00
Du erwartest das die 2070 nur 20% schneller ist als die 1070?Nach 2 Jahren.
Die 1070 war 60% schneller als die 970.

https://www.computerbase.de/thema/grafikkarte/rangliste/

Daher hab ich 500€ genommen man bekommt wieder ein Riesen Sprung aber man zahlt massiv drauf.Die 970 kam für 320€.

Adam D.
2018-08-18, 22:49:45
Die 2070 wird irgendwo zwischen 1080 und 1080 Ti rauskommen, näher an letzterer wohl. Vega 64 wird dadurch wahrscheinlich einen noch viel schwereren stand haben.

Denn ich glaube kaum, dass Vega noch viel im Preis fallen wird, da gibt es einfach zu wenig Spielraum mit großem Die und HBM2.

maximus_hertus
2018-08-22, 14:55:10
Du erwartest das die 2070 nur 20% schneller ist als die 1070?Nach 2 Jahren.
Die 1070 war 60% schneller als die 970.

https://www.computerbase.de/thema/grafikkarte/rangliste/

Daher hab ich 500€ genommen man bekommt wieder ein Riesen Sprung aber man zahlt massiv drauf.Die 970 kam für 320€.

Normalerweise bin ich bei dir. Aber nV hat *immer* Performance Balken gebracht. Heuer haben sie weder Performance Prognosen noch Architektur Verbesserungen konkret angekündigt (abseits von AI, Raytracing und Co.). Wenn sie absolut gar nichts zu sagen hatten, ist das eher kein gutes Zeichen.

Bitte nicht falsch verstehen, aber das ganze hat einen AMD-"Touch": Man hat bis zu den Launch-Reviews die Hoffnung, dass da eine Performance Bombe gezündet wird nur um dann noch enttäuschter zu sein. Mit 2304 Shadern / Cuda-Cores wird man wohl die 1080 Ti eher nicht erreichen. Mein Tipp: Etwas oberhalb der 1080 bzw. der Vega 64 Liquid. Nicht mehr und nicht weniger. Außer bei RT und Co., aber ob nun 10 oder 30 fps ist da auch relativ wurscht (imo).

Hasenpfote
2018-08-23, 15:49:49
Heuer haben sie weder Performance Prognosen noch Architektur Verbesserungen konkret angekündigt (abseits von AI, Raytracing und Co.). Wenn sie absolut gar nichts zu sagen hatten, ist das eher kein gutes Zeichen.Heute haben sie es gebracht. Siehe
https://www.golem.de/news/nvidia-turing-geforce-rtx-2080-rechnet-50-prozent-schneller-1808-136141.html

Wo müsste sich dann Vega preislich einordnen?
300 - 400 oder noch drunter?

dildo4u
2018-08-23, 15:55:23
Gar nicht die 2080 kostet zu Anfang 850,bei 750 sollte man langsam anpassen.Das wäre +50% Preis für + 50% Leistung.

dargo
2018-08-23, 18:06:34
Heute haben sie es gebracht. Siehe
https://www.golem.de/news/nvidia-turing-geforce-rtx-2080-rechnet-50-prozent-schneller-1808-136141.html

Wo müsste sich dann Vega preislich einordnen?
300 - 400 oder noch drunter?
Da die neuen RTX Karten nur eine Erweiterung im oberen Preissegment darstellen gibt es keinen Anlass Vega im Preis zu drücken.

Palpatin
2018-08-24, 15:02:46
Wenn die 2070 schneller als vega64 ist muss der preis angepasst werden, hier gilt abwarten.

Adam D.
2018-08-24, 15:11:39
Wenn die 2070 schneller als vega64 ist muss der preis angepasst werden, hier gilt abwarten.
Versuch dieses Jahr mal eine 2070 für unter 600€ zu bekommen... Abseits davon, dass die Vega-Preise mitunter noch komplett bescheuert sind (56 teilweise teurer als 64), wird sich da nicht viel tun.

HOT
2018-08-27, 13:47:38
Bei den steigenden Preisen war meine Nitro+ ja ein echtes Schnäppchen :D.

Klar sind die Preise chaotisch, AMD setzt das Ding ja nicht in großen Mengen ab. Von daher bezweifel ich auch, dass die 2070 groß was daran verändern wird.

Tatwaffe
2018-08-27, 17:44:37
AMD kann garnix tun, die Produktion der Vega ist so teuer sie müssten sie subventionieren wenn sie sie billiger machen, und verdienen tun sie wohl auch nicht gut dran, vermutlich zuviel Ausschuß der produziert wird(HBM schwierig und 3 x teurer), je mehr sie Fuß fassten bei den CPU´s desto schlechter lief´s bei den GPU´s, sie haben sich gründlich verzettelt mit ihrer Strategie der Nutzung von HBM Speicher und dem Anspruch Nvidia um jeden Preis zu toppen. Vega wird eher eingestellt als billiger gemacht, Abverkäufe mal aussen vor.

Die letzte gute Karte war meiner Meinung die R290er Reihe, danach kam nur noch umgelabeltes oder ineffizientes zu Mondpreisen, dazu noch versprochene aber gestrichene Features machen das Versagen komplett.

Nach 4 Jahren Besitz der r290x gibts einfach nix auf das man für vernünftiges Geld wechseln möchte und dabei nen Gewinn verspüren könnte, jedes 1% mehr Leistung kostet gefühlt 3% mehr Geld, und das nach 4 Jahren...

Wären sie dabei geblieben das sie ca. 80% der Nvidia Leistung bezahlbar anbieten, könnten die Nvidia Boys über AMD lachen das sie zu langsam sind und die AMD Boys könnten lachen das ihnen 80% für 50% des Preises reicht, und AMD könnte lachen das sie noch 50% Marktanteil hätten bei ner guten Ausbeute.

Wären nicht die Miner eingesprungen wär AMD schon längst am Boden mit ihren GPU´s.

Man kann am Chart regelrecht sehen wo die r290 eingestellt wurde. (q2 2014)

https://www2.pic-upload.de/thumb/35860500/amdnvidia.jpg (https://www.pic-upload.de/view-35860500/amdnvidia.jpg.html)

Navi wird es reissen müssen für AMD und das ist unwahrscheinlich da AMD sich von Nvidia getrieben fühlt und ihre GPU´s wieder mal über den Sweetspot zwingen wird wie schon so oft, aber abwarten vielleicht entscheidet ja mal nicht die Marketing-Abteilung über den Takt.

... Abseits davon, dass die Vega-Preise mitunter noch komplett bescheuert sind (56 teilweise teurer als 64), wird sich da nicht viel tun.

Zitat von Palpatin Beitrag anzeigen
Wenn die 2070 schneller als vega64 ist muss der preis angepasst werden, hier gilt abwarten.

Kriton
2018-08-27, 18:19:47
Polaris war auch gut, nur andere Leistungsklasse.

AMDoderNvidia
2018-08-27, 19:12:33
Polaris war auch gut, nur andere Leistungsklasse.

Und wäre noch besser beim technisch interessierten Publikum angekommen, wenn es die Custom Hersteller nicht übertrieben hätten: Für ein paar % mehr Performance war dann der Verbrauch wieder bei ~ 200 Watt statt den vorgesehenen 160 Watt. Echt schade - stattdessen wird dann in solchen Foren wie hier wieder in Threads übers Undervolting diskutiert.

vinacis_vivids
2018-08-28, 03:33:09
Wären nicht die Miner eingesprungen wär AMD schon längst am Boden mit ihren GPU´s.

Man kann am Chart regelrecht sehen wo die r290 eingestellt wurde. (q2 2014)

https://www2.pic-upload.de/thumb/35860500/amdnvidia.jpg (https://www.pic-upload.de/view-35860500/amdnvidia.jpg.html)

Seit der Einführung von Vega ist der Marktanteil kontinuierlich gestiegen und Polaris verkauft sich heute noch wie geschnitten Brot.

Der Tiefpunkt war Fury und mit Vega hat AMD sehr gut aufgeholt. Zwar noch keine 40% Marktanteil, aber was nicht ist kann ja noch werden.

Verstehe deine Begründung nicht ganz, da die Zahlen das komplette Gegenteil aussagen.

Tatwaffe
2018-08-28, 04:59:19
Meine Aussage bezog sich darauf das ein riesiger Anteil am Marktanteil mit den Minern gemacht wurde und der Anteil der Gamer kontinuierlich am sinken war(welcher aber wichtig ist um für Games gut optimiert zu werden), ohne die Miner (die zu über 80% AMD kauften)wär AMD richtig abgestürzt in den Marktanteilen,
Polaris mag sich gut verkaufen bringt aber Leuten die ne r290(x) geholt haben nicht wirklich einen Mehrwert zum Preis.
Man hat mit der Generation 390/ 480 /580 eher nen Sidegrade als wirklich mehr Leistung zu bieten, mit Fury gings dann komplett bergab, mit Vega dann ein gutes Plus aber zu einem salzigen Preis.

AMD hat es einfach 4 Jahre versäumt den R290(x) Käufern ein gutes Angebot zu machen, alle die von da aufrüsten wollten sind bis vor nem Jahr zu Nvidia abgewandert(oder haben ihre 290(x) immer noch), und selbst heute haftet der VEGA der negative hohe Verbrauch an, dazu die gestrichenen Features.

Hier kommt man auf +1% als Durchschnitt in Benches(bei 3 Generationen weiter (290x vs 580), bei Spielen ist es mehr aber nur bei ein paar und nicht durch die Bank, teils laufen welche auf der 290 sogar schneller, das ist kein Fortschritt für mich, jede Generation sollte es mindestens schaffen zumindest 25% draufzulegen eher 50% davon ist man da weit entfernt gewesen.
http://gpu.userbenchmark.com/Compare/AMD-RX-580-vs-AMD-R9-290X/3923vs2166

Hätte AMD es nicht versäumt mit jeder Generation mehr Leistung fürs gleiche Geld freizumachen wären wir heute bei 120%-150%+ für 300€, stattdessen sind wir bei Games im (aller-)besten fall bei +30% im schlechtesten bei -11% fürs gleiche Geld.

denjudge
2018-08-28, 06:47:15
Polaris mag sich gut verkaufen bringt aber Leuten die ne r290(x) geholt haben nicht wirklich einen Mehrwert zum Preis.

AMD hat es einfach 4 Jahre versäumt den R290(x) Käufern ein gutes Angebot zu machen, alle die von da aufrüsten wollten sind bis vor nem Jahr zu Nvidia abgewandert(oder haben ihre 290(x) immer noch), und selbst heute haftet der VEGA der negative hohe Verbrauch an, dazu die gestrichenen Features.


Absolut richtig, das beschreibt genau mein Dilemma. Ich habe jetzt ne gebrauchte 980ti, die mit 1400mhz läuft und mir die Performance zu dem Preis liefert, die ich brauche. Wollte überhaupt nicht weg von AMD, aber es gab ja nix.

vinacis_vivids
2018-08-28, 07:38:37
Meine Aussage bezog sich darauf das ein riesiger Anteil am Marktanteil mit den Minern gemacht wurde und der Anteil der Gamer kontinuierlich am sinken war(welcher aber wichtig ist um für Games gut optimiert zu werden), ohne die Miner (die zu über 80% AMD kauften)wär AMD richtig abgestürzt in den Marktanteilen,


Woher kommt dieser Unsinn ohne jegliche Quelle?

Tatwaffe
2018-08-28, 09:41:43
kommt daher das es kein unsinn ist das amd karten die beste hashrate zum preis lieferten und in vielen ländern ausverkauft waren über monate.

vinacis_vivids
2018-08-28, 11:06:53
Mininganteil gibt es, Ja da stimme ich dir zu, aber 80% sind aus der Nase gezogen ohne irgendwelche Belege. Hör bitte auf damit.

Birdman
2018-08-28, 11:36:44
Man kann ja die Verkaufskurve von AMD Karten mit dem Marktanteil bei Steam vergleichen - sollte einen Anhaltspunkt darüber geben, wie viele der Karten wirklich bei Minern landen und was an Gamer geht.

Screemer
2018-08-28, 11:47:07
die steam survey ist absolut nichtssagend. da sind im letzten monat mehr dualcores dazu gekommen als alles andere. das ist sowas von komplett sinnlos sich da andauernd drauf zu beziehen.

Daredevil
2018-08-28, 13:44:27
Ja und? 2C/4T Notebooks oder LowEnd Gaming Rechner soll es ja auch geben abseits von Deutschland.

Screemer
2018-08-28, 14:12:52
Ja und? 2C/4T Notebooks oder LowEnd Gaming Rechner soll es ja auch geben abseits von Deutschland.
und die verkaufen sich seit märz so gut, dass sie seit dem von fast 10% (https://store.steampowered.com/hwsurvey/cpus/) mehr spielern steamnutzern eingesetzt werden?

Daredevil
2018-08-28, 15:00:05
Offensichtlich, wenn Steam das mit angibt.
Oder hast du für dich bessere korrektere Zahlen?

Der PUBG Hype in Fernost ist halt etwas, was eben auch dazu gehört, auch wenn es Fernost ist.

Unicous
2018-08-28, 15:03:29
Du hast wohl nicht mitbekommen, dass die "PUBG" Zahlen größtenteils Humbug waren, was?:rolleyes:

https://www.extremetech.com/gaming/272664-heres-why-the-steam-hardware-survey-went-nuts-last-summer

Steams Hardware Survey ist in etwa so genau wie die Heisenberg'sche Unschärferelation. :rolleyes:

Daredevil
2018-08-28, 15:11:35
Also hat Steam offensichtlich Dual Core CPU Anteile gefälscht..... weil?
Oder hat Dell auf Office Rechnern Steam installiert, damit die Nutzerzahlen von Steam weiter ansteigen? :D

Ich verstehe ja ein "das ist Unsinn" als Aussage, wenn man sich das wirklich nicht erklären kann. Aber zu der Aussage "Wo kommen die ganzen Dual Cores bei Steam her?", fallen einem nicht nur 1-2 Argumente ein. :)

Unicous
2018-08-28, 15:23:12
Ja, vollkommen logisch, dass nach jahrelangem Aufstieg des 4-Kerners zum Mainstreamprozessor dieser an Appeal verliert und von 70% Marktanteil auf 57% abfällt während der neue Shootingstar der freshe 2-Kerner ist, obwohl Intel gerade den i5 zum 6-Kerner befördert hat.

Das man das Offensichtliche einfach nicht sieht und die Wahrheit und Weisheit der unfehlbaren Steam Hardware Survey nicht anerkennt grenzt schon an Ketzerei.:mad:

Komisch, dass es bei Mac und Linux diese Fluktuationen nicht gibt, aber das liegt ja auch daran, das niemand mit Mac und Linux zockt, höhöhö.

Tatwaffe
2018-08-28, 16:22:28
Das hast du wohl in den falschen Hals gekriegt ich sagte 80% aller Karten die für Mining gekauft wurden waren AMD, nicht 80% von allen verkauften Karten.

Mininganteil gibt es, Ja da stimme ich dir zu, aber 80% sind aus der Nase gezogen ohne irgendwelche Belege. Hör bitte auf damit.

vinacis_vivids
2018-08-28, 18:55:13
Das hast du wohl in den falschen Hals gekriegt ich sagte 80% aller Karten die für Mining gekauft wurden waren AMD, nicht 80% von allen verkauften Karten.

Woher kommt diese Erkenntnis? Und außerdem völliges OT ohne irgendwelche belastbaren Quellen. Das wird langsam lächerlich :rolleyes:

Tatwaffe
2018-08-29, 07:47:53
nö du machst dich selbst lächerlich, einfach mal google bedienen.

"Demnach seien über drei Millionen Grafikkarten an Miner verkauft worden, die meisten davon an Betreiber von größeren Rechenfarmen. Der Wert dieser GPUs liege bei 776 Millionen US-Dollar, wobei nicht ersichtlich ist, an welchen Preisen sich JPR orientiert. Der Durchschnittpreis bei abgerundet 3 Mio. GPUs würde bei circa 260 USD liegen"

und welche Karten lieferten die meisten Megahash für 260$?, aber hey ruhig andere mit lächerlich und unsinn Sprüchen beglücken.:freak:

Linmoum
2018-08-29, 08:52:58
Nvidia hat deutlich mehr Umsatz durchs Mining gemacht, als AMD. Unlogisch, wenn 80% aller verkauften Karten fürs Mining von AMD gekommen wären.

Lächerlich macht sich hier eigentlich nur einer, denn wer nicht mal Fakten liefert sollte die Füße lieber still halten.

Raff
2018-08-29, 09:35:13
Mal etwas anderes an die Firmware-Cracks hier: Was hat es mit der Behauptung auf sich, dass das Liquid-BIOS schon bei (für einen Luftkühler) geringen Temperaturen heruntertaktet?

MfG,
Raff

dargo
2018-08-29, 09:59:15
Wieder was Neues... :crazy:

VpOIhV582pQ

Ich check das mal bei Gelegenheit.

Screemer
2018-08-29, 10:09:19
Wieder was Neues... :crazy:

http://youtu.be/VpOIhV582pQ

Ich check das mal bei Gelegenheit.
aus den kommentaren:

"Vulkan OSD should now work properly in Vulkan applications when frames are being presented from non-graphics queue. The only currently existing Vulkan application behaving this way is DOOM (only on AMD graphics cards), because it is asynchronously presenting frames form async compute queue in AMD codepath.

Such presentation implementation makes Vulkan OSD rendering rather expensive in performance hit terms, because it requires forcible graphics and async compute queues synchronization.

So now rendering OSD in DOOM/Vulkan on AMD cards may reduce performance by approximately 5% (the same applies to Steam FPS counter in DOOM/Vulkan on AMD), but I believe that there is some space left for optimization and it can be improved in future versions."

dargo
2018-08-29, 10:38:45
Hmm... ich kann das Verhalten hier wie im Video nicht bestätigen. Sowohl ohne als auch mit Benchmarking sind die Frames bei mir gleich im AB OSD und dem spieleigenen Framecounter in Wolf 2. Ich habe aber den Adrenalin 18.8.2 drauf und weniger Details im OSD.

Edit:
Argh... ich habe gerade Blödsinn nachgestellt. :redface:

Jetzt nochmal... ich kann immer noch keinen Unterschied feststellen. Ich glaube aber es liegt daran, dass bei mir in Wolf 2 Async Compute deaktiviert ist. Ist nämlich nicht das schnellste Setting in diesem Spiel.

dildo4u
2018-08-29, 10:53:14
Ja und? 2C/4T Notebooks oder LowEnd Gaming Rechner soll es ja auch geben abseits von Deutschland.
Intel bringt immer noch 2 Core Modelle und nicht nur als Pentium.

https://www.computerbase.de/2018-08/intel-whiskey-lake-amber-lake-launch/

Tatwaffe
2018-08-29, 16:47:54
Und Umsatz ist jetzt = Marktanteil? Bei dir ist umsatz wohl auch= Gewinn

Und 300000 chips retoure sind auch kein minusgeschäft? oder weniger marktanteil.

https://www.btc-echo.de/krypto-mining-nvidia-bleibt-auf-seiner-hardware-sitzen/


@steamsurvey
vielleicht hat das was mit den chinesen zu tun die jetzt alle pubg spielen und das mit mehreren accounts wegen deren cheaterei, windows7 anteile sind ja auch wieder extrem angestiegen was man sich kaum erklären konnte.


Nvidia hat deutlich mehr Umsatz durchs Mining gemacht, als AMD. Unlogisch, wenn 80% aller verkauften Karten fürs Mining von AMD gekommen wären.

Lächerlich macht sich hier eigentlich nur einer, denn wer nicht mal Fakten liefert sollte die Füße lieber still halten.

Daredevil
2018-08-29, 17:14:37
Mal etwas anderes an die Firmware-Cracks hier: Was hat es mit der Behauptung auf sich, dass das Liquid-BIOS schon bei (für einen Luftkühler) geringen Temperaturen heruntertaktet?

MfG,
Raff
Ich versteh die Frage nicht so ganz, beantworte aber mal trotzdem irgendetwas. :D

Power Limitierung Maybe?
Ich habe die Erfahrung gemacht, dass ich mit dem 56er Bios eine Ecke höher takten kann als mit dem 64er Bios und gleichen ( Vega 56 ) Settings, weil die Speicherspannung ( vermutlich ) niedriger angesetzt ist und somit das PT nicht so schnell ausgereizt wird.
Das ganze würde beim Liquid Bios ( vermutlich? ) nochmal ne Ecke höher ausfallen.

Raff
2018-08-29, 17:16:16
Es wird schon etwas mit "Power" zu tun haben, aber das nicht direkt. :D Die SKUs mit 945 MHz RAM-Takt laufen alle mit 1,35 Volt, das ist's nicht.

Um meine Frage zu ergänzen: Ich finde die Quelle nicht mehr, habe aber vor einiger Zeit gelesen, dass das LCE-BIOS nicht nur an der ASIC-Power dreht, sondern auch mit anderen Parametern hinsichtlich des Takt-zu-Temperatur-Verhaltens arbeitet. Das würde erklären, warum meine aufgemotzte Vega FE hier nicht mit den von einer V64 LCE bekannten Frequenzen läuft, sondern gute 100 MHz darunter. Der Knackpunkt wäre aber nicht die Kerntemperatur (die kann ich unter 55 °C halten), sondern der Schrottspot, der schon mal bei 75 °C liegt. Möglicherweise hat die BIOSe ja mal jemand in Software zer- und die einzelnen Schwellen offengelegt.

Nicht auszuschließen ist darüber hinaus, dass die 8-Hi-Stacks der FE so viel saufen, dass mehr Boost einfach nicht geht.

MfG,
Raff

mironicus
2018-08-29, 17:30:20
Intel bringt immer noch 2 Core Modelle und nicht nur als Pentium.

https://www.computerbase.de/2018-08/intel-whiskey-lake-amber-lake-launch/

Vielleicht spielen ja auch viele ihre Steam-Spiele mit einem Surface Go? Zumindest die ganzen Windowstablets und Lowpower-Geräte haben alle einen 2 Kerner mit HT. Und mit der Intel-Grafik kann man sogar mit heruntergeschraubten Details auch Blockbuster wie GTA 5 spielen.

dargo
2018-08-29, 17:55:43
Um meine Frage zu ergänzen: Ich finde die Quelle nicht mehr, habe aber vor einiger Zeit gelesen, dass das LCE-BIOS nicht nur an der ASIC-Power dreht, sondern auch mit anderen Parametern hinsichtlich des Takt-zu-Temperatur-Verhaltens arbeitet. Das würde erklären, warum meine aufgemotzte Vega FE hier nicht mit den von einer V64 LCE bekannten Frequenzen läuft, sondern gute 100 MHz darunter. Der Knackpunkt wäre aber nicht die Kerntemperatur (die kann ich unter 55 °C halten), sondern der Schrottspot, der schon mal bei 75 °C liegt. Möglicherweise hat die BIOSe ja mal jemand in Software zer- und die einzelnen Schwellen offengelegt.

Die LCEs haben einen anderen Kurve-Editor. Aber das müsstest du eigentlich wissen. :confused:

Raff
2018-08-29, 19:01:03
Ich lese nicht den Table jeder der 100 Grafikkarten aus, die ich jährlich teste, und lerne sie auswendig. ;)

Jetzt bin ich leider nicht schlauer als zuvor und eine Lösung des Problems fehlt auch noch. Kommt schon, das könnt ihr besser. :D

MfG,
Raff

vinacis_vivids
2018-08-29, 19:23:36
Und Umsatz ist jetzt = Marktanteil? Bei dir ist umsatz wohl auch= Gewinn

Und 300000 chips retoure sind auch kein minusgeschäft? oder weniger marktanteil.

https://www.btc-echo.de/krypto-mining-nvidia-bleibt-auf-seiner-hardware-sitzen/


80% Mining sind AMD-GPUs, alles klar. Komm wieder wenn du ne Quelle hast.
:facepalm:

dargo
2018-08-29, 19:54:12
Ich lese nicht den Table jeder der 100 Grafikkarten aus, die ich jährlich teste, und lerne sie auswendig. ;)

Jetzt bin ich leider nicht schlauer als zuvor und eine Lösung des Problems fehlt auch noch. Kommt schon, das könnt ihr besser. :D

Ich weiß ehrlich gesagt nicht was du genau willst. :D Willst du jetzt die gleichen Taktraten mit deiner FE einer LCE erreichen? Das funktioniert natürlich nur mit der PP-Table einer LCE und entsprechend einem 264W ASIC Powerlimit sofern der Chip nicht vorher schon limitiert.
https://www.youtube.com/watch?time_continue=49&v=TTbIIb4aKQM

Ob du dafür auch ein LCE Bios zusätzlich brauchst (keine Ahnung wie sich der Kurve-Editor mit einem anderen Bios verhält) weiß ich nicht, da muss ich passen.

Raff
2018-08-29, 20:13:38
Ich formulier's mal anders. Hier die groben Taktraten, die ich live in einem Spiel @ UHD-Auflösung gesehen habe:

– V64 LCE: 1.620 MHz (264W ASIC Power)
– VFE LCE: 1.500 MHz (264W ASIC Power)
– VFE Air: 1.420 MHz (220W ASIC Power)

Man sieht eindeutig, dass die V64 bessere Ergebnisse erzielt. Und man sieht, dass die über 40 Watt mehr, die das LCE-BIOS bei der Frontier Edition zulässt, sehr wenig bringt. Keine der Karten ist temperaturlimitiert, es ist immer die Power.

Der Knackpunkt: Die VFE LCE ist keine echte LCE, sondern eine Air-Karte, die mithilfe einer geradezu perversen Sandwich-Kühlung kaltgestellt wird. Raijintek Morpheus 2 + Arctic Backside Cooler. Heißt, hier wird eine LCE imitiert. Und ich frage mich in Ermangelung einer echten LCE, ob da alles mit rechten Dingen zugeht.

MfG,
Raff

dargo
2018-08-29, 20:16:06
Dann ist der Curve-Editor tatsächlich im Bios der RX LCE anders.

Edit:
Argh... du bringst mich schon komplett durcheinander. :freak: Nimm die PP-Table meiner LCE dann solltest du mit 264W ASIC die 1,6+Ghz erreichen sofern der Chip nicht limitiert.

PS: die echte LCE hat einfach einen anderen Curve-Editor. Wenn du eine normale non LCE nimmst und nur das Powerlimit auf 264W erhöhst wirst du nie die gleichen Taktraten wie die echte LCE erreichen.

Kleines Beispiel:

LCE = 1750Mhz @P7 mit 1,2V
Air = 1630Mhz @P7 mit 1,2V

Über P7 wird alles gesteuert. Die Taktraten natürlich nicht mit den tatsächlich anliegenden verwechseln.

Raff
2018-08-29, 20:24:08
Sorry. :D Nur damit wir uns richtig verstehen: Die Vega FE bietet praktischerweise zwei BIOSe. Das sekundäre habe ich mit dem offiziellen Vega-FE-LCE-BIOS bespielt. Das hat laut Basis-Info die gleiche Maximalfrequenz (1.600 MHz), aber eben 264 statt 220 Watt ASIC-Power. Die Simulation einer VFE LCE sollte also 1:1 klappen, wenn man die Kühlung sicherstellt.

Ich zweifle gar nicht daran, dass man die Kiste mithilfe einer wohldosierten Mischung aus Undervolting und Offset zu höheren Frequenzen überreden kann. 1.600/1.100 MHz sollten locker drin sein, das ging schon mit dem Luftkühler @ 100 Prozent (und wirklich unfassbarem Lärm), allerdings nur kurze Zeit. 1.700/1.125 MHz hatte ich eigentlich als Bench-Setting anvisiert. Mal sehen.

Es wird wohl wirklich mit dem P7 zusammenhängen. Die VFE LCE ist ineffizient eingestellt, es fehlt der "Bump" beim Takt, den die V64 LCE hat.

MfG,
Raff

von Richthofen
2018-08-29, 20:28:50
zu langsam

Warum nicht mal versuchen das FE "High-Power" BIOS mit dem der Liquid zu ersetzen?
https://www.techpowerup.com/vgabios/?architecture=AMD&manufacturer=AMD&model=RX+Vega+64&interface=&memType=&memSize=&since=
Du könntest im Falle eines Fehlschlages jederzeit auf das unflashbare "Standard" BIOS wechseln.

Raff
2018-08-29, 20:35:34
Leider sind Vega 64 und Vega FE untereinander inkompatibel. Die Firmware soll ja auch die schnieken 16 GiByte HBM2 ordnungsgemäß ansprechen. :)

MfG,
Raff

dargo
2018-08-29, 20:41:01
@Raff

So wie du das darstellst unterscheiden sich FE Air und FE LCE nur im Powerlimit und Kühlung. Das ist bei der RX ganz anders. Die haben unterschiedliche PP-Tables zusätzlich.

Raff
2018-08-29, 20:43:44
Jo. Gut, dass wir darüber reden, das hatte ich nicht bedacht. :) Rechnet man das ein, ist die Performance gar nicht mehr so abwegig (wenn auch desaströs, was die Effizienz angeht). Dennoch frage ich mich, woher ich die Info hatte, dass das LCE-BIOS bei einer bestimmten Temperatur, die man mit dem Fluidkühler gar nicht erreichen kann/sollte, heruntertaktet ...

MfG
Raff

Achill
2018-08-29, 21:11:18
@Raff - die 1.125 Mhz für HBM2 fressen evtl. schon merklich Power auf - geschaut wie sich die FE-Karte verhält mit nur 1050 MHz HBM2 und ob das mehr an HBM2 Takt wirklich etwas bringt?

Ansonsten gibt es nur zwei Möglichkeiten:

- Brechstange und mit 1,2 bis 1,25 V versuchen in die ~1750 Mhz Region zu kommen (ich muss 1,215 V einstellen um bei stabil Richtung ~1750 Mhz zu kommen, Verbrauch geht dann Richtung 330-350W fürs ganze Package) ... mit 1,25V geht bei mir auch 1770-1790 Mhz, über die Leistungsaufnahme reden wir dann aber nicht mehr ;)

- Oder schauen wie weit man mit <1,1 V kommt, bei mir gehen 1680 Mhz mit 1,08 V und mit 1050 Mhz HBM2 bleibe ich bei ~230 W für das ganze Package.

BeetleatWar1977
2018-08-29, 21:16:46
Jo. Gut, dass wir darüber reden, das hatte ich nicht bedacht. :) Rechnet man das ein, ist die Performance gar nicht mehr so abwegig (wenn auch desaströs, was die Effizienz angeht). Dennoch frage ich mich, woher ich die Info hatte, dass das LCE-BIOS bei einer bestimmten Temperatur, die man mit dem Fluidkühler gar nicht erreichen kann/sollte, heruntertaktet ...

MfG
Raff
von mir^^

dildo4u
2018-09-01, 10:24:57
AMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich


https://www.computerbase.de/2018-08/radeon-5870-6970-7970-290x-fury-x-vega-64-vergleich/

Raff
2018-09-01, 11:56:02
von mir^^

Ah. =)

Aber was passiert genau, wenn die Schwelle erreicht wird? Hast du das auch ausgelesen? TemperatureLimitTedge ist recht eindeutig das Temperaturziel von maximal 85 °C.

ShutdownTemp scheint mir unglücklich formuliert, da wird höchstens hart gedrosselt. Und TemperatureLimitLiquid dürfte bei jeder Air nur ein Platzhalter sein.

MfG,
Raff

dargo
2018-09-01, 18:23:13
Kann mir einer erklären warum die Frameraten bei den Geforces hierbei so stark flukturieren und man davon in den Frametimes relativ wenig sieht?

QDjn0Fw6-Rg

Irgendwie unlogisch die Graphen. :confused:

dildo4u
2018-09-01, 18:40:27
Wenn man oben die MS anguckt gibt es keine Negativen Einbrüche,die 1080 Ti ist zu 99% unter 10ms.Wenn Frametimes angegeben werden nimmt man normalerweise die schlechtesten Werte,die Schwankungen im mittleren Bereich siehste damit nicht.

dargo
2018-09-01, 18:46:42
Hast du überhaupt meine Frage verstanden?

sun-man
2018-09-06, 12:09:59
Würdet Ihr, dieses Jahr, noch nen 390 gegen ne Vega 56 tauschen?
Ich bin nicht ganz sicher ob ich mir das mal als Ziel setzen soll. Will wegen Freesync bei AMD bleiben und hab ne UHD Monitor.

Ex3cut3r
2018-09-06, 12:14:02
Würdet Ihr, dieses Jahr, noch nen 390 gegen ne Vega 56 tauschen?
Ich bin nicht ganz sicher ob ich mir das mal als Ziel setzen soll. Will wegen Freesync bei AMD bleiben und hab ne UHD Monitor.

UHD? Dann ja wurde ich es machen. Du gewinnst grob +70% Imo.