PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD VEGA Nutzer-Review(s)


Achill
2017-09-03, 18:56:37
Hallo 3DC

Ich habe mich entschieden, hier im AMD/ATI Grafikkarten Forum nochmal ein Review-Thread zu eröffnen - jedoch mit anderen Zielen:
- Erfahrungsberichte von 3DC Mitgliedern (Umbau, OC, ...)
- Keine Diskussion zu AMD vs NV (wenn werde ich Mods bitten zu löschen).

--
Von 390X zur Vega64

Ich hatte vor gut einer Woche meine (zweite) Vega64 Liquid Edition in Betrieb genommen, nachdem mit der ersten mein Rechner nicht booten wollte. Es stellte sich aber heraus (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583400), dass es ggf. nicht die Karte war sondern wie ich das Bios-Reset durchgeführt habe ... Schwamm drüber.

Die letzten Tage habe ich die Karte ohne Modifikation betrieben, ohne OC und nur das PT auf Turbo gestellt, folgende Werte (mit den 6850k@4.4Ghz, UC@3.6Ghz, DDR4-2800) wurden damit erreicht:
- UNIGINE 2 Superposition 4k Opt. - 6396 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11476885#post11476885)
- TimeSpy: 7.788, FireStrike: 20.227, FireStrike Ultra: 5.901 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11476976#post11476976)
- Aida64 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11478117#post11478117)
- AotS / DX12@1440@Crazy, ~63.8 fps (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11476475#post11476475)

Sowie folgende Spiele angetestet: Rise of the Tomb Raider, Divinity Original Sin Enhanced Edition, HITMAN, Pillars of Eternity, The Vanishing of Ethan Carter Redux, Hellblade Senua's Sacrifice, Dragon Age Inquisition, Mass Effect Andromeda

Intensiv (>2h Dauerspiel):
- BioShock Infinite / 4K@Max
- Witcher 3 / 4k@Max (Ohne GWs)
- Prey / 4k@Max

Bei keinen der Spiele kam es zu einen Absturz, ging FS nicht oder gab es irgend welche Auffälligkeiten (Ruckler, Bildfehler, ...).

Standard Taktverhalten
Der GPU-Takt war dabei i.d.R. zwischen ~1600-1730 Mhz, man konnte den Takt in Richtung 1700 stabilisieren indem man den Lüfter-Drehzahl für den Radiator erhöhte, was bei PT@Turbo schon auf ein Temp. Limit mit der Kühllösung hindeutete.

Lautstärke der Power-Profile
Die Lautstärke des LE Kühlers (subjektiv da keine Messungen) und Kühler außerhalb des Gehäuses sowie ohne manuelle Anpassungen im Wattman:
- Power-Save: Sehr Leise aber leicht Lauter als meine 5x 140mm der Wakü bei ~550RPM
- Balanced: Leise bis OK (Lautstärke wie von meiner 390X ohne OC mit TriX Kühler im Gehäuse)
- Turbo: Deutlich hörbar bis Laut - man benötigt Kopfhörer (imho)

Bios / Chip Defaults
Im Modus Turbo (BTW Bios1) zeigt Wattman folgende Werte an:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61050

Die Liq.Ed. scheint etwas besser eingestellt zu sein, OC & Undervolting habe ich jedoch noch nicht groß versucht.

VSR & FreeSync
Im Vergleich zur 390X ist die VSR Unterstützung für 2160p sehr nett. Mit der 390X musste ich DS via Monitor betreiben, was einerseits die Frequenz auf 60Hz limitiert hat sowie deutliche Unschärfe durch den Monitor-Scaler brachte (gegen filtern mit ReShade nötig).

Mit Vega funktioniert jetzt VSR für 2160p mit 120/144Hz mit dem ASUS MG279Q und damit auch FreeSync mit 48-120Hz bzw. 57-144Hz. Ich Verwende aktuell 48-120Hz da mit 144Hz die Darstellung unschärfer wird (subjektiv).

Nachteile konnte ich im Vergleich zu 390X bisher nicht ausmachen.

Spulenfiepen
Die Karte hat leider Spielen-Fiepen in Abhängigkeit zur Leistungsaufnahme. Auf dem Desktop gibt es keine Geräusche, im 3D-Betrieb unter Last schon. Es war aber nur leicht beim geöffneten Gehäuse hörbar. Sobald man Kopfhörer auf hat oder der Lüfter höher lief, ging es unter.

Screemer
2017-09-03, 19:22:30
ich weise hier vorsorglich noch mal darauf hin, dass watttool schnittstellen nutzt die ab crimson relive 17.7.2+ nicht mehr ordentlich funktionieren. jeder der mit den spannungen und pstats spielt sollte sich dessen bewusst sein. das tool liefert derzeit (aug/sep 2017) sogar wesentlich verlässlichere ergebnisse als wattman.

ein alternatives tool für OC und UV kann man hier finden: http://elsonsmith.com/amd-gpu-tool/

sourcen sind in zukunft hier zu finden: https://github.com/ecs87/AMD-GPU-Tool

I mentioned directly to you to please be patient for the c++ portion of the code to be sorted because of major changes I had planned in addition to working with AMD's driver division to sort out all the issues with their new drivers (and I'm interviewing for new jobs, and I still have a Samsung RIL tool to maintain and I have side gigs as a full stack webdev). Besides, the obfuscated file is the c# file which the source is already up for. The C++ file is not secured by any means. If you're detecting a virus through it, I'd like to see evidence please.

Es ist bzw. wird opensource und sollte deshalb wohl auch nicht so schnell in der versenkung verschwinden, wenn der ursprüngliche coder von der bildfläche verschwindet.

Edit: es gibt wohl aktuell massive probleme mit dem treiber, wenn es um voltage controle geht und das betrifft alle treiber nach 17.7.1. ich zitiere den author des obigen toosl mal mal von hier: https://forum.ethereum.org/discussion/comment/83557/#Comment_83557


Yes, I am observing these issues using my own tool developed with the ADL SDK, but your OFFICIAL program "WattMan" also exhibits the EXACT same behavior; so I guess what I'm trying to say is that my own tool is a moot point here since I've also tried using WattMan to rule out any possible issues with my program.

[...]

The issues started exactly when your development team modified the drivers to support the OverdriveX2 classes (I think it was with the 17.7.2 driver, as the 17.7.1 drivers don't use the OverdriveX2 classes in the ADL portion of your dll files when observed through IDA as far as I can tell).

The only changes I made to affect voltage was updating my driver from 17.7.1 to 17.7.2. This effectively broke nearly everything.

If I revert back to 17.7.1, everything works perfectly fine (including voltage control).

obiges wird aktualisiert sobald der bug im treiber gefixt ist.

Achill
2017-09-03, 19:34:29
Umbau auf Custom-Waterblock
Nach den ersten Tagen und Test mit dem Standard-Cooler habe ich heute die Vega-GPU umgebaut. Auch bei mit habe ich unter dem Kühler ein molded Package vorgefunden:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61052

Für die Reinigung habe ich Wattestäbchen verwendet, damit hat man sehr gut punktuelle Kontrolle.

Nach dem Umbau mit einen Kühler von EKWB sieht das ganze jetzt so aus:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61053

Habe nicht die beigelegte Wärmeleitpaste & -Pads verwendet sondern die mir bekannte Gelid Extrem sowie noch vorhandene Pads von Arctic womit man dann auch nicht ganz so Haushalten muss.

Erste Tests
Mit BioShock Infinite unter 4K@Max taktet die Karte jetzt stabiel zwischen 1688-1745Mhz (PT@Turbo) - je Szene. Nach rund 2h spielen hatte die GPU eine Temp. von 44°C und der HBM2 51° C. Der Takt hat sich dabei nicht verschlechtert.

Das ganze System ist jetzt natürlich leiser, das Spulenfiepen hat sich auch nochmal abgeschwächte (gefühlt) durch den massiven Kupferblock / andere Kühlerform / keine Backplate. Evtl. hat etwas von dem alten Kühler das Geräusch verstärkt bzw. wird jetzt besser geschluckt.

Mit dem geschlossenen und etwas schallgedämpften Gehäuse gibt es keine neg. Unterschiede zur 390X unter Wasser.

--
Wenn jetzt gern jemand etwas getestet haben will / einen bestimmten Benchlauf / eine Frage zum Umbau hat, dann hier gern her damit. Vorsorglich weise ich aber mal darauf hin, dass meine Zeit unter der Woche aktuell gut knapp ist ... kann also etwas dauern.

--
ich weise hier vorsorglich noch mal darauf hin, dass watttool schnittstellen nutzt die ab crimson relive 17.7.2+ nicht mehr ordentlich funktionieren. jeder der mit den spannungen und pstats spielt sollte sich dessen bewusst sein. das tool liefert derzeit (aug/sep 2017) sogar wesentlich verlässlichere ergebnisse als wattman.

ein alternatives tool für OC und UV kann man hier finden: http://elsonsmith.com/amd-gpu-tool/

sourcen sind hier zu finden: https://github.com/ecs87/AMD-GPU-Tool

Es ist opensource und wird deshalb wohl auch nicht so schnell in der versenkung verschwinden, wenn der ursprüngliche coder von der bildfläche verschwindet.

Edit: es gibt wohl aktuell massive probleme mit dem treiber, wenn es um voltage controle geht und das betrifft alle treiber nach 17.7.1. ich zitiere den author des obigen toosl mal mal von hier: https://forum.ethereum.org/discussion/comment/83557/#Comment_83557

Ja, hatte WattTool nur zum Lesen verwendet. Werde mal schauen was das AMD-GPU-Tool ausgibt und hier bei Unterschied posten. Anpassungen habe ich aktuell nur mit WattMan und bzgl. PT gemacht, da in den Reviews im Netz zu OC & UV/OV genau das raus kam, das eigentlich nie jemand weiß was da jetzt wirklich für eine Spannung anliegt. Auch der Verbrauch, den HwInfo Ausgibt, scheint nicht zu stimmen. Die Wassertemp. von meinen System mit Vega@Turbo ist ähnlich wie mit einer 390X@1150/1500 - damit können die angezeigten ~220W nicht stimmen,

Screemer
2017-09-03, 20:10:03
schau mal in das post im zweiten link. da hat elson noch ein paar videos verlinkt, die die situation mit der nicht eingehaltenen eingestellten spannung zeigen.

Gast
2017-09-04, 00:44:37
@achill

Ich habe Interesse an HBCC on/off Vergleiche, das gibs ja einige Spiele, die davon merklich profitieren. Wahrscheinlich entfaltet diese Funktion erst mit dem Erscheinen von RX Vega 4GB richtig.

N0Thing
2017-09-04, 06:31:23
Auch der Verbrauch, den HwInfo Ausgibt, scheint nicht zu stimmen. Die Wassertemp. von meinen System mit Vega@Turbo ist ähnlich wie mit einer 390X@1150/1500 - damit können die angezeigten ~220W nicht stimmen,

Kann es sein, daß da wie bei GPU-Z einfach nur der Verbrauch des Chips angezeigt wird? Ohne Wandler und HBM? Dann wären ~300W für die ganze Karte nicht unrealistisch.

Gast
2017-09-04, 09:28:07
Kann es sein, daß da wie bei GPU-Z einfach nur der Verbrauch des Chips angezeigt wird? Ohne Wandler und HBM? Dann wären ~300W für die ganze Karte nicht unrealistisch.
genauso ist es und amd macht das schon seit längerem, warum wissen sie nur selbst. wenn du den tatsächlichen verbrauch ermitteln willst musst du messen!

bnoob
2017-09-04, 11:34:52
Hat schon jemand die Wärmeleitpaste des Referenzkühlers ersetzt? Wenn ja, bringt das so viel wie z.B. bei Hawaii?

Raff
2017-09-04, 11:54:25
Kann es sein, daß da wie bei GPU-Z einfach nur der Verbrauch des Chips angezeigt wird? Ohne Wandler und HBM? Dann wären ~300W für die ganze Karte nicht unrealistisch.

GPU-Z zeigt AFAIK die ASIC-Power an. Letztere beinhaltet GPU und HBM. Der nicht angezeigte Rest betrifft die Platine inklusive der Wandler.

MfG,
Raff

N0Thing
2017-09-04, 13:31:23
Wenn man bedenkt, daß bei der RX 480 50W für Platine, Wandler und den hoch getakteten GDDR5 ausgereicht haben, sind die ~60W nur für Platine und Wandler bei Vega64 nicht ziemlich viel?

MrNice
2017-09-04, 13:34:51
Servus Achill,

ich habe gestern auch meinen EKWB in der gleichen Ausführung montiert. Hast du dabei dieses Quadrat auf der Rückseite wieder montiert, was den Anpressdruck zwischen Kühler und PCB erhöht? Ich hatte, als das noch nicht wieder dran war, immer Blackscreens. Nachdem ich es montiert hatte, nicht mehr. Nur bekomme ich meinen Takt nicht mehr stabil durchgängig auf dem max. P State. Wenn ich im Wattmann was einstelle, wie bspw. höheres Powertarget oder den Takt oder Spannung umstelle, bekomme ich wieder Blackscreens.

Mfg
MrNice

Achill
2017-09-04, 18:10:33
@achill

Ich habe Interesse an HBCC on/off Vergleiche, das gibs ja einige Spiele, die davon merklich profitieren. Wahrscheinlich entfaltet diese Funktion erst mit dem Erscheinen von RX Vega 4GB richtig.

Vorschläge was man mal testen sollte / was du gern sehen würdest?

--

Kann es sein, daß da wie bei GPU-Z einfach nur der Verbrauch des Chips angezeigt wird? Ohne Wandler und HBM? Dann wären ~300W für die ganze Karte nicht unrealistisch.

GPU-Z zeigt AFAIK die ASIC-Power an. Letztere beinhaltet GPU und HBM. Der nicht angezeigte Rest betrifft die Platine inklusive der Wandler.

MfG,
Raff

Ja wie Screemer schon schrieb, stimmt etwas mit den Werten nicht. Ich hoffe einfach auf Besserung mit den zukünftigen Treibern / Tools.

--

Servus Achill,

ich habe gestern auch meinen EKWB in der gleichen Ausführung montiert. Hast du dabei dieses Quadrat auf der Rückseite wieder montiert, was den Anpressdruck zwischen Kühler und PCB erhöht? Ich hatte, als das noch nicht wieder dran war, immer Blackscreens. Nachdem ich es montiert hatte, nicht mehr. Nur bekomme ich meinen Takt nicht mehr stabil durchgängig auf dem max. P State. Wenn ich im Wattmann was einstelle, wie bspw. höheres Powertarget oder den Takt oder Spannung umstelle, bekomme ich wieder Blackscreens.

Mfg
MrNice


Ja, ich habe dieses "Spann-Kreuz" wieder mit montiert (sogar zuerst). Nach der Demontage des org. Kühlers hatte ich kurz darüber nachgedacht es nicht zu tun - da die Spannung unerwartet hoch war und nicht explizit in der Anleitung erwähnt wurde.

Nach dem Vergleich von Position, Größe sowie wo die "Stempel" aufsetzen scheint damit jedoch sichergestellt, dass der ganze Druck beim zusammen Schrauben auf des Packages wirkt und dies gleichmäßig gegen den Kühlerblock gedrückt wird, ohne das sich Package oder Platine der GPU biegt.

Bei der Montage habe ich zuerst das "Kreuz" montiert, dann die weiteren Schrauben um das GPU-Package und zum Schluss die restlichen Schrauben.

Die Schrauben sollten über Kreuz vorsichtige angezogen (man dreht immer nur 1/2 oder eine Drehung und wechselt dann zu diagonal gegenüberliegende Schraube) werden, damit wird der Druck auf allen Seiten gleichmäßig erhöht.

Auch bzgl. Kraft nur ein sanftes Anziehen (3 Finger-Spitzen, keine Faust oder andere Hilfsmittel) - ist etwas Amateurhaft jedoch stelle ich immer erst beim Umbau solcher Sachen fest, dass ich mir ein Drehmoment-Schlüssel holen wollte...

(Blick in den PC)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61067

--

MrNice
2017-09-04, 19:07:17
Danke achill :)

Ja genau so hab ichs gestern nacht auch noch gemacht. Ich hab mal wieder, zum dritten mal an diesem Tag, das Wasser abgelassen und dann nochmal den kompletten Kühler demontiert. Dabei ist mir dann letztlich aufgefallen, dass genau durch dieses "Kreuz" nicht genug Anpressdruck auf die GPU gewirkt hatte und folglich auch kein "Quadrat" von WLP an dem Kühler war. Also auf jeden Fall hab ich dann auch noch dieses Kreuz montiert. Ich hatte es zunächst absichtlich weggelassen, da es nicht in der Anleitung stand, und bin so vor Problemen mit Blackscreens gestanden. Danach, als dann auch das Kreuz wieder befestigt war, hatte ich keine Probleme mehr. Doch noch gestern und bis heute habe ich Blackscreens, sobald ich im Wattman auf custom gegangen bin.

Die andere Thematik war dann, dass die Graka nicht richtig hochgetaktet ist. In der ganzen Prozedur und mit testen usw, auch schon bei den ursprünglichen Problemen, habe ich auch auf den alten 17.8.1 gewechselt.

Jetzt, nachdem ich heute nach der Arbeit in Ruhe mal weiter testen konnte, habe ich den aktuellsten Treiber wieder installiert, und nun habe ich auch keine Blackscreens mehr, wenn ich den Wattman benutze.
Habe jetzt den vorletzten P State auf Min gesetzt, das PT auf -3 und den Ram auf 980Mhz und so den Timespy und den Firestrike laufen lassen.
Bis jetzt ohne Probleme.


Mfg
MrNice

Gast
2017-09-04, 20:26:51
Ich hatte vor gut einer Woche meine (zweite) Vega64 Liquid Edition in Betrieb genommen, nachdem mit der ersten mein Rechner nicht booten wollte. Es stellte sich aber heraus (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583400), dass es ggf. nicht die Karte war sondern wie ich das Bios-Reset durchgeführt habe ... Schwamm drüber.
Wozu verbaut man auf eine LCE so einen hässlichen Nachrüstkühler von EKWB?

Die Karte hat leider Spielen-Fiepen in Abhängigkeit zur Leistungsaufnahme. Auf dem Desktop gibt es keine Geräusche, im 3D-Betrieb unter Last schon. Es war aber nur leicht beim geöffneten Gehäuse hörbar. Sobald man Kopfhörer auf hat oder der Lüfter höher lief, ging es unter.
Mit Kopfhörern hört man auch nicht, ob ein Flugzeug landet oder startet wenn man will. Spulenfiepen mal wieder?

Gast
2017-09-05, 12:14:08
Vorschläge was man mal testen sollte / was du gern sehen würdest?
--

AMD hat bei Deus Ex und RoTR den HBCC demonstriert. Das würde ich gerne sehen. Vor allem in Einstellungen, die den Speicher auch ans Ende treiben (wenn möglich), spricht >8GB.

Gast
2017-09-05, 18:59:58
Vor allem in Einstellungen, die den Speicher auch ans Ende treiben (wenn möglich), spricht >8GB.
Gibt es nicht, AMD Session war einfach was wäre wenn, nur ist das nie der Fall wenn Entwickler auf Hardware in LL Nähe optimieren. Das Feature ist der reinste Blödsinn und kann nur unter DX11 oder unter professionellen Anwendungen was bringen.

Wahrscheinlich zielt das eher auf Karten ab die weniger als 8 GB HBM2 haben. Alles darüber ist sinnlos, weil das bisher für die Entwickler reicht.

Cherubim
2017-09-06, 07:55:41
Bin von ner R9 390 zur Vega 56 gewechselt.

Gebencht habe ich nicht, aber spiele laufen deutlich besser als vorher.
Spiele in der Regel alles auf 1440p/max - Freesync on und FPS-limit auf 74fps (Iiyama ProLite XB2788QS-B1 - 55-75Hz).

Momentan ist noch der default-Lüfter drauf, doch der EKWB wird kommen.
Takt geht in der Regel auf 1450-1471Mhz und die Karte hat keine Probleme, den Takt zu halten.

Mit Undervolting habe ich schon gespielt, das fein-tuning steht noch aus.
Momentan bin ich bei 1000mV/1050mV für die letzten beiden Stufen. Dadurch hat sich die Temperatur drastisch reduziert und der Fan pendelt langsam zwischen 1500 und 1900 u/min (mit seltenen/kurzen Ausreißern auf 2200), um die Karte zwischen 71 und 75°C zu halten. Je nach Spiel und Spielinhalt (indoor/outdoor) geht die Temperatur auf 65°C zurück und der Lüfter dreht mit 800-1200u/min (klar, Max-FPS@74).

Kein Vergleich zu den Default-Settings, bei denen die 75° Festgenagelt waren (eher mehr) und der Lüfter zwischen 2200 und 2400 (max) pendelte.

Den HBM habe ich direkt auf 900MHz gesetzt und seit dem nicht mehr beachtet. Da ist eine genaueres Auspendeln des Max-Takt noch ausstehend.

Bisher sind mir auch keine besonderen Spulengeräusche aufgefallen (auch vor einstellen der Max-FPS nicht).


Negativ: Beim Surfen und parallel Youtube schauen hängt teilweise das System für ein/zwei Sekunden, meist zu beginn eines neuen Clips.

Nazar
2017-09-06, 11:51:21
Guter Thread.
Alle Infos sind sehr nützlich. Danke! ;)

Achill
2017-09-09, 15:30:18
Ich habe mir etwas die VSR Fähigkeiten von Vega angeschaut.

Entsprechend dem alten Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=564951 kann man auch unter Vega die VSR-Einstellung ändern.

Wichtig ist hierbei (gilt auch bei den älteren Radeons), dass der max. unterstützte DisplayPort-Standard (bzw. der Scaler/Logic-Block auf der GPU) die max. Auflösung bei einer bestimmten Frequenz limitiert (siehe: https://en.wikipedia.org/wiki/DisplayPort#Resolution_and_refresh_frequency_limits_for_DisplayPort).

Im Falle von Vega ist dies in Verbindung mit einen ASUS MG279Q mit nativen 1440p:
3412x1920@120Hz (1,33x DS)
3840x2160@120Hz (1,5x DS)
4266x2400@90Hz (1,66x DS)
5120x2880@60Hz (2x DS)

Damit dies funktioniert, muss mittels CRU die Frequenz für die native Auflösung verfügbar/eingestellt worden sein sowie der Reg.Key 'DALNonStandardModesBCD1' angepasst worden sein:


[HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\CLASS\{4D36E968-E325-11CE-BFC1-08002BE10318}\0000]
"DALNonStandardModesBCD1"=hex:\
34,12,19,20,00,00,00,00,\
38,40,21,60,00,00,00,00,\
42,66,24,00,00,00,00,00,\
51,20,28,80,00,00,00,00,
"DALNonStandardModesBCD2"=hex:\
34,12,19,20,00,00,00,00,\
38,40,21,60,00,00,00,00,\
42,66,24,00,00,00,00,00,\
51,20,28,80,00,00,00,00,

Jake Dunn
2017-09-09, 15:49:45
Hab einfach im Treiber VSR aktiviert :confused:

https://abload.de/img/5e1s42.jpg (http://abload.de/image.php?img=5e1s42.jpg)

Raff
2017-09-09, 15:59:38
@achill

Ich habe Interesse an HBCC on/off Vergleiche, das gibs ja einige Spiele, die davon merklich profitieren. Wahrscheinlich entfaltet diese Funktion erst mit dem Erscheinen von RX Vega 4GB richtig.

In der neuen PCGH (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2017-Magazin-DVD-Download-PDF-1237397/) gibt's paar Werte und Impressionen dazu – inklusive eines Falls, bei dem 8 GiB nicht reichen, HBCC (bzw. ein HMS aus HBM + RAM) also besonders sinnvoll ist.

MfG,
Raff

nagus
2017-09-10, 10:48:03
Meine Undervolting-Versuche:

Getestet mit 3DMark Fire Strike Ultra und meiner Vega 64 Liquid und GPU-Z Version 2.3.0 (beeinträchtigt den Score nicht, wenn es im Hintergrund läuft, hab ich getestet). Hab mit Treiber Version 17.9.1 und WattMan die Settings verändert und danach immer neu gestartet, weil ich das Gefühl habe, dass die Werte nicht ordentlich üernommen werden, wenn man sie zwischendurch ändert! Also sicherheitshalber neu booten!

1. Durchlauf: 1180mV / 1% OC / 1100Mhz HBM2, 1050mV / PT +50%
Overall Score: 6247
Graphics Score: 6438

GPU-Z Werte (Max)
Core: 1729Mhz
Volts: 1,1375V
GPU Power Draw: 375W (hupsi ;)

2. Durchlauf: 1150mV / 0% OC (+1% > ging nicht) / 1100Mhz HBM2, 1050mV / PT +50%
Overall Score: 6240
Graphics Score: 6415

GPU-Z Werte (Max)
Core: 1709Mhz
Volts: 1,100V
GPU Power Draw: 347W

3. Durchlauf: 1100mV / 0% OC / 1100Mhz HBM2, 1050mV / PT +50%
Overall Score: 6170
Graphics Score: 6335

GPU-Z Werte (Max)
Core: 1670Mhz
Volts: 1,0625V
GPU Power Draw: 307W (avg waren ca. 275)

Fazit: Der 3. Testlauf bringt nur 1,5% weniger Leistung, dafür dreht der Radiator-Lüfter ca 1000rpm weniger hoch, die Lautstärke ist wesentlich geringer und der Stromverbrauch ist fast 100W runter > WOW!

>> Undervolten bringts tatsächlich :)

UPDATE:

4. Durchlauf: 1050mV / -1% OC (0% ging nicht) / 1100Mhz HBM2, 1050mV / PT +50%
Overall Score: 6030
Graphics Score: 6187

GPU-Z Werte (Max)
Core: 1629Mhz
Volts: 1,0125V
GPU Power Draw: 275W (avg waren ca. 245)

Raff
2017-09-10, 10:56:05
Wieso sinkt dein Boost mit geringerer Spannung? Der müsste eigentlich höher bleiben, da die Ströme geringer sind. Du hast die Taktraten nicht explizit angegeben, oder?

MfG,
Raff

nagus
2017-09-10, 11:04:23
Ich hab an den Taktfrequenzen nix gedreht, nein. Nur den Slider beim 1. Lauf auf +1% und bei den anderen beiden auf 0%, weil +1% nicht mehr ging.

nagus
2017-09-10, 11:14:01
Ein Paar Impressionen :)

nagus
2017-09-10, 11:34:56
4. Durchlauf: 1050mV / -1% OC (0% ging nicht) / 1100Mhz HBM2, 1050mV / PT +50%
Overall Score: 6030
Graphics Score: 6187 (-4% vs. 1180mV)

GPU-Z Werte (Max)
Core: 1629Mhz
Volts: 1,0125V
GPU Power Draw: 275W (avg waren ca. 245)

Fazit: Ca 4% weniger Speed als bei 1180mV (1. Lauf) > Das beste Ergebnis scheint somit Durchlauf 3 mit nur 1,5% Leistungsverlust!

Achill
2017-09-10, 15:53:01
@Nagus - hmm, was sind die Einstellungen für State-6 und State-7 bei dir?

Bei mir geht:
1667 mit 1125mv
1752 mit 1185mV

Im Spiel W3 wird mit PT+25 in 4k oft ~1710 angezeigt mit ~1138mV bei 332W.

1752 mit 1150mV machen ab und zu Probleme beim wechsel Zurück auf den Desktop - deine 1050mV wären dann nochmal eine ganz andere Ansage.

nagus
2017-09-10, 21:17:17
das sieht bei mir so aus:

nagus
2017-09-10, 21:21:05
Komisch ist, dass 3dMark FS Ultra mit P6 und P7 auf jeweils 1100mV problemlos durchläuft, Valley Benchmark aber immer an der selben Stelle hängt (nach dem Regen auf der Blumenwiese). Damit das läuft, brauche ich 1150mV.

Muss ich da vielleicht die Mhz manuell konfigurieren, damit das läuft? Ich habe mich mit den manuellen Clocks noch nicht auseinandergesezt....

T86
2017-09-10, 21:50:10
So...
Heute Vega 56 eingebaut

Ist das normal das der gpu Takt sich bei 1120mhz einpendelt obwohl die Karte bei 60c läuft?

Und gibt es ne Möglichkeit die Sensoren die zB gpuz findet 2.4.0
Auch mit Aida 64 aus zu lesen weil ich da gern ein paar Sachen beim testen im Auge behalten würde
Über die Anzeige des g19 Displays

BlackArchon
2017-09-10, 21:59:01
Ich habe gerade das Vega 64-BIOS 1 auf meine Vega 56 geflasht. Keine Probleme bisher. Ein bisschen mehr Performance bei etwas lauterem Lüfter. Als nächstes werde ich probieren, wie weit ich noch durch das Verringern der GPU-Spannung herausholen kann.

T86
2017-09-10, 22:03:37
Cool :D
Aber ohne Freischaltung oder?
Es geht nur um das powertarget und taktraten?

Sensoren auslesen klappt bei dir?

BlackArchon
2017-09-10, 22:10:42
Ja, an den Shadern scheint sich nichts verändert zu haben. Hauptsächlich wegen der höheren HBM-Spannung und dessen höherem Takt habe ich den Flash gemacht, und wegen dem bequemen Erhöhen des Powertargets. Das geht zwar auch mit Wattman, aber bis ich dem vertraue, dauert es noch eine Weile.

Sollte es Probeme mit den Sensoren geben? GPU-Z 2.4.0 scheint vernünftige Werte anzuzeigen.

Jake Dunn
2017-09-10, 22:21:02
So...
Heute Vega 56 eingebaut

Ist das normal das der gpu Takt sich bei 1120mhz einpendelt obwohl die Karte bei 60c läuft?



Powerlimit erhöht?

buckelflips
2017-09-11, 09:03:41
Ich kann das verschmerzen, aber bisher seh ich Vega als Katastrophe.

Der Treiber führt bei Windows 10 immer noch zum Bluescreen mit der atikmdag. Bei Win 7 funktioniert es.
Ich habe mit dem EVGA (mein Mainboard)Support geschrieben und die meinten es liegt an den Treibern.
AMD hat noch nicht auf mich reagiert.

Ich fahre nun wieder Win7, aber das kann es ja nicht sein.

T86
2017-09-11, 10:25:41
Treiber läuft wunderbar
Hab nix neu installiert...
290 raus - Vega rein - läuft

Evtl eine Verkettung ungünstiger Umstände bei dir?
Windows mal neu installieren im Zweifel bevor man sich ewig ärgert

nagus
2017-09-11, 10:45:41
Hier gibt's ein paar interessante Erkentnnisse zum Thema undervolting:

Actually Hardcore "Undervolting" AMD RX VEGA (https://www.youtube.com/watch?v=z2rQgQZLyOE)

nagus
2017-09-11, 10:47:07
Ich kann das verschmerzen, aber bisher seh ich Vega als Katastrophe.

Der Treiber führt bei Windows 10 immer noch zum Bluescreen mit der atikmdag. Bei Win 7 funktioniert es.
Ich habe mit dem EVGA (mein Mainboard)Support geschrieben und die meinten es liegt an den Treibern.
AMD hat noch nicht auf mich reagiert.

Ich fahre nun wieder Win7, aber das kann es ja nicht sein.

also ich habe keinerlei Probleme mit Win10 auf meinem Ryzen mit B350 von MSI. Wann treten denn diese Abstürze auf?

buckelflips
2017-09-11, 11:15:31
direkt bei der Installation. Ich war/bin da auch nicht der einzige. Nazar hatte das selbe Problem, aber ihm hat ein BIOS Update geholfen.
Nur bei mir bringt das nichts. Deswegen hatte ich auch EVGA angeschrieben

HTB|Bladerunner
2017-09-11, 11:48:11
@buckelflips

Ist die Aufstellung der Hardwarekomponenten in deinem Profil noch aktuell? Ich lese da was von 400W Leistung beim Netzteil?!

T86
2017-09-12, 14:34:51
Gibt es eig passende Halterungen für Asetek kühl Lösungen?

Finde nicht so recht was...
Die Vega muss umgebaut werden :D
Finde es seltsam das einige den Geräuschpegel als in Ordnung erachten.

Wird dann eine Radeon Vega 56 Hybrid

Ähnlich meiner 290 Hybrid
Siehe:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=571398


Das auslöten der vaporchamber wird wieder heikel
Oder ist der rev kühler diesmal anders aufgebaut?
Eine einzeln verschraubte Lösung wie bei 270/ 480 Karten?

Edit:
Nicht verlötet ... geil

http://www.tomshardware.com/reviews/amd-radeon-rx-vega-64,5173-3.html

buckelflips
2017-09-12, 14:56:05
@buckelflips

Ist die Aufstellung der Hardwarekomponenten in deinem Profil noch aktuell? Ich lese da was von 400W Leistung beim Netzteil?!
Oh.. nein das sind jetzt 650W

Mangel76
2017-09-14, 23:10:30
Meine VEGA 56 ist nun endlich eingetroffen und ich bin vom ersten Eindruck doch sehr zufrieden. Gestern hatte ich noch ein paar Tests mit meiner RX480 Red Devil gemacht. Furmark bei 1330 MHz/1060mV AVG 92 FPS. Bei Standardspannung (1150mV) konnte nichtmal diese Frequenz gehalten werden.

Jetzt die VEGA 56 mit Bios 1/Power Safe: laut GPU-z nur 20 Watt mehr GPU-Verbrauch (dafür inkl. Speicher???), dafür aber im Schnitt 161FPS. Ganzer Rechner (ASUS Prime X370 Pro, 1600X, 2xSSD, 2xHDD, Asus Xonar DGX, BlueRay) verbraucht dabei nur ca. 255 Watt.

Die Lüftersteuerung ist tatsächlich etwas eigenartig. Der Lüfter drehte recht schnell bis 39% hoch (GPU bei etwa 60°C), fiel dann langsam wieder ab bis 29%, wodurch dann die GPU-Temp wieder steigt.

Werde mich jetzt mal an ein paar Spieletests machen :biggrin:

Simon
2017-09-15, 07:48:03
In welchem der vielen Modi betreibt ihr eure Vega 64?
Oder macht ihr Undervolting/Overclocking (siehe hwluxx und CB Artikel) ?

Bin noch unentschlossen, ob ich mir den Aufwand mit UV gebe :|

buckelflips
2017-09-15, 07:56:43
Bevor das nicht richtig läuft, läuft die bei mir erstmal Standard

T86
2017-09-15, 10:15:34
Meine VEGA 56 ist nun endlich eingetroffen und ich bin vom ersten Eindruck doch sehr zufrieden. Gestern hatte ich noch ein paar Tests mit meiner RX480 Red Devil gemacht.....

Werde mich jetzt mal an ein paar Spieletests machen :biggrin:


Gib mal bitte Rückmeldung
Bei mir von 290 auf Vega 56 hat sich der Wechsel subjektiv nicht gelohnt etwa 1/3 mehr fps ... im Schnitt
Offt aber nahezu Gleichstand(!)
Von einer 480 müsste der Schritt ja ähnlich sein.

In welcher Auflösung spielst du? Bei mir ist wohl Full hd das Problem
System ist deinem recht ähnlich - r5 1600

bnoob
2017-09-15, 10:23:28
Von 1600 mit 290X auf Vega 64 haben sich die 4K-Frames teilweise verdoppelt.

FullHD habe ich seit 2014 nicht mehr, insofern hätte ich gar keine Vergleichswerte.

Zergra
2017-09-15, 10:41:03
In welchem der vielen Modi betreibt ihr eure Vega 64?
Oder macht ihr Undervolting/Overclocking (siehe hwluxx und CB Artikel) ?

Bin noch unentschlossen, ob ich mir den Aufwand mit UV gebe :|

Also der Aufwand lohnt sich kaum, Bios 1 + Powersafe macht wohl am meisten Sinn, wenn man eine relativ Leise und Sparsame Karte haben möchte.

Mangel76
2017-09-15, 11:11:22
Gib mal bitte Rückmeldung
Bei mir von 290 auf Vega 56 hat sich der Wechsel subjektiv nicht gelohnt etwa 1/3 mehr fps ... im Schnitt
Offt aber nahezu Gleichstand(!)
Von einer 480 müsste der Schritt ja ähnlich sein.

In welcher Auflösung spielst du? Bei mir ist wohl Full hd das Problem
System ist deinem recht ähnlich - r5 1600

Ich habe einen 27er WQHD-Monitor mit 144Hz und Freesync. Für mich zählen aber nicht die letzten FPS, habe meine RX480 runtergetaktet und undervolted. Ziel ist akzeptable FPS bei geringer Lautstärke.

Gestern Abend habe mal noch Anno 2070 gestartet. Mit Bios 1/Power Safe habe ich über Wasser 144 FPS bei ca. 1220 MHz und ca. 70 W GPU. Über einer dicht bebauten Insel herausgezoomt habe ich nur noch halb so viele FPS, weiterhin recht niedrig getaktet und gleich bleibendem Power Draw. Wenn ich aber weiter hinein zoome, gehen die FPS wieder hoch genau wie Takt (etwa 1330), Verbrauch und damit auch der Lüfter. Dies waren auch die einzigen Situationen, wo der Lüfter unangenehm auffiel, nachdem er nach dem ersten übereifrigen hochdrehen wieder etwas zurückgegangen ist. Woran liegt das? Bremst bei der Insel mit vielen Gebäuden wieder der Polygon-Durchsatz? Beim Reinzoomen sind dann ja weniger Gebäude zu berechnen. Oder bremst hier die CPU, die bei zu vielen darzustellenden Gebäuden nicht mehr nachkommt? Aber warum geht dann Takt und Verbrauch bei der Nahansicht der Gebäude hoch?

Mit der Leistung bin ich auf jeden Fall schonmal zufrieden. Weiß zwar nicht genau, wie die FPS mit der RX480 waren, aber 60FPS sind meist bei mir im FRT eingestellt. Ich hoffe, so bleibt die Karte dann auch relativ leise, sonst kommt da doch noch eine Wasserkühlung drauf.

Loeschzwerg
2017-09-15, 16:51:54
WattMan ist ja mal wieder super ohne Ende... setzt man P6 und P7 bei der Taktfrequenz identisch, erhält man viel weniger Takt :uup:

Naja, ich habe mich mal ans UV meiner Vega 64 gemacht.

Timespy
Bios 1 - Balanced: 7536 (Graphics 7096)
Bios 1 - Power Save: 7076 (Graphics 6620)
950mV GPU und "HBM" + 25% PT: 7662 (Graphics 7228)

ComputeMark - MandelS Extreme - 5 Min Burn-In
Bios 1 - Balanced: 221 Watt (GPU-Z); ~1402MHz
Bios 1 - Power Save: 166 Watt (GPU-Z); ~1363MHz
950mV GPU und "HBM" + 25% PT: 172 Watt (GPU-Z); ~1487MHz

Mit UV kann man durchaus was herauskitzeln, aber spannend ist die Sache nicht.

Screemer
2017-09-15, 18:08:55
Die Karten bleiben halt in p5 hängen. Passiert auch mit watttool. Imho ein treiberbug. Wurde aber schon ziemlich oft besprochen.

Loeschzwerg
2017-09-15, 18:35:50
Ja? Habe ich dann überlesen ^^ Das normale Review Thema ist teilweise nicht auszuhalten.

Hab jetzt gerade noch etwas Prey gezockt, lief alles stabil und ohne Grafikfehler, aber ich hatte zwischendurch immer mal wieder "Stotterer" und die gab es bei der Nano nicht. Muss ich mir noch genauer anschauen, nicht dass da im Hintergrund etwas Leistung abgezogen hat.

horn 12
2017-09-15, 18:42:19
Ja, teste bitte ausgiebig :-)
Meine GigaByte Silver Vega 64 kommt Mittwoch - Donnerstag
Hoffe ist eine der Neuen Chargen.

Achill
2017-09-15, 22:18:19
Ich habe das letzte WE und die Woche etwas mit UV und meiner Vega64 LC getestet. Stabiel (8h Witcher3 in 4k ohne Treiber-Reset) sind bei mir folgende Einstellungen:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61206

Die 1000 mV bei MEM müsste nicht sein, default sind 950 mV, jedoch stabilisiert das mein Takt - zumindest was HwInfo so ausliest und ich sehe.

Damit läuft Time-Spy mit 1710-1746 Mhz und ~1.08 - 1.13 mV sauber durch mit ~310 W, konnte damit den Graphics Score auf 8.070 (https://www.3dmark.com/spy/2390521) bringen.

In Wichter sind es 1688 - 1732 Mhz bei max. 332W in 4k mit HDMod sowie einigen anderen Anpassungen.

Die Werte sind von HwInfo mit aktiven AMD ADL - wie akkurat diese sind, weiß ich natürlich nicht.

--
Gehe ich bei P6 auf 1125 mV oder bei P7 auf 1175 war Time-Spy nicht mehr stabil, im Loop gab es nach einiger Zeit ein Treiber-Reset.

--
Mit reduzierten Takt (1536) geht UV locker mit 1050 mV CPU und 1000 mV MEM was im TimeSpy-Lauf in ~1V und konstante 1536 Mhz Takt resultiert. Die Performance sinkt um ~9%, der Verbraucht aber um ~30%.

Mangel76
2017-09-16, 00:35:42
Habe mit meiner VEGA 56 auch ein bisschen rumprobiert. The Witcher 3 in Hoch/WQHD und Bios 1 an einer bestimmten Stelle:

Voreinstellung Balanced:
1275 MHz, 65 FPS, 295 Watt für das Gesamtsystem

Manuell mit 920/930 mV auf P6/7, PT+50%, HBM auf 900 mV/ 900 MHz:
1385 MHz, 73 FPS, 295 Watt Gesamtsystem

bei 910mV auf P7 ist sie mir dann irgendwann abgeschmiert

Das heißt, bei gleichem Verbrauch mal 12% mehr FPS. VEGA verhält sich irgendwie doch ganz anders als meine RX480. PT+50% heißt hier nicht, dass wirklich 50% mehr verbraucht werden! Die GPU weiß anscheinend, wie viel Power sie für welche Taktrate benötigt und gebe ich zu wenig Spannung vor, so taktet sie einfach nicht mehr so hoch. Das heißt, hier ist noch eine Menge zu testen um den besten Kompromiss aus Leistung, Verbrauch und damit Lautstärke zu finden.

Jake Dunn
2017-09-16, 05:42:57
Hab bei VEGA 56 hier P2-P5 undervoltet und ~7-8% (TimeSpy) mehr Fps wenn Powerlimit bei 0 bleibt.(Karte boostet um 1300-1400mhz).
P6-P7 kann man die Spannung selbst regeln (geht natürlich erst wenn man das Powerlimit erhöht, sonst geht die Karte nur bis P5)

Regkey hab ich angehangen, einfach ausführen und neu starten.


https://abload.de/thumb/eex2llz.jpg (http://abload.de/image.php?img=eex2llz.jpg)

nagus
2017-09-16, 10:14:56
Ich habe das letzte WE und die Woche etwas mit UV und meiner Vega64 LC getestet. Stabiel (8h Witcher3 in 4k ohne Treiber-Reset) sind bei mir folgende Einstellungen:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61206



mit exakt den einstellungen (nur mem auf 1100Mhz!) hab ich 8400 beim timespy mit meiner Vega 64 LC ... und 530 watt aus der steckdose. GEIL :))))

timespy (über 8400), valley (73 @ 2560x1600) und firestike ultra (6423 graphics score) laufen problemlos durch. danke Achill!

Nazar
2017-09-18, 00:08:03
WattMan ist ja mal wieder super ohne Ende... setzt man P6 und P7 bei der Taktfrequenz identisch, erhält man viel weniger Takt :uup:

Naja, ich habe mich mal ans UV meiner Vega 64 gemacht.

Timespy
Bios 1 - Balanced: 7536 (Graphics 7096)
Bios 1 - Power Save: 7076 (Graphics 6620)
950mV GPU und "HBM" + 25% PT: 7662 (Graphics 7228)

ComputeMark - MandelS Extreme - 5 Min Burn-In
Bios 1 - Balanced: 221 Watt (GPU-Z); ~1402MHz
Bios 1 - Power Save: 166 Watt (GPU-Z); ~1363MHz
950mV GPU und "HBM" + 25% PT: 172 Watt (GPU-Z); ~1487MHz

Mit UV kann man durchaus was herauskitzeln, aber spannend ist die Sache nicht.

Ich weiß nicht ob meine Beobachtung in die gleiche Kerbe schlägt aber bei mir funktioniert Wattman nur dann richtig (P6 + P7 gleich), wenn ich das Tool/Fenster geöffnet habe und dann das Spiel starte.
Zu 100% nachzuweisen in DCS.
Bei manchen Spielen (WoW) "scheint" selbst das nicht zu helfen.
Fakt ist, dass selbst das Anlegen von Profilen keine Besserung bringt.

Daredevil
2017-09-18, 01:35:22
Moin, ein Vega Nutzer hier mit einem Dual Monitor Setup mit unterschiedlichen HZ Zahlen? 144/xxx?

Kann derjenige mal testen, ob der UFO Test hier ( https://www.testufo.com/#test=framerates ) auf dem 144hz Monitor problemlos läuft, wenn auf dem zweiten Monitor Bewegung ( Youtube Video ) ist?

Problem ist momentan bei mir, dass ich mit meiner 980ti Mikroruckler ( Keine FPS Drops! ) bekomme, wenn auf dem zweiten Monitor Aktivität ist.

So wie hier: https://www.youtube.com/watch?time_continue=99&v=Rmaz4qAor_w

Danke, falls sich wer die Zeit nimmt! <3

Jake Dunn
2017-09-18, 06:16:15
Hab bei VEGA 56 hier P2-P5 undervoltet und ~7-8% (TimeSpy) mehr Fps wenn Powerlimit bei 0 bleibt.(Karte boostet um 1300-1400mhz).
P6-P7 kann man die Spannung selbst regeln (geht natürlich erst wenn man das Powerlimit erhöht, sonst geht die Karte nur bis P5)

Regkey hab ich angehangen, einfach ausführen und neu starten.


https://abload.de/thumb/eex2llz.jpg (http://abload.de/image.php?img=eex2llz.jpg)

Verbesserte Version

https://abload.de/thumb/zi8xk32.jpg (http://abload.de/image.php?img=zi8xk32.jpg)

HTB|Bladerunner
2017-09-18, 07:15:06
Guten Morgen Zusammen,
hat zufällig jemand seinen Monitor am HDMI-Ausgang angeschlossen? Sobald ich eine Vollbild-3D-Anwendung starte bleibt die GPU-Spannung bei 1,1V hängen. Das passiert zwar auch über Displayport, allerdings in "erträglicher" abgeschwächter Form bei 0,9V.

caddy77
2017-09-18, 13:43:51
Edit: es gibt wohl aktuell massive probleme mit dem treiber, wenn es um voltage controle geht und das betrifft alle treiber nach 17.7.1. ich zitiere den author des obigen toosl mal mal von hier: https://forum.ethereum.org/discussion/comment/83557/#Comment_83557


Das gleiche tritt bei Fiji (R9 Fury Nano) auf. Kein einziges Tool (MSI AB, Sapphire Trixx. WattMann, etc.) funktioniert mit neueren Treibern als 17.7.1, wenn man Undervolting oder RAM-OC betreiben will. :frown:

sun-man
2017-09-19, 19:13:42
Wer sich mal ansehen möchte wie jemand schaut der wegen nem Fehler ne Frontier gebraten hat der sollte sich mal das passende Buildzoidvideo anschauen. Der Arme :D

MrNice
2017-09-19, 23:48:21
Wieviel Grad erreicht ihr denn so unter Last am Hotspot, den man mit GPU-Z auslesen kann? Bei mir geht der trotz EKWB nach ner Stunde Doom auf ca. 70° wärend die anderen beiden Sensoren (HBM und GPU) auf max. 41° gehen.

Ist das bei euch ähnlich?

Achill
2017-09-20, 00:23:15
Wieviel Grad erreicht ihr denn so unter Last am Hotspot, den man mit GPU-Z auslesen kann? Bei mir geht der trotz EKWB nach ner Stunde Doom auf ca. 70° wärend die anderen beiden Sensoren (HBM und GPU) auf max. 41° gehen.

Ist das bei euch ähnlich?

Ich habe Testweise das Wasser auf 37° im Valley Benchmark Loop sich aufwärmen lassen indem ich die Lüfter deaktiviert habe. Es lief nur die Pumpe.

GPU Max: 49°C
HotSpot: 66°C
HBM2: 55°C

Normale Wassertemp ist bei mir mit meinen Einstellungen ~33-35°C ... HotSpot wird also so um die 59-62°C liegen mit PT+50.

Jasch
2017-09-20, 11:33:46
Das gleiche tritt bei Fiji (R9 Fury Nano) auf. Kein einziges Tool (MSI AB, Sapphire Trixx. WattMann, etc.) funktioniert mit neueren Treibern als 17.7.1, wenn man Undervolting oder RAM-OC betreiben will. :frown:

Hm also meine Furys lassen sich problemlos undervolten, mit dem neusten Treiber.
Nutze allerdings dafür den Wattman, ausser Ram oc gibts kein Grund nen externes Tool zu nutzen.

MrNice
2017-09-20, 14:05:52
Ich habe Testweise das Wasser auf 37° im Valley Benchmark Loop sich aufwärmen lassen indem ich die Lüfter deaktiviert habe. Es lief nur die Pumpe.

GPU Max: 49°C
HotSpot: 66°C
HBM2: 55°C

Normale Wassertemp ist bei mir mit meinen Einstellungen ~33-35°C ... HotSpot wird also so um die 59-62°C liegen mit PT+50.

Danke für die Info. Da passt bei mir etwas nicht. Ich habe nun den Valley Benchmark Loop einfach mal laufen lassen, und schon nach 15 Minuten habe ich dort am Hotspot mit Bios 1 Turbo bis zu 90°C. Ich habe mal diese Einstellung im Wattamnn gewählt, da man so eine bessere Vergleichbarkeit herstellen kann. Die Wassertemperatur steigt dabei nichtmal auf 30°C. Da passt wirklich noch etwas nicht.
Meine Temps nach 30 Minuten Valley Loop auf 1080p.

GPU Max: 62°C
HotSpot: 90°C
HBM2: 60°C

Mit folgenden Einstellungen sinkt die Temperatur deutlich ab:
PT@50%
P6/P7@1050mV; Takt auf dynamisch und bleibt relativ konstant bei ~1570MHz
HBM2@1050MHz@1050mV

Die Temps mit diesen Einstellungen:

GPU Max: 52°C
HotSpot: 75°C
HBM2: 52°C

Was hast du für einen Radiator verbaut? Ich habe einen 420er für das ganze System.

Wie ist diese hohe Differenz zwischen GPU und Hotspot zu erklären, bzw. sollte ich mir da Gedanken darüber machen? Die Karte läuft soweit auch stabil ohne große Probleme oder Abstürze.

Mit den oben genannten Settings habe ich im TimeSpy 7494 GPU Punkte.

Rsioux
2017-09-20, 15:25:15
Wenn die Systemangaben von Achill stimmen, dann hat er 1 x 420 und 1x 280 verbaut.

Hast du mal geprüft ob der Kühler richtig sitzt? Eventuell auch die Wärmeleitpaste nicht richtig verteilt?

@Achill:

Kannst du abschätzen, wie deine Wassertemperatur bei nur einem 420´er Radi wären?
Ich stehe kurz vor dem Kauf einer Vega-Wasser und müsste für einen zusätzlichen 140´er Radi nicht mein Case umbauen ;).

Achill
2017-09-20, 17:24:00
Danke für die Info. Da passt bei mir etwas nicht. Ich habe nun den Valley Benchmark Loop einfach mal laufen lassen, und schon nach 15 Minuten habe ich dort am Hotspot mit Bios 1 Turbo bis zu 90°C. Ich habe mal diese Einstellung im Wattamnn gewählt, da man so eine bessere Vergleichbarkeit herstellen kann. Die Wassertemperatur steigt dabei nichtmal auf 30°C. Da passt wirklich noch etwas nicht.
Meine Temps nach 30 Minuten Valley Loop auf 1080p.

GPU Max: 62°C
HotSpot: 90°C
HBM2: 60°C

Mit folgenden Einstellungen sinkt die Temperatur deutlich ab:
PT@50%
P6/P7@1050mV; Takt auf dynamisch und bleibt relativ konstant bei ~1570MHz
HBM2@1050MHz@1050mV

Die Temps mit diesen Einstellungen:

GPU Max: 52°C
HotSpot: 75°C
HBM2: 52°C

Was hast du für einen Radiator verbaut? Ich habe einen 420er für das ganze System.

Wie ist diese hohe Differenz zwischen GPU und Hotspot zu erklären, bzw. sollte ich mir da Gedanken darüber machen? Die Karte läuft soweit auch stabil ohne große Probleme oder Abstürze.

Mit den oben genannten Settings habe ich im TimeSpy 7494 GPU Punkte.

Hmm, was ich evtl. anders gemacht habe:
1. Ich habe keine Backplate drauf - da diese über keine Wärmepads verfügt und ich auch keine hier hatte für geschätzte 2mm Höhe, ist diese verschraubt ein Isolator - bzw. korrekt die Luft zwischen der Karte und der Backplate fungiert als Isolator da diese nicht zirkulieren kann.
2. Ich habe eigene Wärmeleitpads verwendet, damit musste ich nicht so Haus halten beim Zuschnitt der Pads für die VRMs

Weiß den jemand was der Hot-Spot ist? Also etwas auf der Rückseite, die VRMs oder etwas in der GPU?

--

Wenn die Systemangaben von Achill stimmen, dann hat er 1 x 420 und 1x 280 verbaut.

Hast du mal geprüft ob der Kühler richtig sitzt? Eventuell auch die Wärmeleitpaste nicht richtig verteilt?

@Achill:

Kannst du abschätzen, wie deine Wassertemperatur bei nur einem 420´er Radi wären?
Ich stehe kurz vor dem Kauf einer Vega-Wasser und müsste für einen zusätzlichen 140´er Radi nicht mein Case umbauen ;).

Ich habe ja nur Radis mit je 30mm Höhe, wenn du jetzt ein Radi mit 45mm hast, dann entspricht dies fast meiner Kühlfläche. Mit 60mm oder gar den Monsta mit 86mm ist es dann mehr Kühlfläche als bei mir.

Ansonsten zieht mein 6850k@4.4Ghz nicht gerade wenig Strom, kommt also auch nochmal auf deine CPU an.

... und ganz allgemein wie "laut" die Lüfter der Radiatoren werden dürfen.

Rsioux
2017-09-21, 13:02:59
Ich habe ja nur Radis mit je 30mm Höhe, wenn du jetzt ein Radi mit 45mm hast, dann entspricht dies fast meiner Kühlfläche. Mit 60mm oder gar den Monsta mit 86mm ist es dann mehr Kühlfläche als bei mir.

Ansonsten zieht mein 6850k@4.4Ghz nicht gerade wenig Strom, kommt also auch nochmal auf deine CPU an.

... und ganz allgemein wie "laut" die Lüfter der Radiatoren werden dürfen.

Danke für die Infos.

Ich habe momentan einen 280 mit einer 40mm drin. Hinten könnte ein 120 oder 140´er mit 60mm reinpassen, da muss ich aber nochmal genau nachmessen, ob da nicht doch der CPU Kühler im Weg ist.

Als CPU hab ich "nur" einen I7-6700 verbaut. Der ist gegen deinen Boliden ja richtig sparsam. Könnte mit der Radiatorfläche also ausreichen ;) Naja, mal schauen, was ich mache wenn die Karte nächsten Monat bestellt wird.

MadCat
2017-09-21, 17:29:26
Hi,

habe meine XFX Vega 64 air jetzt auch bekommen und betreibe sie ohne irgendwelche Anpassungen.

Über GPU-Z erziele ich folgende Temperaturen in der Spitze:

Zocken von 7dtd in 4K mit allem an außer SSAO und DoF:


GPU Temperature [°C] 82°
GPU Temperature (Hot Spot) [°C] 96°
HBM Temperature [°C] 85°

Hat mich schon ein wenig erschreckt mit den fast 100°.

Fan Speed war max 40% bei 2429U/min. Leistungsaufnahme "GPU only" lag bei 224W...

Mal sehen, wie das mit der absenken der Spannung klappt.
Wie kann ich das PowerTarget anpassen? Hätte den WattMan und ggf. auch den Afterburner.

Loeschzwerg
2017-09-21, 18:03:43
Im WattMan ganz unten, der Slider mit % unter Temperatur.

Die Karte versucht per default die ~2400 RPM zu halten und drosselt entsprechend.

bnoob
2017-09-22, 11:13:53
Bei Vollast geht meine 64 Black mit +50% PT und etwas UV ganz gerne auf 2800 RPM (ich habe bis 3500 freigeschaltet), das ist dann halt... laut, aber drosselt wenigstens nicht.

Nazar
2017-09-22, 18:13:49
Wieviel Grad erreicht ihr denn so unter Last am Hotspot, den man mit GPU-Z auslesen kann? Bei mir geht der trotz EKWB nach ner Stunde Doom auf ca. 70° wärend die anderen beiden Sensoren (HBM und GPU) auf max. 41° gehen.

Ist das bei euch ähnlich?

VEGA 64 @EK WaKü

42° GPU
58° HS
44° HBM
241 Watt für die GPU (die 241 Watt scheinen mir aber arg wenig, wenn ich die Berichte sonst hier so höre).

Getestet 3 STD mit DCS im Pausemodus (kein Scherz). Hierbei läuft die GPU (je nachdem wo man die Pause ansetzt) ständig mit 99% Auslastung, das gleiche gilt für den Speicher.
Speicher lief ständig mit 1000 MHz @1050 mv
GPU lief permanent mit 1699 MHz @ 1080 mv

Alle Werte von GPU-Z ausgegeben.

Edit: wenn das Spiel aktiv ist sinken die Werte auf:
38° GPU
56° HS
41° HBM

Gast
2017-09-22, 23:08:44
Edit: wenn das Spiel aktiv ist sinken die Werte auf:
38° GPU
56° HS
41° HBM
Hatte ich mit einem 4C/8T auch, 8 physische Kerne (8C/16T) lasten die Karte deutlicher aus. Ansonsten kann ich deine Werte bestätigen, meine boostet kurzweilig auch über 1,7GHz mit dem @EK.

Ist auch kein stromfressendes Monster wenn man selbst Hand anlegt, wie schon Fiji.:)

Anscheinend profitiert die Bluray Videowiedergabe auf einen Freesync von Fresync2, denn die Farben sind deutlich satter und es hat etwas mehr Schärfe im Bild, hat es den Anschein.

Während Fiji bei dieser Wiedergabe in 4K völlig ausflippt, lässt das Vega völlig kalt. Der Ryzen plus Vega64 dödeln gemeinsam mit 75 Watts Systemgesamtverbrauch umher und da gehört die Wakü und das andere Drumherum ja auch noch dazu. Schon das war mir der Spaß wert!

RoughNeck
2017-09-23, 18:37:11
Habe vergangene Woche versucht die 1080 TI auf Vega 64 LC @ 1750 / 1100 Niveau zu bringen. Sprich MHZ senken solange die Performance gleich ist.

1080 TI Taktraten / 1440p / max Details

Forza Horizion 3 = 1745 MHZ
Witcher 3 = 1670 MHZ
Rise of the Tomb Raider = 1733 MHZ
GTA V = 1645 MHZ (da ist die TI aber immer noch 10 FPS vorn, nur unter 1645 MHZ übernimmt meine Strix Karte nix mehr)
BF1 = 1745 MHZ
Mass Effect Andromeda = 1845 MHZ

Ph03n!X
2017-09-23, 19:54:16
Hat jemand von euch für das Watt Tool gute UV Einstwllubgen für die Vega 64 Air?

vinacis_vivids
2017-09-26, 21:15:58
Hat jemand von euch für das Watt Tool gute UV Einstwllubgen für die Vega 64 Air?

probier mal das:
GPU-volt:925/1025mv
GPU-Takt: 1537/1602Mhz
HBM-volt:975mv
HBM-Takt:1000-1050Mhz
PL:+50%
Lüfter: max. 3000rpm

Gast
2017-09-26, 21:36:14
probier mal das:
GPU-volt:925/1025mv
GPU-Takt: 1537/1602Mhz
HBM-volt:975mv
HBM-Takt:1000-1050Mhz
PL:+50%
Lüfter: max. 3000rpm
Das macht keinen Sinn, der Treiber nimmt manuelle Voltagen unter 1050mV doch gar nicht an (v17.9.2).

Lass die Voltage auf Auto und setze manuelle 1412MHz und 1452MHz bei -15 PT (Leistungsgrenze).

Dann liegt die GPU Leistungsaufnahme in Spielen bei um 150W und bleibt schön kühl. Meine Karte schafft die 1378-1404 zu halten, bei bis zu 1025mV (je nach Last).

Danach passt du deine Lüfterkurve nach TT an und gut. Die Karte kann locker 75-80°C vertragen.

Gast
2017-09-26, 21:52:04
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11502555&postcount=2939

Um Gottes willen bitte NICHT den PETER 2 mit der Runden Auflagefläche montieren, dass zerstört die Vega-GPU.

Seit ihr irre Horn so einen Mist zu empfehlen!

Bitte Mod stellt das ein, der Peter 2 eigent sich nur für Designs mit Headspreader!

Die runde GPU Auflagefläche ist leicht gewölbt! Von der Mitte nach aussen hin und das macht einmal knack und das wars! 650 Euro für die Katz.

Gast
2017-10-01, 18:52:52
Servus,

Ich würde gerne meine Nano gegen eine Vega 64 durchtauschen.

Da mein Gehäuse mit WAKÜ recht kompakt gehalten ist, könnte jemand hier
mit einem Vega 64 Referenzdesign für mich einmal die Kartenlänge messen?

Vielen Dank schon mal im voraus.

Rsioux
2017-10-02, 09:16:01
Habe vor dem Wochende noch meine VEGA erhalten und eingebaut. Aus zeitlichen Gründen, bekam ich das System gerade so weit entlüftet, um zu schaunen ob alles funktioniert und für ca ein halbe Stunde FFXIV (WQHD @ max Details) gespielt. Die Lüfter der Radiatoren auf 500 rpm und 750 rpm festgetacktert (selbst im offenen Gehäuse kaum hörbar, da gurgelte die Pumpe lauter).Im geschlossenen Gehäuse muss ich die Hand vor den Öffnungen halten um zu prüfen, ob die Lüfter überhaupt laufen. Nach eine halbe Stunde lag die Wassertemperatur zwischen 31-32 Grad Grad.

Mehr konnte und wollte ich auch nicht testen, da mein neues Netzteil noch nicht da ist. Mein Netzteil ist mit seinen 630Watt ziemlich ausgelastet. Wunderte mich zuerst, wo auf einmal das laute Lüftergeräusch herkam :biggrin:

Womit lest Ihr die Werte der GPU aus? Nur mit GPU-Z und Treiber?

Servus,

Ich würde gerne meine Nano gegen eine Vega 64 durchtauschen.

Da mein Gehäuse mit WAKÜ recht kompakt gehalten ist, könnte jemand hier
mit einem Vega 64 Referenzdesign für mich einmal die Kartenlänge messen?

Die Karte ist mit Wasserblock von Aquacomputer 28cm lang +/- 2 mm. Kann genau nachmessen, wenn ich wieder zu hause bin. Mit dem Blck von EWK sollte es nicht anders sein, da beide Kühler nicht über das Board hinausragen.

Grüße

Gast
2017-10-02, 10:20:59
Die Karte ist mit Wasserblock von Aquacomputer 28cm lang +/- 2 mm. Kann genau nachmessen, wenn ich wieder zu hause bin. Mit dem Blck von EWK sollte es nicht anders sein, da beide Kühler nicht über das Board hinausragen.

Grüße

Ich werde hier den Block von Aqua-Computer verwenden, der sollte

eigentlich plan abschließen.

Super, Vielen Dank für die Info!

Achill
2017-10-02, 11:18:55
[..]
Womit lest Ihr die Werte der GPU aus? Nur mit GPU-Z und Treiber?
[..]

HwInfo, neuste Version: https://www.hwinfo.com

Tamagothi
2017-10-02, 18:53:53
VEGA 64 @EK WaKü

42° GPU
58° HS
44° HBM
241 Watt für die GPU

Speicher lief ständig mit 1000 MHz @1050 mv
GPU lief permanent mit 1699 MHz @ 1080 mv



Auch VEGA 64 @EK Water Blocks

41° GPU
52° HS
51° HBM
200 Watt für die GPU

Speicher lief mit 1100 MHz @1050 mv
GPU lief mit 1600 MHz @ 1040 mv

Was vielleicht niemand macht! Ich habe das Kreuz vom Referenzkühler mit verbaut damit sich gegendruck aufbaut.

Edit: Mein Wasser liegt zwischen 35-37° da erst ab 37° die Lüfter angeben ^^ -> 2x MoRa

bnoob
2017-10-02, 20:43:19
Das Refkühlerkreuz mit einzubauen ist eigentlich Foren-Best-Practice für den EK @ Vega

Gast
2017-10-04, 10:08:50
Das Refkühlerkreuz mit einzubauen ist eigentlich Foren-Best-Practice für den EK @ Vega
habs genauso gemacht. macht einen deutlich stabileren eindruck.

X-Bow
2017-10-07, 18:03:38
Hey ich habe gerade feststellen müssen dass es bei mir zu Performanceproblemen kommt in Adobe Lightroom wenn ich HBCC an hab.

Vega64
Treiber 17.9.3
R7 1700X
32GB Ram
HBCC war auf kleinst möglichem.

Kann das jemand Bestätigen oder ist es nur bei mir so? :-)

Simon
2017-10-07, 18:22:07
Hab kein Lightroom.

AMD-Gast
2017-10-08, 00:03:41
Hey ich habe gerade feststellen müssen dass es bei mir zu Performanceproblemen kommt in Adobe Lightroom wenn ich HBCC an hab.

Vega64
Treiber 17.9.3
R7 1700X
32GB Ram
HBCC war auf kleinst möglichem.

Kann das jemand Bestätigen oder ist es nur bei mir so? :-)
Adobe empfiehlt Karten der R9 Serie, HBCC daher 'off' lassen. Die Marke und das Modell lassen sich über die System Info (Hilfe=>Systeminformationen) ermitteln.:)

Du kannst auch das Häkchen bei Grafikprozessor verwenden raus nehmen, wenn es zu Instabilitäten kommt, um zu prüfen ob es an AMD liegt. Da Abobe aber die R9 Serie empfiehlt, erklärt sich die Verwendung von HBCC 'ja oder nein' von selbst. Denke das Feature wird nicht unterstützt. Genau deshalb hat AMD aus Kompatibilitätsgründen im Treiber eingebaut, HBCC deaktivieren zu können.

Cherubim
2017-10-10, 09:41:45
Die Temperaturen unter Wasser sind erstaunlich niedrig.
Habe jetzt meinen EKWB montiert (V-56, GPU nicht vergossen) und bin erfreut über die niedrigen Temperaturen.

In der Regel geht die Karte nicht über 40° (GPU und HBM), Hotspot meist so bei 50/51°C.

Interessanterweise ist der Benchmark Heaven der limiterende Faktor beim OC. Superposition läuft zb noch auf 1700MHz(real)@1100mV komplett durch.

Meine Einstellungen gerade:
GPU-volt: 980/1050mv
GPU-Takt: 1537/1652Mhz
HBM-volt: default
HBM-Takt: 935Mhz
PL:+50%
----------------------
GPU Power dann so @200-215W

Was mich irritiert:
Meine Vega taktet fast immer -50MHz vom Eingestellten Wert.
Daher muss ich für 1600MHz 1652 einstellen. Für 1700 dann 1752. In den meisten Spielen und Tests macht sie dann -50MHz. Aber nicht in allen. Das sind dann die, die crashen.

Loeschzwerg
2017-10-10, 10:08:39
Wie sieht es eigentlich mit den FE Nutzern aus, gibt es da auch mal neue Treiber für die FE oder funktionieren sogar die normalen Crimson?

gedi
2017-10-12, 22:35:22
Eine Frage: Wie bekommt man im Wattman alle Pstates frei zum editieren?

bnoob
2017-10-13, 17:17:00
Gar nicht.

gedi
2017-10-13, 17:36:41
Gar nicht.

Meh :( Bleibt also nur der Weg über das Watttool?

BTW. kann es sein, dass der Wattman mit dem neuesten Crimson die Vcore-Settings ignoriert? Egal was ich bei den PStates verändere, es stehen immer 1.05V an (laut Anzeige vom AB).

Achill
2017-10-13, 18:12:02
Das Watttool funktioniert hier mit der Vega64 LC auch nur für die letzten zwei Power-States ...

Screemer
2017-10-13, 18:36:13
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/

Und es gibt noch ein anderes neues Tool. Werd ich mal raus suchen wenn ich am Rechner sitze.

Achill
2017-10-13, 18:55:26
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/

Und es gibt noch ein anderes neues Tool. Werd ich mal raus suchen wenn ich am Rechner sitze.

Danke für das neue Tool, kannte ich noch nicht. Leider werden auch hier nur die letzten zwei States übernommen. Anpassungen an den anderen States werden bei Übernahme zurück gesetzt.

Finde dies jetzt aber auch kein Beinbruch, da die letzten zwei States eh die für mich wichtigen sind.

Screemer
2017-10-13, 20:00:10
hier ist das andere:

http://elsonsmith.com/amd-gpu-tool/

https://forum.ethereum.org/discussion/13559/is-there-interest-for-an-updated-watttool/p3

interessant ist, dass zumindest bis zum 2.10. wohl seit 17.7.2 ein bug existiert der dazu führt, dass sich die spannungen nicht wirklich anpassen lassen. deshalb gibts für dieses tool auch keine updates bis das gefixt ist und es wird max. 17.7.1 supportet. näheres im oben verlinkten thread.

Rsioux
2017-10-15, 13:58:24
Hatte die letzte Tage mal Zeit ein bisschen zu testen:

aktuelle Einstellungen im Treiber:

Takt auf Auto, Speicher: 1.030, PT +50%

In Timespy Graficscore von +/- 7690 Punkte,

maximale Temps nach mehrer Durchläufen / Stresstest laut HWinfo:

1629 Mhz Takt bei 313 Watt
42 ° GPU
63 ° GPU-HS
46 ° HBM

bei einer Wassertemperatur von 32 Grad.

Was ich mir noch angeschaut habe ist Dishonored 2 und Deux Ex MD. Bei beiden Spielen ist das Spielgefühl viel angenehmer als mit der alten 480 (trotz höherer Details).

Leider muss ich bei mir die Lüfter auf 700 und 750 rpm laufen lassen, da meine Radiatoren nicht ausreichen um das Wasser auf die gewünschte Temperatur von <35 Grad zu halten. Da ist meine Radiatorenfläche noch zu klein. Der 240 wird aber noch gegen einen 360 ausgetauscht. Mal schauen was dann ist.

Grüße

bnoob
2017-10-16, 13:03:58
Undervolting für Vega 64 mit 17.9.3:

Der Fullscreen-Bug besteht immer noch, allerdings kann man das Verhalten wieder normalisieren indem man eine DirectX-Anwendung im Fenstermodus startet und beendet.

Immerhin muss ich damit nicht mehr ständig das System neu starten, wenn ich wieder ETH minen will (ETH-Setup: 900/1100MHz Core/Mem, 0.875V Core/Mem, 37.5-38 MH/s @ 2600RPM)

4K an DP 1.3 statt HDMI 2.0 zu betreiben sorgt weiterhin für besseres Takt- und Spannungsverhalten, selbst per passivem Club3D-Adapter. Ich verstehe einfach nicht, wie man solche Grundlagen so versauen kann.

deekey777
2017-10-16, 18:47:18
DP soll weniger Spannung benötigen, https://www.heise.de/newsticker/meldung/Hot-Chips-Details-zum-Scorpio-Prozessor-der-Xbox-One-X-3809062.html


Obwohl die Xbox One X sowohl einen HDMI-Eingang als auch einen HDMI-Ausgang hat, sind die zugehörigen Ports am Scorpio-Chip im DisplayPort-Format ausgeführt. Wie John Sell im Gespräch mitteilte, liegt das nicht nur daran, dass die Spezifikation von DisplayPort 1.2a älter als HDMI 2.0b ist: HDMI benötigt höhere Spannungen, die man vom teuren Haupt-Chip fernhält und stattdessen lieber einem einfacher gestrickten Zusatz-Controller überlässt.


Das könnte die Erklärung sein.

Mangel76
2017-10-18, 11:39:26
Habe gestern Abend meine V56 auf Wasserkühlung umgebaut. Ist meine erste WK und hat ne Weile gedauert. Aber erste Tests liefen gut, GPU bleibt kühl, die Spannung noch etwas niedriger als vorher und damit taktet sie auch etwas höher. Zumindest bleibt es jetzt auch in fordernden Spielen ohne FPS-Limiter schön ruhig :biggrin:

Ich denke, damit kann ich dann wieder ne Weile gut leben :D Werde heute Abend mal einen längeren Gaming-Test machen.

Simon
2017-10-18, 13:38:04
Habe gestern Abend meine V56 auf Wasserkühlung umgebaut. Ist meine erste WK und hat ne Weile gedauert. Aber erste Tests liefen gut, GPU bleibt kühl, die Spannung noch etwas niedriger als vorher und damit taktet sie auch etwas höher. Zumindest bleibt es jetzt auch in fordernden Spielen ohne FPS-Limiter schön ruhig :biggrin:

Ich denke, damit kann ich dann wieder ne Weile gut leben :D Werde heute Abend mal einen längeren Gaming-Test machen.
Welchen Kühler hast du verbaut?

Mangel76
2017-10-18, 15:16:00
Welchen Kühler hast du verbaut?

Den NexXxos GPX. Hatte zuvor schon günstig eine Eisbaer 280 für den Ryzen 1600X und einen zusätzlichen 120/45er NexXxos XT ergattert. Viel mehr geht in mein Define R5 PCGH-Edition nicht rein.

dargo
2017-10-20, 17:50:36
Morgen erwarte ich die RX Vega64 Liquid. =)

Irgendwelche Tipps, Vorschläge worauf ich achten muss? Treibervorschlag?

BeetleatWar1977
2017-10-20, 18:30:38
Morgen erwarte ich die RX Vega64 Liquid. =)

Irgendwelche Tipps, Vorschläge worauf ich achten muss? Treibervorschlag?
17.10.1 würd ich sagen, ermittel deine Lüfterkurve bevor(!) du das übertakten/Undervolten anfängst. Speichertakt erst anheben wenn alles andere stabil ist. Im Notfall hau mich über Steam/skype/TS/PN an - je nachdem welche Kontaktdaten du noch hast:D

dargo
2017-10-20, 18:52:35
Übertaktet wird nicht, beim Speicher auch nicht. Höchstens später Undervolting was wiederum automatisch in mehr Takt resultiert. Es sei denn UV bei Vega verhält sich komplett anders als bei Grenada. Dann muss ich hier weiter nachhaken. :tongue:

Screemer
2017-10-20, 19:40:26
Undervolting bedeutet im Fall von VEGA in der Regel mehr Speed.

gedi
2017-10-20, 20:01:21
Also für ein stabiles Original-Setting (1.63G/0.945G) bei der Vega Air braucht es genau 1.0V was dann in 210-240W endet, wobei PUBG eh heizt wie sonst nix. Der tatsächliche Takt liegt bei ~1.58G. Die Firestrike-Grafik Score liegt bei 23.6k (nur zum Vergleich) ohne HBCC. Die 0.05V was man im Vergleich zu Pre-AB_Beta20 einspart beträgt in etwa 30-50W, je nach Anwendung/Spiel.

bnoob
2017-10-20, 21:15:03
Es sei denn UV bei Vega verhält sich komplett anders als bei Grenada. Dann muss ich hier weiter nachhaken. :tongue:
Tut es.

Noebbie
2017-10-20, 22:18:38
Ich las hier im Forum und nun auch in einigen Reviews, dass die Vega Liquid ekelhaft fiepen soll. Im Video von Raff hört man davon gar nichts. Ich glaube da ja lieb und gerne eher Raff, aber hatte er da vllt eher nur Glück mit dem Modell?

Bevor man dort >=600€ investiert, würde ich mal vorher einige Meinungen hören.

Zur Zeit nutze ich eine Fury Nitro und die höre ich nur fiepen wenn in den vermurksten Game-Menüs die Framerate wieder in den 4-stelligen Bereich schnellt.

Nochwas: Egal welchen Hersteller ich beim Kauf einer Vega zur Zeit wähle - Liquids sind alle gleich, oder?

Rsioux
2017-10-21, 16:30:14
Übertaktet wird nicht, beim Speicher auch nicht. Höchstens später Undervolting was wiederum automatisch in mehr Takt resultiert. Es sei denn UV bei Vega verhält sich komplett anders als bei Grenada. Dann muss ich hier weiter nachhaken. :tongue:

Das UV bei VEGA funktioniert nicht mehr so, wie bei den alten Karten. Lies mal den Artikel von Igor auf Toms Hardware Link: http://www.tomshardware.de/vega-undervolting-temperaturen-leistungsaufnahme-messungen,testberichte-242393.html

Sobald ich die Spannung der Karte manuell anpasse, geht der Maximal-Takt mit runter. Im Timespy verliere ich teilweise 10 % (statt 7600 auf 6900 Punkte gesunken).

Ich las hier im Forum und nun auch in einigen Reviews, dass die Vega Liquid ekelhaft fiepen soll.
.
.
Nochwas: Egal welchen Hersteller ich beim Kauf einer Vega zur Zeit wähle - Liquids sind alle gleich, oder?

Die Karten sind alle gleich, da Referenzmodelle. Meine Karte hat Spulenfiepen, nicht nur in den Game-Menus. Hatte das auch schon ingame. Im geschlossenen Gehäuse höre ich das aber nicht (auch wenn der Sound aus ist.)

dargo
2017-10-21, 23:37:05
Das UV bei VEGA funktioniert nicht mehr so, wie bei den alten Karten. Lies mal den Artikel von Igor auf Toms Hardware Link: http://www.tomshardware.de/vega-undervolting-temperaturen-leistungsaufnahme-messungen,testberichte-242393.html

Sobald ich die Spannung der Karte manuell anpasse, geht der Maximal-Takt mit runter. Im Timespy verliere ich teilweise 10 % (statt 7600 auf 6900 Punkte gesunken).

Den Artikel lese ich mir noch durch. Das Verhalten bei dir im Timespy kann ich mit Witcher 3 nicht bestätigen. Das probiere ich gerade hier aus.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11527850#post11527850

Bei mir steigt durch UV mit dem AB durchaus die Taktrate. Also im Prinzip das selbe wie bei Grenada.

gedi
2017-10-22, 03:01:52
Den Artikel lese ich mir noch durch. Das Verhalten bei dir im Timespy kann ich mit Witcher 3 nicht bestätigen. Das probiere ich gerade hier aus.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11527850#post11527850

Bei mir steigt durch UV mit dem AB durchaus die Taktrate. Also im Prinzip das selbe wie bei Grenada.

THG hat nicht gespannt wie Vega tickt. Denen ist der Bench gecrasht. THG hat allerdings vergessen die Kiste neu zu starten und anschließend den Wattman zu resetten. Vega fährt ohne die Schritte kein P7!

dargo
2017-10-22, 08:30:43
Könntest du mir bitte nochmal genau erklären wie man Vega richtig undervoltet? Ich kann mit dem Afterburner zwar undervolten. Hier gefällt mir aber nicht, dass alle P-States um den Wert X gesenkt werden. Und irgendwie kommt mir der Zugewinn an Takt bei -150mV (220W Asicpower Ausgangsbasis) zu niedrig vor.

Rsioux
2017-10-23, 23:21:29
Ich habe meine Ergebnisse beim UV nochmal getestet und bei mir sinkt die Leistung der Karte beim UV.

Treiber auf Standard zurückgesetzt, 7040 Punkte im Timespy

Meine eingestellten Werte: GPU auf Standard, Ram 1050 Mhz, PT +50 %
Dann habe ich einen GPU-Takt von 162x Mhz = Timespy rund 7620 Punkte

Sobald ich die Spannung der GPU über den Wattman absenke, sinkt der Takt:
- bei -50 mV auf P6/P7 lag der Takt bei 1590 Mhz
- bei -100 mV lag der Takt bei 1550 Mhz.
Dementsprechend auch weniger Punkte in Timespy.

Aber auch der Verbrauch ist gesunken. Bei meinen Standardeinstellungen gibt HW-Info mir zwischen 185 -220 Watt (GPU-Power) an. Den ersten von mir geposteten Verbrauch von 311 Watt für die GPU kann ich hier nicht mehr nachstellen.

Bei -50 mV waren es unter Timespy 170 Watt und bei -100mV 153 Watt.

Und ja, bei jeder Änderung neu gestartet u.s.w.

Mit freundlichen Grüßen

dargo
2017-11-19, 20:14:02
Mal eine Frage an die Vega User.

Schafft hier einer mit Relive ein absolut flüssiges Video in Forza Horizon 3 oder Forza Motorsport 7 mit 60fps aufzunehmen? Ich habe immer so ein gelegentliches Stuttering in den Videos wo Ingame alles sauber ist. Entweder ist das ein Bug von Relive in Verbindung mit Vega oder vom letzten Windows Update. Mit meiner damaligen R9 390 konnte ich jedenfalls ein sauberer 60fps Video aufnehmen wenn mich meine Erinnerung nicht täuscht.

Edit:
Noch was... bei mir wird der Sound zu leise mit ReLive und Vega aufgenommen. Kann das jemand bestätigen? Lautstärke-Boost steht schon im Treiber auf "hoch".

dargo
2017-11-25, 10:42:48
:wave2:

Wo sind die ganzen Vega User?

Mittlerweile habe ich rausgefunden, dass es nicht an UWP bzw. FM7 oder FH3 liegt. Auch in Witcher 3 bekomme ich mit ReLive keine flüssigen Videos mit Vega hin. An der Hardware kann es nicht liegen denn Fraps liefert weiterhin exzellente Ergebnisse. Alle Videos absolut flüssig. Leider unterstützt Fraps DX12/Vulkan nicht.

PS: OBS das gleiche, keine flüssigen Videos möglich. Egal ob Software oder Hardware Encoder. Es ist irgendwie frustrierend, dass niemand die exzellente Codec Qualität von Fraps erreicht. (no) Leider ist eine Aufnahme mit Fraps nicht ganz billig.

Zergra
2017-11-25, 11:18:13
Noch 1-2 Wochen, dann habe ich meine wieder :)

Achill
2017-11-25, 13:26:52
Das sind die zwei Videos die ich in letzter Zeit mal gemacht habe - habe leider aktuell kaum Zeit um etwas rum zu testen ... :(

Beide Videos sind zwar 30fps - aber DH2 mit VSync Off & FSync On und das andere mit VSync Off & FSync Off und RTSS Limiter bei 60fps (sehr sicher, weil mit anderen Einstellungen das Video leicht stockte, wie als ob Frames fehlten).

LACJm_gAvbU

R_CyBqHB7g4

@Dargo, mit welcher FSync Range lässt du aktuell deinen Monitor laufen? Was ist dein Frame-Limiter (Treiber oder RTSS) und Limit 60fps? für die Spiele.

Mein Tipp wäre, dass FSync bzw. keine kontinuierlich saubere Frame-Ausgabe immer mal zu "Lücken" im Video führt (reine Spekulation), weil das Zeitintervall von <60fps oder >60fps immer ungleich den benötigten 16.666.. ms ist bei einen Video mit 60fps.
- Bei >60fps wird irgendwann immer in den 16.6..ms Fenster zwei Frames liegen und da aber nur eine Frame für das Video verwendet werden kann, ein Bild fehlen und damit eine Lücke entstehen.
- Bei <60fps ist es ähnlich, nur umgekehrt. Irgendwann wird man im 16.6..ms Fenster kein neues Frame haben und muss das alte Wiederholen. im nachten 16.6..ms Intervall hat man dann zwei Frames und wieder kann nur eines in das Video aufgenommen werden.
- Nur bei konstanten 30fps (es wird jedes Bild zwei mal in Video eingefügt) oder mit 120fps (es wird nur jedes zweite Bild für das Video verwendet) sollte das Video wie sauber sein.

---
Edit: Es gibt anscheinend die Lösung: VFR für Videos (https://en.wikipedia.org/wiki/Variable_frame_rate) - ich tippe jetzt einfach mal darauf, dass dies (bisher) nicht von ReLive unterstützt wird.

--
Edit2: Ich habe eine ältere Aufnahme von der FM7 Demo (mit 60fps) noch bei mir gefunden. Habe dort auch mit RTSS ein festes Limit von 60fps eingestellt gehabt - weiß nur nicht ob mit oder ohne FSync. Upload läuft ...

dargo
2017-11-25, 14:20:33
@Dargo, mit welcher FSync Range lässt du aktuell deinen Monitor laufen?

35-90Hz.


Was ist dein Frame-Limiter (Treiber oder RTSS) und Limit 60fps? für die Spiele.

Wenn ich ein Video aufnehmen will steht der Screen immer auf 60Hz und es wird Vsync On genutzt so, dass die Frames stets bei 60fps kleben.


Edit: Es gibt anscheinend die Lösung: VFR für Videos (https://en.wikipedia.org/wiki/Variable_frame_rate) - ich tippe jetzt einfach mal darauf, dass dies (bisher) nicht von ReLive unterstützt wird.

Doch... Relive nimmt schon immer mit variablen Framerate auf, genauso wie Shadowplay.

Achill
2017-11-25, 15:45:43
Edit2: Ich habe eine ältere Aufnahme von der FM7 Demo (mit 60fps) noch bei mir gefunden. Habe dort auch mit RTSS ein festes Limit von 60fps eingestellt gehabt - weiß nur nicht ob mit oder ohne FSync. Upload läuft ...

DeH_y5PHBRc

... wird aber noch etwas dauern bis dies von YT verarbeitet ist.

--
Ansonsten habe ich jetzt doch mal getestet ... Das beste Ergebnis hatte ich mit FreeSync: On & VSync: OFF & RTSS-Limiter auf 60fps

Habe einfach mal "The Vanishing of Ethan Carter Redux" verwendet. Die ersten drei Videos sind gemacht mit <60fps und verschiedenen Settings. VSync scheint aber Tri-Buffer VSync zu sein - das Vorweg.

VuxCBQhNw7I

8iiLN6irJHo

Yh-iFq8tvXQ


Dann habe ich Scalling auf 100% reduziert um > 120fps zu haben:

NI7Hs8ywW9Q

XZdP8pYYOwU


Im Ergebnis gefällt mit FSync ON, VSync Off und RTSS mit 60fps für ein Video mit 60fps am besten:

2z45JOBSaLc

dargo
2017-11-25, 16:24:07
http://youtu.be/DeH_y5PHBRc

... wird aber noch etwas dauern bis dies von YT verarbeitet ist.

Boah... bei den Wetterbedingungen und dem ständigen wackeln der Kamera weiß ich gar nicht mehr ob das durchgehend flüssig ist oder nicht. :freak: Hast du nicht mal ein Video mit ganz normaler Straßenkarre beim schönen Wetter? Und mach mal dieses eckelige Kamerewackeln bitte aus.

Achill
2017-11-25, 16:32:15
Boah... bei den Wetterbedingungen und dem ständigen wackeln der Kamera weiß ich gar nicht mehr ob das durchgehend flüssig ist oder nicht. :freak: Hast du nicht mal ein Video mit ganz normaler Straßenkarre beim schönen Wetter? Und mach mal dieses eckelige Kamerewackeln bitte aus.

Leider nicht, war nur ein altes Video wo ich die Demo probiert habe sowie die Aufnahme mit ReLive. Hab weder das org. Spiel gekauft, auch die Demo ist nicht mehr installiert.

dargo
2017-12-03, 19:56:17
Wird der Ton bei dir eigentlich auch zu leise mit ReLive aufgenommen?

Edit:
Ich habe den Fehler gefunden.

Es liegt daran, dass ich Equalizer_Apo für die Korrektur der Raumakustik verwende. Nehme ich die Korrektur raus passt die Lautstärke beim Ton wieder. Komischerweise scheint aber nur ReLive damit Probleme zu haben. Wenn ich ein Video mit bsw. Fraps aufnehme passt die Lautstärke auch mit Korrektur der Raumakustik. :uponder:

Achill
2017-12-05, 19:36:29
Wird der Ton bei dir eigentlich auch zu leise mit ReLive aufgenommen?

Edit:
Ich habe den Fehler gefunden.

Es liegt daran, dass ich Equalizer_Apo für die Korrektur der Raumakustik verwende. Nehme ich die Korrektur raus passt die Lautstärke beim Ton wieder. Komischerweise scheint aber nur ReLive damit Probleme zu haben. Wenn ich ein Video mit bsw. Fraps aufnehme passt die Lautstärke auch mit Korrektur der Raumakustik. :uponder:

Habe da leider keine Erfahrungswerte, da ich i.d.R. ja nur Videos aufnehme um etwas zu demonstrieren oder zu dokumentieren. Auf den Ton habe ich bisher nicht geachtet. Ich denke mal es kommt darauf an, wann die Anwendung den Audio-Stream abgreift - vor dem Software-Effekt oder danach. Denke die Thematik ist auch wegen der Content-Protection nicht so einfach ... Früher konnte man mit Fraps alles mögliche aufnehmen, weiß nicht wie es aktuell ist.

dargo
2017-12-07, 12:05:04
Ja... das wird es wohl sein. ReLive greift den Ton nach der Korrektur ab.

Savay
2017-12-08, 15:51:22
Sooo...ich gehör seit Mittwoch dann auch mal zum Club. :up:

62003

Zur Karte:

Leise ist sie...der Kühler bringt es wirklich.
Selbst mit dem OC Bios find ich sie nicht wirklich störend laut! (mit dem Silent Bios sowieso) Fiepen höre ich BTW keines...
Liegt mit OC Bios vom Geräuschniveau ungefähr auf einem Level mit meiner alten Palit 970 JetStream (und mit dem Slient massiv drunter)...messtechnisch mag sie lauter sein die Tonalität ist aber etwas anders und dadurch ähnlich "aufdringlich"...also praktisch nicht sonderlich störend, auch unter Volllast...als Slient geht es aber wirklich nicht durch.

Ziemlich groß ist sie allerdings ebenfalls wirklich...
In mein Fractal R9 passt sie wirklich genau rein...was kleineres sollte man aber keinesfalls haben.
Bei meinem Board kollidiert sie zudem etwas mit den SATA Ports (was allerdings mit etwas Augen zukneifen grad noch hinhaut)...und leider auch mit dem Anschluss für die Front USB3.0 Buchsen...letztere musste ich vorerst opfern damit sie sauber in den PCIe Slot passt.

Man sollte also vorher unbedingt checken ob die Karte ins Setup passt!

Achill
2017-12-09, 14:01:42
Ich habe heute Vormittag etwas mit dem SoftPowerPlayTable Editor vom OverdriveNTool gespielt. Ich habe zuerst versucht auszuloten, wo die Wall der Vega64 liegt. Es scheint, dass diese bei ~1710Mhz bei meiner GPU beginnt (kann sicher bei jeden anders sein), sprich ~1702Mhz kommen mit eingestellten 1.080V aus, erst für die letzten Mhz wird die nochmals höhere Spannung benötigt.

Da es eine relativ große Lücke zwischen 1668 (P6) und 1750 (P7) gibt, habe ich zum Test die P4 State verworfen und die Werte der darüber liegenden States bis auf P7 um eins nach unten verschoben.

So war P6 "frei" und ich konnte nun die ausgelotete Grenze dort setzen mit:
- P6: 1702 mit 1080mV

Damit das ganze Funktioniert, muss nicht nur die GPU neu gestartet werden (macht OverdriveNTool nach dem Save) sondern auch im WattMan muss alles auf Custom und Manuell gestellt werden.

Das Ergebnis ist gleich/bessere Leistung bei "weniger Verbrauch" wenn man Vega doch mit >1700Mhz fahren will, siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11572456#post11572456


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=62011

dargo
2017-12-10, 08:47:28
@Achill

Kannst du in Wolfenstein 2 Videos mit ReLive aufnehmen?

grauenvoll
2017-12-10, 17:48:57
Hat hier jemand Erfahrungen mit der Vega FE? Nach dem Preissturz ist sie bei mir etwas in den Fokus gerutscht.

Achill
2017-12-10, 18:28:10
@Achill

Kannst du in Wolfenstein 2 Videos mit ReLive aufnehmen?

Leider nein, ging glaube ich noch nie, auch die Bilder von der Worst-Case-Stelle gingen nur mittels Steam Screenshot.

Hat hier jemand Erfahrungen mit der Vega FE? Nach dem Preissturz ist sie bei mir etwas in den Fokus gerutscht.

Glaube es gibt nicht viele hier im Forum die diese Karte haben. Ich glaube Raff und Igor haben u.a. eine Vega FE. Bei dem Preis jetzt hätte ich auch diese genommen. Es ist aber wohl etwas fummelig bzw. unschön mit dem Treiber, diese kommen langsamer raus (unschön) oder man selbst die die INF anpassen bzw. die Treiber über den Gerätemanager als Vega64 installieren (fummelig).

dargo
2017-12-10, 18:46:19
Leider nein, ging glaube ich noch nie, auch die Bilder von der Worst-Case-Stelle gingen nur mittels Steam Screenshot.

Screenshots sind mit dem Afterburner kein Problem.

Raff
2017-12-11, 12:59:13
Da schafft AMD bald Abhilfe. ;)

MfG,
Raff

dargo
2017-12-11, 13:07:36
Hört sich gut an. =)

N0Thing
2017-12-25, 12:52:16
Nutzt ihr eigentlich HBCC mit eurer Vega-Karte? Standardmäßig ist HBCC bei mir im Treiber immer noch deaktiviert. Für eine kurze Weile habe ich es testweise mal aktiviert und bei 16GB RAM die kleinste Einstellungen beibehalten. Unterschiede sind mir aber nicht aufgefallen (Spiele waren, wenn ich mich recht erinnere, Wildlands, Star Citizen, Golf It! :ugly: ).

Computerbase testet netterweise bei ihren Spieletests auch immer die Auswirkungen von HBCC, aber eine umfangreiche Übersicht allein zu den Auswirkungen von HBCC in unterschiedlichen Spielen habe ich bisher noch nicht gesehen. Vielleicht in einer PCGH, die mir durch die Lappen gegangen ist?

Achill
2018-01-08, 13:18:19
Nutzt ihr eigentlich HBCC mit eurer Vega-Karte? Standardmäßig ist HBCC bei mir im Treiber immer noch deaktiviert. Für eine kurze Weile habe ich es testweise mal aktiviert und bei 16GB RAM die kleinste Einstellungen beibehalten. Unterschiede sind mir aber nicht aufgefallen (Spiele waren, wenn ich mich recht erinnere, Wildlands, Star Citizen, Golf It! :ugly: ).

Computerbase testet netterweise bei ihren Spieletests auch immer die Auswirkungen von HBCC, aber eine umfangreiche Übersicht allein zu den Auswirkungen von HBCC in unterschiedlichen Spielen habe ich bisher noch nicht gesehen. Vielleicht in einer PCGH, die mir durch die Lappen gegangen ist?

Wahrscheinlich passt es nicht vom Aufwand/Nutzen(Klicks) Verhältnis. Dass CB es immer mit testet ermöglich ggf. Mitte 2018 dann einen Rückblick für ein paar Spiele.

Bei mir ist HBCC immer an, habe bisher keine schlechten Erfahrungen gemacht, kann aber daher auch nicht sagen ob es jetzt X% bringt oder kostet.

Gynoug MD
2018-08-16, 23:28:08
An die Vega-Spezialisten hier:
Habe heute kurz meine neue Vega64 Nitro+ getestet, läuft unter Last sofort (!) ins 85-Grad-Limit und die Lüfter drehen sofort aufs Maximum auf.:(
Natürlich saubere Deinstallation der vorherigen Nano inkl. Cleaner vorgenommen, nicht am Treiber (18.8.1) rumgefummelt, keine sonstigen Tools aktiv, Netzteil, Belüftung etc. optimal, ganz normaler Standard-Kartentausch halt.
Wer hat eine Idee?

PS: Desktop-Modus (Lüfter aus) funktioniert.

Raff
2018-08-16, 23:30:28
Sitzt der Kühler richtig? Klingt, als wäre da ein Luftspalt. Eventuell ist da was beim Transport abgeflogen. Die normale Kerntemperatur sollte niemals rasant steigen. Das kann lediglich beim berüchtigten Hotspot passieren, den GPU-Z nicht mehr standardmäßig ausgibt.

MfG,
Raff

dargo
2018-08-16, 23:36:23
@Gynoug MD

Geh da mal mit DDU drüber. Zusätzlich würde ich noch einen älteren Treiber probieren. Wenn das nicht hilft ein Fall für die RMA.

Gynoug MD
2018-08-16, 23:40:29
Danke für die schnelle Antwort, ja, der Kühler sitzt plan auf, keine äußerlichen Besonderheiten.

dargo
2018-08-16, 23:52:50
Achso... bei den aktuellen DDU-Versionen folgendes beachten.
You MUST disconnect your internet or completely block Windows Update when running DDU until you have re-installed your new drivers.

Gynoug MD
2018-08-17, 00:22:17
Danke, habe nochmal alles mit Hilfe des Tools deinstalliert, verschiedene Treiber etc., Problem bleibt leider.
Komischerweise werden im Afterburner (den ich jetzt mal ausprobiert habe) Veränderungen der Lüfterkurve etc. angenommen (auch wenn die Karte unter Last sofort wieder voll aufdreht ~2500rpm@85Grad) im Wattman vorher (mit natürlich deinstallierten Afterbuner) komplett ignoriert, auch Presets.

Raff
2018-08-17, 11:18:18
Wie gesagt, da ist etwas faul. Physisch/mechanisch. Eventuell ist das ein Rückläufer, bei dem die Wärmeleitpaste vergessen oder falsch aufgetragen wurde (:ugly: ). Oder Heatpipe-Defekt.

MfG,
Raff

Rubber Duck
2018-08-17, 20:35:00
An die Vega-Spezialisten hier:
Habe heute kurz meine neue Vega64 Nitro+ getestet, läuft unter Last sofort (!) ins 85-Grad-Limit und die Lüfter drehen sofort aufs Maximum auf.:(
Natürlich saubere Deinstallation der vorherigen Nano inkl. Cleaner vorgenommen, nicht am Treiber (18.8.1) rumgefummelt, keine sonstigen Tools aktiv, Netzteil, Belüftung etc. optimal, ganz normaler Standard-Kartentausch halt.
Wer hat eine Idee?

PS: Desktop-Modus (Lüfter aus) funktioniert.
Wo hast du die gekauft?

Achill
2018-08-17, 20:53:30
Danke, habe nochmal alles mit Hilfe des Tools deinstalliert, verschiedene Treiber etc., Problem bleibt leider.
Komischerweise werden im Afterburner (den ich jetzt mal ausprobiert habe) Veränderungen der Lüfterkurve etc. angenommen (auch wenn die Karte unter Last sofort wieder voll aufdreht ~2500rpm@85Grad) im Wattman vorher (mit natürlich deinstallierten Afterbuner) komplett ignoriert, auch Presets.

Wie gesagt, da ist etwas faul. Physisch/mechanisch. Eventuell ist das ein Rückläufer, bei dem die Wärmeleitpaste vergessen oder falsch aufgetragen wurde (:ugly: ). Oder Heatpipe-Defekt.

MfG,
Raff

Sehe ich auch so, definitiv kein normales Verhalten. Am besten umtauschen.

Raff
2018-08-17, 22:31:59
Yep. 85 °C ist die Temperaturgrenze, über die das Ding mit Gewalt nicht hinausgehen will. Das sollte, wenn überhaupt, nur nach langer Volllastzeit mit fetter Übertaktung passieren, nicht nach Sekunden.

MfG,
Raff

Gynoug MD
2018-08-18, 01:40:00
Wo hast du die gekauft?
Hast PN.:wink:
Sehe ich auch so, definitiv kein normales Verhalten. Am besten umtauschen.
Yep. 85 °C ist die Temperaturgrenze, über die das Ding mit Gewalt nicht hinausgehen will. Das sollte, wenn überhaupt, nur nach langer Volllastzeit mit fetter Übertaktung passieren, nicht nach Sekunden.

MfG,
Raff
Ich habe den Ziegelstein nun wieder eingepackt, geht Retour.
Ich dachte immer, Schrott on arrival gäb's nur bei anderen.:freak:

BlackArchon
2018-08-18, 20:06:08
Kurze Frage: was habt ihr so für Netzteile mit euren Vegas? Ich hatte vorhin einen spontanen Neustart, als ich Furmark mit etwas fordernderen Einstellungen gestartet habe, was in 99% der Fälle auf ein zu schwaches Netzteil hinweist.

dargo
2018-08-18, 20:09:52
Bei mir ist es ein be quiet! Straight Power E9-CM 580W. Allerdings langweilt sich das ziemlich bei einem Gesamtverbrauch von ca. 300W hinter dem Netzteil. :ulol:

Linmoum
2018-08-18, 20:26:27
550W Dark Power Pro 11. Keine Probleme, allerdings auch mit UV. Keine Ahnung, wie das @stock aussehen würde.

Daredevil
2018-08-18, 21:52:53
Ich hatte nen 650w Seasonic Prime Titanium und 850w Seasonic Prime Gold und beides läuft wunderbar.

Aber Vega spiked in meinen Fall anscheinend sehr hoch, so dass ich ebenfalls gelegentlich Notabschaltungen hatte mit den 650w Netzteil, wenn ich zwei Vegas selbst bei -50w PT ( ~150w Asic zusammen ) betreiben wollte.
Mit dem 850w Netzteil ist das ganze quasi nicht mehr vorhanden, es sei denn ich dreh das PT hoch.

BlackArchon
2018-08-18, 22:03:56
Bei mir ist es ein be quiet! Straight Power E9-CM 580W. Allerdings langweilt sich das ziemlich bei einem Gesamtverbrauch von ca. 300W hinter dem Netzteil. :ulol:
Ich habe auch so eines, nur die E10-Version davon sollte das sein, ca. 2 Jahre alt. Ok, also prinzipiell sollte es wohl reichen, wenn ich auch die anderen Kommentare hier mit betrachte. Na gut, ich beobachte das weiter und werde notfalls mit schwereren Geschützen auffahren müssen, falls das wieder passiert.

Danke für eure Rückmeldungen! :)

Ex3cut3r
2018-08-18, 23:08:56
Hast du schon probiert die Last auf 2 Rails zu verteilen? Eine Schiene sollte nur 240W beim BQ SP E9 580W liefern.

EDIT:
Achso, du hast das E10, da weiß ich die Daten grade nicht aus dem Kopf.

EDIT 2: Laut Datenblatt fürs E10 liefert die 600W Version auf der 12V3 Schiene auch "nur" 20A macht wieder "nur" 240W. Deswegen aufteilen, dann sollte es locker reichen.

BlackArchon
2018-08-19, 08:30:49
Hast du schon probiert die Last auf 2 Rails zu verteilen? Eine Schiene sollte nur 240W beim BQ SP E9 580W liefern.
...
Hey, das ist ein super Tipp! Ich hatte hier nur den einen PCIe-Stromstecker vom Netzteil benutzt (der ja in zwei Stecker mündet) - nun habe ich das aufgeteilt und beobachte das weiter. Vielen Dank! :)
Ohje, ich glaub ich werde zu alt für sowas, da hätte ich auch selbst drauf kommen können. :D

dargo
2018-08-19, 09:18:08
Ich ging davon aus sowas weißt du. :usweet:

Achill
2018-08-19, 10:55:41
Hast du schon probiert die Last auf 2 Rails zu verteilen? Eine Schiene sollte nur 240W beim BQ SP E9 580W liefern.

EDIT:
Achso, du hast das E10, da weiß ich die Daten grade nicht aus dem Kopf.

EDIT 2: Laut Datenblatt fürs E10 liefert die 600W Version auf der 12V3 Schiene auch "nur" 20A macht wieder "nur" 240W. Deswegen aufteilen, dann sollte es locker reichen.

Hey, das ist ein super Tipp! Ich hatte hier nur den einen PCIe-Stromstecker vom Netzteil benutzt (der ja in zwei Stecker mündet) - nun habe ich das aufgeteilt und beobachte das weiter. Vielen Dank! :)
Ohje, ich glaub ich werde zu alt für sowas, da hätte ich auch selbst drauf kommen können. :D

Ich ging davon aus sowas weißt du. :usweet:


Ja, dass ist richtig - ich würde aber immer in die Anleitung vom Netzteil schauen. Meine Vega64 hängt auch an zwei Rails, bei meinen DARK POWER PRO 11 steht aber in Manual welche man kombinieren kann/sollte/darf? ... sind insgesamt 4 Rails für PCIe.

BlackArchon
2018-08-19, 11:00:22
Ich lese doch keine Handbücher von Netzteilen. :freak:

Achill
2018-08-19, 11:18:21
Ich lese doch keine Handbücher von Netzteilen. :freak:

Ich hatte das bisher auch nicht gebraucht. Jedoch wo ich es jetzt brauchte, habe ich einfach zu wenige Wissen über Elektrotechnik um abschätzen zu können, wie sich zwei Rails verhalten, wenn diese zusammen geschaltet/gesteckt werden.

horn 12
2018-08-19, 13:28:47
2600X Ryzen+
1x SSD 512GB
und 3TB Harddisk
Vega Referenz 1450 Mhz
und eine BeQuiet Dark Power Pro 11 zu 650 Watt und ebenso Untervolting.
KEINE Probleme derzeit und alles Bestens.

Dant3
2018-08-19, 14:14:17
Ich habe seit vorletzter Woche auch eine Nitro+ Vega 64 und war vorher skeptisch, ob mein altes 500w Netzteil (Superflower, passiv gekühlt, platinum zertifiziert) da nicht an seine Grenzen kommt, doch am Ende ist alles halb so wild.

Mit einem Ryzen 1600@3,8 GHZ 1.33v und der Vega 900mv Core / 950mv Speicher boostet die Karte selbst unter 99% Last auf 1515~ / 1000 mhz konstant, bei weniger Last sogar noch etwas höher. Dabei schluckt sie genuegsame 190 - 200 Watt, entsprechend bei weniger Auslastung auch noch mal deutlich weniger (ca. 150 - 170w).
Gesamtverbrauch liegt dann bei rund 350 Watt.
Im Endeffekt ist das auch der Sweetspot. Wenn ich die Spannung vom Speicher leicht anhebe, boostet sie direkt auf 156x, aber der Verbrauch schießt auch auf 225w~ hoch.
IMO lohnt sich da weiteres OC nicht wirklich. Selbst mit 1600~ Core / 1050 Speicher sind die Frames nur lächerlich wenig höher, allerdings liegt der Verbrauch irgendwo bei 240w~.

Außerdem, desto mehr Saft man der Karte gibt, desto übler wird das Fiepen der Spulen, was auch mit der einzige wirkliche Kritikpunkt ist den ich habe.
Selbst bei 60 Fps gibt sie ein leichtes fiepen von sich, dass ich aus meinem extrem leisen System im ruhigen Raum raus hören kann. Ohne UV war das Fiepen aber noch mal deutlich lauter und da die Karte nun praktisch unhörbar ist, fällt sowas natürlich noch mehr auf.
Am Ende kann ich damit leben, vor allem da ich immer mit Kopfhörern spiele, dennoch ist es schon absurd, dass die Leise Kühlung dann durch Spulenfiepen zunichte gemacht wird.

Ex3cut3r
2018-08-19, 16:01:19
Hey, das ist ein super Tipp! Ich hatte hier nur den einen PCIe-Stromstecker vom Netzteil benutzt (der ja in zwei Stecker mündet) - nun habe ich das aufgeteilt und beobachte das weiter. Vielen Dank! :)
Ohje, ich glaub ich werde zu alt für sowas, da hätte ich auch selbst drauf kommen können. :D

Kein Problem. :up:

Jetzt solle es ja ohne Probleme laufen. :smile:

Ich habe ein Dark Power PRO 10 550W aus 2013, das liefert schon auf einer Rail 300W auf 25A.
Hatte aber bisher auch nur "sparsame" Geforce Karten, wie eine GTX 770 (230W) GTX 1070 (180-200W)
und hoffentlich bald eine RTX 2080Ti. (275W?)

Gynoug MD
2018-08-21, 21:59:45
Habe nun die Ersatzlieferung für meine defekte Sapphire Vega 64 Nitro+ erhalten, 1 Stunde getestet und (Angaben unter Last):

+schnurrt wie ein Kätzchen (Lüfter ~1450RPM), angenehm leise
+Temperatur ~66Grad (geschlossenes Gehäuse)
+enorme Perfomancesteigerung im Vergleich zur Nano (so kann ich bei jedem noch so anspruchsvollem Spiel im FS-High-Preset des FS2735 bleiben, ohne gleich in die LFC abzurutschen)
+Stromversorgung: Netzteil (600W Enermax) problemlos über einen Strang (mit 2x 8PIN)
+keine meß- und fühlbaren Einschränkungen zur LE (Vergleich Test Hardwareluxx)
-heizt das Gehäuse ordentlich auf (Backplate=Herdplatte), zusätzlicher Seitenlüfter installiert

Bin sehr zufrieden soweit und endlich mal kein Lüfter/Kühler, den ich sofort durch einen Morpheus ersetzen will.:wink:

BlackArchon
2018-08-21, 22:34:58
Ich kann ebenfalls sagen, dass ich mit der Sapphire Nitro+ Vega 64 sehr, sehr zufrieden bin. Ich kann kein Spulenfiepen hören - ihr wisst gar nicht, wie wichtig mir das ist. Das ist mir mittlerweile das wichtigste Kriterium an einer Grafikkarte geworden. Der Fakt, dass die Karte meinen CPU-Kühler leicht nach oben weg drückt, weil die Backplate so dick ist, scheint auch keinen negativen Effekt zu haben - das hatte mir zuerst Sorgen bereitet.

Tolle Leistung, Sapphire! :)

Gynoug MD
2018-08-21, 22:53:48
Ich kann ebenfalls sagen, dass ich mit der Sapphire Nitro+ Vega 64 sehr, sehr zufrieden bin. Ich kann kein Spulenfiepen hören - ihr wisst gar nicht, wie wichtig mir das ist. Das ist mir mittlerweile das wichtigste Kriterium an einer Grafikkarte geworden. Der Fakt, dass die Karte meinen CPU-Kühler leicht nach oben weg drückt, weil die Backplate so dick ist, scheint auch keinen negativen Effekt zu haben - das hatte mir zuerst Sorgen bereitet.

Tolle Leistung, Sapphire! :)
Ich bin auch erstaunt, daß Sapphire die Vega 64 so kühl und leise bekommen hat.:smile:
Aber Spulenfiepen gibts bei meiner Karte (bei offenem Gehäuse zu hören) und bei mir ist auch nur ein halber Finger Platz zwischen Backplate und CPU-Kühler (NH-U14S).

btw Ersatzlieferung (und damit Vergleichsmöglichkeit): Meine erste Karte wurde in einem Karton ohne die Original-Sapphire-Klebestreifen geliefert (lediglich runde Klebesiegel ohne Beschriftung) und auf dem Kühler war auch keine Schutzfolie wie bei meiner Karte jetzt.
War, trotz absolutem optischen Neuzustand der Karte+Karton+Zubehör, mMn wahrscheinlich ein Rückläufer.

Linmoum
2018-08-21, 23:07:43
Wie sieht's denn bei euch temperaturmäßig aus? Also GPU, HBM und Hot Spot? Da gibt's ja teilweise ziemlich große Unterschiede bei Vega.

horn 12
2018-08-21, 23:26:03
Wie hoch taktet bitte die Karte dann unter 4K im Schnitt ?

Dant3
2018-08-21, 23:26:41
Nach ca. 10 min aufheizen bei TW3 mit 99% GPU Auslastung unter den oben angegebenen Werten:
Core 73 - 75~
HBM 75 - 77~
Hotspot 83 - 85~

Zieltemperatur habe ich auf 75 Grad gesetzt und da wird die Karte auch mit ca. 920 - 1020 Umdrehungen gehalten.
Takraten sind @3440x1440 konstant bei 1520~ GPU und 1000 HBM.

Gynoug MD
2018-08-21, 23:29:20
GPU ~66Grad, nutze WQHD, kann nichts zu 4k sagen.

Langlay
2018-08-21, 23:30:27
Wie sieht's denn bei euch temperaturmäßig aus? Also GPU, HBM und Hot Spot? Da gibt's ja teilweise ziemlich große Unterschiede bei Vega.

Bei meiner Vega56 (mit EK Waterblock) kommt ich so auf ~40° GPU ~45°C HBM und 50°C Hotspot mit 165W ASIC Power. Bei 220W ASIC sinds ~45°C GPU 50°C HBM und 60°C Hotspot.
Ich hab aber tendenziell eher zuviel Wärmeleitpaste drauf als zuwenig.

Linmoum
2018-08-21, 23:54:11
Interessiert mich eigentlich nur, weil wenn ich u.a. mal bei PCGH oder im luxx vorbeischaue, dann seh ich da auch immer wieder User, die zwischen GPU und Hot Spot mal eben 'ne Differenz von 20-30°C (vereinzelt sogar auch noch mehr) haben. :D Das find ich immer wieder heftig.

Bei sowas denk ich mir dann immer, dass da manche richtig viel Pech mit molded/unmolded, WLP etc. gehabt haben müssen. Wobei ich manchmal auch meine welche zu sehen, die selbst mit Wakü teilweise noch so eine Differenz haben. Klar, der Hot Spot ist zwar glaube ich bis maximal 105° (?) ausgelegt, trotzdem immer wieder faszinierend.

Daredevil
2018-08-22, 00:06:44
Was aber auch unter Umständen daran liegen kann, dass die Leute Null Plan haben, wie sie wieder WLP aufzutragen haben.
Bei mir hat sich beim ersten auftragen auch die Hotspot Temp deutlich verschlechtert, obwohl der Core kühler war.

Allgemein bin ich jetzt bei den Temps durch WLP Wechsel bei -3°C Core und +5°C Hotspot. Obwohl jetzt "gute" WLP drauf ist und vorher der Kram schon verkrustet war.
WLP wechseln bei Vega > Topfschlagen im Minenfeld

Freestaler
2018-08-22, 00:49:49
Ihr habt jedoch beachtet, das man vegakühler nicht wie sonst üblich überkreuz festschrauben sollte? Siehe auch igor artikel : https://www.tomshw.de/2018/07/23/amd-radeon-rx-vega-der-ominoese-hotspot-und-das-richtige-auftragen-von-waermeleitpaste/

Linmoum
2018-08-22, 00:56:06
Dann sollte man das vielleicht auch mal den Herstellern sagen, wenn die Leute diese extremen Temperatur-Differenzen schon ootb vorfinden. :D

Gynoug MD
2018-08-22, 13:05:14
Ihr habt jedoch beachtet, das man vegakühler nicht wie sonst üblich überkreuz festschrauben sollte? Siehe auch igor artikel : https://www.tomshw.de/2018/07/23/amd-radeon-rx-vega-der-ominoese-hotspot-und-das-richtige-auftragen-von-waermeleitpaste/
Guter Artikel, die Temps geben ihm recht.

Gynoug MD
2018-09-13, 17:36:03
2 Fragen:

1. Worin besteht der exakte Unterschied zwischen dem Morpheus 2 und dem Morpheus 2 "Vega"?
Ich konnte hier leider keinerlei genauere Angaben finden, lediglich, daß die "Vega"-Edition etwas "optimiert" ist...:confused:
2. Funktionieren bei euch die Gehäuselüfter-Anschlüße der Sapphire Vega 64 Nitro+ (egal, welcher Lüfter, egal, welche Temps, der Lüfter läuft bei mir nicht an)?

Achill
2018-09-13, 17:40:02
Eine Frage: Worin besteht der exakte Unterschied zwischen dem Morpheus 2 und dem Morpheus 2 "Vega"?
Ich konnte hier leider keinerlei genauere Angaben finden, lediglich, daß die "Vega"-Edition etwas "optimiert" ist...:confused:

Mir war so, dass etwas an der Bodenplatte vom Kühler optimiert wurde. Habe folgendes Gefunden:


[..]
Nun kommen wir zur größten Veränderung am Kühler. Hierbei handelt es sich um die Base selbst. Die Erhöhung auf dem Kühlerboden wurde vergrößert, damit die große Fläche der neuen GPU´s bedeckt sein kann um so die Abwärme besser abtransportieren zu können.

An der Anzahl und der Größe der 12 Kupferheatpipes wurde auch nichts verändert.
[..]

Gynoug MD
2018-09-15, 19:59:45
Mir war so, dass etwas an der Bodenplatte vom Kühler optimiert wurde. Habe folgendes Gefunden:
Danke, wobei ich glaube, daß sie dort eher den Morpheus 2 mit dem Vorgänger vergleichen, jedenfalls paßt der "normale" Morpheus 2 wohl auch auf die Vega.

Raff
2018-09-16, 08:56:06
Nee, das stimmt schon; Raijintek gab an, dass der Morpheus 2 Vega einem Morpheus 2 mit minimal veränderter Bodenplatte entspricht. Der Morpheus 2 passt auf eine Vega, aber der neue soll bessere Temperaturwerte erreichen. Stichwort "Hotspot". Allerdings kommt es immer noch stark auf die Paste, deren Menge und Verteilung an.

MfG,
Raff

Gynoug MD
2018-09-16, 17:05:38
Danke für die Info, jedoch sollten Hersteller/Tests/Verkäufer deutlicher darauf hinweisen, welche exakte Version sie testen/verkaufen, PCGH hats ja auch gekonnt.
Das ist ja ähnlich verwirrend, wie mit der Nitro+ Limited Edition.

Rubber Duck
2018-09-17, 16:45:07
Danke für die Info, jedoch sollten Hersteller/Tests/Verkäufer deutlicher darauf hinweisen, welche exakte Version sie testen/verkaufen, PCGH hats ja auch gekonnt.
Das ist ja ähnlich verwirrend, wie mit der Nitro+ Limited Edition.
Welche Version hast du denn jetzt?

Gynoug MD
2018-09-18, 14:50:33
Welche Version hast du denn jetzt?
Die Non-LE (2x 8Pin, keine Vapor-Chamber, weniger Kupfer, keine RGB-Ringe, keine beigelegte CD, 03er-Seriennummer), gibt auch, glaube ich, nur noch diese.

Deathcrush
2018-09-25, 12:52:20
Ich muss ehrlich gestehen, ich bin ein wenig entäuscht bzw angepisst von der Vega. Die Leistung ist gut, keine Frage, aber die Treiber sind mal echt mau. Wie kann es angehen, das man für fast jedes Spiel ein eigenes Profil erstellen muss, weil nicht jedes Spiel mit den Globalen Settings klarkommt? Warum werden Treibersettings In Game nicht übernommen (z.B. Vsync) Warum führt der FPS Limiter bei Mozilla zu Problemen? Freesync ist in einigen Spielen nicht zu gebrauchen und AMD weiss von dem Problem. Ich kann es durchaus verstehen, warum die Leute zu GSync und NV greifen, auch wenn die Preisdifferenz sehr hoch ist, aber dafür hat man aus meiner Sicht das bessere System. Ich werde bei meinen nächsten (HDR) Bildschirm garantiert auch wieder zu NV Gsync greifen. Leider ist die Auswahl im Bereich 32" inc Gsync sehr eingeschränkt, was sich sicherlich bald geben wird.

Mangel76
2018-09-25, 13:17:07
Ich muss ehrlich gestehen, ich bin ein wenig entäuscht bzw angepisst von der Vega. Die Leistung ist gut, keine Frage, aber die Treiber sind mal echt mau. Wie kann es angehen, das man für fast jedes Spiel ein eigenes Profil erstellen muss, weil nicht jedes Spiel mit den Globalen Settings klarkommt? Warum werden Treibersettings In Game nicht übernommen (z.B. Vsync) Warum führt der FPS Limiter bei Mozilla zu Problemen? Freesync ist in einigen Spielen nicht zu gebrauchen und AMD weiss von dem Problem. Ich kann es durchaus verstehen, warum die Leute zu GSync und NV greifen, auch wenn die Preisdifferenz sehr hoch ist, aber dafür hat man aus meiner Sicht das bessere System. Ich werde bei meinen nächsten (HDR) Bildschirm garantiert auch wieder zu NV Gsync greifen. Leider ist die Auswahl im Bereich 32" inc Gsync sehr eingeschränkt, was sich sicherlich bald geben wird.

Keine Ahnung, wo dein Problem ist???
-Frame Limiter macht Probleme bei Mozilla??? Wieso hast du einen Frame Limiter auf dem Desktop??? Und was sind das für Probleme?

-Jedes Spiel hat seine eigenen Einstellungen, da die teilweise halt andere Einstellungen benötigen. Ich spiele Shooter schließlich mit anderen Einstellungen als RPGs.

-Komisch auch, was alle für Probleme mit Freesync haben??? Bin gerade von einem 144Hz Freesync TN-Monitor auf einen 144Hz Freesync2 HDR-Monitor umgestiegen. Mit beiden gab es keinerlei Probleme, einfach Freesync am Monitor aktiviert und alles funktioniert. Bei welchen Spielen funktioniert es denn nicht?

Savay
2018-09-25, 13:43:45
Wieso fummelt man überhaupt in den Spieleprofilen rum!? Ich stelle alles wichtige Ingame ein!
Gobal wird nur Enhanced Sync gesetzt und fertig ist der Lack....der Rest ist doch total wurscht. (ausser vielleicht die Limiter, wenn man sie denn nutzen will...aber sowas WILL man ja Spielespezifisch anpassen)

Das der Treiber schlechter als der von nV sein soll, kann ich nicht wirklich nachvollziehen...im Gegenteil bekomme ich ohne Accountzwang mehr Features frei Haus.
Nen paar Aufreger gibt es immer...aber die hatte ich auch bei nV historisch betrachtet schon regelmäßig.

Bei welchen Spielen funktioniert es denn nicht?

Verstehe ich auch nicht so ganz...man muss halt mal antesten mit welchen Ingame Settings es zieht...da ist es aber auch nicht anders als G-Sync.

BTW ein einziges Spiel fällt mir ein wo ich es nicht zuverlässig zum laufen bekommen habe...wo es aber auch vollkommen egal war: Jurassic World Evolution.

dman
2018-09-25, 13:49:47
Kann ich auch nicht nachvollziehen.

ich hab nen 32" WQHD Freesync Monitor mit 75Hz....FPS Limiter auf 73(vsync auf "immer an" im Treiber) und jedes Game funzt 1a mit Freesync in den globalen Einstellungen.Freesync-Range ist bei mir 30-75Hz mit CRU erstellt.

Aufn Desktop und Mozilla absolut keine Probleme,alles tiptop.

lg

aufkrawall
2018-09-25, 13:53:07
Der Nvidia-Limiter hat auch schon mit Firefox Probleme gemacht. Den macht man halt einfach nicht global an. Eh unklug, weil man besser in-game nutzen sollte.


Verstehe ich auch nicht so ganz...man muss halt mal antesten mit welchen Ingame Settings es zieht...da ist es aber auch nicht anders als G-Sync.
Bei NV kann man allerdings Vsync im Treiber forcieren und muss ich dann keinen Kopf mehr darum machen. Da aber eigentlich jedes Spiel eine Vsync-Option hat, sehe ich da bei FreeSync auch kein nennenswertes Problem (außer, es gibt noch irgendwelche anderen Einschränkungen).

Wie man sich immer an Kleinigkeiten hochziehen kann, erschließt sich mir nicht. Weder der Treiber von AMD, noch der von Nvidia, sind der Weisheit letzter Schluss.

dman
2018-09-25, 14:00:17
Bei NV kann man allerdings Vsync im Treiber forcieren und muss ich dann keinen Kopf mehr darum machen. Da aber eigentlich jedes Spiel eine Vsync-Option hat, sehe ich da bei FreeSync auch kein nennenswertes Problem (außer, es gibt noch irgendwelche anderen Einschränkungen).



Kann man im AMD-Treiber auch forcieren,wie du schon sagtest sollte man natürlich ingame VSync dann ausschalten.Da der Treiber das ja schon erledigt wenn die FPS ausserhalb der Freesync-Range sind.
Bis jetzt funzt jedes Game mit freesync so.:smile:

lg

HOT
2018-09-25, 14:17:59
Freesync ist doch echt maximal einfach geworden... lass das Spiel einfach lassen wie es ist und den Treiber auch, Vsync im Spiel an, im Treiber aus, wenn nicht überschrieben und fertig. Dann läuft das auch. Vsync off kann Probleme machen (beispielsweise RoTR) und enhanced Sync ist wenig interessant wenn man eh ne hohe Range hat (48-144Hz+LFC) - bei 48 bis 75hz hingegen kann enhanced sync ne Option sein. Jedoch muss man darauf achten, dass damit einige Spiele absolut nicht zurecht kommen, beispielsweise Fallout 4 und Skyrim.
Wichtig ist halt den Desktop auch auf 144hz zu stellen - den Monitor sollte man eh richtig einstellen. Framelimiter ist doch sowieso nur für 60hz-Monitore interessant, damit die Karte da nicht unnötig laut wird.

Die Non-LE (2x 8Pin, keine Vapor-Chamber, weniger Kupfer, keine RGB-Ringe, keine beigelegte CD, 03er-Seriennummer), gibt auch, glaube ich, nur noch diese.

Mag noch Restposten der LE geben, wahrscheinlich vor allem 56er (wobei ich das Produkt genauswenig verstehe wie die normale Nitro+ als 56er :freak:, für die 56er reicht echt die Pulse).

Zum Produkt (also ohne LE) selber kann ich aus meiner bisherigen Erfahrung nur sagen:
- im Gegensatz zur LE normale Boardpower
- relativ schnell lautes Spulenfiepen bei über 150hz, bis dahin sehr leise Spulen
- exzellenter Kühler, stets leise bei normaler Boardpower
- exzellente Verarbeitung
- optimaler Zusammenbau von Kühler und GPU, keinerlei Hotspotproblematik
- LAAANG, passt in nur wenige normale Gehäuse
- Treiber ist genauso problemlos wie bei meinen anderen Radeons und Geforces

Deathcrush
2018-09-25, 14:50:08
-Frame Limiter macht Probleme bei Mozilla??? Wieso hast du einen Frame Limiter auf dem Desktop??? Und was sind das für Probleme?

Globale Einstellung / Frame Limiter "On" Also ist der auch für den Desktop oder nur für die Spiele? Wenn der AMD Framelimiter global aktiv ist, spinnt Mozilla Firefox, ergo muss ich den Framelimiter in den Spieleprofilen einstellen.


-Jedes Spiel hat seine eigenen Einstellungen, da die teilweise halt andere Einstellungen benötigen. Ich spiele Shooter schließlich mit anderen Einstellungen als RPGs.

Nö, bei NV habe ich alles Global eingestellt und es lief tadellos. Bei AMD muss ich bei jedem Spiel eine andere Einstellung wählen, damit Freesync reibungslos funktioniert. Destiny 2 z.B. geht nur ohne Probleme, wenn ich den AMD Framelimiter auf 100 stelle und Vsync On. Damit funktioniert aber CS Go nicht..... usw


-Komisch auch, was alle für Probleme mit Freesync haben??? Bin gerade von einem 144Hz Freesync TN-Monitor auf einen 144Hz Freesync2 HDR-Monitor umgestiegen. Mit beiden gab es keinerlei Probleme, einfach Freesync am Monitor aktiviert und alles funktioniert. Bei welchen Spielen funktioniert es denn nicht?

Bei The Division geht schon mal Freesync gar nicht. Probleme habe ich bei Destiny 2, die ich umgehen kann, bei CS Go und Star War BF 2.

Vsync im Spiel an, im Treiber aus, wenn nicht überschrieben und fertig.

Wenn das so einfach wäre. Mit der Einstellung habe ich Freesync Flackern bei Destiny 2 Und das Problem haben viele https://community.amd.com/thread/215821?start=720&tstart=0

Mangel76
2018-09-25, 15:29:22
Globale Einstellung / Frame Limiter "On" Also ist der auch für den Desktop oder nur für die Spiele? Wenn der AMD Framelimiter global aktiv ist, spinnt Mozilla Firefox, ergo muss ich den Framelimiter in den Spieleprofilen einstellen.



Nö, bei NV habe ich alles Global eingestellt und es lief tadellos. Bei AMD muss ich bei jedem Spiel eine andere Einstellung wählen, damit Freesync reibungslos funktioniert. Destiny 2 z.B. geht nur ohne Probleme, wenn ich den AMD Framelimiter auf 100 stelle und Vsync On. Damit funktioniert aber CS Go nicht..... usw



Bei The Division geht schon mal Freesync gar nicht. Probleme habe ich bei Destiny 2, die ich umgehen kann, bei CS Go und Star War BF 2.



Wenn das so einfach wäre. Mit der Einstellung habe ich Freesync Flackern bei Destiny 2 Und das Problem haben viele https://community.amd.com/thread/215821?start=720&tstart=0

Ich dachte eigentlich, der Frame Limiter arbeitet nur unter 3D? Aber egal, mach ich sowieso nicht global. Manche Spiele brauchen halt mehr FPS als andere. Und anscheinend spiele ich die falschen Spiele, denn ich hatte bisher überhaupt keine Probleme damit.

Gynoug MD
2018-09-29, 18:13:47
Ich wärme meine Frage noch mal auf: Hat jemand von den Nitro-Besitzern hier die Gehäuse-Lüfter an den Karten-Anschlüßen zum Laufen bekommen?