PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vega unterschätzt? Besser als erwartet.


Bellspinder
2019-02-09, 12:26:14
Ich hatte eine RX580 gegen eine GTX 1070 für 275€ getauscht und war ziemlich zufrieden, bis auf die schlechte Texturdarstellung/Farbqualität bei nvidia, siehe Bildqualität Thread. Die wurde reklamiert und nun habe mir eine Powercolor Vega 56 Red Dragon aus dem MF für 309€ besorgt und bin ziemlich begeistert. Nachdem ich sie zwei Tage lang UV/OC eingestellt habe, läuft sie aktuell auf P7 860MV im Silent Bios, nimmt sich maximal ca. 906-919MV und geht je nach Spiel&Szene bis ca. 1495Mhz hoch, den Speicher habe ich auf 900Mhz laufen.

Da man den Asci-Werten für den Stromverbrauch nicht trauen kann, habe ich mit dem Strommesser an der Steckdose immer den Gesamtsystemverbrauch im Blick für das für jede Grafikkarte jeweils OC&UV optimal eingestellt Setup.

Idle Desktop:

1070 :80 Watt
RX580 : 85 Watt
Vega56 : 86 Watt

Volllast (Spitze):

1070 :265 Watt (288 Watt) UV&OC
RX580 : 290 Watt UV / 340 Watt OC
Vega56 :335 Watt (355 Watt) UV&OC



Die 355Watt max. haben mich natürlich erstmal abgeschreckt, nun ist mir aber aufgefallen, dass die Vega in Verbindung mit Chill extrem genau auf die Spielsituation zugeschnitten heruntertaktet, so extrem wie ich es von der RX580 nicht kannte. Sprünge von 1000Mhz auf 1450Mhz und von 220Watt auf 350Watt innerhalb einer Mausdrehung sind völlig normal. Ich hab teilweise absurde Situationen in Kingdom Come wo die GPU laut HWinfo auf 17% runterskaliert und trotzdem 45fps ausgibt, einfach weil gerad nix los ist auf dem Bild und weil ich die FPS mit Chill auf 42-45 begrenzt habe in dem Spiel. Da gibt es Szenen wo die Karte dann weniger verbraucht, als eine GTX 1070. Da ich nur einen 60hz Monitor habe und die fps sowieso mit Chill auf 59 begrenzt sind, läuft die Karte also fast in jedem Spiel auf Chill-mode je nach Szene. Letztlich ist der tatsächliche Verbrauch also nur zu bestimmen, wenn ich den Verbrauch über eine ganze Spielsession vergleiche. Die ganzen Hardwaremagazine messen so aber nicht den Verbrauch. Die nehmen eigtl. immer nur irgendwelche Peak-Werte. Das ist mit der Vega@chill aber falsch, weil ja niemand in einem Game ne halbe Stunde lang dieselbe fordernde Szene anstarrt. Mich würde ein echter Vergleich des Verbrauchs mit Chill über eine vergleichbare Session mal interessieren bei einer Limitierung auf 59fps. Gut möglich das die Vegas unter diesen Gesichtspunkten gar auf vergleichbarem Niveau mit den Geforce Gegenspielern liegen.



Rein rechnerisch macht die Vega56 10-15% mehr fps in Kingdom Come als die GTX 1070 mit meinem Setup. Keine Welten, aber das Spielgefühl ist ein völlig anderes. So smooth hat sich das Spiel niemals angefühlt und das auf (fast) Ultra mit HD Texturpaket. Die 1070 lieferte auch hohe Bildraten, aber sie ruckelte hier und da kurz und das regelmäßig obwohl sie auch 8GB RAM hatte. Mit der Vega56 schwebe ich durch die Welt. Selbst wenns mal auf 30fps fällt, weil Nachts 4 Wachen mit Fackeln durchs Bild laufen, die Mausbewegung bleibt smooth as fuck.

Daredevil
2019-02-09, 12:34:55
Zu der Smoothness sei noch gesagt, die 1070 hat 256 GB/s Speicherbandbreite und deine Vega bei 900MHz 461GB/s, das sind halt 80% mehr bei deutlich besseren Cache Latenzen.
In den aktuellen Radeon VII Benchmarks sieht man ja auch ab und an, das die Min FPS bei der Karte untypisch gut ausfallen im Gegensatz zu den GDDR6 Karten.
Vielleicht haben Min FPS Spikes bzw. Frametimeruckler ja tatsächlich was mit der Bandbreite des Speichers zutun, so dass eine hohe Bandbreite hier das ganze seidiger ablaufen lässt.

Für 300€ ist die Karte echt ein Sahnestück. Man kann sie ziemlich gut runter skalieren ( Ich hab schon WoW bei 30w Asic gespielt @ 100fps ) und mit ganz viel Volt eben auch über Vega 64 Niveau.
Chill bringt aber nun mal auch Probleme mit sich, deswegen kann man das nicht unbedingt als Basis nehmen. ( Input Lag + Frameschwankungen )

aufkrawall
2019-02-09, 12:45:04
Vielleicht haben Min FPS Spikes bzw. Frametimeruckler ja tatsächlich was mit der Bandbreite des Speichers zutun, so dass eine hohe Bandbreite hier das ganze seidiger ablaufen lässt.

Das liegt auch am Treiber, bei Nvidia ist seit Win 10 1703 der Wurm bez. Frametime-Spikes drin. Immer wenn es mit Nvidia stockt, kann man sich nie sicher sein, ob es nicht auf dieses Problem zurückzuführen ist.

Daredevil
2019-02-09, 12:58:15
I dont know, bin erst seit zwei Treibern wieder bei Nvidia. Der letzte Treiber hat die Windows Performance und die allgemein Performance deutlich ( Wenn man das bei 2-5% sagen kann ) angehoben. Aber das hab ich schon im Treiber Thread gelobt.
Computerbase hat ja ebenfalls nicht mit den aktuellen Treibern und Turing getestet.

Ist ja auch egal, wenn es bei Vega rund läuft. Dachte nur, dass kann mit der Bandbreite vielleicht was zutun haben bzw. mit HBM2 allgemein. Der Speicher bzw. die Technik ist ja schon ein Stück fortschrittlicher.

SKYNET
2019-02-09, 13:03:50
aus wieviel volt hattest du deine 580er? reine neugier...

Bellspinder
2019-02-09, 13:05:56
Das liegt auch am Treiber, bei Nvidia ist seit Win 10 1703 der Wurm bez. Frametime-Spikes drin. Immer wenn es mit Nvidia stockt, kann man sich nie sicher sein, ob es nicht auf dieses Problem zurückzuführen ist.

Ich bin auf Win7, am Treiber kann es dann wohl eher nicht liegen mit den Mikrorucklern auf der 1070, die übrigens fast noch schlimmer waren als auf der RX580, obwohl weit höhere FPS.

Beim herausfinden des sweepspots meiner Vega habe ich mit Fire Strike Ultra gebencht und folgende Tabelle angefertigt, rechts stehen immer die Punkte. Lustigerweise scheint meine Vega zwischen 870-880 MV das beste Ergebnis zu bringen. Kann das überhaupt sein? Spricht das für einen besonders guten Chip oder eher einen schlechten? Hab ich was falsch eingestellt, PT war immer -1%.

https://abload.de/img/20190209_130037wxjp8.jpg

SKYNET
2019-02-09, 13:06:28
Das liegt auch am Treiber, bei Nvidia ist seit Win 10 1703 der Wurm bez. Frametime-Spikes drin. Immer wenn es mit Nvidia stockt, kann man sich nie sicher sein, ob es nicht auf dieses Problem zurückzuführen ist.


siehe im VII faden, da ist nen schönes video VII vs. 1080Ti vs. 2080, VII & 1080Ti haben minimalste spikes(unmerkbar), wärend die 2080 zwar deutlich weniger hat, aber dafür deutlich derber ausschlägt(merkbarer bereich)... vielleicht liegt es also weniger am treiber oder windows, als mehr an der turing architektur? :confused:

Bellspinder
2019-02-09, 13:07:13
aus wieviel volt hattest du deine 580er? reine neugier...
Sapphire Nitro+ SE war das

UV = 1400Mhz@970MV
OV = 1480Mhz@1180MV (nur fürs Ego)

aufkrawall
2019-02-09, 13:09:16
I dont know, bin erst seit zwei Treibern wieder bei Nvidia. Der letzte Treiber hat die Windows Performance und die allgemein Performance deutlich ( Wenn man das bei 2-5% sagen kann ) angehoben. Aber das hab ich schon im Treiber Thread gelobt.

Wo bei der Windows-Performance merkst du denn mit den neuen Treiber konkret Verbesserungen bzw. wobei hast du vorher bemerkt, dass etwas klemmt?

Evtl. ist bei KC: D. die Bandbreite von Vega wirklich hilfreich, wenn man die Kamera schnell bewegt gehen die fps ja wegen des Streamings runter. Sollte man mittels RTSS-Graphen und ReLive abfilmen können, wenn dies tatsächlich so ist.

Jetzt schreibt Bellspinder aber von Windows 7, wtf. War ja klar, dass von ihm nichts irgendwie brauchbares kommt... X-(

SKYNET
2019-02-09, 13:10:12
Sapphire Nitro+ SE war das

UV = 1400Mhz@960MV
OV = 1480Mhz@1180MV (nur fürs Ego)

mhhh... dann muss ich bei meiner pulse doch mal weiter testen, derzeit 1366/4600 @ 1.025V...

hast du zufällig noch die ganzen stages parat? weil derzeit habe ich 3-7 alle auf 1.025V :freak:

Bellspinder
2019-02-09, 13:18:14
mhhh... dann muss ich bei meiner pulse doch mal weiter testen, derzeit 1366/4600 @ 1.025V...

hast du zufällig noch die ganzen stages parat? weil derzeit habe ich 3-7 alle auf 1.025V :freak:

Die habe ich nicht mehr, aber ich meine mich zu erinnern, dass ich nur den letzten oder die letzten beiden States überhaupt verändert habe. Meine hatte Hynix Speicher, der konnt 4500Mhz@9G im Prinzip, aber ich hatte ihn auf 4400 laufen. Die Pulse 580er könnten evtl. schlechtere Chips bekommen haben, ich habe viel darüber gehört, dass die Polaris Chips mehr oder weniger handverlesen an die Hersteller gehen.

SKYNET
2019-02-09, 13:26:09
Die habe ich nicht mehr, aber ich meine mich zu erinnern, dass ich nur den letzten oder die letzten beiden States überhaupt verändert habe. Meine hatte Hynix Speicher, der konnt 4500Mhz@9G im Prinzip, aber ich hatte ihn auf 4400 laufen. Die Pulse 580er könnten evtl. schlechtere Chips bekommen haben, ich habe viel darüber gehört, dass die Polaris Chips mehr oder weniger handverlesen an die Hersteller gehen.

mhhh, trotzdem danke :)

ja, mal schauen was der noch hergibt... und der speicher lässt sich fehlerfrei und mit steigendem score bis 4800 takten, aber muss den SoC dafür ein wenig nach oben schrauben, bis 4600 langt da die defaultspannung.... bis 1480MHz lässt sie sich im fall auch stabil treiben(spannung auf max)... benches laufen noch mit 1520 durch, aber beim gamen schmiert das ding dann nach ner halben stunde ca. ab :frown: ausserdem ist der verbrauch bzw. die lärmbelästigung(lüfter drehen voll auf) dann auch nicht mehr feierlich :ulol:

Screemer
2019-02-09, 13:30:13
Wo bei der Windows-Performance merkst du denn mit den neuen Treiber konkret Verbesserungen bzw. wobei hast du vorher bemerkt, dass etwas klemmt?

Evtl. ist bei KC: D. die Bandbreite von Vega wirklich hilfreich, wenn man die Kamera schnell bewegt gehen die fps ja wegen des Streamings runter. Sollte man mittels RTSS-Graphen und ReLive abfilmen können, wenn dies tatsächlich so ist.

Jetzt schreibt Bellspinder aber von Windows 7, wtf. War ja klar, dass von ihm nichts irgendwie brauchbares kommt... X-(

Er hat gpu-workloads am laufen gehabt (nicehash wenn ich mich Recht erinnere) und dabei wurde die Bedingungen von Windows inkl Browser ziemlich zäh. Das hat sich mit irgendwelchen neuen Treibern normalisiert. So hat er in den Treiberfaden Mal geschildert.

aufkrawall
2019-02-09, 13:32:23
Er hat gpu-workloads am laufen gehabt (nicehash wenn ich mich Recht erinnere) und dabei wurde die Bedingungen von Windows inkl Browser ziemlich zäh. Das hat sich mit irgendwelchen neuen Treibern normalisiert. So hat er in den Treiberfaden Mal geschildert.
Hat er mir auch gerade freundlicherweise nochmal per PM geschildert. ^^

Bellspinder
2019-02-09, 13:40:03
Mein Speicher macht keine 900Mhz mehr, er geht nur noch zwischen 500 und 700 also State 2-3. Wenn ich im Treiber auf Default setze und wieder auf 900Mhz stelle, dann geht es wieder, aber nur eine Zeit lang. Weiß jemand eine Lösung? Adrenalin 19.2.1

blood_spencer
2019-02-13, 14:07:49
Zum Thema "Besser als erwartet":

Im aktuellen Bench der PCGH liegt die Vega64 in der Division 2 Beta 18% über der 1080Ti:

http://www.pcgameshardware.de/Tom-Clancys-The-Division-2-Spiel-61585/Specials/Closed-Beta-Test-Benchmark-1274963/2/

dildo4u
2019-02-13, 14:12:16
Das ist Kaputt die 1070 läuft normal,eine 1080 Ti ist sonst über 50% schneller.

aufkrawall
2019-02-13, 14:19:28
Tja, mal gucken, ob die Final mit Pascal & DX12 sauber rennt. Wenn nicht, hatte gravitationsfeld mit seiner Einschätzung wohl Recht, dass Pascal wegen seinen komischen Ressourcen-Limits unter LL schnell den Abgang machen wird.

Mangel76
2019-02-13, 14:20:55
Das ist Kaputt die 1070 läuft normal,eine 1080 Ti ist sonst über 50% schneller.

Was läuft denn da schief? Bei allen anderen (1060,1070, 20XX) sieht es doch ganz normal aus. Und in UHD passt es plötzlich auch wieder???

dargo
2019-02-13, 14:23:04
Eventuell ein Treiberproblem.

aufkrawall
2019-02-13, 14:24:06
Es läuft halt wohl auch mit gar keiner Pascal-Karte mit sauberen Frametimes, im Gegensatz zu Turing und DX11.

dildo4u
2019-02-13, 14:43:33
Sieht hier ok aus mit einer 1080 Ti,kommen eh noch neue Treiber und das Game ist auch nicht Final.


GoA98nihzOo

SKYNET
2019-02-13, 15:08:14
Es läuft halt wohl auch mit gar keiner Pascal-Karte mit sauberen Frametimes, im Gegensatz zu Turing und DX11.


ist ja nix neues, das pascal nen DX12 krüppel ist... :frown:

aufkrawall
2019-02-13, 15:10:38
Sieht hier ok aus mit einer 1080 Ti,kommen eh noch neue Treiber und das Game ist auch nicht Final.


https://youtu.be/GoA98nihzOo
Ja, sieht sauber aus. Widerspricht damit PCGH etwas.
Allerdings ist der VRAM-Verbrauch auch jenseits von Gut & Böse, 8GB-Karten wären interessant.

dildo4u
2019-02-13, 16:24:56
ist ja nix neues, das pascal nen DX12 krüppel ist... :frown:

Kommt drauf an ob Nvidia früh genug Zugriff aufs Game hat Metro läuft sogar mit nem alten Treiber gut auf der 1080 Ti.

https://farm8.staticflickr.com/7878/32141087027_a173007568_b.jpg (https://flic.kr/p/QYctoT)metrf (https://flic.kr/p/QYctoT) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

http://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/

meccs
2019-02-13, 16:38:21
Kommt drauf an ob Nvidia früh genug Zugriff aufs Game hat Metro läuft sogar mit nem alten Treiber gut auf der 1080 Ti.

https://farm8.staticflickr.com/7878/32141087027_a173007568_b.jpg (https://flic.kr/p/QYctoT)metrf (https://flic.kr/p/QYctoT) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

http://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/
Danke dass du die PCGH Quelle mit angegeben hast :up:
Scheint ja ganz gut optimiert zu sein das Game. Die Vega 56 @ 1440p Ultra UND Hairworks 53-60 FPS! Ohne Hairworks sind ja alleine schon 10-20 FPS mehr.

dargo
2019-02-13, 17:57:16
Sieht hier ok aus mit einer 1080 Ti,kommen eh noch neue Treiber und das Game ist auch nicht Final.


https://youtu.be/GoA98nihzOo
Dann spackt die Beta wohl noch auf einigen Systemen, inklusive dem von PCGH.

Die Vega 56 @ 1440p Ultra UND Hairworks 53-60 FPS! Ohne Hairworks sind ja alleine schon 10-20 FPS mehr.
Da erwartest du wohl zu viel. Im Video der PCGH wird gesagt, dass Hairworks kaum auffällig ist. Ergo dürfte es auch nicht viel kosten. Allerdings muss das noch genauer untersucht werden.

meccs
2019-02-13, 19:52:22
Dann spackt die Beta wohl noch auf einigen Systemen, inklusive dem von PCGH.


Da erwartest du wohl zu viel. Im Video der PCGH wird gesagt, dass Hairworks kaum auffällig ist. Ergo dürfte es auch nicht viel kosten. Allerdings muss das noch genauer untersucht werden.
Ok, muss ich mir noch ansehen, 53-60 fps ist trotzdem gut. Reicht mir ;D

SKYNET
2019-02-14, 02:26:07
Die habe ich nicht mehr, aber ich meine mich zu erinnern, dass ich nur den letzten oder die letzten beiden States überhaupt verändert habe. Meine hatte Hynix Speicher, der konnt 4500Mhz@9G im Prinzip, aber ich hatte ihn auf 4400 laufen. Die Pulse 580er könnten evtl. schlechtere Chips bekommen haben, ich habe viel darüber gehört, dass die Polaris Chips mehr oder weniger handverlesen an die Hersteller gehen.

hatte mal doof auf 0.95V gestellt, alles ausser furmark rannte sauber durch, inkl. 3h witcher... jetzt mal auf 1V gestellt und furmark lief... werde mal die tage noch ein wenig nach unten runter gehen, evtl. gehen noch 0.98V wie bei dir... denke für ne pulse trotzdem jetzt schon ein respektables ergebnis... zumal der durchschnittliche verbrauch um weitere 7.3% runtergegangen ist ;D