PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 [44] 45

Daredevil
2018-11-19, 23:48:09
AMD war kulant :)

Glückwunsch zur Reservierung von Resident Evil™ 2! Wir aktualisieren Ihr Konto und benachrichtigen Sie, sobald der Inhaltsschlüssel verfügbar ist.

Glückwunsch zur Reservierung von Devil May Cry™ 5! Wir aktualisieren Ihr Konto und benachrichtigen Sie, sobald der Inhaltsschlüssel verfügbar ist.

Glückwunsch zur Reservierung von Tom Clancy’s The Division® 2! Wir aktualisieren Ihr Konto und benachrichtigen Sie, sobald der Inhaltsschlüssel verfügbar ist.

Raff
2018-11-20, 08:52:20
Super! :up:

MfG,
Raff

aufkrawall
2018-11-20, 18:16:09
Die Asus Strix hat 1250rpm Mindestdrehzahl. Ich verneige mich vor so viel Blödheit...

Daredevil
2018-11-20, 18:30:46
Die kannst du meiner Erfahrung nach im OverdriveNTool nachregeln.
Damit hat man auch mit einer Referenz den "Zero Fan Modus" zusammen gebastelt.

aufkrawall
2018-11-20, 20:01:10
ZF geht ja, nur wirds halt bei Teillast immer laut, wenn die Lüfter angehen. Und das bei vielleicht maximal 60°C, völlig gaga.

dargo
2018-11-20, 20:16:42
Die Asus Strix hat 1250rpm Mindestdrehzahl. Ich verneige mich vor so viel Blödheit...
Oh man... stand das in keinem Review? :freak:

aufkrawall
2018-11-20, 20:20:10
Oh man... stand das in keinem Review? :freak:
Hab ich ehrlich gesagt im guten Glauben nicht für möglich gehalten, weils bei der 580er Dual bis auf <500rpm regelbar war.

Daredevil
2018-11-20, 20:48:22
Oh okay, dann schau mal, ob du im WattMan vielleicht die Mindestdrehzahl anpassen kannst.
Bei der Gigabyte Vega 56 konnte ich dort das ganze fixieren bzw. diese Temperaturgrenze außer Kraft setzen.

Gigabyte hatte ja auch so eine niedrige Drehzahl und mein HBM Speicher war permanent zu heiß, deswegen hatte ich dort auch die Drehzahl aus dem Zero Fan Modus rausgebrochen.

Wenn ich die Drehzahl auf 100% gestellt habe, hat er ab 50°C ( glaube ich ) auch direkt immer auf Max gedreht, um dann nach 2 sek wieder aufzuhören. Riesiger Schwachsinn. :D

aufkrawall
2018-11-21, 13:31:23
Nein, es geht nicht. Das Problem ist, dass die Lüfter einfach nicht anlaufen. Wenn sie vorher schneller drehten, kann man etwas weiter runter, aber dann hört z.B. der mittlere Lüfter auch sehr früh auf zu drehen. Es ist also physikalisch bedingt. Ich kann auch unter Linux btw. einfach wie bei Polaris die Lüfter mittels PWM steuern, in dem Rahmen, der halt physikalisch möglich ist. Asus hat mal wieder absolute Vollscheiße gebaut, die Firma ist einfach für alle Ewigkeiten ein Griff ins Klo. :frown:

Allgemeine Beobachtungen zu Vega:
mit UV auf 0,9V konnte ich ca. 80-90W GPU-Power sparen. Mit HBM-OC war dabei die Performance sogar besser als ootb. Dummerweise hab ich es mit ODT nicht geschafft, dass der VRAM in 4k noch hochtaktete.
mit UV in Wattman ging es nur auf 950mV runter, hier setzt wohl die HBM-Spannung die Grenze. Evtl. müsste man dann den HBM auch noch undervolten. Die Ersparnis bei 950mV war natürlich nicht ganz so extrem, aber immer noch beachtlich (so ca. 50-60W)
von der Kühlleistung her ist die Asus sehr stark, mit 1250rpm und UV wurd die GPU keine 65°C warm
in HotS afair leicht schneller als eine 1070 Ti OC
Texturfilterung ist endlich ohne jeden Zweifel erhaben, auch in Standardeinstellungen
Stromsparmodi der Karte funktionieren super, während des Surfens bleibt der Verbrauch niedrig und es ruckelt nichts.
Stromsparmodi scheinen, anders als bei Polaris, unter Linux genau so viel einzusparen wie unter Windows
ansonsten keine komischen Bugs oder dergleichen


Meehhh. Die GPU als MSI Gaming Triple Slot...

Th3o
2018-11-21, 13:45:27
Bei AMD ist es wohl doch besser von den AMD only Herstellern (Sapphire, PowerColor) zu kaufen. Asus scheint aber auch bei AM4 Mainboards nachzulassen.

Lowkey
2018-11-22, 09:24:51
https://www.techpowerup.com/249838/seasonic-focus-plus-psus-encounter-gpu-compatibility-issues

Genau darauf warte ich seit Wochen.

Kartenlehrling
2018-11-22, 10:08:44
Man kauft ja auch in Deutschland geprüfte Netzteile. :biggrin:

Seasonic GPU-Kompatibilitätsproblemen

Im Hinblick auf NVIDIA ist das Kompatibilitätsproblem derzeit auf die ASUS GeForce GTX 970 STRIX beschränkt.
In begrenzten Fällen kann diese spezielle Grafikkarte unter hoher Belastung auf einen schwarzen Bildschirm treffen.
Die Tests von Seasonic haben ergeben, dass das Problem durch eine höhere als die normale Welligkeit verursacht wird, wenn die GPU stark belastet ist.
Sie stellten auch fest, dass die Lösung des Problems einfach durch modifizierte PCIe-Kabel mit verbesserter Abschirmung erfolgen musste.

Bei AMD-GPUs ist die Situation etwas problematischer. Sowohl die AMD-Grafikkarten der Vega 56er- als auch der Vega 64er-Serie
mit Seriennummern vor Januar 2018 können in Verbindung mit einem FOCUS PLUS-Netzteil zu Systemabschaltungen führen.
Das Problem wird dadurch verursacht, dass von diesen Grafikkarten bei starker Belastung ein höherer als der normale Spitzenstrom abgegeben wird.
Dies führt dazu, dass die interne Schutzsicherheit des Netzteils ausgelöst wird.

bnoob
2018-11-22, 10:58:30
Haha RIP me (Focus Plus Gold 650W von Anfang 2018, Vega 64 Ref aus der ersten Charge), jetzt weiß ich wenigstens, dass ich vielleicht doch nicht zu dumm für GPU-OC bin.

Naja, stabiler als das 500W SFX-L davor ist es trotzdem, hab @stock PL keine Abstürze.

Aber schon bitter, denkt man eeeeeeinmal man nimmt jetzt Geld in die Hand für ein gutes Netzteil...

gbm31
2018-11-22, 11:07:49
Streng genommen haben ja nicht die Netzteile das Problem, sondern die Grafikkarten.

Die Schutzschaltungen funktionieren halt.

;-)

Ich hab halt ein billiges Cougar GX-S550 550W 80+ Gold - das haut immer mal wieder die Sicherung raus mit seinem Anschaltstrom, wenn ich die Steckerleiste einschalte... ;D

crusader4
2018-11-22, 12:55:15
Hallo Forum!

Ich konnte vor meinen UV-Versuchen bei der Vega 64 Referenz den Rechner auch reproduzierbar zum Abschalten bringen, indem ich fordernde Spiele in 4k per DS (in 1080p passierte das nicht) gestartet habe (Netzteil: Seasonic Platinum Fanless 520W).

Das hat trotz -50% PT gut funktioniert ;-). Beim ersten Mal hatte ich Angst, das etwas die Hufe hochgerissen hat - bis heute läuft aber alles einwandfrei.

Wahrscheinlich ist einfach die Netzteil-Schutzschaltung schneller als die Regelung der Grafikkarte.

Liebe Grüße, Crusader

horn 12
2018-11-22, 12:59:44
BeQuiet Dark Power Pro 11 zu 650 Watt und RX Vega 64 Referenz und Takt 1450 Mhz HBM 1000 und keine Probleme. Nur etwas laut

Dural
2018-11-23, 10:42:06
Achtung beim Netzteil Kauf:

Sea Sonic Focus Plus: Überlast*abschaltung mit Vega-Grafikkarten

Demnach sollen die Lastspitzen einer einzelnen RX Vega 56 bei etwa 600 Watt liegen.

https://www.computerbase.de/2018-11/sea-sonic-vega-grafikkarten-focus-plus/

aufkrawall
2018-11-23, 10:43:48
Weil CB drüber schreibt, ist es offiziell, oder was willst du uns im Kontext der vorangegangen Posts sagen?

pilzsammler2002
2018-11-23, 10:44:57
Ne GTX 970 war auch dabei... :D
/scnr

Dural
2018-11-23, 10:47:36
OK, habe ich nicht gesehen das es hier schon besprochen wird.

Könnt gerne weiter machen, mit was auch immer ;)

Hakim
2018-11-23, 11:00:18
Wenn man sich das so durchliest (CB), liegt das Problem aber bei den Karten statt den NTs. Aber gut das Sea Sonic hilfe anbietet

N0Thing
2018-11-23, 11:04:58
Wenn man sich das so durchliest (CB), liegt das Problem aber bei den Karten statt den NTs. Aber gut das Sea Sonic hilfe anbietet

Ich lese da eher das Gegenteil heraus. zumal ja auch nur eine Netzteilreihe betroffen ist und der Hersteller das Netzteil anpasst. Auch Igor von tomshw.de sieht das so.

https://www.computerbase.de/forum/threads/sea-sonic-focus-plus-ueberlast-abschaltung-mit-vega-grafikkarten.1837629/page-5#post-21971555

Oranje7
2018-11-23, 12:12:33
Naja wenn man es als Netzteilproblem ansieht wenn dessen Schutzschaltung sehr schnell und zuverlässig anspricht, dann hast du Recht

DeadMeat
2018-11-23, 12:18:38
Ich würde das auch eher als NT Problem ansehen, und dort auch nicht übermäßig kritisch. Der Hersteller ist einer der zuverlässigeren Sorte und reagierte schnell darauf.
Wäre es ein einseitiges Karten Problem würde das weit mehr Hersteller betreffen.

Die offenbar sehr gut funktionierende Schaltung ist bei der betroffenen Baureihe einfach nicht darauf angepasst, mehr nicht.
Offenbar haben die Vega Karten ja stärkere Ausprägungen bei den Peak Werten, deswegen steht auch nicht 500w sondern 650w als mindest Anforderung auf dem Karton.

Zergra
2018-11-23, 12:43:54
Naja wenn man es als Netzteilproblem ansieht wenn dessen Schutzschaltung sehr schnell und zuverlässig anspricht, dann hast du Recht

Nein, das ist eine Fehlkonstruktion des Netzteils.

Das einzig gute ist die schnelle Reaktion des Herstellers.

N0Thing
2018-11-23, 18:16:49
Naja wenn man es als Netzteilproblem ansieht wenn dessen Schutzschaltung sehr schnell und zuverlässig anspricht, dann hast du Recht

Kann man so sehen. Man könnte aber auch sagen, dass alle anderen Netzteile erst abschalten, wenn es wirklich zu einem Problem kommen würde.
Wäre das Verhalten der Schutzschaltung so gewünscht, hätte Seasonic wohl nicht schon seit Januar 2018 die eigenen Netzteile überarbeitet und dieses "Feature" angepasst.

Dass es abseits dessen für alle Parteien (zumindest den Kunden) sinnvoll wäre, wenn es dazu eindeutige Grenzen und Vorgaben geben würde, wird wohl keiner bestreiten.

Ex3cut3r
2018-11-24, 20:16:06
Hat Vega irgendwie einen Bug? Oder warum schmeckt ihr 3440x1440 nicht so? War ziemlich erschrocken über die Performance im Vergleich zur 2070.
s45dxvgOt9k

Digidi
2018-11-24, 20:48:34
Hat Vega irgendwie einen Bug? Oder warum schmeckt ihr 3440x1440 nicht so? War ziemlich erschrocken über die Performance im Vergleich zur 2070.
http://youtu.be/s45dxvgOt9k

Was ich irgendwie seltsam finde ist das gute abschneiden der 2070 gegenüber 2080 und 2080ti. Das Teil hat die hälfte der Geometrieeinheiten aber ist gerade mal 15% langsamer als eine 2080 hmmmmm

Das würde bedeuten GPUs wären Shader Bound!

Ex3cut3r
2018-11-24, 21:14:22
Frage ich mich auch, irgendwie kommt die 2070 da fast schon zu gut weg. :uponder:

Langlay
2018-11-24, 21:43:04
In Forza taktet die Vega ~1600MHz und in dem Gears of War dann mit ~1420 Mhz.

Das erscheint mir etwas seltsam, aber ich kenne Gears of War nicht.

https://abload.de/img/vega1wod9k.jpg

https://abload.de/img/vega25xfpt.jpg

Digidi
2018-11-24, 21:48:03
In Forza taktet die Vega ~1600MHz und in dem Gears of War dann mit ~1420 Mhz.

Das erscheint mir etwas seltsam, aber ich kenne Gears of War nicht.

https://abload.de/img/vega1wod9k.jpg

https://abload.de/img/vega25xfpt.jpg

Zurzeit ist alles etwas Seltsam. Unterschiedliche Auflösung und fast gleiche FPS bei Battelfield V wenn man nur Polygonenfeatures aktiviert und den rest deaktiviert. Nur zur Info das lezte Battelfield was ähnlich aussah hatte bei solchen Einstellungen gut 300 FPS

https://picload.org/infonail/dclgdplr/2018.11.24-21.45.jpg (https://picload.org/view/dclgdplr/2018.11.24-21.45.png.html)
https://picload.org/infonail/dclgdpla/2018.11.24-21.45_01.jpg (https://picload.org/view/dclgdpla/2018.11.24-21.45_01.png.html)

Ex3cut3r
2018-11-24, 21:50:56
Hmm, das mit dem Takt ist mir gar nicht aufgefallen, gute Beobachtung, aber erklärt 200mhz weniger dann trotzdem den Abstand?

Digidi
2018-11-24, 22:01:41
@Langly

auch seltsam ist das bei Assasins Creed bei der 2070 die CPU um 50% mehr ausgelastet wird. Hat Nvidia einiges auf die CPU ausgelagert ?

https://picload.org/thumbnail/dclgdpcc/asso.jpg (https://picload.org/view/dclgdpcc/asso.png.html)

Ex3cut3r
2018-11-24, 22:08:23
Ja, der Nvidia Treiber kann Kerne für die Treiberlast unter DX11 benutzen, deswegen ist, ein für ein "viele Kerne nutzt ein Game" Test, der Nvidia Treiber Bullshit, weil das nix über die tatsächliche Thread Benutzung aussagt. Deswegen hat Nvdia aber auch schnelleres DX11 bzw. höhere FPS im CPU Limit als AMD. Wurde damals 2014 mit den Wundertreiber 337.50 eingeführt.

Deswegen laufen diese ganzen E-Sport Titel auf der Geforce schneller, weil die meistens schreckliches MT beherrschen und der Nvidia Treiber da unter die Arme greift. Man profitiert halt auch ungemein, wenn man noch ein langsame CPU hat, und viele DX11 Spiele spielt. AMD hat/braucht halt DX12 nur das ist ja selbst stand heute, meistens nicht zu gebrauchen.

Obwohl die meisten natürlich AAA Spiele in 1440p oder höher spielen + potenter CPU, dann ist es natürlich eher nebensächlich.

Digidi
2018-11-25, 03:38:03
Ich vermute eher das Nvidia einige Berechnungen auf die CPU auslagert. Z.B. Rasterized Order View oder andere Features wären super dafür geeignet
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D


Das würde dann auch erklären warum Nvidia mit einer schlechten CPU dann auch so schlecht läuft:

https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html

dildo4u
2018-11-25, 07:00:54
Das Problem mit den 32 Kern Threadripper wurde schon längst gefixt.

https://www.pcper.com/reviews/Graphics-Cards/New-GeForce-Driver-Fixes-Performance-Issue-Threadripper-2990WX-Tested

Es ist klar daß er mit einer AMD GPU immer gut lief,da AMD ihn vor der Markteinführung testen konnte und Nvidia nicht.

BlackArchon
2018-11-25, 08:28:54
Das Problem mit den 32 Kern Threadripper wurde schon längst gefixt.

https://www.pcper.com/reviews/Graphics-Cards/New-GeForce-Driver-Fixes-Performance-Issue-Threadripper-2990WX-Tested

Es ist klar daß er mit einer AMD GPU immer gut lief,da AMD ihn vor der Markteinführung testen konnte und Nvidia nicht.
Da der Bug mit der niedrigen Performance von Nvidia-GPUs bei 32 Kern-/64-Thread-Systemen schon seit einer Weile bekannt war und auch genauso bei Intel-Systemen auftrat, kann ich deine Begründung nicht nachvollziehen.

Siehe dazu auch:
- https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11028183#post11028183
- https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11773743#post11773743

dildo4u
2018-11-25, 08:33:39
Möglich das sich der Gameingtreiber von den Quadro Version unterscheidet,dort könnte ich mir eher vorstellen,das Nvidia mit High-Core Count Xeons getestet hat.
Könnte auch eine absichtliche Segmentierung gewesen sein NV verkauft sicherlich seine GPUs lieber als Quadro für mehr Kohle.

huey
2018-11-25, 09:20:11
@Langly

auch seltsam ist das bei Assasins Creed bei der 2070 die CPU um 50% mehr ausgelastet wird. Hat Nvidia einiges auf die CPU ausgelagert ?

https://picload.org/thumbnail/dclgdpcc/asso.jpg (https://picload.org/view/dclgdpcc/asso.png.html)

Deswegen fehlt mir bei heutigen Vergleichtests neben dem Kartenverbrauch der Systemverbrauch. Wenn beim Nvidia Rechner der CPU-Verbrauch dadurch um 10+ Watt ansteigt relativiert sich schnell mal einiges. Vielleicht sind es ja auch nur 3 Watt, aber man kann es halt als Laie nicht überprüfen und ich verstehe nicht warum man nicht einfach während der Messungen den Verbrauchten Strom mit aufzeichnet und angibt.

Locuza
2018-11-25, 10:01:00
Ich vermute eher das Nvidia einige Berechnungen auf die CPU auslagert. Z.B. Rasterized Order View oder andere Features wären super dafür geeignet
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D
[...]
Wie bist du auf den Gedankengang gekommen Digidi, dass z.B. ROVs super wären, um auf der CPU berechnet zu werden?

dargo
2018-11-25, 10:41:17
In Forza taktet die Vega ~1600MHz und in dem Gears of War dann mit ~1420 Mhz.

Das erscheint mir etwas seltsam, aber ich kenne Gears of War nicht.

https://abload.de/img/vega1wod9k.jpg

https://abload.de/img/vega25xfpt.jpg
Daran ist nichts seltsam. Bei Forza Horizon 4 ist die ASIC Power bei mir auch einiges niedriger als in GoW4. Wenn man die Telemetrie von AMD nicht verlässt taktet die GPU entsprechend höher da mehr Raum im Power-Budget vorhanden ist.

aufkrawall
2018-11-25, 11:23:30
Das würde dann auch erklären warum Nvidia mit einer schlechten CPU dann auch so schlecht läuft:

https://www.golem.de/news/32-kern-cpu-threadripper-2990wx-laeuft-mit-radeons-besser-1808-136016.html
Und warum sollte ausgerechnet ein Kerne-Monster darunter leiden, falls dem wirklich so wäre? Logik?
(Und dass der verlinkte Test etwas ganz anderes zeigt, wurde auch schon zig Mal durchgekaut.)

Digidi
2018-11-25, 13:40:13
Wie bist du auf den Gedankengang gekommen Digidi, dass z.B. ROVs super wären, um auf der CPU berechnet zu werden?

Alles was dem Rasterizer untergeordnet ist kann sich eigentlich super auf die CPU ausgelagert werden dachte ich mir. Man hat nur 4-6 Rasterizer das würde super zu 4-6 Computerkernen passen. Die Arbeiten am Polygon ausführen.

Das es auf Threadripper nicht läuft sind den Besonderheiten der CPU geschuldet. 32 Kerne lassen sich nun mal schwerer verwalten.

Freestaler
2018-11-25, 14:24:56
Alles was dem Rasterizer untergeordnet ist kann sich eigentlich super auf die CPU ausgelagert werden dachte ich mir. Man hat nur 4-6 Rasterizer das würde super zu 4-6 Computerkernen passen. Die Arbeiten am Polygon ausführen.

Das es auf Threadripper nicht läuft sind den Besonderheiten der CPU geschuldet. 32 Kerne lassen sich nun mal schwerer verwalten.
Moment, NV hat(te) nen Bug ab dem 64 Core. Egal ob AMD, Intel, 1 Sockel oder 2 Sockel Systeme. Mit 63 war alles Top. Das hat also nicht mit TR oder mit 32 sind halt viel zu tun. Zudem ist der nun gefixt.

Digidi
2018-11-25, 14:48:08
Moment, NV hat(te) nen Bug ab dem 64 Core. Egal ob AMD, Intel, 1 Sockel oder 2 Sockel Systeme. Mit 63 war alles Top. Das hat also nicht mit TR oder mit 32 sind halt viel zu tun. Zudem ist der nun gefixt.

Jo was ja trozdem nicht an meiner Theorie ändert das Nvidia wesentliche Funktionen auf die CPU auslagert.

aufkrawall
2018-11-25, 15:25:13
Aha, deswegen läufts im CPU-Limit ja auch schneller. So plausibel. :uclap:

Digidi
2018-11-25, 15:42:31
Aha, deswegen läufts im CPU-Limit ja auch schneller. So plausibel. :uclap:

Hä? Wenn die alle mit 5 GHZ Prozessor testen ja dann läuft es im CPU limit schneller weil der Prozessor mit 5 GHZ wo sie immer schön Benchmarken einfach noch mehr rausholt.

Die Funktionen müssen auf dem Prozessor nicht unbedingt langsamer sein.

AffenJack
2018-11-25, 16:06:50
Aha, deswegen läufts im CPU-Limit ja auch schneller. So plausibel. :uclap:

Denk dran, CPU Rendering ist generell immer schneller. Deshalb spielen wir auch alle auf CPUs :freak:.

Digidi
2018-11-25, 16:09:48
Denk dran, CPU Rendering ist generell immer schneller. Deshalb spielen wir auch alle auf CPUs :freak:.

Ich habe mir schon lange überlegt ob das wirklich so ist. Wie gesagt du hast 4 - 6 Rasterengines die laufen alle mit 2 GHZ takt. Eine CPU läuft mit 4 GHz und hat 8 Kerne. Das könnte man schon auslagern.

Klevapalis
2018-11-26, 11:02:49
Wie gesagt du hast 4 - 6 Rasterengines die laufen alle mit 2 GHZ takt. Eine CPU läuft mit 4 GHz und hat 8 Kerne. Das könnte man schon auslagern.
Dir ist hoffentlich schon klar, dass die "Rechenleistung" von spezialisierten Hardwareeinheiten um Größenordnungen größer ist, als von universellen Einheiten wie auf einer CPU? :rolleyes:

Kurz: Völliger Blödsinn die ganze Theorie.

Daredevil
2018-11-26, 18:36:58
Kapitel Zwei von "Warum ich meine stromfressende Vega eigentlich doch sehr lieb habe".

1080ti Multimonitor Verbrauch WQHD@144hz ( Lüfter laufen noch, weil ich gerade Battlefield am spielen war )
https://abload.de/img/multinvilncb5.gif

Vega 64 Multimonitor Verbrauch WQHD@144hz
https://abload.de/img/multiamd1xesz.gif

N idle Takt von 1455/1377 und ihr beschwert euch hier bei 500mhz Speichertakt Problemen im AMD Treiber... :D
( jaja ich weiß, Nv Inspector )

Sven77
2018-11-26, 20:09:50
dafür kann der AMD Treiber keine 2 Monitore mit verschiedenen Refresh Rates beliefern und schon gar nicht kann man dynamisch per Profil switchen

aufkrawall
2018-11-26, 20:18:39
dafür kann der AMD Treiber keine 2 Monitore mit verschiedenen Refresh Rates beliefern

Was passiert denn dann?


und schon gar nicht kann man dynamisch per Profil switchen
Was denn switchen? ;)

Linmoum
2018-11-26, 20:25:56
dafür kann der AMD Treiber keine 2 Monitore mit verschiedenen Refresh Rates beliefern
Dann muss ich wohl Glück haben.

BeetleatWar1977
2018-11-26, 20:31:50
Dann muss ich wohl Glück haben.
Und ich auch - zumindestens 60hz/30Hz hatte ich schon probiert - und 60/75 gingen auch^^

Sven77
2018-11-26, 20:41:40
60/144Hz Fehlanzeige..

Daredevil
2018-11-26, 20:49:19
Wie meinst du, du kannst keine zwei Monitore beliefern?
Wieso sollte das nicht gehen?

Ich hatte letzte Woche noch ein FHD 144hz / QHD 144hz / HD 60hz Setup und dit läuft halt so, wie man es erwartet.

Langlay
2018-11-26, 21:14:13
Hier auch 1440p 144Hz & 1080p 60Hz ohne Probleme am laufen.

pilzsammler2002
2018-11-26, 21:16:20
Hier auch 1440p 144Hz & 1080p 60Hz ohne Probleme am laufen.

Me2...
Obwohl einmal 2560x1080-144 und einmal 1080p-75
Beide mit freesync und funktioniert :)

aufkrawall
2018-11-26, 21:19:33
Geht sogar mit Polaris unter Linux :freak: :
https://github.com/yshui/compton/issues/56

Birdman
2018-11-26, 21:23:56
Er meint wohl in Bezug auf die Powerstates - dass verschiedene Auflösungen/Refreshrates grundsätzlich funktionieren steht ja ausser Frage.
1080p/60hz + 1440p/144hz waren damals bei meiner GTX970 auch nur mit höherem Powerstate möglich, lediglich 1080p/60hz + 1440p/120hz gingen out of the Box im tiefsten state. (der nV Treiber bietet aber an dass in 3D Anwendungen das primäre Display automatiscch auf 144Hz geht, daher war das bei mir kein Beinbruch, 120Hz im Desktop waren für mich akzeptabel)

Raff
2018-11-26, 21:49:28
RTX ON! Auf einer Vega-GPU!! (https://www.instagram.com/p/BqplZWdh7MD/)

;D

MfG,
Raff

horn 12
2018-11-26, 21:52:52
Wie gut ist das Horror Vampir-Game: VampYr
auf einer RX Vega 64
und lohnt das Game @Raff wirklich?

Langlay
2018-11-26, 21:53:16
Er meint wohl in Bezug auf die Powerstates - dass verschiedene Auflösungen/Refreshrates grundsätzlich funktionieren steht ja ausser Frage.
1080p/60hz + 1440p/144hz waren damals bei meiner GTX970 auch nur mit höherem Powerstate möglich, lediglich 1080p/60hz + 1440p/120hz gingen out of the Box im tiefsten state. (der nV Treiber bietet aber an dass in 3D Anwendungen das primäre Display automatiscch auf 144Hz geht, daher war das bei mir kein Beinbruch, 120Hz im Desktop waren für mich akzeptabel)

Ist hier bei mir auch kein Thema, 1440p144 und 1080p60 mit 27/150 MHz im Idle mit Vega56.

Digidi
2018-11-26, 23:31:25
Dir ist hoffentlich schon klar, dass die "Rechenleistung" von spezialisierten Hardwareeinheiten um Größenordnungen größer ist, als von universellen Einheiten wie auf einer CPU? :rolleyes:

Kurz: Völliger Blödsinn die ganze Theorie.

Eben nicht. Damals hat man Dedizierte weil die CPU meist nur 2 Kerne hatte. Schon ganz früher lief das schon nur über die CPU. Jetzt haben CPUs 8 Kerne und man kann es zurückholen auf die CPU. T&L lief z.B. Am Anfang recht bescheiden auf GPUs wurde aber dann interessant als man eine 2 Graficpipline integrierte.

Klevapalis
2018-11-27, 00:01:30
Eben nicht. Damals hat man Dedizierte weil die CPU meist nur 2 Kerne hatte. Schon ganz früher lief das schon nur über die CPU. Jetzt haben CPUs 8 Kerne und man kann es zurückholen auf die CPU. T&L lief z.B. Am Anfang recht bescheiden auf GPUs wurde aber dann interessant als man eine 2 Graficpipline integrierte.
Was ein Blödsinn ;D

Den unterschied dediziert vs. universell kann man sehr schön beim Video Decodieren betrachten:
https://images.techhive.com/images/article/2016/08/kaby_lake_better_4k_battery_life-100678701-orig.png
Da steckt mal eben so ein Faktor 20 in der Effizienz drin. Selbst bei so etwas poppeligem wie ein Videofile decodieren und anzeigen. Wie soll das da bitte mit TnL funktionieren? ;D
Und du ignorierst vollständig die Latenz zwischen "GPU berechnet TnL" und "CPU berechnet TnL, sendet es an die GPU, die GPU rechnet weiter". Alleine die PCIe Latenz verhagelt dir jede Framerate.

Nein, das ist substanzloser Blödsinn, den du da von dir gibst.

Locuza
2018-11-27, 06:35:16
Auch wenn Klevapalis ein radikales Teilchen ist, seine Punkte sind schlüssig.
Du wirst keine gute Performance mit Software Rasterization erreichen, wenn ein Ping-Pong der Daten bezüglich CPU und GPU abläuft.

Klevapalis
2018-11-27, 10:36:41
Du wirst keine gute Performance mit Software Rasterization erreichen, wenn ein Ping-Pong der Daten bezüglich CPU und GPU abläuft.
Ich frage mich wirklich, wie wenig Ahnung man von CPU, GPUs und Rasterization haben kann, um solche eine völlig blödsinnige Theorie sich auszudenken.

Ist schon Flat Earth Niveau.

Digidi
2018-11-27, 21:08:31
Ich frage mich wirklich, wie wenig Ahnung man von CPU, GPUs und Rasterization haben kann, um solche eine völlig blödsinnige Theorie sich auszudenken.

Ist schon Flat Earth Niveau.
Dann sag mir doch warum Nvidia gut 100% Mehrauslastung hat?

T&L konnte Auch die CPU berechnen und jetzt verrät ich dir etwas in der ersten Generation war T&L über CPU fast genau so schnell wie über GPU..

Bis zum Rastweiter liegt alles kompakt in Matrixform da. Die richtige Arbeit entsteht dann erst nach dem Rastweiter. Deshalb hat man 4-6 Rasterizer und dann 3000 Shader...

Erst bei den Shadern geht es richtig zur sache was Parallelität angeht.

gravitationsfeld
2018-11-27, 22:12:46
Alles was dem Rasterizer untergeordnet ist kann sich eigentlich super auf die CPU ausgelagert werden dachte ich mir. Man hat nur 4-6 Rasterizer das würde super zu 4-6 Computerkernen passen. Die Arbeiten am Polygon ausführen.

Das es auf Threadripper nicht läuft sind den Besonderheiten der CPU geschuldet. 32 Kerne lassen sich nun mal schwerer verwalten.
Ein Threadripper kommt nicht mal ansatzweise an Mainstream-GPU-Leistung ran und verbrennt um nicht unsignifikante Faktoren mehr Leistung. Selbst wenn 32 Ryzen-Kerne bei 4Ghz laufen wuerden (was sie nicht tun), haette man gerade mal ein 2 TFLOP/s peak. Eine GTX 1060 kommt mit einem Die, das vergleichbar gross ist wie nur ein Ryzen-8-Kern-Chip auf 4.3 TFLOP/s. CPU FPUs sind viel zu sehr auf Latenz getrimmt und brauchen viel mehr Flaeche und mehr Verlustleistung als GPU-Einheiten.

Kurz: Nein.

Digidi
2018-11-27, 22:15:02
Ein Threadripper kommt nicht mal ansatzweise an Mainstream-GPU-Leistung ran und verbrennt um nicht unsignifikante Faktoren mehr Leistung.

Kurz: Nein.
Bei was genau? Schon Mal getestet? Es geht ja auch nicht um das Shading.

gravitationsfeld
2018-11-27, 22:18:34
Um was denn sonst?

Digidi
2018-11-27, 22:19:37
Um was denn sonst?

Culling transformation von Vertrxdaten etc..

gravitationsfeld
2018-11-27, 22:20:39
Warum sollte man das tun? Dafuer hat man fixed function Hardware die das gleiche viel schneller und viel effizienter erledigt. Vor allem bei NVIDIA.

Und abgesehen davon ist das mit Vulkan und DX12 schlicht unmoeglich

Digidi
2018-11-27, 22:22:43
Warum sollte man das tun? Dafuer hat man fixed function Hardware die das gleiche viel schneller und viel effizienter erledigt. Vor allem bei NVIDIA.

Und abgesehen davon ist das mit Vulkan und DX12 schlicht unmoeglich

Ist das wirklich so? Ich kann mir gut vorstellen daß man einiges auslagert. Man spart Chipfläche und kann dafür andere Dinge integrieren.

Ein Benchmark wäre Mal nett.

gravitationsfeld
2018-11-27, 22:23:10
Ja, das ist wirklich so.

pixeljetstream
2018-11-27, 22:51:42
Mal abgesehen davon dass dann auch noch alles durch den bus müsste. Wenn diese Art Auslagerung ein Mittel wäre, würden es die Engineentwickler doch selber machen...

Digidi
2018-11-27, 22:59:33
Was treibt eigentlich Sebbi da?

https://twitter.com/SebAaltonen/status/1067489977683140610

Worüber läuft den das LOD in den Spielen mit Weitsicht? Auch über die GPU?

gravitationsfeld
2018-11-27, 23:05:38
In der Regel noch auf der CPU, aber der Trend geht in die Richtung das auch auf die GPU auszulagern.

horn 12
2018-12-21, 16:02:16
@Sun-man

Welchen Speicher verbaut auf deiner RX Vega Pulse ?

sun-man
2018-12-21, 16:25:48
Steht das irgendwo? Keine Lust die Kollegin nochmal auszubauen.

gbm31
2018-12-21, 16:28:50
Gpu-z

sun-man
2018-12-21, 16:32:15
Hynix. Gut? Schlecht? Normal?

horn 12
2018-12-21, 16:33:40
Besser wäre Samsung HBM ²

gbm31
2018-12-21, 16:35:47
Besser wäre Samsung HBM ²


Quatsch!

Wäre nur relevant wenn es ein 64er BIOS gäbe.

sun-man
2018-12-21, 16:44:02
Naja, ich spiele damit. Ich hab auch die 390'er nie angefasst. An das UV werde ich mich aber mal wagen, irgendwann :D

Daredevil
2018-12-21, 17:12:39
Samsung hat halt in der Regel mehr OC Möglichkeiten.
Wenn du aber eh beim 56er Bios bleibst, ist das völlig latte, da das 56er Bios meist eh nur Spannung liefert bis ~920-980Mhz. Mit dem 64er und Samsung kommste dann halt auf ~1000-1100.

Bios flashen ist heutzutage aber echt ein Kinderspiel. Das geht im Windows mit einem Klick, die passenden Bios Versionen bekommt man alle bei Techpowerup.
Da Vega in der Regel eh zwei Bios hat, bleibt da auch kaum ein Risiko.

Für maximale Effizienz kann man ruhig auch mal eine Vega64 auf das Vega56 Bios flashen, weil dort bei gleichem PowerLimit höhere Taktraten anliegen. :) ( Da die Min. Spannung niedriger ist, z.B. beim HBM2 )

Freestaler
2018-12-21, 17:15:22
Hat eigentlich schon einer ein lce vega 64 bios auf ne saphirre nitro 64 geflasht?

Daredevil
2018-12-21, 17:48:38
Was versprichst du dir davon?

sun-man
2018-12-21, 17:49:50
Ach Moment....hat die nicht 2 Biosversionen die man irgendwie an der Karte umschalten kann? Muss ich die Tage wirklich mal schauen wo die steht.

Ich muss jetzt erstmal aufhören geflasht zu sein. Dying Light in 4k/Hoch? Ich krieg das Grinsen nicht mehr aus der Fresse :D

gbm31
2018-12-21, 18:39:48
Ach Moment....hat die nicht 2 Biosversionen die man irgendwie an der Karte umschalten kann? Muss ich die Tage wirklich mal schauen wo die steht.

Ich muss jetzt erstmal aufhören geflasht zu sein. Dying Light in 4k/Hoch? Ich krieg das Grinsen nicht mehr aus der Fresse :D

Es gibt keine 64er Pulse, müsstest also ein 'fremdes' BIOS draufmachen.

Mein Hynix geht auf 955MHz, das reicht mir.

sun-man
2018-12-21, 18:56:24
?aber die hat 2 biose. Irgendwo ist auch ein Umschalter

gbm31
2018-12-21, 19:41:26
?aber die hat 2 biose. Irgendwo ist auch ein Umschalter


Die 2 BIOSse unterscheiden sich nur im PT. 180W und silent 165W. Der Schalter ist seitlich bei der Blende.

Den hab ich noch nie genutzt. 180W BIOS und dann ODT oder Wattmann - der tut ganz gut.



Der Trick mit dem 64er BIOS auf einer 56 ist der dass die 56 die Speicher nur mit 1.25V speisst und die 64 mit 1.35V.

Dazu nutzt man aber die BIOSse der jeweiligen grossen Schwester. Also z.B. Nitro+ 64 auf Nitro+ 56.

Die Pulse hat keine grosse Schwester. Da ist mir das Risiko gegenüber der Performance zu gross, vor allem da mein HBM ganz gut geht.

sun-man
2018-12-21, 19:54:02
Verstehe. Danke.

Ich hab eiun etwas seltsames Verhalten wenn der Rechner aus dem Standby kommt. Irgendwie ist meine Soundkarte stumm geschaltet, knackt kurz und sie ist wieder da. Sieht man am Icon.

Ich habs jetzt nochmal versucht. DDU freezt IMMER an der gleichen Stelle den kompletten Rechner. Ist der 18.12.3 (mit dem alten habe ich noch nicht gespielt da ich den 18.12.3 scheinbar nicht sauber runter krieg). Ist jetzt aber kein Beinbruch für mich, geht auch so.

gbm31
2018-12-21, 20:15:11
Ich hab ohne DDU 6wischen den Treiberversionen geswitched, immer Wattman/ODat zurückgesetzt, deinstalliert, neu gestartet, installiert.

BeetleatWar1977
2018-12-21, 20:16:19
Die 2 BIOSse unterscheiden sich nur im PT. 180W und silent 165W. Der Schalter ist seitlich bei der Blende.

Den hab ich noch nie genutzt. 180W BIOS und dann ODT oder Wattmann - der tut ganz gut.



Der Trick mit dem 64er BIOS auf einer 56 ist der dass die 56 die Speicher nur mit 1.25V speisst und die 64 mit 1.35V.

Dazu nutzt man aber die BIOSse der jeweiligen grossen Schwester. Also z.B. Nitro+ 64 auf Nitro+ 56.

Die Pulse hat keine grosse Schwester. Da ist mir das Risiko gegenüber der Performance zu gross, vor allem da mein HBM ganz gut geht.


Performancevergleich - mal 800Mhz und mal 1100Mhz, ich hab ja ein 64er auf meiner 56er drauf:

https://abload.de/img/grw_2018_12_20_05_46_8ac0z.jpg

https://abload.de/img/grw_2018_12_20_05_49_rsdsy.jpg

gbm31
2018-12-21, 20:20:34
Danke! Mach Mal bitte 955 vs 1100

BeetleatWar1977
2018-12-21, 20:37:16
Danke! Mach Mal bitte 955 vs 1100
hier die mit 955 - gleiche Settings ansonsten wie oben:
https://abload.de/img/grw_2018_12_21_20_33_77dvt.jpg

gbm31
2018-12-21, 20:43:33
Danke! Welchen GPU Takt dazu? Kann AB nicht erkennen...

BeetleatWar1977
2018-12-22, 04:28:47
Danke! Welchen GPU Takt dazu? Kann AB nicht erkennen...

Ca. 1530 MHz effektiv bei 220W Powertarget mit UV. Wenn du mir ein PT vorgibst kann ich's nochmal laufen lassen.

gbm31
2018-12-22, 04:39:55
Ca. 1530 MHz effektiv bei 220W Powertarget mit UV. Wenn du mir ein PT vorgibst kann ich's nochmal laufen lassen.


Alles gut. Danke fürs Benchen!

Passt in mein "Weltbild" - von default zu meiner Übertaktung zu deiner sind es jeweils ca. 1 FPS.

Mir zu wenig um zu flashen. (Also die Pulse ohne "passendes" 64er BIOS)

sun-man
2018-12-22, 08:05:21
Ich hab ohne DDU 6wischen den Treiberversionen geswitched, immer Wattman/ODat zurückgesetzt, deinstalliert, neu gestartet, installiert.
An sich mache ich das auch. Aber beim Wechsel der Graka räume ich dann doch mal auf. Beim ersten Entfernen war ja alles OK, 390 raus, Vega rein. Probiert Treiber zu installieren und da war der erste freeze. Irgendwie war der Spaß dann nur so halb installiert und ich wollte es sauber. Dann hab ich bemerkt das beim Reinigen immer die gleiche Stelle freezt.

Da Just Cause 4 schit läuft und Lara auch mal ne Pause braucht wird der Witcher geladen. Den in 4k oder 1440 mit allen Optionen? Krassnojarsk :D. Ick freu mir so das es so gut klappt :)

Daredevil
2018-12-22, 08:25:21
Wenn ihr Taktraten bei Power Limits vergleicht, denkt dran, dass die Spannungsversorgung einen großen Einfluss haben kann auf diese Ergebnisse.
200w Asic bei einer Ref sind deutlich mehr an der Steckdose, als z.B. 200w Asic bei einer guten+kühlen Custom Karte. Das schlägt sich sowohl in Hitze, Stromverbrauch und bestimmt auch zu kleinen Teilen in Takt nieder.

gbm31
2018-12-22, 14:36:35
Wenn ihr Taktraten bei Power Limits vergleicht, denkt dran, dass die Spannungsversorgung einen großen Einfluss haben kann auf diese Ergebnisse.
200w Asic bei einer Ref sind deutlich mehr an der Steckdose, als z.B. 200w Asic bei einer guten+kühlen Custom Karte. Das schlägt sich sowohl in Hitze, Stromverbrauch und bestimmt auch zu kleinen Teilen in Takt nieder.


Die Powerlimits die ich angebe sind nur informativ als max. Last zu sehen.
Im ODT oder Wattman steht das PT auf +50%, die Karte wird nicht übers PT begrenzt.

Hasenpfote
2018-12-22, 22:36:13
Also bezugnehmend auf die Post von gbm31 (aktuell noch im Preise-Thread) muss ich sagen, dass die Pulse echt genial ist. Dieser Durchpustkühler scheint einen Riesenunterschied zu machen. Die Nitro+ stinkt dagegen sowas von ab, trotz dreier Lüfter und einem riesenfetten Kühler. Oder irgendwas anderes sorgt für diesen eklatanten Unterscheid (1150Umin Pulse vs. 1400Umin Nitro+)

@gbm31: Wie sieht deine restliche Belüftung aus?

Langlay
2018-12-23, 00:47:29
Wenn ihr Taktraten bei Power Limits vergleicht, denkt dran, dass die Spannungsversorgung einen großen Einfluss haben kann auf diese Ergebnisse.
200w Asic bei einer Ref sind deutlich mehr an der Steckdose, als z.B. 200w Asic bei einer guten+kühlen Custom Karte. Das schlägt sich sowohl in Hitze, Stromverbrauch und bestimmt auch zu kleinen Teilen in Takt nieder.

Die Spannungversorgung der Referenz Vega ist schon sehr gut, ich glaub nicht das CustomVegas da vom Wirkungsgrad der Spannungsversorgung deutlich besser ist. Und mit Wakü kommt von den Temps da auch keine Customkarte ran.

gbm31
2018-12-23, 10:42:53
...

@gbm31: Wie sieht deine restliche Belüftung aus?


Siehe Avatar - im geschlossenen Gehäuse aber kaum anders, weil von vorne unten frische Luft reingeschaufelt wird von einem 140er, die Pulse die verbrauchte Luft durch die kurze Karte effektiv nach oben zur CPU bläst, der CPU Kühler diese nach hinten zieht, wo sie von einem 120er rausgeschafft wird.


Evtl wurde bei meiner auch die WLP mal richtig aufgetragen... Aber beim Test von Igor (Tomshardware) ist auch schon aufgefallen dass das Kühlkonzept die Vega gut bändigt.

Daredevil
2018-12-23, 10:48:50
Die Spannungversorgung der Referenz Vega ist schon sehr gut, ich glaub nicht das CustomVegas da vom Wirkungsgrad der Spannungsversorgung deutlich besser ist. Und mit Wakü kommt von den Temps da auch keine Customkarte ran.

Du musst es ja auch nicht glauben, CB hat es ja für uns getestet bei der Nitro+. :)

Hasenpfote
2018-12-23, 18:08:14
...
Evtl wurde bei meiner auch die WLP mal richtig aufgetragen... Aber beim Test von Igor (Tomshardware) ist auch schon aufgefallen dass das Kühlkonzept die Vega gut bändigt.Also auch beim Gehäuse nix besonderes. "Gut bändigt" ist ja wohl untertrieben. Die Karte wird damit geradezu alltagstauglich...

Bin gespannt, ob wir mehr Karten mit dem "Durchpust"-Kühlkonzept sehen werden. Ich bin auf jeden Fall sehr beeindruckt und ärgere mich ein bisschen über die Nitro. Ich werd sie nicht zurückschicken, aber dass sie 5 Jahre bei mir bleibt, stell ich schon mal in Frage...

sun-man
2018-12-23, 18:18:55
Also die Pulse ist lauter als doe 390 Nitro mit 3 Lüftern. Aber auch alles in einem Rahmen der mich nicht davon abhält die Karte zu behalten.

https://abload.de/thumb/img201812211422401920rwdqv.jpg (https://abload.de/image.php?img=img201812211422401920rwdqv.jpg)

Freestaler
2018-12-23, 19:30:19
Standard wäre meine nitro 64 auch nicht geblieben. Zu laut. Mit UV (950mV/1550RealerMHZ) und Lüfter unter 1400rpm ist jedoch wirklich okay. So schlecht ist die Nitro nicht Einzige mein speicher der nur bis 1000 geht nerft ;-).

Seth
2018-12-23, 21:31:06
Selbst Standard läuft der Lüfter doch mit max. 1500rpm. Finde ich nicht wirklich laut.

Deathcrush
2018-12-23, 22:09:55
1500 nicht laut? ab 1200 wird es erst erträglich wie ich finde bei meiner Nitro

Freestaler
2018-12-23, 22:15:11
Selbst Standard läuft der Lüfter doch mit max. 1500rpm. Finde ich nicht wirklich laut.
Ja, ich empfinde 1500 mit Peak Richtung 1700 im Default als laut. Sogar an der Grenze zu sehr laut. Wobei ich wohl mit einer klaren Tendenz zum "silentPC" lebe. ;-) Und die grösste Frage, welche Vega (ohne Customumbau) ist leiser?

ecodriver
2018-12-24, 11:21:12
Wenn eine Vega richtig silent werden soll dann muss man Sie mMn Umbauen (auf einen Morpheus).
Gibt auch schöne Anleitungen dafür z.B. bei PC Games Hardware.

Deathcrush
2018-12-24, 13:23:00
Meine Vega wird mit 1200rpm gerade mal 61C warm (@1600mhz), wäre also sogar noch Luft nach untern bei der Drehzahl. Keine Ahnung was so der Morpheus leistet, ist der wirklich so viel besser?

sun-man
2018-12-27, 18:54:11
Na mal sehen. Der Code für die 3 Games ist, laut "Amdrewards" bereits benutzt. Jetzt heisst es beide Seiten abklappern. Mal sehen was CB und AMD da machen :(

Rahl
2018-12-29, 11:49:23
Hi, weiß ja nicht ob es da her passt? Aber wie erkennt man den unterschied zwischen den BIOS Versionen die man mit dem Swich auswählen kann bei der Vega 56 Sapphire Nitro+ ?
Mit GPU-Z und unter Belastung brauchen bei mir beide Bios: 180 W (GPU) gehen auf ca 1400-1430 MHZ Lüfter auf 1300 U/min, zum belasten habe ich den GPU Test Fury Donat von EVGA genommen.
Da ich diese Karte gebraucht erworben habe weiß ich nicht ob da noch die Original BIOS Versionen drauf sind.
Im Silent Bios sollte da doch weniger verbrauch sein oder?

Daredevil
2018-12-29, 13:51:09
Genau, im Silent Bios sollte bei gleichem Power Target der Verbrauch niedriger sein als beim Standard unter Standard Settings.

Beispiel Nitro+ 64
Standard Bios: 250w Asic
Silent Bios: 210w Asic

Das bedeutet aber auch, dass ich bei -50PT deutlich tiefer gehen kann. ( Nutze das Setting meist für Spiele mit wenig Anforderungen wie WoW oder Rocket League bzw. Indie Games ).
Da geht der Verbrauch dann halt nicht auf 125w runter, sondern auf 105w.
Mit einem reinen Vega56 Ref Bios geht man auf 82w runter.

gbm31
2018-12-30, 13:14:02
Das bedeutet aber auch, dass ich bei -50PT deutlich tiefer gehen kann. ( Nutze das Setting meist für Spiele mit wenig Anforderungen wie WoW oder Rocket League bzw. Indie Games ).
Da geht der Verbrauch dann halt nicht auf 125w runter, sondern auf 105w.
Mit einem reinen Vega56 Ref Bios geht man auf 82w runter.


Ich mache das mit Chill bzw FRTC.

Z.B. für den jetzigen Durchlauf Dragon Age Origins, wo immer zwischen 150 und 700 FPS anliegen - mit FRTC auf die Monitor-Wiedergabe begrenzt ergibt 20-50W ASIC.

MikePayne
2019-01-08, 12:50:08
ich habe mit einer Vega64 Referenz Design @ LC Bios @ 150% PT ein 600 Watt Seasonic Prime Netzteil zum Abschalten gebracht. Wenn man Vega freie Bahn gibt, saufen die Karten unglaublich viel Strom. Darum würde ich mit einer Vega nicht unter 750 Watt anfangen. (Posting aus dem RTX 2060 Thread, aber kein Bock da weiter OT zu posten)

Vega 64 != Vega 56
PT 150% :rolleyes:

Die 750W Empfehlung ist mehr als naja, die meisten betreiben UV (wo meist auch mehr Takt geht ohne übertriebenen Stromverbrauch) und kein Richter Gnadenlos OC mit dicken PT plus
Wenn Du sowas mit ner Geforce machst, säuft die auch

Daredevil
2019-01-08, 13:44:13
Mit mehr als 150w auf einem PCIe Kabel killt man halt auch meist die Netzteil Specs. Danach geht es dann halt auf die Qualität des Netzteils, wenn der Port selber 75w liefern sollte.
750w ist da natürlich totaler blödsinn, man braucht nur mehr PCIe Stränge bei der Stromversorgung.

SKYNET
2019-01-08, 14:19:17
Mit mehr als 150w auf einem PCIe Kabel killt man halt auch meist die Netzteil Specs. Danach geht es dann halt auf die Qualität des Netzteils, wenn der Port selber 75w liefern sollte.
750w ist da natürlich totaler blödsinn, man braucht nur mehr PCIe Stränge bei der Stromversorgung.


viel wichtiger: man brauch getrennte 12V leitungen!!

grad auf THG gefunden... 390W mit PL 150% und spitzen bis 420W... meine aorus säuft schon ohne peaks fast soviel(415W) wie die vega64 als peak max. hat :freak: ;D

Daredevil
2019-01-08, 14:40:07
Mit meinem Seasonic Prime Titanium 650w konnte ich einen Absturz mit der Brechstange und Power Limit ebenfalls nachvollziehen mit Vega, aber die Netzteil Serie soll ja anscheinend eh sehr sensibel bei dem Thema sein.
Selbst wenn ich -50PT Limit im Crossfire betrieben habe, hat sich mein 650w Netzteil verabschiedet, weil trotz niedrigem Verbrauch die Peaks halt ( hörbares aggressives Spulen rasseln ) die Schutzschaltungen ausgelöst hatten.

Jetzt sind die Probleme nicht mehr da mit meinem ehemaligen Mining Netzteil, dem Seasonic Prime Gold 1300W. Da kann ich auch Crossfire ausfahren, bis das ganze Haus geheizt wurde.
Da habe ich aber halt auch 6 PCIe Stränge und somit 12 8Pin Anschlüsse. :D
Zumindest ein halbes Jahr hat es fünf 1080ti unter Dauerlast betrieben, es ist also für Vega schon eingebrannt. ^^

Daredevil
2019-01-10, 15:02:21
Mit was für nem Biest bekommt man denn 1788/1150 Stabil hin?
Mit ner Liquid oder mit ner Liquid Frontiers? :D
Hab noch nie ne Karte gesehen, die um die 1100 überhaupt 100% stabil macht.

RTX2080 vs. "Vega 64 OC"
Nn91ioEL8Bc

nordic_pegasus
2019-01-10, 16:08:45
(Posting aus dem RTX 2060 Thread, aber kein Bock da weiter OT zu posten)

Vega 64 != Vega 56
PT 150% :rolleyes:

Die 750W Empfehlung ist mehr als naja, die meisten betreiben UV (wo meist auch mehr Takt geht ohne übertriebenen Stromverbrauch) und kein Richter Gnadenlos OC mit dicken PT plus
Wenn Du sowas mit ner Geforce machst, säuft die auch

wenn man mich schon so komplett aus dem Kontext des anderen Threads zitiert: es ging darum, ob man eine RTX 2070 mit einer Vega56@Volle Kanne vergleichen kann. Darauf kam der Einwand, dass dann mindestens 600Watt NTs nötig wären, die man auch bei einem Preisvergleich beider Karten berücksichtigen müsste.

Ich wollte in diesem Zusammenhang nur bestätigen, dass eine Vega (egal ob 56 oder 64) komplett von der Leine gelassen säuft wie ein Loch. Dafür hatte ich aber auch durchgehend über 1700 MHz in allen Spielen. Allerdings hat das mein Seasonic 600Watt NT nicht auf Dauer mitgemacht, wobei der Verbrauch unter Volllast um die 600 Watt schwankte, darum verstehe ich das Seasonic gebashe nicht. Wo hier die Leistungsspitzen lagen, will ich gar nicht wissen. Dank Custom-Wakü mit 2x 360er HardwareLabs SR-2 Radiatoren konnten die Vega64 und der 2700X boosten bis der Arzt kam.

Raff
2019-01-10, 16:35:34
Mit was für nem Biest bekommt man denn 1788/1150 Stabil hin?
Mit ner Liquid oder mit ner Liquid Frontiers? :D
Hab noch nie ne Karte gesehen, die um die 1100 überhaupt 100% stabil macht.

RTX2080 vs. "Vega 64 OC"
https://youtu.be/Nn91ioEL8Bc

1.100 MHz HBM-Takt meinst du? Das packen eigentlich recht viele 64er. Gute Kühlung hilft dabei. An die 1.788 MHz glaube ich aber nicht, zumindest nicht UHD-/rockstable.

MfG,
Raff

SKYNET
2019-01-10, 16:53:20
1.100 MHz HBM-Takt meinst du? Das packen eigentlich recht viele 64er. Gute Kühlung hilft dabei. An die 1.788 MHz glaube ich aber nicht, zumindest nicht UHD-/rockstable.

MfG,
Raff

evtl. dicken customloop drauf und das ding am offenem fenster stehen :confused:

BeetleatWar1977
2019-01-11, 17:48:44
Mit was für nem Biest bekommt man denn 1788/1150 Stabil hin?
Mit ner Liquid oder mit ner Liquid Frontiers? :D
Hab noch nie ne Karte gesehen, die um die 1100 überhaupt 100% stabil macht.

RTX2080 vs. "Vega 64 OC"
https://youtu.be/Nn91ioEL8Bc
1.100 MHz HBM-Takt meinst du? Das packen eigentlich recht viele 64er. Gute Kühlung hilft dabei. An die 1.788 MHz glaube ich aber nicht, zumindest nicht UHD-/rockstable.

MfG,
Raff
evtl. dicken customloop drauf und das ding am offenem fenster stehen :confused:

Naja - ich hab gerade mit dem 19.1.1 und Autooverclock probiert, da setzt er 1736 bei meiner 56er...... das wären 1.2V, bei 1.25V (Liquid Bios) würde ichs evtl packen..... Mit Wakü und Kompressorkühler;D

Achill
2019-01-11, 19:47:04
Ich tippe darauf, das einfach der max. Takt dargestellt wird, der (einmalig) erreicht wurde bei der 2080 und V64 ... der GPU Takt schwankt eigentlich immer.

@Daredevil - erreichen kann man es aber, nur der Verbrauch ist nicht schön.

Naja - ich hab gerade mit dem 19.1.1 und Autooverclock probiert, da setzt er 1736 bei meiner 56er...... das wären 1.2V, bei 1.25V (Liquid Bios) würde ichs evtl packen..... Mit Wakü und Kompressorkühler;D

Das geht bei mir nicht, weder für HBM noch GPU. Undervolt geht bei mir aber gut in Kombination mit OC.

Daredevil
2019-01-17, 23:06:18
Machine Learning für Vega? :)
https://www.computerbase.de/2019-01/amd-directml-antwort-nvidia-dlss/

Ob Vega I sich durch solche Möglichkeiten wohl besser auslasten lässt dank Async Compute?
Wäre eine Möglichkeit, was das ganze wieder wunderbar reifen lässt.

Last year's GDC 2018, Microsoft announced a framework "Windows ML" for developing machine learning based applications on the Windows 10 platform, and "DirectML" that makes it available from DirectX (Windows It became effective (October 2018 Update of 10) ( related article ). We are currently experimenting with obtaining the evaluation version SDK of DirectML, but Radeon VII shows excellent results in that experiment.

By the way, Radeon VII scored about 1.62 times the " GeForce RTX 2080 " in "Luxmark" which utilizes OpenCL-based GPGPU-like ray tracing renderer . Based on these facts, I think NVIDIA's DLSS-like thing can be done with GPGPU-like approach for our GPU.

Adam Kozak von AMD im Gespräch mit 4Gamer.net (maschinelle Übersetzung)

][immy
2019-01-18, 00:40:59
Machine Learning für Vega? :)
https://www.computerbase.de/2019-01/amd-directml-antwort-nvidia-dlss/

Ob Vega I sich durch solche Möglichkeiten wohl besser auslasten lässt dank Async Compute?
Wäre eine Möglichkeit, was das ganze wieder wunderbar reifen lässt.
gefühlt liegt in der GCN Arch einiges brach. Sieht man ja schön an den Konsolen, was da noch alles aus der Arch rausgeholt wird. Könnte mir gut vorstellen das da noch so einige Nebenaufgaben laufen könnten, ohne groß ins gewicht zu fallen.
Ich will aber nicht wissen wie dann der der Stromverbrauch in die höhe schießt. Aktuell nutzt man diese "ruhe" ja eher dazu den Takt hoch zu schrauben wodurch auch der "Verbrauch" ansteigt. Wenn die Einheiten jetzt tatsächlich mal ausgelastet wären (immerhin hat GCN doch einiges an flops zu bieten) ….

SKYNET
2019-01-18, 01:30:28
[immy;11903781']gefühlt liegt in der GCN Arch einiges brach. Sieht man ja schön an den Konsolen, was da noch alles aus der Arch rausgeholt wird. Könnte mir gut vorstellen das da noch so einige Nebenaufgaben laufen könnten, ohne groß ins gewicht zu fallen.
Ich will aber nicht wissen wie dann der der Stromverbrauch in die höhe schießt. Aktuell nutzt man diese "ruhe" ja eher dazu den Takt hoch zu schrauben wodurch auch der "Verbrauch" ansteigt. Wenn die Einheiten jetzt tatsächlich mal ausgelastet wären (immerhin hat GCN doch einiges an flops zu bieten) ….


glaube nicht das der verbrauch steigt, siehe turing, egal ob alle einheiten genutzt werden, bleibt alles im vorbestimmten PT... aber ok, evtl. ist turing nen schlechtes beispiel, so nen restriktives PT gabs bisher ja noch nie :ulol:

Schlammsau
2019-02-02, 11:46:56
Hatte seit Wochen ganz komische Fehler an meinem Rechner. Plötzliche Hänger/Restarts im Idle, Aussetzer beim Sound über DP, Pixelfehler bei Videos. Meine V64 Liquid Cooled hat anscheinend ein Problem und zur Zeit liegt sie bei Sapphire zur RMA. ;(

Mal gucken was draus wird, hätte schon gern die LC behalten bzw wieder, wenn nicht, ich nehme auch gerne ne VII ....

dargo
2019-02-03, 19:43:47
Heute Nacht zwischen 4 und 5 Uhr gibt es 19% Nachlass bei Media Markt. Somit bekommt man die Asus V64 für 357,58€ inkl. Versand.
https://www.mediamarkt.de/de/product/_asus-radeon%E2%84%A2-rx-vega-64-rog-strix-oc-8gb-90yv0b00-m0nm00-2376626.html

Nur zur Info. ;)

Thomas Gräf
2019-02-04, 03:17:43
Hatte seit Wochen ganz komische Fehler an meinem Rechner. Plötzliche Hänger/Restarts im Idle, Aussetzer beim Sound über DP, Pixelfehler bei Videos. Meine V64 Liquid Cooled hat anscheinend ein Problem und zur Zeit liegt sie bei Sapphire zur RMA. ;(

Mal gucken was draus wird, hätte schon gern die LC behalten bzw wieder, wenn nicht, ich nehme auch gerne ne VII ....

Hallo, habe auch ne LC von Saphire, bis auf die Pixelfehler hatte ich auch solch Probleme.
Bei mir kamen die Fehler aber über den USB, weil ich habe da Rudderpedale und auch Racingpedale die mein liebes Mainbord als Bootmedium erkennt.
Selbst wenn es zum hochfahren kommen sollte, steigt entweder die Soundblaster aus(da hilft echt nur noch ein Steckplatzwechsel der Karte dann lässt sie sich wieder installen) bzw sogar mein Joystick muß neu kalibriert werden im dafür vorgesehen Tool.(VirPil)
Und ja der Radeon Treiber spinnte im Wattmann dann auch.
Was mir half war diese USB Geräte vor dem Booten abzuziehen...seit dem hab ich Ruhe.
Aber auf so'n Scheizz mußte erstmal kommen, dachte auch erst alles ist kaputt.

=Floi=
2019-02-05, 07:50:54
Hat die 16gb FE version auch schon 4 stacks HBM2 und doppelte bandbreite?

dargo
2019-02-05, 08:16:59
Nein.

Tarkin
2019-02-07, 10:19:23
Apex Legends - RX Vega 64 OC vs GeForce GTX 1080 Ti vs GeForce RTX 2080 - Gameplay Benchmark Test (https://www.youtube.com/watch?v=gGVoxDF4dkM&t=675s)

Fine Wine! Vega 64 OC fast auf 1080ti Niveau

SKYNET
2019-02-07, 11:25:42
Apex Legends - RX Vega 64 OC vs GeForce GTX 1080 Ti vs GeForce RTX 2080 - Gameplay Benchmark Test (https://www.youtube.com/watch?v=gGVoxDF4dkM&t=675s)

Fine Wine! Vega 64 OC fast auf 1080ti Niveau

läuft doch nur mit nichtmal 1600MHz... mit dickem kühler sollten da 1700 gehen, dann hat sie die 1080Ti auf jeden fall.

hq-hq
2019-02-10, 15:26:55
fürchte nur der "fine wine" wird hier an NVidia gehen wenn in einem folgenden Treiber auf das Spiel eingegangen wird...

aufkrawall
2019-02-10, 16:10:01
Erstmal abwarten, ob das passieren wird. Bei Titanfall 2 konnte Nvidia afair auch nicht nachträglich zaubern.

hq-hq
2019-02-10, 21:19:43
Taucht das denn noch in einem Benchmark Parkour auf?

Release war 2016. Hab nix aktuelles gefunden.

Ah doch muss man nur richtig suchen:

https://www.techspot.com/review/1476-amd-radeon-vega-64/page10.html

also in 4k schiebt sich die 1070 (custom) dann zuletzt doch wieder vor die Vega56
und die 1060 (custom) vor die RX 580 ... naja, hätte man eher umgekehrt erwartet.

Taigatrommel
2019-02-12, 12:20:31
Im Mindstar gibt es den Vega 56 Referenz-Nachbau von MSI derzeit für gute 259,-€:
https://www.mindfactory.de/product_info.php/8GB-MSI-Radeon-RX-Vega-56-AIR-BOOST-8G-OC-Aktiv-PCIe-3-0-x16--Retail-_1223140.html

bnoob
2019-02-12, 14:59:53
Es ist eine originale Referenzplatine mit anderem Kühler.

Quelle: Mein Bruder hat so eine

Bellspinder
2019-02-12, 18:41:03
Ein vernünftiger Kühler kostet aber auch mindestens 40-50€ und man hat die Gefahr des Garantieverlusts wenn man dran rumbastelt, da kaufe ich doch lieber direkt ein Modell mit besserem Kühler. Selbst wenn der Hersteller den Ruf hat, Kühlerwechsel zu tolerieren, können sie bei schlechter Laune immer irgendeinen Kratzer finden, um einem die Garantie zu verweigern.

dargo
2019-02-12, 19:11:33
Das Referenz-Ding ist halt nur für Leute die auf Wakü umrüsten wollen interessant. Oder "eingedeutschte Asiaten". :D

Bellspinder
2019-02-12, 19:24:56
Hat mal jemand einen Test gemacht, wie schnell die Haare trocken werden, wenn man sie mit 2 Referenzvegas im Crossfire föhnt? Das wär mal ein Hardwaretest den ich mir anschauen würde. :freak:

dargo
2019-02-12, 19:27:03
;D ;D ;D

Daredevil
2019-02-12, 21:32:49
Sowas albernes habe ich nicht gemacht. Ich hab nur beim Crossfire zocken den Keller trocken gelegt. :(

dargo
2019-02-13, 00:26:51
Apex Legends - RX Vega 64 OC vs GeForce GTX 1080 Ti vs GeForce RTX 2080 - Gameplay Benchmark Test (https://www.youtube.com/watch?v=gGVoxDF4dkM&t=675s)

Fine Wine! Vega 64 OC fast auf 1080ti Niveau
Nee... "Fine Wine" ist eher das hier.
http://www.pcgameshardware.de/Tom-Clancys-The-Division-2-Spiel-61585/Specials/Closed-Beta-Test-Benchmark-1274963/2/

Bei 1440p Vega 56 vor GTX 1080TI. ;)

Spaß bei Seite... das stimmt noch bei Pascal was nicht.

DrFreaK666
2019-02-13, 05:40:09
Das wäre auch ein Schnäppchen
https://rover.ebay.com/rover/0/0/0?mpre=https%3A%2F%2Fwww.ebay.de%2Fulk%2Fitm%2F312443862552

uweskw
2019-02-13, 07:19:48
Verstehe ich die Diskussion zur Effizienz hier richtig?
1. NVIDIA ist unter anderem deswegen bei Volllast so effizient, weil ein Teil der Arbeit auf die CPU ausgelagert wird?
2. Im Teillastbereich ist der Effizienz Unterschied deutlich geringer?
3. Bei Messung des Gesamtsystems ist der Effizienz Unterschied deutlich geringer?

Oder sind diese Unterschiede nur marginal?

Greetz
US

Bellspinder
2019-02-13, 13:07:51
Selbst gemessen:

GTX 1070 UV - 260 Watt gesamtsystem
RX580 UV - 290 Watt Gesamtsystem
V56 UV&OC - 340 Watt Gesamtsystem

AMD Karten brauchen definitiv mehr Strom in der Spitze, allerdings weiß ich nicht wie es sich bei anspruchslosen Games bzw. Games mit Framelimiter verhält. Außerdem hab ich den Eindruck, dass nvidia das Bild in vielen Spielen "unwertiger" rendert und extreme Texturkompressionen drüberbügelt, um Bandbreite zu sparen, aber das kann ich nicht beweisen.

aufkrawall
2019-02-13, 13:12:36
Vielleicht war deine 580 scheiße, die Möglichkeit besteht:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11918696&postcount=690
Ich bin mit der 580 Aero UV beim Verbrauch immer unterhalb einer 1070 Ti Gaming UV. Erst recht in GPU-Heizern wie Heroes of the Storm in 4k.

dildo4u
2019-02-13, 13:14:41
Werden die 580 mit Speicher angezeigt?Bei Vega ist das ja nicht der Fall.

aufkrawall
2019-02-13, 13:15:33
Werden die 580 mit Speicher angezeigt?Bei Vega ist das ja nicht der Fall.
Es ist genau anders herum und es geht um den Gesamtsystemverbrauch.

dargo
2019-02-13, 14:28:19
Das wäre auch ein Schnäppchen
https://rover.ebay.com/rover/0/0/0?mpre=https%3A%2F%2Fwww.ebay.de%2Fulk%2Fitm%2F312443862552
Ohne OVP nicht gerade vertrauenswürdig.

marc-05
2019-02-13, 14:35:14
Das wäre auch ein Schnäppchen
https://rover.ebay.com/rover/0/0/0?mpre=https%3A%2F%2Fwww.ebay.de%2Fulk%2Fitm%2F312443862552
Na ja riskant ohne Garantie und Spiele Bundle war Powercolor/Sapphire für 299-320 besseres Packet im Mindstar

CB Forum einer vorhin geschrieben zu der Karte/Angebot
"Die Oberflächen waren nass und triefend von Glassreiniger und die Kühlfinnen voller Staub"

dargo
2019-02-13, 14:37:39
Verstehe ich die Diskussion zur Effizienz hier richtig?
1. NVIDIA ist unter anderem deswegen bei Volllast so effizient, weil ein Teil der Arbeit auf die CPU ausgelagert wird?
2. Im Teillastbereich ist der Effizienz Unterschied deutlich geringer?
3. Bei Messung des Gesamtsystems ist der Effizienz Unterschied deutlich geringer?

Oder sind diese Unterschiede nur marginal?

Greetz
US
1. Im Grunde genommen ja da Perf/W immer das Ergebnis aus Software und Hardware ist. Ich würde das jetzt aber nicht als "Arbeit der GPU auf die CPU auslagern" nennen. Eher verwendet man diverse Sachen um bei DX11 die API effizienter zu machen. Einfachstes Beispiel... der Treiber generiert zusätzliche Threads unter DX11 um Treiberoverhead zu reduzieren.
2. Hängt von der Situation ab. Bei der PCGH ist Turing und Radeon VII in Crysis 3 mit einem Framelimit gleich effizient. Bei Wolf 2 ist Turing wieder effizienter.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11925106&postcount=2134
3. Hängt wieder von der Situation ab. Bei diversen DX11 Games sollte das System mit der Geforce prozentual schlechter abschneiden als die reine Messung der Grafikkarte es suggeriert. Ganz einfach weil die CPU mehr schuftet. Und diese eben dann auch mehr Strom zieht. Und je nach der verwendeten CPU kann das mal mehr mal weniger zusätzlichen Stromverbrauch ausmachen. Ich denke da zb. an einen i9-9900K ohne TDP Limit vs. einer wesentlich sparsameren CPU.


CB Forum einer vorhin geschrieben zu der Karte/Angebot
"Die Oberflächen waren nass und triefend von Glassreiniger und die Kühlfinnen voller Staub"
Dann würde ich da gar nicht erst zugreifen, riecht nach Mining-Karten.

w0mbat
2019-02-13, 14:42:04
Im Mindstar gibt es den Vega 56 Referenz-Nachbau von MSI derzeit für gute 259,-€:
https://www.mindfactory.de/product_info.php/8GB-MSI-Radeon-RX-Vega-56-AIR-BOOST-8G-OC-Aktiv-PCIe-3-0-x16--Retail-_1223140.html
Ich hab mir echt kurz überlegt die zu kaufen. Zumal da noch 3 Spiele dazu kommen, von denen ich 2 auch kaufen will. Hier spare ich also schon mal 60€, dann sind wir nur noch bei 200€. Wenn ich dann Division 2 für 20€ verkaufe sind wir bei 180€, ein Hammer Preis!

Nur scheint der Kühler wirklich extrem laut zu sein, selbst mit UV mehr als nur hörbar :freak:

Das hält mich dann doch ab.

Rolsch
2019-02-13, 14:54:02
Wenn eine Vega56 Karte nicht länger als 29cm sein darf und möglichst leise sein soll ist die Sapphire Pulse die beste Wahl? Die Red Dragon für 288€ fand ich auch interessant aber die ist zu lang.

dargo
2019-02-13, 14:57:23
Wenn eine Vega56 Karte nicht länger als 29cm sein darf und möglichst leise sein soll ist die Sapphire Pulse die beste Wahl?
Ja.

Bellspinder
2019-02-13, 15:00:27
Wenn eine Vega56 Karte nicht länger als 29cm sein darf und möglichst leise sein soll ist die Sapphire Pulse die beste Wahl? Die Red Dragon für 288€ fand ich auch interessant aber die ist zu lang.

Würde ich sagen, die Dragon ist evtl. minimal besser/leiser durch drei Lüfter, aber wenn sie nicht rein passt, dann werden die Nitros auch nicht passen, daher bleibt nur die Pulse. Nach allen Tests die ich gelesen habe, nehmen sich Red Dragon und Pulse nicht viel. Am Ende kommt es auf die Chiplotterie an, wobei ich irgendwie das Gefühl habe, dass es so richtig schlechte Chips bei den Vegas nicht gibt, die gehen alle sehr gut UV/OC.

SKYNET
2019-02-13, 15:00:56
Wenn eine Vega56 Karte nicht länger als 29cm sein darf und möglichst leise sein soll ist die Sapphire Pulse die beste Wahl? Die Red Dragon für 288€ fand ich auch interessant aber die ist zu lang.


zumal sie das nano PCB hat... heisst wenn du nen alternativen kühler findest, geht die auch in jedes kleine ITX case :)

Rolsch
2019-02-13, 15:04:22
OK Danke, dann hol ich mir ne Pulse. :-)

SKYNET
2019-02-13, 15:09:34
OK Danke, dann hol ich mir ne Pulse. :-)

eigentlich perfekter kühler, warme luft kann ohne umwege unten rausgeblasen werden... würde ich jederzeit ner nitro vorziehen.

https://pics.computerbase.de/8/2/1/8/1/article-630x354.c62aca5a.jpg

Bellspinder
2019-02-13, 15:31:36
eigentlich perfekter kühler, warme luft kann ohne umwege unten rausgeblasen werden... würde ich jederzeit ner nitro vorziehen.

https://pics.computerbase.de/8/2/1/8/1/article-630x354.c62aca5a.jpg

Wieso unten? Da wo das PCB endet und nur noch Lamellen sind, strömt die warme Luft doch nach oben also direkt vor den CPU Lüfter. Das Problem hab ich mit meiner Red Dragon auch, die auch auf dem Nano PCB aufbaut und wo der letzte Lüfter die aufgewärmte Luft richtung CPU durchbläst. Ich musste einen zweiten Frontlüfter unten installieren, damit die Grakalüfter Frischluft kriegen. Damit ist es wieder gut, bzw. unter idle sogar kühler.

SKYNET
2019-02-13, 15:45:58
Wieso unten? Da wo das PCB endet und nur noch Lamellen sind, strömt die warme Luft doch nach oben also direkt vor den CPU Lüfter. Das Problem hab ich mit meiner Red Dragon auch, die auch auf dem Nano PCB aufbaut und wo der letzte Lüfter die aufgewärmte Luft richtung CPU durchbläst. Ich musste einen zweiten Frontlüfter unten installieren, damit die Grakalüfter Frischluft kriegen. Damit ist es wieder gut, bzw. unter idle sogar kühler.


ich würds so lösen:
https://www.massinger-ulm.de/WebRoot/Store4/Shops/61366570/59B1/33DC/2FC5/6FAF/8826/0A0C/6D04/4A96/002_m.JPG

+

https://arnolicht.net/images/product_images/popup_images/4710_0.jpg

natürlich nicht unbedingt in den formen/farben, sondern die schönsten lösungen, abluft grad zum hinteren gehäuselüfter und fertig.

gbm31
2019-02-13, 16:59:27
Ach das bisschen macht mein Noctua locker - ich mag meine kleine Pulse.

SKYNET
2019-02-13, 17:06:17
Ach das bisschen macht mein Noctua locker - ich mag meine kleine Pulse.


wenn mir eine für 200 franken in die hände fällt, nehme ich sie auch... um dann nen alternativkühler mit den ausmassen des PCBs drauf zu schnallen und micro-mini-case aufbauen... weil das metis ist zwar klein, aber es drüfte fürs schlafzimmer gerne nochmals kleiner sein. ;D

Mannyac
2019-02-13, 18:54:08
Ich überlege gerade meine Vega64 zu wässern, da sie doch recht laut wird unter Last (Referenzdesign).

Was ist von der AlphaCool Eiswolf zu halten? Der Einfachheit halber wär das ganz praktisch.

Daredevil
2019-02-13, 18:56:19
Ich hatte den Eiswolf auf meiner 1080 und war ziemlich zufrieden damit.
Hatte das mit nem Eisbär kombiniert mit 420er Radi.

bnoob
2019-02-13, 19:04:19
Vernünftig belüftetes Gehäuse, dann kein Problem.

Vega hat außerdem den Vorteil, dass die effektiv Wärme erzeugende Fläche der Platine nicht sehr groß ist, also kommt man auch mal mit halbpassiv gut zurecht.

DrFreaK666
2019-02-13, 21:46:06
Na ja riskant ohne Garantie und Spiele Bundle war Powercolor/Sapphire für 299-320 besseres Packet im Mindstar

CB Forum einer vorhin geschrieben zu der Karte/Angebot
"Die Oberflächen waren nass und triefend von Glassreiniger und die Kühlfinnen voller Staub"

Dann war der Kauf wohl keine gute Idee...
Sollte meine auch so sein, dann wird sie eben zurück geschickt... Schade

w0mbat
2019-02-15, 13:56:27
Wie laut ist die MSI Vega56 Air Boost wirklich? 259€ inkl. 3 Spiele sind einfach wirklich ein super Preis, würde mich real so 180€ kosten und das ohne den Verkauf von meiner aktuellen R9 290.

Nur schrecken mich die Berichte über den Lüfter wirklich stark ab :D

Taigatrommel
2019-02-15, 14:19:03
Ich selbst bin jetzt nicht sonderlich empfindlich was Lautstärke angeht. Die MSI Airboost kenne ich nicht, ich bin mir aber ziemlich sicher, MSI hat da lediglich die Plastikabdeckung und die Slotblende gewechselt, während die eigentliche Konstruktion identisch mit dem AMD Referenzkühler ist. Gewechselz bin ich damals von einer 290X, welche auch dringend mal frische WLP nötig gehabt hätte, auf eine Vega 64 Referenz und empfand deren Geräuschkulisse deutlich angenehmer als die der 290X.

Mein Rechner steht direkt neben mir und mit Kopfhörern war das nie ein Problem. Ohne war es dann schon zeitweise etwas nervig, da musste ich hin und wieder doch die Lautsprecher etwas mehr aufdrehen.

Daredevil
2019-02-15, 14:19:56
Ich rede mal von der V56 Ref:
Wenn du sie drosselst ( Undervolting und underclocking ), ist sie auf 1060er Niveau silent ( ~700-900rpm ), auf auf 1700er Niveau hörbar ( ~1600-1800rpm ) und bei gleicher Leistung knapp 2000-2200rpm schwer.

Das kann man machen, solange man nicht Lautstärke sensibel ist.
Wenn das sein sollte, ist die Referenz eine schlechte Wahl.
Da opfert man 50€ und holt sich eine Custom und hat noch die Möglichkeit, die Karte auf V64+ Leistung zu jubeln.

bnoob
2019-02-15, 14:21:59
Das ist halt Referenz mit ein klein wenig leiser. Der Kühler der Radeon VII ist im jetzigen Zustand imho deutlich nerviger.

Geht schon, hab ich ein halbes Jahr genutzt.

Und im Zweifelsfall passt jeder Referenzkühlblock drauf, Chinablock 30€, 30€ Magicool Radi, 30€ Magicool Pumpe und gut ;)

w0mbat
2019-02-15, 17:52:15
Und im Zweifelsfall passt jeder Referenzkühlblock drauf, Chinablock 30€, 30€ Magicool Radi, 30€ Magicool Pumpe und gut ;)
Da fehlt mir eher der Platz in meinen QBX :tongue:

Ich lass es mir mal durch den Kopf gehen...

bnoob
2019-02-15, 19:23:44
Für so ein Gehäuse ist ein Radiallüfter ERST RECHT gut, hab ich in meinem Lian Li Q10 beim Wechsel von 290X @ Axial zu Vega 64 @ Radial gemerkt

SKYNET
2019-02-15, 19:30:09
Da fehlt mir eher der Platz in meinen QBX :tongue:

Ich lass es mir mal durch den Kopf gehen...


nen 120er in push-pull passt da easy rein.

Vortex
2019-02-20, 21:37:18
Die Sapphire Vega 56 Pulse ist derzeit für 299€ im Mindstar erhältlich. Ich habe mir eine geschnappt, leider bin ich zuvor mit einer angeblich neuen Vega 56 Red Dragon für 288€ bei Ebay auf die Nase gefallen. Die war gebraucht, eventuell eine Miningkarte. Aber die ging zurück und ich habe mein Geld wieder. Bekommt man die Pulse undervolted auch schön leise und kühl? Viel schlechter als die Red Dragon soll die ja nicht sein, laut Tests.

Daredevil
2019-02-20, 23:51:40
Ich würde sie sogar ein wenig besser einschätzen, aber nicht großartig anders.
Da hast du ebenfalls einen guten Griff gemacht, das verhält sich genauso wie zur Red Dragon, wobei du dort nicht unbedingt viel mehr an leise machen musst. :)

aufkrawall
2019-02-22, 14:25:19
War for the Overworld ist auch kaputt mit Vega, läuft ähnlich wie Crysis 3 mit mieser Performance. Der Windows-Teiber ist offenbar ne Spur zickiger als für Polaris.
Alles richtig gemacht mit der 580. :D

Grendizer
2019-02-23, 11:47:56
Preis der Vega 56 passend zum 1660 TI launch auf 279 angepaßt.

http://www.buffed.de/AMD-Firma-238123/News/RX-Vega56-Preissenkung-vrmutlich-GTX-1660-ti-1276050/?cx_testId=21&cx_testVariant=cx_2&cx_artPos=0&cx_type=behavioral#cxrecs_s

Für den Preis sehr geil....

DeadMeat
2019-02-23, 12:02:54
Preis der Vega 56 passend zum 1660 TI launch auf 279 angepaßt.

http://www.buffed.de/AMD-Firma-238123/News/RX-Vega56-Preissenkung-vrmutlich-GTX-1660-ti-1276050/?cx_testId=21&cx_testVariant=cx_2&cx_artPos=0&cx_type=behavioral#cxrecs_s

Für den Preis sehr geil....

Schade das man nie erfahren wird wie viel genau die Herstellung kostet, die ganzen Kosten und Margen der Karten über die Jahre wäre sicher mal interessant anzusehen.

Aber ja toller Preis, was war der originale Msrp vor dem Mining Mist, 400?

Grendizer
2019-02-23, 12:08:22
Schade das man nie erfahren wird wie viel genau die Herstellung kostet, die ganzen Kosten und Margen der Karten über die Jahre wäre sicher mal interessant anzusehen.

Aber ja toller Preis, was war der originale Msrp vor dem Mining Mist, 400?

ja

aufkrawall
2019-02-23, 18:15:02
HBCC verbessert massiv die Spielbarkeit in Far Cry: ND + Texturpaket:
https://abload.de/thumb/farcrynewdawn_2019_02q9kbm.jpg (http://abload.de/image.php?img=farcrynewdawn_2019_02q9kbm.jpg)
Läuft zwar auch nicht wirklich sauber, aber um Welten besser als ohne HBCC. Ist btw. mit 16GB RAM.
Das Spiel macht halt über die Zeit immer mehr VRAM voll, womöglich würden irgendwann auch 11GB-Karten in 4k anfangen zu stocken.

Ex3cut3r
2019-02-23, 18:19:46
Naja wers braucht, nicht übel, allerdings kackt das Spiel optisch im Vergleich zu Metro ab, und das frisst nicht mal 5GB @ RT High + Ultra Preset.

Langlay
2019-02-23, 18:57:53
Naja wers braucht, nicht übel, allerdings kackt das Spiel optisch im Vergleich zu Metro ab, und das frisst nicht mal 5GB @ RT High + Ultra Preset.

Da sind wir mal einer Meinung. Imo kommt bei Far Cry allgemein wenig für die Leistung. Weil Hübsch ist imo anders.

Ex3cut3r
2019-02-23, 19:06:28
Da sind wir mal einer Meinung. Imo kommt bei Far Cry allgemein wenig für die Leistung. Weil Hübsch ist imo anders.

:biggrin:
Da stimme ich dir auch zu.

Bellspinder
2019-02-23, 22:58:06
Das ganze "Techno-Ghetto-hillbilly" Artdesign in dem Spiel ist einfach verkackt. Wenn ich die Neonröhrentulpen auf dem Bild sehe wird mir schon übel. Dieser merkwürdig aufgesetzte comic look mit Figuren die wie exaltierte Rapartists oder zugekokste Paradiesvögel aussehen, hat mich auch bei Far Cry 4 schon enorm abgeturnt.

Vortex
2019-02-23, 23:06:49
Ich bin nun auch seit 2 Tagen zufriedener Besitzer einer Vega 56 Pulse. Nach etlichen Stunden des Testens bin ich bei folgenden Einstellungen angelangt:

1. P-States

P5: 1452 Mhz - 1,030V
P6: 1552 Mhz - 1,050V
P7: 1672 Mhz - 1,080V

Weniger Spannung geht zwar, dann boostet die Karte aber nicht mehr so hoch. Bei 1,050V und gleichen P-States gut 50 Mhz weniger. Gut, ist eigentlich vollkommen egal ob 1550 Mhz oder 1600 Mhz. Aber 1600 Mhz sehen halt besser aus.

2. Takt und Strombedarf

1590 - 1620 Mhz bei +50% PT und maximal 240W im Firestrike Ultra Loop

3. Kühlung und Lautstärke

30% Lüfterdrehzahl und 70 Grad max. Temperatur, Lüfter leicht hörbar aber absolut OK. Den Speicher habe ich bisher nicht übertaktet. Die Spannungswandler werden allerdings bis zu 90 Grad warm beim Firestrike Ultra Loop, beim Spielen habe ich so 180 - 200W Strombedarf und 75 - 80 Grad Spannungswandlertemperatur.

Sind die Werte akzeptabel so, besonders die Temperatur der Spannungswandler? Ein bisschen zu hoch auf Dauer, oder? Vielleicht doch weniger PT und Spannung der Langlebigkeit der Karte zuliebe.

Bellspinder
2019-02-25, 04:06:30
beim Spielen habe ich so 180 - 200W Strombedarf und 75 - 80 Grad Spannungswandlertemperatur.

Finde deine Werte nicht wirklich gut, du bekommst so zwar stabil hohe Taktraten, aber auf unverhältnismäßig hohen Stromverbrauch (und damit auch viel Hitze). Meine 56er Red Dragon macht unter Höchstlast ca. 1440-1460 Mhz allerdings bei 140-160W und 915MV im P7.

Die ~130Mhz mehr, kosten min. 40Watt, in Wahrheit eher mehr, weil sich die Karte durch dein +50%PT auch extreme Lastspitzen gönnen darf und das dann auch macht. Wenn du ein dickes Netzteil hast und dir Stromkosten egal sind, dann kann man das schon machen, ich würde trotzdem auf max. 1550Mhz gehen an deiner Stelle und lieber den HBM erhöhen, evtl. durch ein 64er Bios.

aufkrawall
2019-02-27, 17:18:11
Der Verbrauchsunterschied (GPU + HBM) HotS 1440p vs 2160p ist mal heftig mit der 56: ~170W vs. ~230W bei ~1550MHz/1050mV.
Mit fps-Limit bei 59 + Vsync sind es immerhin nur noch ~95W in 4k.

Edit: Kommando zurück, er übernimmt ohne PTable-Anpassung das UV nicht korrekt. Alle Werte damit ungültig.

Nosferatu1
2019-02-27, 17:21:24
1050 mv XD ist viel zu viel

Zergra
2019-02-27, 17:36:33
1050 mv XD ist viel zu viel

Die machen aber kaum weniger bei 1550Mhz, vllt unter Full HD, aber auf 4k kannst du nicht mehr soweit mit der Spannung runter gehen....

Nosferatu1
2019-02-27, 17:48:46
spiele in 4k mit 925mv also totale falschaussage

Zergra
2019-02-27, 18:00:37
spiele in 4k mit 925mv also totale falschaussage

Und was sind da dann die restlichen Einstellungen? Wenn das ganze über den Takt und das PT limitiert wird, ist es schon eine andere Situation....

Nosferatu1
2019-02-27, 18:31:24
kuck vega undervolting thread da habe ich meine jetzigen settings aus dem pcgh forum gepostet :) funktioniert super 130-150 watt asic power

Linmoum
2019-02-27, 18:43:55
kuck vega undervolting thread da habe ich meine jetzigen settings aus dem pcgh forum gepostet :) funktioniert super 130-150 watt asic power
Du hast definitiv keine 1550MHz bei 925mV und nur 130-150W ASIC. Das ist völliger Quatsch.

Monsta
2019-02-27, 18:50:57
Halte ich auch für unrealistisch.

Ich habe

Gpu 970mV 1560Mhz
Ram 1020mV 1100 Mhz

Eine Asic Power von 230Watt.

Gemessen mit Superposition 4k optimized.

Manchmal sehe ich 1570Mhz dann sind es auch 235 Watt :)

Ich habe ne Vega 64 Nitro

Bellspinder
2019-03-08, 18:40:35
Du hast definitiv keine 1550MHz bei 925mV und nur 130-150W ASIC. Das ist völliger Quatsch.

Mit nem sehr guten Chip evtl. möglich. Ich habe auf P7 924MV stehen und 135-172W ASIC bei 1510Mhz max. mit HBM 950Mhz/MV. Reale GPU-Spannung ist laut hwInfo zw. 880-919MV. PT +5%

Daredevil
2019-03-11, 22:27:12
Die Verwirrung um Vega und nem passenden Netzteil ist auch riesengroß, eh.
Mein Undervolting Video auf Youtube hat zwar nur 2k Views, aber quasi täglich bekomme ich ne Nachricht, ob xyz Netzteil ausreicht.

In letzter Zeit haben echt viele anscheinend zu ner Vega gegriffen. :)
Hier mal die Watchtime über den Zeitraum bei YT, Undervolting und Vega ist anscheinend aktuell deutlich beliebter als noch im Herbst.
https://abload.de/img/unbenannt92jei.png

HOT
2019-03-11, 22:31:11
Das wird auch der Verfügbarkeit geschuldet sein. Die war ja vorher kaum gegeben. Aber an Vega liegts sicherlich nicht, dass die Verkäufe so zusammengebrochen sind, das wird auf Polaris Kappe gehen.

Adam D.
2019-03-11, 22:40:52
Mit nem sehr guten Chip evtl. möglich. Ich habe auf P7 924MV stehen und 135-172W ASIC bei 1510Mhz max. mit HBM 950Mhz/MV. Reale GPU-Spannung ist laut hwInfo zw. 880-919MV. PT +5%
Einzig und alleine die LCs kommen in diese Regionen, außer man hat die Siliziumlotterie mit 6 richtigen gewonnen.

Achim_Anders
2019-03-12, 00:24:29
Wie schlimm ist Mining WIRKLICH für ne Vega 64 LC? Kann man da für 300-330€ bei Abholung mit Samsung Speicher zugreifen?

aufkrawall
2019-03-12, 01:31:58
Bei ausreichender Kühlung und hochwertigen Bauteilen wird das Teil imho noch Jahre laufen. Ohne Wissen über die Herkunft der Karte bleibts aber ein Roulette-Spiel.

Elite_Warrior
2019-03-12, 01:35:46
Habe selber ne gebrauchte mining V56. Da diese eher auf Effizienz und nicht auf Kotzgrenze getrimmt wurden sollte es eventuell keinen Probleme geben. Außer die Lüfter haben sich abgenutzt.

Daredevil
2019-03-12, 02:03:02
Ne AiO WaKü würde ich allerdings nicht unbedingt holen, wenn die 24/7 läuft unter Belastung, ganz egal obs auf einer GPU oder CPU ist.

Da weißt du nie, wie veschmandet das drinnen ist.

Achim_Anders
2019-03-12, 02:14:29
Ne AiO WaKü würde ich allerdings nicht unbedingt holen, wenn die 24/7 läuft unter Belastung, ganz egal obs auf einer GPU oder CPU ist.

Da weißt du nie, wie veschmandet das drinnen ist.

Das befürchte ich auch.. Dumm nur, daß in mein Gehäuse eine AIO perfekt reinpassen würde und ich die LC schon immer sexy fand...
Da ich momentan im Grafikkartenlimit nur Witcher 3 und GTA V online habe, wäre ne nvidia eh viel sinnvoller, mit Vernunft hätte der gesamte Kauf wenig zu tun.. 🙈 🙈
Ich bin auch mit meiner RX480 Gaming X zufrieden.
Aber da man von navi gar nichts hört und ich damals im Abverkauf bei der 7950 für 205€ neu extrem gute Erfahrung machte, habe ich irgendwie sinnloserweise Lust, ne Vega zu holen.. Obwohl ich n nur zwei nvidia spiele und CSGO in 1280*1024 Spiele, lol

sun-man
2019-03-14, 06:55:22
Hat mal jemand mit nem Ubi/Division Key versucht das Spiel zu aktivieren?
Kumpel bekommt den Key von mir, hat sich bei Rewards eingeloggt aber beim linken zu UBI kommt ""Login Failure", direktes Login bei Ubi geht aber.

Die Keys sind ja seit heute draußen bzw linkbar.

Zergra
2019-03-14, 08:00:03
UbiLogin über AMDRewards ging bei mir gerade Problemlos

pilzsammler2002
2019-03-14, 10:59:46
UbiLogin über AMDRewards ging bei mir gerade Problemlos
Hier auch :)

Krinet
2019-03-14, 11:38:58
Hat mal jemand mit nem Ubi/Division Key versucht das Spiel zu aktivieren?
Kumpel bekommt den Key von mir, hat sich bei Rewards eingeloggt aber beim linken zu UBI kommt ""Login Failure", direktes Login bei Ubi geht aber.


Das Problem hatte ich auch. Mit dem IE geht es. Vermute er nutzt auch einen Browser mit Werbeblocker oder Ghostery. Da scheint was geblockt zu werden, ohne das jetzt genau untersucht zu haben. Hab dann einfach den IE probiert.

Simon
2019-03-14, 16:17:53
Hat mal jemand mit nem Ubi/Division Key versucht das Spiel zu aktivieren?
Kumpel bekommt den Key von mir, hat sich bei Rewards eingeloggt aber beim linken zu UBI kommt ""Login Failure", direktes Login bei Ubi geht aber.

Die Keys sind ja seit heute draußen bzw linkbar.
Hab meinen Key gestern aktiviert, mit Firefox und UBlock Origin aktiv. Ging problemlos.

Achim_Anders
2019-03-14, 16:25:42
Kann weg.

horn 12
2019-03-18, 00:58:08
https://www.ithome.com/0/414/802.htm

Wird spannend, zumindest bleibt spannend.
Am MITTWOCH wissen wir mehr.

tEd
2019-03-18, 08:08:42
https://www.ithome.com/0/414/802.htm

Wird spannend, zumindest bleibt spannend.
Am MITTWOCH wissen wir mehr.

Sorry falscher Thread

Daredevil
2019-03-19, 18:34:55
Die Google Stadia Game-Server sind powered by AMD und laufen auf einer 10,6TFlop GPU mit 56CUs.
Darauf laufen soll ausschließlich Linux und Vulkan.

Ein fetter Deal für AMD und ein großer Push für Vega und Vulkan. :)

Und ehm......... MultiGPU ist anscheinend auch möglich. o0

dildo4u
2019-04-17, 14:40:14
Aktuelle Games gebencht mit Vega 56 vs 1070,1070 Ti und 1080.


aqxL27pmYpE

dargo
2019-04-25, 08:32:16
Die nächste Überraschung nach World War Z.

https://abload.de/img/zwischenablage010zko6.jpg

https://gamegpu.com/action-/-fps-/-tps/mortal-kombat-11-test-gpu-cpu

RX 590 = GTX 1070, RX Vega 56 leicht schneller als RTX 2070.

PS: und das mit einer Unreal Engine 4 und DX11. ;)

dildo4u
2019-04-25, 08:40:56
Es ist nicht UE 4.0 auf PC sondern es nutzt eine 3er Custom Version und natürlich hat das Game keine CPU Last daher die gute AMD Performance läuft auch mit 60fps auf den Switch Arm Cores.

https://www.dsogaming.com/news/mortal-kombat-11-uses-custom-unreal-engine-3-mobile-version-powered-by-unreal-engine-4/

dargo
2019-04-25, 08:51:47
Die Info zur Engine bei GameGPU ist offenbar falsch.
https://www.tweaktown.com/news/65103/mortal-kombat-11-engine-uses-custom-unreal-3-4/index.html

PS: CPU-Last ist hier gar nicht das Thema.

horn 12
2019-04-25, 09:05:20
@Dargo

So wie es aussieht war der Vega Kauf und auch die Seven VII eben die RICHTIGE Entscheidung
Zwar viel mehr Verbrauch aber immer öfters auf Augenhöhe mit RTX 2080 wenn gar nicht knapp RTX 2080TI

Nun noch die Programmierer aufstocken und das Treiberteam pflegen und man ist in Reichweite mit Turing in etwa. Einmal etwas weniger und manchmal fast gleichauf.

dildo4u
2019-04-25, 09:19:10
Das Game hat ein 60fps Lock du siehts dort nicht mal wie viel die 2080 TI Dominiert,du kannst dort nicht mal ableiten ob Vega 7 schneller ist als 2080.

dargo
2019-04-25, 09:29:03
Wie kann dort eine 2080TI dominieren wenn schon die V56 die 2070 überholt? Die 1080 wird sogar recht deutlich mit mindestens 20% geschlagen (es wird mehr sein, man sieht es nur dank 60fps Limit nicht). Aber gut... um ein klareres Bild für die 7 oberen Karten zu bekommen müsste man bei 4k noch Downsampling verwenden.

...du kannst dort nicht mal ableiten ob Vega 7 schneller ist als 2080.
Das kann man ohne Probleme... erstens sieht man, dass ne "poppelige" V56 im 60fps Limit bei 4k schon hängt. Zweitens sieht man, dass eine RX590 gegenüber der RX580 perfekt skaliert. Wüsste jetzt nicht warum es diese Skalierung nicht weiter oben geben sollte wenn man die GPU-Last mit mehr Pixeln erhöht.

dildo4u
2019-04-25, 09:34:39
Die 2080 Ti ist bis zu 80% schneller als eine 2060,das Performance Bild ist im High-End komplett unklar.

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440

dargo
2019-04-25, 09:54:14
Nun noch die Programmierer aufstocken und das Treiberteam pflegen und man ist in Reichweite mit Turing in etwa. Einmal etwas weniger und manchmal fast gleichauf.
Es ist schon wie immer und wird sich auch nie ändern... Geld regiert die Welt. Hast du genug Cash kannst du mehr Leute beschäftigen die wiederum enger mit den Spieleentwicklern arbeiten und/oder den eigenen Treiber verbessern.

Pirx
2019-06-07, 12:51:40
Vega56 nun ab 229 € (im Mindstar) zu haben, wer hätte das gedacht

Mr.Scott
2019-06-12, 14:51:26
Welche CPU sollte man einer Vega 56 beim spielen auf 1920x1200 zur Seite stellen?

Ziel min. 60FPS

- Anno 1800
- Assassins Creed Odyssey
- Metro Exodus
- The Division 2

dargo
2019-06-12, 14:55:14
Würde dir den Ryzen 5 3600(X) empfehlen.

Mr.Scott
2019-06-12, 15:01:51
Würde dir den Ryzen 5 3600(X) empfehlen.

Ich brauche jetzt eine CPU!
Meine ist abgeraucht.
Bis jetzt hatte ich einen i7-5700 eingebaut.

Ich kann nicht noch 4 Wochen warten.
Günstig sollte sie auch nach Möglichkeiten sein.
Je nach dem was eine Vega 56 braucht um die nötigen Daten liefern zu können.

dildo4u
2019-06-12, 15:05:50
Na Ryzen 2600 mit B450 Board,geht für 200€.

w0mbat
2019-06-12, 15:07:28
Wenn unbedingt jetzt, dann einen Ryzen 5 2600 für ca. 130€ mit nem B450er Board. Der ist gut schneller und du kannst in 2 Jahren noch Aufrüsten. Aber es würde sich mMn auf jeden Fall lohnen noch die vier Wochen zu warten. Ich weiß, das quält erstmal, aber vier Wochen gehen schneller rum als man denkt. Vielleicht kannst du sogar vor dem 7.7. bestellen und er kommt schnell an, dann wären er nur noch 27 Tage :)

Aber das gehört eigentlich ins Kaufberatungsforum.

dargo
2019-06-12, 17:01:47
Ich brauche jetzt eine CPU!
Meine ist abgeraucht.
Bis jetzt hatte ich einen i7-5700 eingebaut.

In dem Fall wie schon vorgeschlagen einen R5 2600 für 130€ und ein passendes Brett. Später wenn ein 12C/24T oder gar 16C/32T Ryzen 2 wesentlich günstiger wird kann du immer noch ohne Boardwechsel upgraden. Ich meine selbst der Nachfolger von Zen 2 soll noch für AM4 2020 kommen. Planst du aber später so ein Upgrade würde ich schon auf eine vernünftige Spannungsversorgung achten. Bei B450 gibt es da auch einige nicht so tolle Kandidaten. Für eine 65W TDP CPU eher nicht so entscheidend. Bei 105W TDP oder gar mehr wirds schon interessanter.

LtGHm8TIDQo

Daredevil
2019-06-12, 17:19:36
Ich brauche jetzt eine CPU!
Meine ist abgeraucht.
Bis jetzt hatte ich einen i7-5700 eingebaut.

Ich kann nicht noch 4 Wochen warten.
Günstig sollte sie auch nach Möglichkeiten sein.
Je nach dem was eine Vega 56 braucht um die nötigen Daten liefern zu können.

Hol dir doch einfach nen günstigen gebrauchten, bevor du dein System komplett wechselst.
Du kannst mit jedem Prozessor ab 4 Kernen von 2010 deinen Spaß haben mit einer V56.

Nostalgic
2019-06-25, 00:44:01
Powercolor Vega 56 Red Dragon (https://www.mindfactory.de/product_info.php/8GB-PowerColor-Radeon-RX-Vega-56-Red-Dragon-Aktiv-PCIe-3-0-x16--Retail-_1236596.html) wieder unter 250€ im Mindstar.

Wenn die mit 30,5 cm nicht so pervers lang wäre:freak:
Passt bei nicht ins obere PCI-E.

Edit: Ist jetzt OT aber kann man die auch in den mittleren PCI-E Slot packen?
habe eine DualFan mit gleicher Slot-Höhe als Testobjekt
Rechts unten ein 140 mm Frontlüfter.
https://abload.de/img/pcie2c1jqd.jpg

Gynoug MD
2019-07-03, 16:04:45
Powercolor Vega 56 Red Dragon (https://www.mindfactory.de/product_info.php/8GB-PowerColor-Radeon-RX-Vega-56-Red-Dragon-Aktiv-PCIe-3-0-x16--Retail-_1236596.html) wieder unter 250€ im Mindstar.

Wenn die mit 30,5 cm nicht so pervers lang wäre:freak:
Passt bei nicht ins obere PCI-E.

Edit: Ist jetzt OT aber kann man die auch in den mittleren PCI-E Slot packen?
habe eine DualFan mit gleicher Slot-Höhe als Testobjekt
Rechts unten ein 140 mm Frontlüfter.
https://abload.de/img/pcie2c1jqd.jpg
Was'n da los, Einmachgummis?:freak:

Nostalgic
2019-07-03, 21:10:44
Was'n da los, Einmachgummis?:freak:
Ne, hatte die alte Karte zerlegt, während ich auf neue Lüfter gewartet habe:tongue:

Edit: Kühlen geht mit der neuen, komme auf so 60 Grad.

Daredevil
2019-07-03, 21:14:46
Edit: Ist jetzt OT aber kann man die auch in den mittleren PCI-E Slot packen?
habe eine DualFan mit gleicher Slot-Höhe als Testobjekt
Rechts unten ein 140 mm Frontlüfter.
https://abload.de/img/pcie2c1jqd.jpg
Klar, macht m.M. nach auch viel mehr Sinn, weil die Karte unten viel mehr Luft hat also oben direkt am ( im schlechtesten Fall ) heißen CPU Kühler.
Es muss halt ein PCIe 16x Slot sein, dann passt das alles.
Zur Not kannst du ihn aber auch als PCIe 8x betreiben, da verschenkst du 0-5% Leistung.

Achill
2019-08-13, 10:57:40
Vergleich der Treiber Performance zwischen 19.7.5 und 19.6.3 für Vega, durch Zufall gefunden: https://babeltechreviews.com/adrenalin-software-edition-19-7-5-performance-analysis-for-rx-vega-56-64/

2Ms
2019-10-02, 16:58:53
Hat eine Vega 56 Reference wirklich im Idle eine GPU-Temp von 46° und 47° beim VRam ?
Im offenen Gehäuse !

Oder muss ich mir Sorgen machen, dass der Kühler nicht richtig sitzt ?

N0Thing
2019-10-02, 19:08:58
Hat eine Vega 56 Reference wirklich im Idle eine GPU-Temp von 46° und 47° beim VRam ?
Im offenen Gehäuse !

Oder muss ich mir Sorgen machen, dass der Kühler nicht richtig sitzt ?

Meine hat in einem geschlossenen Gehäuse mit ordentlicher Durchlüftung deutlich niedrigere Werte im idle nach einem Systemstart. GPU 26°C und VRAM 26 oder 32°C, je nachdem welcher Wert dafür richtig ist.

2Ms
2019-10-02, 19:52:22
Auch eine Referenz-Karte ? Die Temps sind ja traumhaft. Als wäre die unter Wasser.
Ist die undervoltet ? Im idle sind unsere Spannungen natürlich gleich. Deshalb bin ich auch verwundert, weil mit sowenig Spannung müßte meine auch kühler sein.
Da Vega aber 2017 auf den Markt kam, und meine wahrscheinlich auch solang im Lager lag*, könnte die WLP etwas trocken sein.
* Asrock hat die Vega erst im July 2018 released

In Spielen erreicht sie um die 74 - 80 Grad, aber dann hört man den Lüfter schon deutlich.
Edit: Der Lüfter erzeugt bei einer bestimmten Drehzahl ein nerviges Singen. Das ist dann viel lauter als das Rauschen. Muss noch ausloten bei welcher Drehzahl das auftritt und dann die Lüfterkurve anpassen. Auch ist dieser Radial-Lüfter viel lauter als von meiner damaligen RX480 oder der RX5700.
Selbst schuld, ich wollte einen Exhaust-Kühler und bei einem Kaufpreis von 230 Euros für eine Vega 56 mecker ich auch nicht !

Naja, werde es die Tage austesten und mich ins Undervolting von Vega 56 einlesen.

N0Thing
2019-10-03, 02:31:55
Ja, eine Referenz-Karte, ca. 3-4 Monate nach dem Release gekauft und keinerlei UV oder sonstige Veränderungen. Zur Zeit ist auch das Standard-BIOS mit 165W aktiv. Am Donnerstag kann ich gerne Werte unter Last posten, damit du auch in der Hinsicht einen Vergleich hast.
Unter Last röhrt meine Karte aber auch sehr lautstark vor sich hin, habe deshalb auch lange mit dem Gedanken gespielt, sie unter Wasser zu setzen, es aber letztendlich auf Grund der Kosten doch nicht durchgezogen.

2Ms
2019-10-03, 06:20:53
Hmm, hatte hier gelesen, dass ein Nutzer bemerkt hat, dass seine Vega ohne Last nicht auf den PCIe x1.0 umschaltet.
Das ist bei mir auch so. Ob die höheren Temps daher kommen ?

Zudem, wie sind denn der Standard-Takt für den SoC im IDLE ? Bei mir bleibt er auf 600 MHz.

erlgrey
2019-10-03, 07:55:18
so schaut es bei meiner v56 red devil aus, mit uv.

paulmoki
2019-10-03, 09:15:12
Hmm, hatte hier gelesen, dass ein Nutzer bemerkt hat, dass seine Vega ohne Last nicht auf den PCIe x1.0 umschaltet.
Das ist bei mir auch so. Ob die höheren Temps daher kommen ?

Zudem, wie sind denn der Standard-Takt für den SoC im IDLE ? Bei mir bleibt er auf 600 MHz.

Wenn die Karte gar nichts macht sind es 17Mhz. Im 5min Mittel mit offenem Browser ca. 65 Mhz .