PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Zergra
2017-09-21, 21:01:32
Habe mal etwas herum Probiert, ab >1.4Ghz also für die normalen P6/P7 braucht Vega 64 eine ganze Menge mehr Spannung. Für 1.57 GHz bin ich schnell bei 1.06-1.1V. Während bei 1.4Ghz noch 930mV reichen. Da macht es fast Sinn, P6 + P7 zu blockieren...

vinacis_vivids
2017-09-21, 21:15:25
@Grendizer

mGPU macht in DX12 SFR statt AFR. Das ist der (wieder)-Türöffner für die GPU-Entwicklung für saubere fps. CF RX56, dazu undervolten und man kann einige Games schön ausfahren.

Was Crossfire angeht hatte Raja schon vorher angedeutet, dass die Infinity Fabric bei Vega noch nicht aktiv sein. Jetzt mit dem Treiber wurde sie aktiviert? Bei der skalierbaren Titeln ist Vega effizienter.
Bei AMD werkeln die bestimmt schon an einer Dual-Vega Karte. Die Tradition wird weitergeführt. Wird sicher wieder Sammlerstücke werden wie die Radeon Pro Duo.


Apropos DX11:
Vega@CF + Threadripper:
https://youtu.be/wo50UKI97lY?list=TLGG_g83katSys8yMTA5MjAxNw

Zergra
2017-09-21, 21:51:44
http://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-ReLive-Edition-17.9.2-Release-Notes.aspx

gravitationsfeld
2017-09-21, 22:01:49
mGPU macht in DX12 SFR statt AFR.
Nein. Die Engine ist selber dafuer verantwortlich. AFR ist weiterhin die einfachste Loesung.

vinacis_vivids
2017-09-21, 23:16:46
DX12 is the way to go was mGPU angeht. DX11 AFR wird in Zukunft keine Chance haben was Skalierung und Effizienz angeht.

gravitationsfeld
2017-09-21, 23:32:26
Die Hohlphrasen aendern nichts daran, dass deine Aussage falsch ist. Und ich vermute eher, dass Multi GPU praktisch komplett verschwindet, weil keiner Bock darauf hat das Zeug in der Engine zu implementieren fuer 1% der PC-Master-Race.

vinacis_vivids
2017-09-21, 23:50:51
An dir geht ja auch einiges vorbei wie es scheint und du zeigst nur wie verbohrt du bist.
Die neueren top Engines (Frostbite, idtech6, Oxide, Glacier usw... ) arbeiten alle am LL-API mGPU.
Es ist auch ein Qualitätszeichen wenn sauberes mGPU funktioniert und wünschenswert. Wir sind gerade am Anfang der mGPU Revolution. Das was in der CPU Entwicklung gemacht wurde, wird nun auch auf GPU überschwappen.

Locuza
2017-09-21, 23:56:55
An dir geht ja auch einiges vorbei wie es scheint und du zeigst nur wie verbohrt du bist.
Die neueren top Engines (Frostbite, idtech6, Oxide, Glacier usw... ) arbeiten alle am LL-API mGPU.
Es ist auch ein Qualitätszeichen wenn sauberes mGPU funktioniert und wünschenswert. Wir sind gerade am Anfang der mGPU Revolution. Das was in der CPU Entwicklung gemacht wurde, wird nun auch auf GPU überschwappen.
Du redest gerade mit einem Engine Programmierer von id Software, der an Doom und Vulkan mitgearbeitet hat.

Ex3cut3r
2017-09-22, 00:01:05
Leute, setzt ihn doch einfach auf Ignore, dann muss man seinen geistigen Schwachsinn nicht ertragen, naja....aber nur so lange bis ihn keiner quotet. :freak:

vinacis_vivids
2017-09-22, 00:11:05
Ist mir völlig Rille wer das ist. Wenn der keine Vorteile im LL-API mGPU sieht, dann sieht er gar nichts.

Locuza
2017-09-22, 00:16:39
Vielleicht sieht er die Praxiswelt vor sich und weniger Wahnvorstellungen?

akuji13
2017-09-22, 00:20:45
:popcorn:

Er kommt also doch wieder! Der Durchbruch von MGPU!
Jetzt noch einen schicken OLED Moni dazu und alles ist schick. ;D

Erinnert mich irgendwie an die Therapie...

=Floi=
2017-09-22, 00:44:08
Für eine! Wakü 1080Ti zahlt man schon 1000€. Permanent wird Vega madig geredet und Volta gehuldigt.

weil er madig ist!

für 2 wasser vega zahlst auch 1400+€ :facepalm:


Mir würde ja schon wieder der hut hochgehen, hätte ich ne vega. den scheiss CF-modus schalten sie frei und bei der single performance tut sich nichts!
Hauptsache der mist läuft, welcher 0,5% der _vega_ nutzer hat. :freak:
Das ist doch auch wieder total daneben.

Flusher
2017-09-22, 00:49:45
Leute, setzt ihn doch einfach auf Ignore, dann muss man seinen geistigen Schwachsinn nicht ertragen, naja....aber nur so lange bis ihn keiner quotet. :freak:

OT/

Vielleicht wird er nicht auf Ignore gesetzt weil die Alte in seinem Profilbild nett anzusehen ist. *spekulier*

vinacis_vivids
2017-09-22, 00:57:15
Vega56@UV vs 1070@OC - 28Games!
https://youtu.be/GEQ4uohaW_g

Vega64@CF RotR 4k
https://youtu.be/jvWtej1f90I

Schaffe89
2017-09-22, 03:24:38
Mir würde ja schon wieder der hut hochgehen, hätte ich ne vega. den scheiss CF-modus schalten sie frei und bei der single performance tut sich nichts!
Hauptsache der mist läuft, welcher 0,5% der _vega_ nutzer hat. :freak:
Das ist doch auch wieder total daneben.

Ich hab mir jetzt ein Vega endlich gegönnt und wäre um jedes % an Merhleistung dankbar.
Die Leistung in DayZ MOD, PUBG, Rust und SUAD ist schonmal eine herbe Enttäuschung allerdings macht die VEGA im CPU Limit in PUBG 30% mehr Frames also um die 135 statt 105 bei der GTX 1080, das ist schonmal ordentlich.;D Aber ansonsten ne Wein-Karte.

yamamoto_dc
2017-09-22, 07:25:10
Aber ansonsten ne Wein-Karte.

Der Wein wird noch reifen...:smile: Der erste Testfall ist Wolfenstein II, wenn das gut performed gibt es vielleicht auch Bundles Vega + Wolfenstein.

Daredevil
2017-09-22, 07:34:50
AMD soll jetzt einfach mal mit ihren scheiß Custom Karten inne Pötte kommen.
Da haben die seit Jahren mal Potential in einer Karte und pennen mit diesem verdammt lauten Ref Design rum. Das ärgert mich richtig zuzuschauen.

Hoffentlich bekommen die es wenigstens zum Weihnachtsgeschäft hin, flächendeckend was anzubieten.

pilzsammler2002
2017-09-22, 08:22:22
Ich hab mir jetzt ein Vega endlich gegönnt und wäre um jedes % an Merhleistung dankbar.
;D;D;D;D
Irgendwie "vertraue" ich deiner Aussage nicht :freak:

Da ja bald Release (27 Oktober) von Wolfenstein ist muss man nicht mehr lange warten um zu erahnen wo es hingehen könnte...

Zergra
2017-09-22, 09:25:39
Mir würde ja schon wieder der hut hochgehen, hätte ich ne vega. den scheiss CF-modus schalten sie frei und bei der single performance tut sich nichts!
Hauptsache der mist läuft, welcher 0,5% der _vega_ nutzer hat. :freak:
Das ist doch auch wieder total daneben.
Da hast du recht, als ich gestern die Patch Notes gelesen habe. Dachte ich auch nur so: "Hätten die sich auch sparen können". Wäre schön wenn die Bugs mal endlich behoben wären.

HTB|Bladerunner
2017-09-22, 09:50:21
RX Vega wurde doch mit Crossfire-Support beworben bzw. verkauft. Das hatte sicherlich rechtliche Gründe den Support schnellstmöglich nachzuliefern. Da sieht man mal in welch frühen Stadium sich die Treiber befinden.

kruemelmonster
2017-09-22, 11:01:16
OT/

Vielleicht wird er nicht auf Ignore gesetzt weil die Alte in seinem Profilbild nett anzusehen ist. *spekulier*

Die Alte würde seine Aussagen nichtmal retten können wenn sie oben ohne wäre.

Dino-Fossil
2017-09-22, 11:28:52
RX Vega wurde doch mit Crossfire-Support beworben bzw. verkauft. Das hatte sicherlich rechtliche Gründe den Support schnellstmöglich nachzuliefern. Da sieht man mal in welch frühen Stadium sich die Treiber befinden.

Würde mich auch nicht wundern, wenn das eher eine "low hanging fruit" war, also relativ leicht zu bewerkstelligen.

Die anderen Baustellen dürften bedeutend mehr Mühe machen.

G3cko
2017-09-22, 11:45:15
Die Treiberteams werden sicherlich auch nach Thema organsisiert sein. Die Personen die für CF zuständig waren werden das auch für Vega nach Schema F machen. Die wirklich komplexen neuen Features wie die primitiv Shaders sind da eine ganz andere Baustelle...

Ph03n!X
2017-09-22, 11:50:46
Multi GPU --> really?

Bitte erst mal die ganze Bugs entfernen und dann die Dinge freischalten die noch nicht freigeschaltet sind.

Ich bin mal gespannt ob die Karte wirklich "reift" über die Zeit.

Digidi
2017-09-22, 12:09:43
Die Hohlphrasen aendern nichts daran, dass deine Aussage falsch ist. Und ich vermute eher, dass Multi GPU praktisch komplett verschwindet, weil keiner Bock darauf hat das Zeug in der Engine zu implementieren fuer 1% der PC-Master-Race.
Na ja aber was bleibt den Engine Entwicklern in Zukunft übrig? Die Produktion neuer Graphikchips stagniert. Man sieht es ja jetzt wieder das man 2018 von 14 auf 12nm geht und nicht wie erhofft auf 7nm .

Es bringt da nur das in die Breite gehen, AMD hat es ja mit Ryzen gezeigt wie die Zukunft aussieht. Viele kleine Dies auf einem Substrat verklebt. Multi GPU wird sich auch in diese Richtung entwickeln.

RoughNeck
2017-09-22, 12:18:37
Das jetzige mGPU ist aber zu Aufwendig.
Wenn die Karten untereinander kommunizieren können ohne das da die Engine dementsprechend modifiziert werden muss, dann wird es auch mehr Anklang finden.
Und ich hoffe in Zukunft geht es in die Richtung.

aufkrawall
2017-09-22, 12:22:56
Es bringt da nur das in die Breite gehen, AMD hat es ja mit Ryzen gezeigt wie die Zukunft aussieht. Viele kleine Dies auf einem Substrat verklebt. Multi GPU wird sich auch in diese Richtung entwickeln.
Dass der Entwickler bei mGPU die Aufgaben umständlich selber verteilen muss und Bandbreitenprobleme bekommt, ist bereits seit zwei Jahren möglich...

Achill
2017-09-22, 13:12:52
Multi GPU --> really?

Bitte erst mal die ganze Bugs entfernen und dann die Dinge freischalten die noch nicht freigeschaltet sind.

Ich bin mal gespannt ob die Karte wirklich "reift" über die Zeit.

Welche Bugs den genau?

Das jetzige mGPU ist aber zu Aufwendig.
Wenn die Karten untereinander kommunizieren können ohne das da die Engine dementsprechend modifiziert werden muss, dann wird es auch mehr Anklang finden.
Und ich hoffe in Zukunft geht es in die Richtung.

Dass der Entwickler bei mGPU die Aufgaben umständlich selber verteilen muss und Bandbreitenprobleme bekommt, ist bereits seit zwei Jahren möglich...

Ihr macht euch das viel viel zu einfach! Damit mehrere Kerne einer CPU genutzt werden können, muss dies auch vom Entwickler umgesetzt werden, es gibt da keinen "magischen Treiber".

Bzgl. mGPU müssen die Engines endlich aufhören "Zustand" über Frames hinweg im VRAM zu halten - Frames müssen zueinander Zustandslos werden - das haben wir in anderen Teilen der SW-Welt schon seit Jahren umgesetzt um horizontal skalieren zu können.

Komplexe Systeme wie Google, Facebook, Twitter würden niemals auch nur ansatzweise so sein wie heute, wenn man den Zustand zwischen allen Services sync. halten müsste.

Digidi
2017-09-22, 13:15:09
Dass der Entwickler bei mGPU die Aufgaben umständlich selber verteilen muss und Bandbreitenprobleme bekommt, ist bereits seit zwei Jahren möglich...
Und das ändert jetzt was an meiner Aussage?

Achill
2017-09-22, 13:27:48
Dass der Entwickler bei mGPU die Aufgaben umständlich selber verteilen muss und Bandbreitenprobleme bekommt, ist bereits seit zwei Jahren möglich...

Und das ändert jetzt was an meiner Aussage?

@Digidi, die Aussage von aufkrawall ist sogar falsch. Die Bandbreitenprobleme kommen nicht daher, dass der Entwickler "es selber verteilen muss". Diese entstehen dadurch, dass er/sie (Team, Firma) sich für eine Lösung entschieden hat, die im Context von mGPU zu einen Bandbreitenproblem führt.

Dies kann Ignoranz, Unfähigkeit oder eine Vorgabe durch das Management sein (z.B. setze Engine/Framework XY ein, was dann mGPU inkompatibel ist).

Den Entwickler als Opfer da stehen zu lassen und mGPU als Ursache ist eine Verdrehung der Tatsachen. Wenn kann es nur sein, dass ein Entwickler oder Team übergangen werden und darum keinen Einfluss hatten.

dildo4u
2017-09-22, 13:44:24
Schätze mal kein AMDler hat Projeckt Cars 2,wäre mal interessant ob der Treiber was gebracht hat.

aufkrawall
2017-09-22, 13:48:46
@Digidi, die Aussage von aufkrawall ist sogar falsch. Die Bandbreitenprobleme kommen nicht daher, dass der Entwickler "es selber verteilen muss".

Das hab ich überhaupt nicht behauptet...

vinacis_vivids
2017-09-22, 14:16:58
Schätze mal kein AMDler hat Projeckt Cars 2,wäre mal interessant ob der Treiber was gebracht hat.

RX56 vs 1070 PC2
https://youtu.be/ZGIkcv69fB4


Zur mGPU und Bandbreite: Neu ist " frame pipelining"
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12-part-2

Alles in allen kann man sagen, dass DX12 einen viel tieferen Eingriff in die GPU erlaubt um die Ressourcen besser verteilen zu können. Das muss auch erstmal gelernt und geschätzt werden.

pilzsammler2002
2017-09-22, 14:18:56
RX56 vs 1070 PC2
https://youtu.be/ZGIkcv69fB4

Da fällt direkt wieder die geringere belastung der CPU auf :freak:

Und das Vega bei Regen besser performt Oo

dargo
2017-09-22, 14:54:01
Eine Idee woran das liegen könnte? Mit dem Ergebnis bei Regen habe ich bei der Uraltengine so gar nicht gerechnet. Und interessanterweise kann sich Vega56 in der kleineren Auflösung, ergo höheren CPU-Last stärker absetzen. In 1440p sind beide Karten wiederum praktisch gleich schnell.

dildo4u
2017-09-22, 15:01:18
Der Reflektion Shader wird das Game in ein GPU Limit ziehen,das Game performt auch sehr gut auf PS4 Pro.(Jaguar Cores)Scheint also nich so extrem CPU Limitiert zu sein wie man denkt.

Jake Dunn
2017-09-22, 15:40:30
Schätze mal kein AMDler hat Projeckt Cars 2,wäre mal interessant ob der Treiber was gebracht hat.

Hab 5h schon auf der Uhr hatte aber gleich den neuen Treiber instaliert.

gravitationsfeld
2017-09-22, 17:24:00
Bzgl. mGPU müssen die Engines endlich aufhören "Zustand" über Frames hinweg im VRAM zu halten - Frames müssen zueinander Zustandslos werden - das haben wir in anderen Teilen der SW-Welt schon seit Jahren umgesetzt um horizontal skalieren zu können.
"Endlich aufhoeren" ;D

Das faengt erst gerade richtig an, Ausnutzung von temporaler Kohaerenz spart enorm viel Rechenleistung.

Megamember
2017-09-22, 17:30:53
Und das Vega bei Regen besser performt Oo

Da seh ich nix von...
JA, okay in FHD aber in WQHD ist es wieder ausgeglichen. DAfür ist die 1070 bei schönen Wetter in FHD klar vorne, macht irgendwie alles keinen Sinn....

RoughNeck
2017-09-22, 17:39:52
Ihr macht euch das viel viel zu einfach! Damit mehrere Kerne einer CPU genutzt werden können, muss dies auch vom Entwickler umgesetzt werden, es gibt da keinen "magischen Treiber".


Finde ich nicht.
Ich will endlich weg von SFR und AFR. Es kann mir sagen dass es nicht geht, es muss gehen und fertig. Sollen die halt mal ihr Hirnschmalz bemühen und fertig.
Bei mir auf der Arbeit hat unser Anlageninstandhalter auch gemeint es geht nicht, nachdem wir lange genug Terror gemacht haben, haben sie es doch geschafft die Software anzupassen.

Mit Software geht alles, man muss es nur wollen, dass das dauert ist mir klar aber beim Thema mGPU herrscht seit Jahren / Jahrzehnt Stillstand und das ist traurig. AMD & Nvidia hatten Zeit genug und sie werben ja immer noch mit CrossFire und SLI, also sollen die da auch Ressourcen reinstecken, schließlich zahlt man auch dafür, auch wenn man nur eine GPU verbaut. Bei Nvidia zahle ich sogar für die Hinterwäldler Anschlüsse an der Karte.

fondness
2017-09-22, 17:58:04
So schlecht liegt Vega bei PC2 anscheinend nicht:

https://s26.postimg.org/yxzura6g9/Project-_CARS-2-1440p-benchmarks-740x734.png (https://postimages.org/)

http://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/project-cars-2-test-gpu-cpu

vinacis_vivids
2017-09-22, 18:14:53
Da seh ich nix von...
JA, okay in FHD aber in WQHD ist es wieder ausgeglichen. DAfür ist die 1070 bei schönen Wetter in FHD klar vorne, macht irgendwie alles keinen Sinn....

Bei Regen und Rauch wird die Karte mehr beansprucht. Da ist klar welche vorne liegt :wink:

RoughNeck
2017-09-22, 18:17:48
Bei Regen und Rauch wird die Karte mehr beansprucht. Da ist klar welche vorne liegt :wink:

Deswegen liegen die beiden Karten bei Regen unter 1440p gleich auf.

gedi
2017-09-22, 18:36:32
So schlecht liegt Vega bei PC2 anscheinend nicht:

https://s26.postimg.org/yxzura6g9/Project-_CARS-2-1440p-benchmarks-740x734.png (https://postimages.org/)

http://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/project-cars-2-test-gpu-cpu

Sehr guter Test. Schau aber mal wie V64 mit z.B. einem 1800x performt. CPU-Limit ist hier noch stark untertrieben.

@RoughNeck

Die CPU ist zu langsam für Vega :(

Digidi
2017-09-22, 18:43:15
Das Spiel ist einfach wieder Nvidia verseucht! Tut mir leid ist so.

Ex3cut3r
2017-09-22, 19:07:48
Na klar, Vega Performance ist einfach zu schwankend, mal ebenbürtig mit 1070/1080, und dann mal wieder nur auf Fury X niveau. Tut mir leid, ist so.

https://abload.de/img/unbenanntt3k1m.png

vinacis_vivids
2017-09-22, 19:12:57
Dein pic ist veraltet und hat nichts mit der Schwankung von Vega zu tun.

vinacis_vivids
2017-09-22, 19:14:54
Deswegen liegen die beiden Karten bei Regen unter 1440p gleich auf.
Es geht um die drops! nicht um avg balken.

Digidi
2017-09-22, 19:18:16
Na klar, Vega Performance ist einfach zu schwankend, mal ebenbürtig mit 1070/1080, und dann mal wieder nur auf Fury X niveau. Tut mir leid, ist so.

https://abload.de/img/unbenanntt3k1m.png
Und manchmal 1080 IT :eek:;D

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44401-erstes-custom-design-asus-rog-strix-radeon-vega-64-oc-edition-im-test.html?start=10

Ist So!!! Tut mir Leid!!

Ex3cut3r
2017-09-22, 19:20:25
Luxx und SLi/SGPU Misch Masch alà Russen Benches, alles klar. ;D

Da kann ich auch meine Oma Benches anfertigen lassen, um die wären besser als diese.

fondness
2017-09-22, 19:31:36
PCGH hat jedenfalls den alten AMD-Treiber verwendet, deshalb nicht vergleichbar.

gedi
2017-09-22, 19:32:35
Zum einen ist der Benchmark auf PCGH nicht mit aktuellen Treibern durchgeführt worden, zum Zweiten ist der Bench auf der Russenseite inhaltlich sehr umfangreich und zum Dritten macht das die Alte unter deinem Nick auch nicht hübscher!

Ex3cut3r
2017-09-22, 19:53:58
Wenn man sGPU und SLi in einem Benchmark zusammenführt, ist das alles andere als übersichtlich und professionell. Was soll ein Game-ready Treiber von AMD groß an der Performance ändern? AMD ist dafür bekannt, erst Monate später ihre Treiber für Games zu optimieren. Komisches Agument.

@Gedi Weißt nicht was mein Avatar, damit jetzt zu tun haben soll, wenn es eine Retourkutsche sein sollte, gib dir nächstes mal mehr Mühe.

vinacis_vivids
2017-09-22, 20:50:51
Du postest ein Pic von PC2 in der Hoffnung, dass jemand hier noch schluckt obwohl davor schon mit dem neueren Treiber klare fixes gemacht worden. Vega64 > 1080 stand jetzt.
Und dann beschwerst du dich über monatelange Treiberarbeit weil Vega schneller ist?

dargo
2017-09-22, 20:52:40
Was soll ein Game-ready Treiber von AMD groß an der Performance ändern? AMD ist dafür bekannt, erst Monate später ihre Treiber für Games zu optimieren.
Und das ist jetzt dein Argument? :uup:

horn 12
2017-09-22, 20:56:22
Ich krieg langsam das Große Kotzen, aber echt !!
Mein Shop hat nicht mal heute abend meine GigaByte RX Vega Silver versendet
Wusst doch dass lieber mehr bezahlte, die Karte dann aber in 2 Tagen da ist
Aber nein, warte schon seit Gut 5 Wochen auf Vega, dann kommt die Karte endlich im Shop erneut an und dann versendet man mir die Karte erst nach 8 Arbeitstagen....
Grrrrr, Italien mal wieder :-(

Fazit:
Geiz ist NICHT gleich Geil
Aber wem sag ich dies ...

yamamoto_dc
2017-09-22, 21:55:32
Ich krieg langsam das Große Kotzen, aber echt !!
Mein Shop hat nicht mal heute abend meine GigaByte RX Vega Silver versendet
Wusst doch dass lieber mehr bezahlte, die Karte dann aber in 2 Tagen da ist
Aber nein, warte schon seit Gut 5 Wochen auf Vega, dann kommt die Karte endlich im Shop erneut an und dann versendet man mir die Karte erst nach 8 Arbeitstagen....
Grrrrr, Italien mal wieder :-(

Fazit:
Geiz ist NICHT gleich Geil
Aber wem sag ich dies ...

Das ist bitter, aber Vorfreude ist ja bekanntlich die schönste Freude...:biggrin:

Dorn
2017-09-22, 22:03:22
Vega64 > 1080 stand jetzt.
Jo für dich ganz alleine. :freak:

von Richthofen
2017-09-22, 22:10:20
Sehr guter Test. Schau aber mal wie V64 mit z.B. einem 1800x performt. CPU-Limit ist hier noch stark untertrieben.

@RoughNeck

Die CPU ist zu langsam für Vega :(


So sieht es aus. Vega zieht auschliesslich mithilfe des hoch übertakteten 5960X an der 1080 vorbei. Jede andere CPU bzw. der 5960X @Stock lässt Vega in PC2 erbärmlich zurückfallen.

G3cko
2017-09-22, 22:36:43
Weiß nicht was ihr mit Project Cars habt. Der erste Teil war mit Nvidia Logos voll und oh wunder massiv im CPU Limit. Lächerlich für ein Rennfahrspiel welches sonst üblich immer im gpu Limit hängt.

Project Cars 2 ist zumindest wesentlich besser spielbar. Die Performanceunterschiede im absoluten CPU Limit bleiben. An der engine ändert sich somit nichts. Aber solange es gut läuft, wurscht.

Nazar
2017-09-22, 23:09:51
Luxx und SLi/SGPU Misch Masch alà Russen Benches, alles klar. ;D

Da kann ich auch meine Oma Benches anfertigen lassen, um die wären besser als diese.

Oh, na dann her damit, DAS würde ich gerne sehen!
Es würde aber schon reichen, wenn nur du mal ein paar Benchmarks im Detail liefern könntest... is ja sooooooo einfach.. gell?
Freue mich schon auf morgenfrüh, wenn du alles fertig hast. ;D

Ex3cut3r
2017-09-23, 01:26:30
Mein Gott, habe ich euch persönlich angegriffen?

Tschüsss! Und viel Spaß weiterhin mit Vega, welche UV gar nicht mal sooo schlecht ist, jetzt noch die Schwankende Performance fixen und vlt. noch runter mit dem Preisen, und ich wurde gar nix sagen. Bliebe nur noch, die schlechte IPC und die allgemeine DX11 Schwäche und die Treiber mussten auch nochmal einen Schritt nach vorne machen.

RoughNeck
2017-09-23, 03:31:15
Es geht um die drops! nicht um avg balken.

Schau dir doch dein selbst verlinktes Video mal selbst an.
Unter 1440p im Regen wo die 1070 dropt, dropt die Vega genau so. Aber egal, Vega 56 ist leicht vor der 1070 wenn’s dich glücklich macht.

-=Popeye=-
2017-09-23, 04:14:21
Die ganze Argumentation bezüglich AMD Vega 56/64 vs nVIDIA Geforce 1070/1080... blabla... Intel vs AMD vs nVIDIA... besser oder schlechter erübrigt sich ja schon allein dadurch das Ryzen... ja ne ist klar... die (angeblich) besseren Frametimes hat und dennoch abstinkt.

Hmmm, irgendwie wird sich auf AMD Seite immer alles so zurecht gelegt wie es einem gerade passt.

horn 12
2017-09-23, 08:35:57
Der Hauptgrund des Verschiebens der Custom, denn Karten kommen genügend von AMD an und die Premium Partner haben genug AMD´ Referenz Karten auf Lager
Hinten angestellt sind ASUS - MSI -

AMD will wohl für Monate den Großteils des Kuchen abbekommen und erst sobald AMD eine gewisse Menge an Referenz Karten abgesetzt hat wird man die Chips an die Partner loslassen... und da geht bestimmt ein Monat noch auf AMD Kappe.
Vor Ende Oktober rechne ich nicht mit Auslieferungen der ersten RX64-er Custom Karten.... und bei RX 56 wird sich das Spiel von Neume wiederholen
RX 56 Custom vielleicht knapp zum Weihnachtsgeschäft

Preis auch jenseits von gut und Böse.
Asus Custom munkelt mal von 699 bis 749 Dollar... Mit Anfänglichem Deppenaufschlag wohl nicht unter 750 Euro.

RoughNeck
2017-09-23, 08:48:18
Oder der Chip ist in der Fertigung beschissen und die Ausbeute ist zu schlecht.
Aber bevor Custom Karten kommen, soll AMD mal am Treiber arbeiten.

Korvaun
2017-09-23, 08:56:37
Ich nehm noch Wetten an was man wohl eher kaufen kann, AMD Vega Customs oder nV Volta Karten ;)

dildo4u
2017-09-23, 09:21:53
Project Cars 2 GTX 1080 TI Vs AMD RX Vega 64 Vs GTX 1080 4K Frame Rate Comparison

https://youtu.be/tpBubGwj8Fo

Braucht ordentlich Dampf in 4k/60.

Forza Horizon 3 DX12 GTX 1080 TI Vs AMD RX Vega 64 Vs GTX 1080 1440p Frame Rate Comparison

https://youtu.be/1QBohZ0hxwg

Schlammsau
2017-09-23, 10:18:44
Irgendwie kann ich das nicht richtig deuten aber seit gestern Abend ist ne V64 im Mindstar für 509€, nur 10€ teurer als ne V56, und es tut sich genau nix ???

https://www.mindfactory.de/Highlights/MindStar

TGKlaus
2017-09-23, 10:31:08
Vielleicht mal bei den Tatsachen bleiben?!

Das Ding war gegen 2Uhr Nachts noch nicht drin und mittlerweile ist knapp ein Drittel ist verkauft.

Hübie
2017-09-23, 10:40:42
Das sind 12-13 Karten bei 40 Stück. X-D Die ASUS Strix 1080 Ti für 709,- € ist schon bei ~40-45 Stück bei ähnlicher Laufzeit. Das Vega nicht gut geht ist doch auch logisch. Wer sich mit Freesync oder G-Sync an einen IHV gebunden hat, der wird sich schwer tun für Vega zu wechseln bzw. für Vega das Geld zu berappen.

Gefühlt greifen nach dem Launch mehr Käufer zur 1080 Ti als zu Vega, obwohl die auf Vega gewartet haben und bereit gewesen wären diese bei passender Perf/€ (oder Perf/W etc. - je nach Präferenz eben).

Das Spielgefühl auf Vega mit Freesync ist einwandfrei in Spielen (in meinem Fall nur BF1 getestet) die soweit bugfrei sind. Aber das zählt für 99% der Käufer nicht.

RoughNeck
2017-09-23, 10:52:30
Da macht die Vega 64 doch gar keine schlechte Figur.
Deckt sich bei Forza Horizon 3 zumindest mit dem was ich mit meiner Vega festgestellt habe bei 1440p. Wobei ich das Ergebnis bekomme

Vega 64 LC---------------------GTX 1080 TI

MIN FPS------------------------MIN FPS
94------------------------------95

AVG FPS------------------------AVG FPS
105-----------------------------118

MAX FPS-----------------------MAX FPS
116----------------------------131

Taktraten der beiden Karten sind so wie in meiner Signatur.
Der Verbrauch der Vega Karte war etwa 90W über der 1080 TI, für mich nicht so wichtig.

TGKlaus
2017-09-23, 10:57:23
... bei ähnlicher Laufzeit...

:facepalm:

Daredevil
2017-09-23, 10:57:43
Und? Wer soll sich den die Karten bei den Preisen kaufen? Die Karten sind viel zu teuer für die Leistung, ne GTX 1070 bekommt man ab knapp 400€, die Vega56 fängt erst bei 500€ an und verbraucht dabei 100W mehr. Erst wenn die Karten durchgehend bei um die 400e liegen kann man über diese Stromschleudern nachdenken. Aber so, nicht konkurrenzfähig!
Vega 64 kostet momentan 509€
Irgendwie kann ich das nicht richtig deuten aber seit gestern Abend ist ne V64 im Mindstar für 509€, nur 10€ teurer als ne V56, und es tut sich genau nix ???

https://www.mindfactory.de/Highlights/MindStar

Also entweder will er uns verarschen, oder ich bin auf seiner Ignore List. :D

yamamoto_dc
2017-09-23, 11:00:54
Die meisten die Vega unbedingt jetzt mit Referenzdesign haben wollten, haben sich wohl schon eingedeckt, das ist ja nicht der erste Mindstar. Freut euch wenn die Verkäufe von Vega zurückgehen, dann kommen die Customs etwas früher.

Hübie
2017-09-23, 11:05:00
:facepalm:

Wie meinen? Ist es für dich schon schwer geworden zu tippen und sich auszudrücken? :rolleyes:

akuji13
2017-09-23, 11:09:54
Freut euch wenn die Verkäufe von Vega zurückgehen, dann kommen die Customs etwas früher.

Oder gar nicht mehr weil man keinen Markt dafür sieht. :eek:

Zergra
2017-09-23, 11:16:13
Der Treiber 17.9.2 hat bei mir die VRAM Auslastung in Verbindung mit HBCC weiter (ca. 1GB weniger als vorher) verringert. Komme jetzt in BF1 Regelmäßig auf unter 4.5GB. Ohne HBCC war ich oft bei 6-7GB VRam.


Außerdem klingt der Grafikkarten Lüfter bei 2360rpm nicht gerade Gesund und sorgt für ein dröhnen, das ist aber neu.

BeetleatWar1977
2017-09-23, 11:26:05
So Jungs - für die Spielerei mit der PowerPlay Table und Vega 56.....

https://abload.de/img/watttooluviojdy.jpg

Die Table ist auf diese Spannungen vorkonfiguriert. Ausserdem HBM mit 900Mhz (geht) und 1.35V (geht momentan(?) nicht). TDP ist auf 220W eingestellt und PT auf +-100% erweitert, passt bitte auf das ihr bei 440W nicht die Karte ausglüht!

Edit: ich kann bei Lüfter auf Vollast ungefähr bis 330W gehen, Lüfterdrehzahl bei 3400 reicht für die 220W bei mir.

yamamoto_dc
2017-09-23, 12:02:58
Oder gar nicht mehr weil man keinen Markt dafür sieht. :eek:

Von Saphire wird schon was kommen...:biggrin:

yamamoto_dc
2017-09-23, 12:08:30
Außerdem klingt der Grafikkarten Lüfter bei 2360rpm nicht gerade Gesund und sorgt für ein dröhnen, das ist aber neu.

Das kann aber nur an der Hardware liegen, zumindest so lange die Drehzahl richtig ausgelesen wird. Hast Du irgend etwas im Gehäuse umgebaut? Wenn irgend etwas mitschwingt, kann so etwas entstehen. Kann auch über die Zeit kommen, irgend ein Teil rüttelt sich so lange in Position bis es in Resonanz kommt.

Zergra
2017-09-23, 12:13:40
Das kann aber nur an der Hardware liegen, zumindest so lange die Drehzahl richtig ausgelesen wird. Hast Du irgend etwas im Gehäuse umgebaut? Wenn irgend etwas mitschwingt, kann so etwas entstehen. Kann auch über die Zeit kommen, irgend ein Teil rüttelt sich so lange in Position bis es in Resonanz kommt.
Ich habe seit einer Woche ein neues Gehäuse. Dazu noch ein Transport von 450km. Möglich, das dort eine Schraube etwas locker ist. Hatte Vorgestern die Lüfter der Karte mal auf 3000rpm laufen. Danach fing das Problem an.

vinacis_vivids
2017-09-23, 12:17:14
Frostbite: RX56 ~ 1080Ti
Forza: RX64 ~ 1080Ti
Idtech6: RX56 ~ 1080Ti
Glacier: RX64 ~ 1080Ti
Ego: RX64 ~ 1080Ti
CoD: RX64 ~ 1080Ti
SE4: RX64 ~ 1080Ti
Oxide: RX64 > 1080Ti
Source: RX64 ~ 1080Ti

Nicht schlecht für ne Karte die dauernd schlecht geredet wird. Optimierungen gehen schneller als gedacht.

Achim_Anders
2017-09-23, 12:19:17
Vinacis, wovon in Gottes Namen redest du?

vinacis_vivids
2017-09-23, 12:20:13
Von den neuesten Stand.

yamamoto_dc
2017-09-23, 12:21:02
Frostbite: RX56 ~ 1080Ti
Forza: RX64 ~ 1080Ti
Idtech6: RX56 ~ 1080Ti
Glacier: RX64 ~ 1080Ti
Ego: RX64 ~ 1080Ti
CoD: RX64 ~ 1080Ti
SE4: RX64 ~ 1080Ti
Oxide: RX64 > 1080Ti
Source: RX64 ~ 1080Ti


Woran machst Du das fest? Es würde mich ja freuen wenn es so wäre, aber da kann selbst ich nicht dran glauben, jedenfalls nicht so schnell. :confused:

RoughNeck
2017-09-23, 12:22:02
Von den neuesten Stand.

Zeig mal

dildo4u
2017-09-23, 12:22:31
Ich glaube langsam das vinacis AMD Aktien hat und sich Bereichern will anders kann ich mir den Unsinn nicht erklären.

RoughNeck
2017-09-23, 12:24:04
Ich bin nur gespannt welchen absurden Beweis er bringen will.

yamamoto_dc
2017-09-23, 12:24:50
Ich habe auch AMD-Aktien, ich versuche aber immer realistisch zu bleiben, könnte sonst sehr teuer werden.

vinacis_vivids
2017-09-23, 12:26:37
Das ist die neue Zeit. Die ganzen release Test kannst du vergessen wo RX56 mit 1300Mhz und RX64 mit 1400Mhz läuft mit Alpha Treiber.
Und natürlich hab ich Quellen.

dildo4u
2017-09-23, 12:28:06
Ich bin nur gespannt welchen absurden Beweis er bringen will.

Das ist z.b der aktuelle Stand bei Forza Horizion 3,Forza 7 kann man gar nich benchen da die Demo ein FPS lock hat.

https://youtu.be/1QBohZ0hxwg

RoughNeck
2017-09-23, 12:33:23
Das ist die neue Zeit. Die ganzen release Test kannst du vergessen wo RX56 mit 1300Mhz und RX64 mit 1400Mhz läuft mit Alpha Treiber.
Und natürlich hab ich Quellen.


Die wären?
Die ganzen Air Vega takten auch mit neueren Treibern niedrig, weil es ohne selbst modifizieren eben so ist. Selbst meine Vega 64 LC taktet ab Werk bei hoher Beanspruchung meist mit 1500 - 1550.
Erst wenn ich da undervolte und das PT anhebe, dann hält die Karte die eingestellten 1750.
Also bitte, verzapf nicht so viel Unsinn und zieh dir nicht immer so viel Schmarrn aus den Haaren.

@dildo4u

Bei Horizion läuft Vega nicht schlecht, habe ich selbst schon getestet, hat aber gegen eine TI keine Chance.
Aber vielleicht ist mein 7820X @ 4,5 GHZ ja zu langsam für Vega :biggrin:

scully1234
2017-09-23, 12:45:59
Ich glaube langsam das vinacis AMD Aktien hat und sich Bereichern will anders kann ich mir den Unsinn nicht erklären.

Ist der auch für den Tesla Börsen Prank verantwortlich:tongue:

Die wären?


Ist die Frage rein rethorischer Natur, oder erwartest du ernsthaft stichhaltige Belege?

RoughNeck
2017-09-23, 12:56:57
@scully1234

Nö, ich will einfach nur lachen.
Der Typ so is so Banane, das is schon wieder lustig :D

horn 12
2017-09-23, 13:17:54
AMD hat wohl den Neuen Branch des Treibers fertig und selbst dachte jener ist im CF Treiber enthalten.
Wartet man vielleicht echt auf Wolfenstein 2 um den Treiber zu releasen.
Dies wäre aus Meiner Sicht Supoptimal.

Megamember
2017-09-23, 13:19:42
Frostbite: RX56 ~ 1080Ti
Forza: RX64 ~ 1080Ti
Idtech6: RX56 ~ 1080Ti
Glacier: RX64 ~ 1080Ti
Ego: RX64 ~ 1080Ti
CoD: RX64 ~ 1080Ti
SE4: RX64 ~ 1080Ti
Oxide: RX64 > 1080Ti
Source: RX64 ~ 1080Ti

Nicht schlecht für ne Karte die dauernd schlecht geredet wird. Optimierungen gehen schneller als gedacht.

In welchem Paralleluniversum? Max. übertaktete 64 vs auf 1000MHZ untertaktete 1080Ti oder wie?


Und natürlich hab ich Quellen.

Wahnvorstellungen zählen nicht.

dargo
2017-09-23, 13:35:33
Das sind 12-13 Karten bei 40 Stück. X-D Die ASUS Strix 1080 Ti für 709,- € ist schon bei ~40-45 Stück bei ähnlicher Laufzeit. Das Vega nicht gut geht ist doch auch logisch.
Referenz vs. Custom. :crazy:

RoughNeck
2017-09-23, 13:54:01
In welchem Paralleluniversum? Max. übertaktete 64 vs auf 1000MHZ untertaktete 1080Ti oder wie?


Bei 1000 MHZ würde die TI unterliegen, dafür aber unter 100W oder gar weniger brauchen.

Hab weil es ein Arbeitskollege wissen wollte mal meine TI auf die Leistung einer Vega 64 LC die 1750 MHZ läuft zu bringen.

1080 TI Taktraten / 1440p / max Details

Forza Horizion 3 = 1745 MHZ
Witcher 3 = 1670 MHZ
Rise of the Tomb Raider = 1733 MHZ
GTA V = 1645 MHZ (da ist die TI aber immer noch 10 FPS vorn, nur unter 1645 MHZ übernimmt meine Strix Karte nix mehr)
BF1 = 1745 MHZ
Mass Effect Andromeda = 1845 MHZ

Bevor einer wegen den ausgewählten Games jammert, besonders vivids wegen GTA V. Das waren die Games die ihn interessiert haben.

dargo
2017-09-23, 13:58:45
Bei Horizion läuft Vega nicht schlecht, habe ich selbst schon getestet, hat aber gegen eine TI keine Chance.
Aber vielleicht ist mein 7820X @ 4,5 GHZ ja zu langsam für Vega :biggrin:
Ist ja auch kein Wunder. Die Microsoft Studios investieren nicht gerade viel Hirnschmalz in ihre DX12 XBox Ports. Da fehlen so Sachen wie Async Compute, Shader Intrinsics und FP16. Ich hoffe du legst dir Wolfenstein 2 zu, ist ja nicht mehr lange hin. Da interessiert mich der Vergleich mit der GTX1080TI brennend. :)

RoughNeck
2017-09-23, 14:09:40
Wolfenstein 2 ist schon längst vorbestellt, genau wie Elex, Far Cry 5 und Metro Exodus.
Leider brauchen ein paar dieser Games noch zu lange.

Erbsenkönig
2017-09-23, 14:42:30
Ich glaube langsam das vinacis AMD Aktien hat und sich Bereichern will anders kann ich mir den Unsinn nicht erklären.

https://www.youtube.com/watch?v=Q_4bp8bBNVw

captain_drink
2017-09-23, 16:55:03
Ich glaube langsam das vinacis AMD Aktien hat und sich Bereichern will anders kann ich mir den Unsinn nicht erklären.

Soweit ich weiß, hat er ja nicht mal selbst eine Vega. Wenn diese angeblich so göttlich sein soll, warum hat er dann nicht schon längst eine im Rechner?
Das ist einfach nur primitivstes Getrolle, bei dem ich mich wundere, dass die Moderation dem nicht Einhalt gebietet.

vinacis_vivids
2017-09-23, 16:59:17
Source Engine:
https://abload.de/img/csgomdjyi.jpg

Oxide:
https://abload.de/img/aots99pc0vj0p.png

Frostbite
https://youtu.be/spRJa7d2FPA
https://youtu.be/6H-Qtqzcy0A

Glacier:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44401-erstes-custom-design-asus-rog-strix-radeon-vega-64-oc-edition-im-test.html?start=10

idtech:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44401-erstes-custom-design-asus-rog-strix-radeon-vega-64-oc-edition-im-test.html?start=17

CoD:
https://youtu.be/pTvI3H-bO_I
https://youtu.be/kJj-GQunvJA

Gibt sicher noch mehr.

RoughNeck
2017-09-23, 17:16:01
BF1 kannst schon mal vergessen, das sind unterschiedliche Maps und Situationen.
Hardwareluxx kann ebenso vergessen, die Tests von denen kann man nicht ernst nehmen. Aber dir zuliebe, ja die Glacier Engine mögen die AMD Karten.
Source Engine ohne AA Modis? Wirklich? Das soll ein Beweis für die Power von Vega sein?
CoD. Multiplayer bei Nvidia vs Single Player bei Vega.
Doom, muss ich mehr sagen. Da wurde mit AMD eng zusammen gearbeitet.

Und jetzt?
Hast jetzt Stundenlang gesucht für deine tollen Beweise und das kam dabei raus?


Witcher 3
https://www.youtube.com/watch?v=fypIzTPZujA&t=82s

Battlefield 1
https://www.youtube.com/watch?v=xwhAKuaf_pE

Ein Haufen Games
https://www.youtube.com/watch?v=owtOiovc6zI

Ich kann mir genau so was von Youtube rauspicken und behaupten Vega ist absoluter Müll. Aber war ja zu erwarten dass du keine Beweise liefern kannst, zumindest ist es lustig ;D


@Erbsenkönig

Schön langsam glaub ich es auch dass er Substanzen nimmt die ihm eine andere Realität sehen lassen.

dildo4u
2017-09-23, 17:27:50
Hier mal Hitman bei DF kein Plan was Hardwareluxx da wieder verbrochen hat,1080 = Vega 64.

https://youtu.be/1FtiRVZOkIs?t=10m40s

Hitman bei PCPer:

https://www.pcper.com/image/view/85270?return=node%2F68297

Hitman bei Tomshardware

http://www.tomshardware.com/reviews/amd-radeon-rx-vega-64,5173-9.html

vinacis_vivids
2017-09-23, 17:31:54
Bloß keine Argumente XD und alte *Reviews*

Dirt 4:
https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/Dirt.png

CIV4:
https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/Civ.png

Dass Vega so schnell aufhollt, hätte ich auch nicht gedacht. Optimierungen schreiten recht schnell voran. Star Wars Battlefront 2 und Wolfenstein 2 dienen als nächter Fingerzeig.

gedi
2017-09-23, 18:03:52
Ich weiß jetzt nicht was die Vergleiche noch großartig ändern sollen. V64 gleich Punktlandung zur 1080, V56 ca. 5% über 1070. Ähnlich sollte es sich mit Customs Verhalten: V64 Strix = 1080 Strix

Hübie
2017-09-23, 18:07:26
Referenz vs. Custom. :crazy:

Oh wait. Ich suche eine custom Vega. Es geht doch um Verkaufszahlen, was interessiert da Ref vs Custom wenn es bei einem keine Auswahl gibt? :| Argumentativ Banane.

scully1234
2017-09-23, 18:11:56
Und jetzt?
Hast jetzt Stundenlang gesucht für deine tollen Beweise und das kam dabei raus?


Es hätte doch an ein Wunder gegrenzt ,wenn es anders gekommen wäre :upara:

RoughNeck
2017-09-23, 18:23:54
Bloß keine Argumente XD und alte *Reviews*

Dirt 4:
https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/Dirt.png

CIV4:
https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/Civ.png

Dass Vega so schnell aufhollt, hätte ich auch nicht gedacht. Optimierungen schreiten recht schnell voran. Star Wars Battlefront 2 und Wolfenstein 2 dienen als nächter Fingerzeig.

Wo hat Vega denn großartig aufgeholt?
Deine beiden Links zeigen eine GTX 1080 Referenz Air gegen eine Vega 64 LC. Selbst du solltest merken dass die 1080 Referenz da auf etwa 1750 - 1800 taktet.
Aber ich habe nix anderes erwartet.

Hier mal was aktuelles, alles Air Karten.
https://www.youtube.com/watch?v=wY0Nlfa1tUM

Und hier was älteres, dennoch gut da da sehr viele Games getestet werden
https://www.youtube.com/watch?v=sEThh15DI6Y

Und so viel mehr Performance bringen die neuen Treiber nicht, ich kann es ja bei mir nachtesten, also spar es dir.


@scully1234

Ja, keine Ahnung was der nimmt.
Schade eigentlich, hätte ja vielleicht was interessantes dabei sein können :biggrin:

Messias
2017-09-23, 18:34:48
Eigentlich ist das hier ein Vega Review Thread. :freak:
Stattdessen trollen hier ununterbrochen irgendwelche Leute rum, bashen die Grafikkarte, weil nVidia so viel besser sein soll etc.pp.
Das führt absolut am Sinn dieses Threads vorbei. Und das offenbart, daß das Niveau in diesem Forum nicht mehr das ist, was es mal war.
Nur noch Fanboy getrolle.
Daß die Moderatoren nicht in der Lage sind, die Trolle hier rauszuhalten, sagt auch einiges aus.

Jedenfalls: Ich habe mir eine Vega gekauft. Ja, ich habe mir im Vorfeld mehr erwartet. Und ich glaube auch nicht mehr daran, daß AMD alles noch per Treiber rausreissen kann - oder auch nur will.
Ich bin von dem Unternehmen und der Marke enttäuscht.
Aber dennoch: So zu tun, als sei Vega die letzte Scheiße, das ist es auch nicht.
Es ist ein passables Produkt - das momentan vor allem wegen der Verfügbarkeit und des Preises nicht konkurrenzfähig ist.

hq-hq
2017-09-23, 18:37:06
Bei 1000 MHZ würde die TI unterliegen, dafür aber unter 100W oder gar weniger brauchen.

Hab weil es ein Arbeitskollege wissen wollte mal meine TI auf die Leistung einer Vega 64 LC die 1750 MHZ läuft zu bringen.

1080 TI Taktraten / 1440p / max Details

Forza Horizion 3 = 1745 MHZ
Witcher 3 = 1670 MHZ
Rise of the Tomb Raider = 1733 MHZ
GTA V = 1645 MHZ (da ist die TI aber immer noch 10 FPS vorn, nur unter 1645 MHZ übernimmt meine Strix Karte nix mehr)
BF1 = 1745 MHZ
Mass Effect Andromeda = 1845 MHZ

Bevor einer wegen den ausgewählten Games jammert, besonders vivids wegen GTA V. Das waren die Games die ihn interessiert haben.


interessant, sieht ja eigentlich ganz gut aus für Vega
der Vergleich wäre in einem Jahr nochmal sehenswert

RoughNeck
2017-09-23, 18:43:21
@Messias

Enttäuscht bin ich eigentlich von Vega gar nicht.
Ich habe genau gewusst worauf ich mich einlasse, ich will halt einmal selbst sehen wie lange AMD Karten tatsächlich mithalten können.
Schlecht ist Vega auch nicht, es versuchen nur ein paar hier uns für dumm zu verkaufen und meinen Vega 64 ist auf 1080 TI Niveau was einfach nicht stimmt.


@hq-hq

Wird sich vermutlich mehr zur GTX 1080 TI hinschieben, da Nvidia dann Volta mehr puschen wird und AMD wird halt die Vega etwas besser auslasten können. Das erwarte ich zumindest im September 2018, mal sehen wie es dann aussieht.

Achill
2017-09-23, 19:06:03
Bzgl. mGPU müssen die Engines endlich aufhören "Zustand" über Frames hinweg im VRAM zu halten - Frames müssen zueinander Zustandslos werden - das haben wir in anderen Teilen der SW-Welt schon seit Jahren umgesetzt um horizontal skalieren zu können.


"Endlich aufhoeren" ;D

Das faengt erst gerade richtig an, Ausnutzung von temporaler Kohaerenz spart enorm viel Rechenleistung.

Ja, meine Aussage war zu stilisiert. Natürlich bedarf es eines Datenaustauschs zwischen Nodes und genauso gibt es Algorithmen mit temporaler Komponente. Auch will ich gar nicht in Abrede stellen, dass diese schneller / effizienter sein können / sind.

Mein Punkt war die Betrachtung der Limitierung der Kommunikation zwischen Nodes bzgl. Latenz oder Bandbreite - was nach meinen Verständnis bei Spielen mit CF/SLI oft das Problem ist/war bzw. die Auswirkungen wenn der Treiber es übernimmt (Micro-Ruckler).

Als Sehender unter den Einäugigen und Blinden wäre eine Aussage interessant, ob ein Multi-GPU-Konzept (z.B. auch auf einen Interposer,
was ja das Limit und die Latenzen von PCIe deutlich verschiebt) ein realistischer Weg ist oder ob Aufgrund der Tendenz in der Entwicklung dies eher unrealistisch ist.

BeetleatWar1977
2017-09-23, 20:42:33
soderle, mal kurz gebencht.....
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/74853-nvidia-gtx-1080-ti-performance-review-7.html
gleiche Settings wie hier
Vega 56@UV und PT für Vega64(220W) Speicher auf 900Mhz


31.5 Frames min, 70.1 AVG ...... war leider trotz FX bei 4.7Ghz hier und da im CPU-Limit....
https://abload.de/img/1440pdx12maxedoutshz73.jpg

dosenfisch24
2017-09-23, 21:19:07
https://abload.de/img/watttooluviojdy.jpg


Ich finde es wirklich erstaunlich, wie wenig Spannung die "neueren" Vega Chips benötigen.
Meine FE braucht :
1450MHz - 0,960V
1500MHz - 1,010V
1525MHz - 1,035V
1575MHz - 1,090V
1600MHz - 1,125V
1650MHz - 1,195V

Bisher ist Unigine Heaven in 4K mit allen Einstellungen auf Maximum das Schlimmste für die Karte. Dort kann ich jeweils keine 5mV weiter runter gehen. Witcher 3, Superposition oder die verschiedensten 3D Mark Teile kommen hingegen alle mit weniger Spannung aus.

Hübie
2017-09-23, 21:26:13
Dann spiel mal mehrere Stunden (>4h) The Witcher 3. Ist eigentlich sehr zuverlässig wenn's um Stabilität geht.

Zergra
2017-09-23, 21:29:53
UV sorgt halt dafür das die States nicht mehr so benutzt werden, wie sie eig. sollen. Daher kann es sein, das bei 1200Mhz die Spannungen aus P7 anliegen. Konnte ich jetzt mehrmals Nachstellen. Daher UV ist in den meisten fällen von Nachteil, solange man eben keine LC oder so hat.

Viele UV Ergebnisse sind hier sicher nicht Rockstable. Mit offenem PT geht je nach Game die Karte sicher in die Knie.

dosenfisch24
2017-09-23, 22:22:51
Witcher 3 einige Stunden zu zocken war anfangs auch mein Test aber dann komme ich dauerhaft mit 10-15mv weniger hin. Auf UV kann ich im übrigen nicht verzichten. Ab Werk gönnt sich die Karte schon 1.16-1,17V bei 1600 MHz, trotz aktivem Avfs in den neueren Treibern.
Unabhängig davon scheinen die normalen Vega 56/64 dynamischer die Spannung und den Takt auszulegen. Die FE überschreite beispielsweise selbst mit dem 17.9.x Treiber nie den eingestellten Takt vom P7.
Wird bei den RX auch abhängig vom Takt zwischen den diskreten Spannungen der einzelnen P-States gewechselt oder regeln sie die Spannung schon kontinuierlich mit der Frequenz?

Zergra
2017-09-23, 22:32:48
Nein, der Takt ist unabhängig von der Spannung. Daher kannst du bei P4 die Spannung von P7 anliegen haben. Das sorgt dann dafür das die Karte in den States mehr Strom verbrät und warm wird. Senkt man die Spannung von P7 reicht ein hochtakten und die Karte schmiert dann ab. Ich werde Anfang Oktober mir die Alphacool AIO gönnen mit dem 240mm Radiator. Deswegen bringt ja auch manuelles ändern der Spannung die Telemetrie der Karte durcheinander.

Der_Korken
2017-09-23, 22:56:38
UV sorgt halt dafür das die States nicht mehr so benutzt werden, wie sie eig. sollen. Daher kann es sein, das bei 1200Mhz die Spannungen aus P7 anliegen. Konnte ich jetzt mehrmals Nachstellen.

Ist das Verhalten denn so beabsichtigt oder ist das ein Bug? Denn eigentlich führt das die ganze Idee der States ad absurdum. Bei meiner Polaris-Karte ist es definitiv nicht so wie beschrieben.

Zergra
2017-09-23, 23:15:00
Ich denke nicht, das es ein Bug ist. Deswegen gibt AMD wohl auch nur P6/P7 frei. Vega verhält sich da ganz anders, der Chip wählt die Spannungen je nach Auslastung selber. Daher ist P7 auch sehr Stark davon Abhängig wie Stabil das UV Ergebnis ist, denn wenn die anderen Spannungen nicht mehr Ausreichen und P7 auch zu gering ist, schmiert die Karte ab.

vinacis_vivids
2017-09-23, 23:21:41
soderle, mal kurz gebencht.....
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/74853-nvidia-gtx-1080-ti-performance-review-7.html
gleiche Settings wie hier
Vega 56@UV und PT für Vega64(220W) Speicher auf 900Mhz


31.5 Frames min, 70.1 AVG ...... war leider trotz FX bei 4.7Ghz hier und da im CPU-Limit....
https://abload.de/img/1440pdx12maxedoutshz73.jpg

:tongue:

Vega56 > GTX1080, welche Überraschung... nicht.

dildo4u
2017-09-23, 23:42:56
Welch ein Wunder wenn die Karte deutlich mehr Strom nimmt,aber eine 1080 kann man ja nicht OC + Undervolten. :rolleyes:

2Ghz bei 184 Watt:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11487138&postcount=227

Der_Korken
2017-09-24, 00:44:14
Ich denke nicht, das es ein Bug ist. Deswegen gibt AMD wohl auch nur P6/P7 frei. Vega verhält sich da ganz anders, der Chip wählt die Spannungen je nach Auslastung selber. Daher ist P7 auch sehr Stark davon Abhängig wie Stabil das UV Ergebnis ist, denn wenn die anderen Spannungen nicht mehr Ausreichen und P7 auch zu gering ist, schmiert die Karte ab.

Das macht es imho nahezu unmöglich den Chip kontrolliert zu OCen (bzw. zu undervolten, das ist ja mittlerweile quasi das gleiche). Bevor es dynamische Taktanpassungen gab, hat man im Prinzip einen Takt und die zugehörige Spannung ausgelotet. Mit Polaris hatte man mehrere Takte (State 3 bis 7), für die man isoliert jeweils die niedrigste Spannung ausloten konnte (oder man hatte mehrere Spannungen, für die man jeweils den maximalen Takt ausgelotet hat ... je nachdem wie rum man es betrachtet). Aber diese intransparenten Abhängigkeiten klingen für mich total wirsch. Ich fand das OC bei Ryzen auch schon so merkwürdig. Da ging afaik, wenn man manuelles OC eingestellt hat, direkt die Spannung um irgendeinen versteckten Offset nach oben, wodurch der Chip plötzlich deutlich heißer wurde, selbst wenn man 0 Mhz OCed hat.

BeetleatWar1977
2017-09-24, 07:00:47
UV sorgt halt dafür das die States nicht mehr so benutzt werden, wie sie eig. sollen. Daher kann es sein, das bei 1200Mhz die Spannungen aus P7 anliegen. Konnte ich jetzt mehrmals Nachstellen. Daher UV ist in den meisten fällen von Nachteil, solange man eben keine LC oder so hat.

Viele UV Ergebnisse sind hier sicher nicht Rockstable. Mit offenem PT geht je nach Game die Karte sicher in die Knie.
Solange die Spannungen der Powerstates nacheinander ansteigend sind, funktioniert das hier einwandfrei..... Ich darf keinen Powerstate kleiner 800mV setzen und sie dürfen nicht gleich sein oder kleiner werden, dann kommt er durcheinander....Rest eins tiefer^^



Witcher 3 einige Stunden zu zocken war anfangs auch mein Test aber dann komme ich dauerhaft mit 10-15mv weniger hin. Auf UV kann ich im übrigen nicht verzichten. Ab Werk gönnt sich die Karte schon 1.16-1,17V bei 1600 MHz, trotz aktivem Avfs in den neueren Treibern.
Unabhängig davon scheinen die normalen Vega 56/64 dynamischer die Spannung und den Takt auszulegen. Die FE überschreite beispielsweise selbst mit dem 17.9.x Treiber nie den eingestellten Takt vom P7.
Wird bei den RX auch abhängig vom Takt zwischen den diskreten Spannungen der einzelnen P-States gewechselt oder regeln sie die Spannung schon kontinuierlich mit der Frequenz?
sowohl als auch, die Spannung regelt mit Frequenz nach wenn das Powertarget erreicht wird, wenn er versucht zu boosten springt die Spannung gerne mal auf den höchsten Powerstate ohne das sich der Takt ändert...... ist aber auch stock so ;) und ich bin mir ziemlich sicher das meine nur den Takt überschreitet wenn die Spannung zu hoch eingestellt ist...
momentan hab ich ja auf P7 1020mV, damit komm ich bis ca 1560 in Games und bis zu 1600 in OpenCL, wenn ich auf 1050 erhöhe sind 1580 in Spielen und ca 1620 in OpenCL......

Nein, der Takt ist unabhängig von der Spannung. Daher kannst du bei P4 die Spannung von P7 anliegen haben. Das sorgt dann dafür das die Karte in den States mehr Strom verbrät und warm wird. Senkt man die Spannung von P7 reicht ein hochtakten und die Karte schmiert dann ab. Ich werde Anfang Oktober mir die Alphacool AIO gönnen mit dem 240mm Radiator. Deswegen bringt ja auch manuelles ändern der Spannung die Telemetrie der Karte durcheinander.
siehe oben - und auf die Alphacool spekulier ich auch^^

:tongue:

Vega56 > GTX1080, welche Überraschung... nicht.
Welch ein Wunder wenn die Karte deutlich mehr Strom nimmt,aber eine 1080 kann man ja nicht OC + Undervolten. :rolleyes:

2Ghz bei 184 Watt:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11487138&postcount=227
der verlinkte Post gibt 219W max an, ich hatte 220W, vielen Dank für deine Unterstützung....:tongue:
btw - kein einziges Mhz übertaktet (Ausser Speicher)

Das macht es imho nahezu unmöglich den Chip kontrolliert zu OCen (bzw. zu undervolten, das ist ja mittlerweile quasi das gleiche). Bevor es dynamische Taktanpassungen gab, hat man im Prinzip einen Takt und die zugehörige Spannung ausgelotet. Mit Polaris hatte man mehrere Takte (State 3 bis 7), für die man isoliert jeweils die niedrigste Spannung ausloten konnte (oder man hatte mehrere Spannungen, für die man jeweils den maximalen Takt ausgelotet hat ... je nachdem wie rum man es betrachtet). Aber diese intransparenten Abhängigkeiten klingen für mich total wirsch. Ich fand das OC bei Ryzen auch schon so merkwürdig. Da ging afaik, wenn man manuelles OC eingestellt hat, direkt die Spannung um irgendeinen versteckten Offset nach oben, wodurch der Chip plötzlich deutlich heißer wurde, selbst wenn man 0 Mhz OCed hat.
Ich hatte auch schon Settings die nur bei PT von 0 stabil waren - die aktuellen gehen aber Problemlos.....



zum Thema UV und Stabilität, es war ganz schön anstrengen herauszufinden ob die unteren Taktstufen stabil sind.
Möglichkeit 1: zocken mit VSync - geht nur bedingt, da man zwar in den Taktstufen fährt, aber selten auf Last kommt
Möglichkeit 2: Powertarget - das geht besser, ich hab mein PT auf +-100 erweitert und Stück für Stück eingedrosselt.... geht Deutlich besser aber Zeitaufwendig......


Edit: mal Batterien suchen, die Funktastatur verschluckt Buchstaben......


Edit2: selbe Settings, 4K, 40 AVG, 21.5 Min

https://abload.de/img/20170924080620_1rsk02.jpg

akuji13
2017-09-24, 08:09:09
Oh wait. Ich suche eine custom Vega. Es geht doch um Verkaufszahlen, was interessiert da Ref vs Custom wenn es bei einem keine Auswahl gibt? :| Argumentativ Banane.

Auch weil die Ti nochmal deutlich teurer ist.

dargo
2017-09-24, 08:45:17
Oh wait. Ich suche eine custom Vega. Es geht doch um Verkaufszahlen, was interessiert da Ref vs Custom wenn es bei einem keine Auswahl gibt? :| Argumentativ Banane.
Stenge mal etwas deine grauen Zellen an. :rolleyes: MF hat 3 GTX1080TIs im Referenzdesign bzw. mit Radialüfter im Angebot.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1080+Ti.html

Man schaue sich die Verkaufszahlen von diesen im Vergleich zu den Customs an. :rolleyes: Ich gebe also die Banane gerne zurück.

PS: auch wenn da sicherlich schon paar Referenzdesigns aus dem Angebot geflogen sind (GP102 gibts ja schon etwas länger) wirst du niemals die Stückzahlen der Customs erreichen. Dort ist die Nachfrage einfach um vielfaches größer.

MadCat
2017-09-24, 12:09:49
So Jungs - für die Spielerei mit der PowerPlay Table und Vega 56.....

https://abload.de/img/watttooluviojdy.jpg


Ich kann bei meiner 64er nur P6 und P7 beeinflussen. Der Rest wird bei save wieder auf die Vorgaben geschoben.
Habe auch mal testweise das Bios umgeschaltet (vorher zum Slotblech, aktuell zum Stromanschluss).
Welche Position ist eigentlich welches Bios?

BeetleatWar1977
2017-09-24, 12:17:21
Ich kann bei meiner 64er nur P6 und P7 beeinflussen. Der Rest wird bei save wieder auf die Vorgaben geschoben.
Habe auch mal testweise das Bios umgeschaltet (vorher zum Slotblech, aktuell zum Stromanschluss).
Welche Position ist eigentlich welches Bios?
zum Slotblech sollte die höhere TDP sein - wobei auch schon Leute berichtet haben, das auf beiden dasselbe war:rolleyes:

Hier findest du die SoftPP Files zum Basteln http://www.overclock.net/t/1633446/preliminary-view-of-amd-vega-bios

Zergra
2017-09-24, 12:39:05
@Beetle

Ja du hast schon recht, das es im unteren Bereich auch funktioniert. Ich nutze fast die gleichen Spannungen wie du, nur P6/P7 sind höher. Trotzdem springt die Karte bei 1400Mhz sehr oft ins P7. Daher die Karte nimmt sich eben soviel wie sie braucht, und das kann je nach Last unterschiedlich sein. Ich möchte eben dadurch sagen, das der Unterschied in den P-States sehr gering ist. Das was man durch UV Gewinnt ist eben, das die Karte bei weniger Last, sparsamer ist. Bei einem hohen PT und hoher Last, auch bei geringen Takt, springt die Karte eben in den P-States soweit hoch, wie sie es für nötig hält.


Es gibt die AIO ab Werk jetzt auch mit dem 240mm Radiator.

BeetleatWar1977
2017-09-24, 12:49:16
@Beetle

Ja du hast schon recht, das es im unteren Bereich auch funktioniert. Ich nutze fast die gleichen Spannungen wie du, nur P6/P7 sind höher. Trotzdem springt die Karte bei 1400Mhz sehr oft ins P7. Daher die Karte nimmt sich eben soviel wie sie braucht, und das kann je nach Last unterschiedlich sein. Ich möchte eben dadurch sagen, das der Unterschied in den P-States sehr gering ist. Das was man durch UV Gewinnt ist eben, das die Karte bei weniger Last, sparsamer ist. Bei einem hohen PT und hoher Last, auch bei geringen Takt, springt die Karte eben in den P-States soweit hoch, wie sie es für nötig hält.


Es gibt die AIO ab Werk jetzt auch mit dem 240mm Radiator.
P6 scheint er meistens auszulassen - Treiberbug oder gewollt? Keine Ahnung......

RoughNeck
2017-09-24, 12:58:19
Da würde ich mal paar Treiber abwarten.
Nehmt fürs undervolten den Wattman oder ein Tool?
Ich habe das Tool "OverdriveNTool" drauf, mit dem passen die P6 und P7 States und ich muss im Treiber bzw. Wattman nicht immer von vorn einstellen wenn er es mal wieder vergisst.

Zergra
2017-09-24, 13:03:59
P6 scheint er meistens auszulassen - Treiberbug oder gewollt? Keine Ahnung......
Ja, der wird vergleichsweise selten genutzt.
Da würde ich mal paar Treiber abwarten.
Nehmt fürs undervolten den Wattman oder ein Tool?
Ich habe das Tool "OverdriveNTool" drauf, mit dem passen die P6 und P7 States und ich muss im Treiber bzw. Wattman nicht immer von vorn einstellen wenn er es mal wieder vergisst.

Ich habe bis jetzt alle durch Probiert. Wattman nutze ich nicht. Ich nutze mittlerweile auch das OverdriveNTool, das gefällt mir am besten. Genau aus den Vorteilen die du genannt hast.

Achill
2017-09-24, 13:25:07
zum Slotblech sollte die höhere TDP sein - wobei auch schon Leute berichtet haben, das auf beiden dasselbe war:rolleyes:

Hier findest du die SoftPP Files zum Basteln http://www.overclock.net/t/1633446/preliminary-view-of-amd-vega-bios

Ein interessant Post ist auch: http://www.overclock.net/t/1633446/preliminary-view-of-amd-vega-bios/250#post_26297003

Es gibt pro Karten-Typ unterschiedliche 'PP_PhmSoftPowerPlayTable' Einträge.

Ich habe gestern etwas getestet, mein Vega64 ist schon gut am Limit mit ~1750 Mhz. Ich habe mal versucht 1802 Mhz einzustellen, mit 1250 mV lief Valley, war aber nicht stabil. Das ist es (wie ich finde) nicht Wert.

Die Erhöhung es Tdc Limit auf z.B. 325, 350 oder 400 A funktioniert, ausreizen geht aber nur mit FurMark, in Spielen habe ich nicht wirklich ein Effekt wahrnehmen können.

Da der Hot-Spot von GPUz auf das Tdc Limit deutlich reagiert (geht sofort auf 66°C bei 400A und niedriger W.Temp), tippe ich darauf, dass der Hot-Spot die VRMs Temps sind. Man sollte hier nur in Schritten vorgehen und nur mit einer Custom-Wasserkühlung.

Für mich mach es kein Sinn, da Vega anscheinend eine Mauer ab ca. 1750-1800 Mhz hat. Erinnert mich an Ryzen (4-4.1 Ghz) oder auch den Brodi-E (4.2-4.4 Ghz).

Einen lustigen Effekt hat die Änderung des 'usPowerControlLimit' - stellt man dies höher, so kann man auch einen größeren neg. Wert einstellen, also z.B. PT-65 ... meine Vega nimmt dann 120W ... :D

Wenn noch eine entsprechend kleine Custom-Vega kommt, kann man sich mit diesem Eintrag 'PP_PhmSoftPowerPlayTable' auch eine Nano selber zusammen stellen.

RoughNeck
2017-09-24, 13:51:36
Bei meiner LC sind es 1820.
Da laufen zwar noch Benchmarks (auch nicht immer) aber Games schmieren sofort ab. 1802 scheint noch zu laufen, zumindest Benchmarks funktionieren tadellos aber der Verbrauch steigt extrem an. Von 1752 zu 1802 sind es 50W mehr, das seht in keinen Verhältnis zum Leistungsgewinn.
1752 sind das maximum, was noch Sinn macht, zumindest bei meiner Karte.

Schnitzl
2017-09-24, 15:01:08
Danke an RoughNeck und Achill für eure Eindrücke/Infos! :up:
Interessant finde ich besonders das hier:

Einen lustigen Effekt hat die Änderung des 'usPowerControlLimit' - stellt man dies höher, so kann man auch einen größeren neg. Wert einstellen, also z.B. PT-65 ... meine Vega nimmt dann 120W ... :D

Wenn noch eine entsprechend kleine Custom-Vega kommt, kann man sich mit diesem Eintrag 'PP_PhmSoftPowerPlayTable' auch eine Nano selber zusammen stellen.
'usPowerControlLimit' - das ist auch in der Registry?
Ne Vega mit 120W wäre ja schon ziemlich .... cool :D

Zergra
2017-09-24, 15:06:27
Die 120Watt sind aber nur der ASIC Verbrauch. Ich komme mit Bios 1 und -50% PT auf 110Watt, aber dann läuft die Karte nur noch mit 1100Mhz. Das merkt man schon.

horn 12
2017-09-24, 15:35:41
Morgen wird ENDLICH ENDLICH mal meine RX Vega 64 GigaByte Silver Karte versendet
Kommt Mittwoch dann nach exakt 2 Wochen nach meiner Bestellung bei mir an.
Bin schon sehr gespannt drauf.
Fury hat Käufer gefunden für 250 bis 270 Euro,- dies muss noch ausgehandelt werden.

Schnitzl
2017-09-24, 15:39:24
Die 120Watt sind aber nur der ASIC Verbrauch. Ich komme mit Bios 1 und -50% PT auf 110Watt, aber dann läuft die Karte nur noch mit 1100Mhz. Das merkt man schon.
Hast du das mal ausprobiert?
Wie siehts da mit Lüfterdrehzahl und Temps aus?
von einer GTX770 2GB sollte Vega selbst mit 1000Mhz deutlich schneller sein ... denke ich mal =)

dosenfisch24
2017-09-24, 15:45:18
Für die FE ist "usTemperatureLimitHBM" in der Powerplaytable noch sehr hilfreich. Das normale 95°C Limit des HBM wird mit den 8-lagigen HBM Modulen regelmäßig erreicht, wenn an den Core notgedrungen bei zwischen 80 und 84°C läuft. Besonders mit übertaktetem HBM läuft die gesamte Karte dann schnell ins thermal throttling um die 95°C zu halten. Mit dem Limit auf 105°C gibt es nun keine Schwierigkeiten mehr. Die höchsten HBM Temperaturen hatte ich in Doom mit 99-100°C. Bei 1080MHz ist der HBM aber selbst in diesen Bereichen noch stabil. Bis 90°C gingen sogar 1105MHz.

dargo
2017-09-24, 16:24:49
Die 120Watt sind aber nur der ASIC Verbrauch.
Naja... wenn man das prozentual auf Vega64 Stock umrechnet wären es für die gesamte Karte 161W (ausgehend von 295W bei 220W ASIC), was schon verdammt wenig wäre.

btw.
Endlich liest man hier wieder was zu Vega und nicht das ständige Nvidia Gesülze. Weiter so Jungs! :up:

BeetleatWar1977
2017-09-24, 16:33:18
Hast du das mal ausprobiert?
Wie siehts da mit Lüfterdrehzahl und Temps aus?
von einer GTX770 2GB sollte Vega selbst mit 1000Mhz deutlich schneller sein ... denke ich mal =)
Die 120Watt sind aber nur der ASIC Verbrauch. Ich komme mit Bios 1 und -50% PT auf 110Watt, aber dann läuft die Karte nur noch mit 1100Mhz. Das merkt man schon.
Naja... wenn man das prozentual auf Vega64 Stock umrechnet wären es für die gesamte Karte 161W (ausgehend von 295W bei 220W ASIC), was schon verdammt wenig wäre.

btw.
Endlich liest man hier wieder was zu Vega und nicht das ständige Nvidia Gesülze. Weiter so Jungs! :up:

Nach ein paar Stunden Doom in 1080p, max Settings mit Vsync: Durchschnittlicher Takt 1100 Mhz, max 91W Asic.......

Edit: extra mit Stocksettings ohne UV.....

dargo
2017-09-24, 16:42:09
Das wären keine 116W für die ganze Karte. :usweet: Aber ok... 1080p @60Hz in Doom sind nun wirklich kein Anspruch für Vega56. ;)

akuji13
2017-09-24, 16:47:19
Stimmt, da ist die Karte kühl und leise.

Da geht der Lüfter nicht über ~1000 und ist für mich unhörbar.

Zergra
2017-09-24, 17:06:07
Mit Stock Spannungen habe ich in BF1, 1650rpm, 110Watt ASIC, bei ca. 1100Mhz. Die Karte liegt bei ca. 70°C. Bei -50% PT und Bios 1 .

BeetleatWar1977
2017-09-24, 17:06:28
Stimmt, da ist die Karte kühl und leise.

Da geht der Lüfter nicht über ~1000 und ist für mich unhörbar.
yup
Das wären keine 116W für die ganze Karte. :usweet: Aber ok... 1080p @60Hz in Doom sind nun wirklich kein Anspruch für Vega56. ;)
In 1440p sinds dann schon 130W und in 2160p bin ich definitiv im PT^^

BeetleatWar1977
2017-09-24, 19:57:48
Das wären keine 116W für die ganze Karte. :usweet: Aber ok... 1080p @60Hz in Doom sind nun wirklich kein Anspruch für Vega56. ;)
soderle, mal mit UV probiert - 70W peak, 55 Durchschnitt....oO

dargo
2017-09-24, 20:14:11
Lol... ~70W für die ganze Karte im Schnitt? X-D Wobei meine Rechnung wohl ziemlich ungenau ist. Schade, dass du nicht direkt an der Karte messen kannst.

vinacis_vivids
2017-09-24, 20:19:49
Doom gibs bald auf dem Smartfone zu spielen, 720p@60fps müsste da doch möglich sein.

BeetleatWar1977
2017-09-24, 20:20:58
Lol... ~70W für die ganze Karte im Schnitt? X-D Wobei meine Rechnung wohl ziemlich ungenau ist. Schade, dass du nicht direkt an der Karte messen kannst.
Hm, die 12V rails könnt ich messen, aber die Stromaufnahme über den Slot nicht...... müsste nur die Stromzange aus der Firma mal mit Heimnehmen.....

Zergra
2017-09-24, 20:26:10
Ja, aber die Karte ist zu wie viel % bei Doom ausgelastet ? 50% ? Da wundert mich das Ergebnis auch nicht. Dazu sollte man bedenken, der ASIC Idle Verbrauch liegt bei 3 Watt, die Karte verbraucht aber in dem Bereich eher 12Watt. Wäre halt interessant, wo die Spannungswandler ihren Effizientsbereich haben.

dildo4u
2017-09-25, 01:26:35
Jayz Two Cents Asus Vega 64 Strix Review

https://youtu.be/MyFTQFtju4Y

Daredevil
2017-09-25, 01:34:02
Wie gesagt. Custom bedeutet nicht, dass einem die Karte davon rennt. :D

Aber ich finde es schön, dass solche Features dabei sind, das man Gehäuselüfter an die Karte anschließen kann. Die kann man dann wohl perfekt mit der GPU Temp koppeln, das ist nice!

Die Frage ist dann halt nur noch, was kostet so ein Blingbling Custom Ding?
Weil wenn es teurer als eine Ref Vega wird.... oh Boy.

von Richthofen
2017-09-25, 01:48:07
Die Frage ist dann halt nur noch, was kostet so ein Blingbling Custom Ding?
Weil wenn es teurer als eine Ref Vega wird.... oh Boy.

Sicher wird das kosten. Gerade bei den Strix-Serien von Asus werden regelmäßig gehobene Preise aufgerufen.
Dazu kommt dass sie (zeitweise) konkurrenzlos ist.

dargo
2017-09-25, 07:44:37
Aber ich finde es schön, dass solche Features dabei sind, das man Gehäuselüfter an die Karte anschließen kann. Die kann man dann wohl perfekt mit der GPU Temp koppeln, das ist nice!

Mal eine Frage dazu... gibt es irgendwo Videos die zeigen wie fein man diese angeschlossenen Gehäuselüfter justieren kann? Oder kann man die Lüfter nur anschließen und muss sich auf eine vorgelegte Kurve verlassen? Letzteres wäre blöd.

Daredevil
2017-09-25, 08:05:11
Mal eine Frage dazu... gibt es irgendwo Videos die zeigen wie fein man diese angeschlossenen Gehäuselüfter justieren kann? Oder kann man die Lüfter nur anschließen und muss sich auf eine vorgelegte Kurve verlassen? Letzteres wäre blöd.
Keine Ahnung, ich könnte sowas tatsächlich gebrauchen.
Ich hoffe doch mal, dass man das mit Asus seiner aufgeblähten Software regeln kann bzw. es an die Grafikkarte koppelt.

CB sagt:
Als Besonderheit finden sich zwei Molex-Anschlüsse am Ende des PCBs: Die Gehäusebelüftung kann so optimal an die Temperatur der GPU angeglichen werden, während das Mainboard nur die CPU- oder die Gehäusetemperatur als Referenz heranzieht. Das ist bereits von Strix bei Pascal bekannt.
Müsste man sich mal bei der Nvidia Strix anschauen.

Nazar
2017-09-25, 11:56:15
Ich habe bisher bei einem Programm festgestellt, dass es besser läuft, wenn das Fenster von Wattman offen ist.
In DCS ist das der Fall. Man kann das mit DCS 2.1 gut testen, indem man im Vorfeld die FPS in DCS so limitiert, dass das Limit nur überschritten wird, wenn man in den Himmel schaut (autoexec.cfg muss dafür im DCS Verzeichnis erstellt werden). Ist das so fertig eingestellt, dann startet man DCS 2.1 und schaut in den Himmel und wird feststellen, dass die GPU extrem runter taktet und man weit unter dem voreingestellten Limit bleibt.
Wenn man nun das Wattman Tool Fenster öffnet und im Hintergrund laufen lässt (ggf. muss DCS beendet und neu gestartet werden), dann läuft die GPU immer so hoch, dass entweder das FPS Limit oder das GPU Limit erreicht wird.
Das macht DCS deutlich spielbarer.
WoW hingegen interessiert dies kaum. Je geringer der Aufwand für die GPU, desto eher fängt die GPU an sich selber herunterzufahren.
Bei anderen Spielen konnte ich teilweise den identischen Effekt sehen. Ist die Szene (warum auch immer?) nicht auslastend für die GPU, wird die GPU herunter getaktet, egal wie hoch die FPS sind.
So kommen dann natürlich niedrige FPS zustande, wo sich die GPU aber in Wahrheit langweilt.

Die Frage ist; habt ihr das Phänomen auch beobachten können oder liegt das eventuell an meinem Rechner-Unterbau? :confused:
Edit: Vsync war immer aus.

dosenfisch24
2017-09-25, 12:31:15
In X-Plane 11 (10 nicht getestet) habe ich dieses Problem. Kein einziger CPU Kern ist am Limit und dennoch taktet sich Vega mit niedriger GPU Auslastung deutlich runter. Entsprechend sind die FPS unterirdisch.
In Stellaris funktioniert das System hingegen wie es soll. Dort folgt Vegas Takt sauber dem CPU-Limit.

Achill
2017-09-25, 13:29:55
Ich habe bisher bei einem Programm festgestellt, dass es besser läuft, wenn das Fenster von Wattman offen ist.
In DCS ist das der Fall. Man kann das mit DCS 2.1 gut testen, indem man im Vorfeld die FPS in DCS so limitiert, dass das Limit nur überschritten wird, wenn man in den Himmel schaut (autoexec.cfg muss dafür im DCS Verzeichnis erstellt werden). Ist das so fertig eingestellt, dann startet man DCS 2.1 und schaut in den Himmel und wird feststellen, dass die GPU extrem runter taktet und man weit unter dem voreingestellten Limit bleibt.
Wenn man nun das Wattman Tool Fenster öffnet und im Hintergrund laufen lässt (ggf. muss DCS beendet und neu gestartet werden), dann läuft die GPU immer so hoch, dass entweder das FPS Limit oder das GPU Limit erreicht wird.
Das macht DCS deutlich spielbarer.
WoW hingegen interessiert dies kaum. Je geringer der Aufwand für die GPU, desto eher fängt die GPU an sich selber herunterzufahren.
Bei anderen Spielen konnte ich teilweise den identischen Effekt sehen. Ist die Szene (warum auch immer?) nicht auslastend für die GPU, wird die GPU herunter getaktet, egal wie hoch die FPS sind.
So kommen dann natürlich niedrige FPS zustande, wo sich die GPU aber in Wahrheit langweilt.

Die Frage ist; habt ihr das Phänomen auch beobachten können oder liegt das eventuell an meinem Rechner-Unterbau? :confused:
Edit: Vsync war immer aus.

Habe ich zwar beobachtet, konnte aber nicht den Schluss ziehen, dass dies die FPS neg. beeinflusst. Was du probieren könntest, wäre im Spiel-Profil für Wattman einfach ein hohen P-State als minimum fest zu legen, damit wird das Heruntertakten verhindert.

Kartenlehrling
2017-09-25, 16:24:56
Entweder hat Asus mist gebaut,... oder Guru Testaufbau ist schuld, da sie mit einem offen System testen.

http://www.guru3d.com/articles_pages/asus_radeon_rog_rx_vega_64_strix_8gb_review,1.html
ASUS ROG Radeon RX Vega 64 STRIX Gaming(8GB) All custom all the way

Achill
2017-09-25, 17:13:09
Es sieht schonmal komisch aus, was sie beim OC gemacht haben: http://www.guru3d.com/articles-pages/asus-radeon-rog-rx-vega-64-strix-8gb-review,31.html

Die dortigen Settings sollten dazu führen, dass die Karte im P5 verbleibt, da P6 & P7 beide gleich (clock und voltage).

dildo4u
2017-09-25, 17:16:49
VP9 Beschleunigung im Test

Im Ergebnis benötigt das gesamte Testsystem mitsamt der GeForce GTX 1080 Founders Edition auf YouTube etwa 70 Watt. Mit einer Radeon Vega 64 sind es aber gleich 110 Watt und damit 40 Watt oder fast 60 Prozent mehr. Dies lässt sich nur mit einer aktualisierten Videoeinheit lösen und benötigt entsprechend eine neue Hardware.

https://www.computerbase.de/2017-09/youtube-leistungsaufnahme-amd-nvidia/

Smee
2017-09-25, 17:52:43
Sicher wird das kosten. Gerade bei den Strix-Serien von Asus werden regelmäßig gehobene Preise aufgerufen.
Dazu kommt dass sie (zeitweise) konkurrenzlos ist.

Ich habe für meine Strix RX 199€ bei Mediamarkt bezahlt.
Wenn man den Earlyadopteraufschlag aussetzen kann sollte es doch passen.

P.S.:Kann die Rechnung gerne als Bild beifügen für die Zweifler:freak:

Gumril
2017-09-25, 18:49:26
Mal eine Frage dazu... gibt es irgendwo Videos die zeigen wie fein man diese angeschlossenen Gehäuselüfter justieren kann? Oder kann man die Lüfter nur anschließen und muss sich auf eine vorgelegte Kurve verlassen? Letzteres wäre blöd.

Wenn es wie bei der 480 Strix ist kann man über den Afterburner alles so einstellen wie bei den Asus Mainbords gewohnt. Also mit Lüfterkurve und auch so fein usw.
Wenn man nix macht Laufen sie erst an bei erreichen der im Bios gespeicherten Temp und regeln dann stufenlos hoch.

aufkrawall
2017-09-25, 19:03:13
VP9 Beschleunigung im Test



https://www.computerbase.de/2017-09/youtube-leistungsaufnahme-amd-nvidia/
Das Problem bei Nvidia mit Livestreams (liegt btw. nicht im Decoding, sondern an der GPU-Beschleunigung von Firefox allgemein) hat er natürlich nicht bemerkt, das wär ja sonst auch ein zu umfassender Test gewesen...

horn 12
2017-09-25, 19:05:51
Endlich wurde meine RX Vega 64 GigaByte Silver versendet.

dildo4u
2017-09-25, 19:27:43
Das Problem bei Nvidia mit Livestreams (liegt btw. nicht im Decoding, sondern an der GPU-Beschleunigung von Firefox allgemein) hat er natürlich nicht bemerkt, das wär ja sonst auch ein zu umfassender Test gewesen...
Ist der Livestream VP9?Braucht man nicht massig CPU Power,diesen Videostream erstmal in VP9 umzuwandeln?Würde Sinn machen wenn das Streaming noch mit AVC läuft.

dargo
2017-09-25, 19:40:02
Wenn es wie bei der 480 Strix ist kann man über den Afterburner alles so einstellen wie bei den Asus Mainbords gewohnt. Also mit Lüfterkurve und auch so fein usw.
Wenn man nix macht Laufen sie erst an bei erreichen der im Bios gespeicherten Temp und regeln dann stufenlos hoch.
Danke für die Info. (y)

aufkrawall
2017-09-25, 19:50:56
Ist der Livestream VP9?Braucht man nicht massig CPU Power,diesen Videostream erstmal in VP9 umzuwandeln?Würde Sinn machen wenn das Streaming noch mit AVC läuft.
Tut es auch, und was soll mir das jetzt sagen?

BeetleatWar1977
2017-09-25, 21:12:13
Entweder hat Asus mist gebaut,... oder Guru Testaufbau ist schuld, da sie mit einem offen System testen.

http://www.guru3d.com/articles_pages/asus_radeon_rog_rx_vega_64_strix_8gb_review,1.html
ASUS ROG Radeon RX Vega 64 STRIX Gaming(8GB) All custom all the way
schon komisch.....
Vega56 @ Vega64 Settings:

https://abload.de/img/superposition_benchmarryyh.png

dargo
2017-09-25, 21:15:41
Liegts vielleicht daran?
AMD Radeon Software Crimson Driver 17.8.2

Nazar
2017-09-26, 09:59:14
Habe ich zwar beobachtet, konnte aber nicht den Schluss ziehen, dass dies die FPS neg. beeinflusst. Was du probieren könntest, wäre im Spiel-Profil für Wattman einfach ein hohen P-State als minimum fest zu legen, damit wird das Heruntertakten verhindert.

Habe ich schon ausprobiert und verändert kein bisschen an der Situation.:frown:
Ich finde das Verhalten der VEGA in den Spielen mit wenig GPU Last sehr seltsam.
Dafür muss es doch eine Lösung geben (Treiber)?
Ich vermute mal, dass es für das Custom Design nötig ist, damit der "Hot Spot" nicht überhitzt. Man merkt nämlich schnell, dass im normalen Spielbetrieb die Karte deutlich kühler bleibt aber eben nur aufgrund der Tatsache, dass sie die Leistung nicht hält sobald die GPU Last sinkt. Das bedeutet, dass mit sinkender GPU Last weniger FPS erzeugt werden als die GPU wirklich liefern könnte.
Nur einer meiner Benchmarks macht da eine Ausnahme und zwar der Superposition. Der hält die Karte am Maxwert der in Wattman eingestellt ist.
Der 3DMark bricht ständig ein, sobald die Szene nicht mehr so aufwändig ist, nicht sehr viel aber doch deutlich bemerkbar.
Also anstatt mehr FPS zu liefern, da mehr Leistung zu Verfügung steht, liefert die GPU weniger... :eek:
Das gleiche Phänomen habe ich in diversen Spielen und für mich nachweisbar ist es bisher nur in einem Spiel durch das Offenlassen von Wattman zu beheben. Der Unterschied im Spielgefühl, weil die Spikes deutlich geringer sind, ist schon gewaltig. Z.B. läuft DCS mit diesem "Trick" komplett flüssig.
Ich kann nur hoffen, dass AMD das gebacken bekommt.

RoughNeck
2017-09-26, 10:18:47
Ändert es was wenn du über ein anderes Tool die Taktraten einstellst?
Ich benutze "OverdriveNTool" und ein solch verhalten legt die Karte nur bei sehr alten Games an den Tag (Freelancer z.B.) Wattman ist mir zu Buggy, da muss AMD noch viel daran arbeiten, bevor ich das nutze.

Hübie
2017-09-26, 10:33:10
Habe ich schon ausprobiert und verändert kein bisschen an der Situation.:frown:
Ich finde das Verhalten der VEGA in den Spielen mit wenig GPU Last sehr seltsam.
Dafür muss es doch eine Lösung geben (Treiber)?
Ich vermute mal, dass es für das Custom Design nötig ist, damit der "Hot Spot" nicht überhitzt. Man merkt nämlich schnell, dass im normalen Spielbetrieb die Karte deutlich kühler bleibt aber eben nur aufgrund der Tatsache, dass sie die Leistung nicht hält sobald die GPU Last sinkt. Das bedeutet, dass mit sinkender GPU Last weniger FPS erzeugt werden als die GPU wirklich liefern könnte.
Nur einer meiner Benchmarks macht da eine Ausnahme und zwar der Superposition. Der hält die Karte am Maxwert der in Wattman eingestellt ist.
Der 3DMark bricht ständig ein, sobald die Szene nicht mehr so aufwändig ist, nicht sehr viel aber doch deutlich bemerkbar.
Also anstatt mehr FPS zu liefern, da mehr Leistung zu Verfügung steht, liefert die GPU weniger... :eek:
Das gleiche Phänomen habe ich in diversen Spielen und für mich nachweisbar ist es bisher nur in einem Spiel durch das Offenlassen von Wattman zu beheben. Der Unterschied im Spielgefühl, weil die Spikes deutlich geringer sind, ist schon gewaltig. Z.B. läuft DCS mit diesem "Trick" komplett flüssig.
Ich kann nur hoffen, dass AMD das gebacken bekommt.

Mach mal Rechtsklick im curve editor der Frequenz und lege einen Minimalzustand fest.

Es ist oftmals ratsam sich mit dem gewollten Power-Budget dem reellen, offen gemessenem Wert, anzunäheren. Hintergrund ist, dass die GPU so restriktiver mit dem Budget umgeht und schon mal rechtzeitig Spannung (die ja quadratisch in den Verbrauch einfließt) wegnimmt, auch wenn der Takt noch gehalten werden kann.
Meine Beobachtung ist, dass Vega ganz gut an der Temp hängt (nicht nur GPU sondern auch HBM und VRM). Das mit Wattman ist natürlich ein Bug. Kann ja so nicht gewollt sein.

foenfrisur
2017-09-26, 11:00:42
hat er doch schon probiert.
zumindest schreibt er das am Anfang.

wenn ich mit normalen Einstellungen spiele, hab ich auch oft nur 1400mhz.
sag ich aber, p6 oder p7 ist das minimum, geht es aber mit 1707-1772mhz etwa.

finde das Verhalten aber auch oft total schräg.

mfg

dildo4u
2017-09-26, 17:25:29
CB: Projeckt Cars 2 mit Vega 64/56

https://www.computerbase.de/2017-09/project-cars-2-benchmark/2/

Nazar
2017-09-26, 18:25:06
Mach mal Rechtsklick im curve editor der Frequenz und lege einen Minimalzustand fest.

Es ist oftmals ratsam sich mit dem gewollten Power-Budget dem reellen, offen gemessenem Wert, anzunäheren. Hintergrund ist, dass die GPU so restriktiver mit dem Budget umgeht und schon mal rechtzeitig Spannung (die ja quadratisch in den Verbrauch einfließt) wegnimmt, auch wenn der Takt noch gehalten werden kann.
Meine Beobachtung ist, dass Vega ganz gut an der Temp hängt (nicht nur GPU sondern auch HBM und VRM). Das mit Wattman ist natürlich ein Bug. Kann ja so nicht gewollt sein.


Ok, ich habe es genau so gemacht (um wirklich alles ausprobiert zu haben ;)).
Ich bekomme zwar deutlich mehr MHZ als die nun festgelegten min 1632 MHz aber die FPS gehen trotzdem in den Keller. Die GPU Auslastung geht teilweise (wenn ich in den Himmel sehe) auf 7% zurück und die FPS gehen auf 36 FPS zurück. Erst wenn Wattman wieder geöffnet im Hintergrund läuft, bleibt die GPU Auslastung hoch.
Mit der Minwertsetzung kann ich zwar die min. MHz festlegen aber nicht die GPU Auslastung. :frown:

Aber danke für die Hilfe. Es war ein Versuch wert. :wink:

Hübie
2017-09-26, 18:39:51
Dann hatte ich dich falsch verstanden. Es kam so rüber dass mit der Auslastung dann auch der Takt runter bricht und sich dadurch ein "Sog" bildet. Da ist was noch nicht richtig. Ich kann mir gut vorstellen, dass man auch noch an der Firmware bastelt.

vinacis_vivids
2017-09-26, 19:09:20
What für Ding? "Sog" :facepalm:

Hübie
2017-09-26, 20:06:42
Ich weiß, ist dir zu hoch. :rolleyes: Ich erklär's extra für dich: Die Auslastung geht herunter, PCU freut sich und senkt Spannung / Takt. Durch niedrigen Takt hat man, logischerweise, nicht volles Leistungspotenzial (ich weiß nicht wie die PCU in Vega arbeitet, aber bei Maxwell werden vergangene Performancecounter mit aktuellen verrechnet um den nächsten Bedarf zu erahnen). VRM-Temps, PLL-Spannung, Stromstärke (-dichte bzw. die resultierenden Leckströme) sowie die GPU-Daten welche man regulär auslesen kann führen dann zu dem Ergebnis den Takt* auf XY festzulegen. So ähnlich wird's auch hier laufen.

Das wird sich hier also schlicht um einen Bug handeln.

*ich rede nur vom ALU-Takt. GPUs haben idR 4-6 Taktdomänen und einen Taktgeber.

horn 12
2017-09-26, 20:16:06
Karte ist da und viiiieeel zu laut!
Hatte Anfangs Problem den Treiber zu installieren,
dafür Aber Samsung HBM Speicher und Kabel für Doppel PCI-Express Stecker dabei.
GigaByte Silver mit Verschlusstopfen und PCI--Ex Schutzkappe.

Lüfter dreht mit 48% und 2365 U/min

RoughNeck
2017-09-26, 20:21:57
Was habe ich gesagt Horn, es wird dir zu laut sein.
Du kannst noch mit undervolten spielen, dann wird das Teil etwas leiser. Die Metallhaube macht die Limited noch laute da sie als Resonanzkörper dient.

Hübie
2017-09-26, 20:26:52
Hast du immer noch dein kleines Gehäuse? Tausch das doch endlich mal. :D

RoughNeck
2017-09-26, 20:40:37
Er hat irgendein ThermalTake Case, das sollte schon passen.
Die 48% Lüfter sind auch normal für die Air 64, die Referenz Teile sind halt nicht leise. Egal ob AMD oder Nvidia, da hilft nur umbauen auf einen anderen Kühler, Morpheus von Raijintek oder Wakü.

akuji13
2017-09-26, 21:32:20
Der Peter 2 passt auch?

Dachte das gilt nur für den Morpheus.

Zergra
2017-09-26, 21:40:17
Der Peter 2 hat doch eine runde Auflagefläche. Das kann doch gar nicht gehen ...

RoughNeck
2017-09-26, 22:48:32
Ah sorry, meinte eh den Morpheus.

vinacis_vivids
2017-09-26, 22:57:10
Das wird sich hier also schlicht um einen Bug handeln.

:freak:

Welche Grundlage? Ich lese aus deinen Posts Null technische Erkenntnisse heraus.

foenfrisur
2017-09-26, 23:18:51
heute habe ich bf1 mal wieder im borderless modus gespielt.
was soll ich sagen, lief butterweich.

und vor allem -> der takt war permanent um 1715 +/-7MHz

so krass hatte ich das sonst nie. Temps 40-45°C, Lüfter@~2300UpM festgepinnt.

und auch im spiel war der GPU-Graph sehr ruhig und fast glatt.

mfg

horn 12
2017-09-26, 23:20:46
Vega GigaByte Silver RX 64 ist seit heute 13 Uhr bei mir Zuhause, eingebaut und nach Treiber Startschwierigkeiten läuft das Teil. Windowskannte keine Karte und auch Treiber lief nicht. Nach dessen Deinstallation und Reinstallation des Treibers lief dann schlussendlich die Vega 64

Samsung HBM 2 Speicher, KEIN Spulenfiepen und falls ja nur minimalst bei >1000 fps.
Soweit läuft alles und auch gut mit Vega nur der Taktr ist nicht sehr hoch 1350 -1400 Mhz
Komme nämlich sofort auf die 84 / 85 Grad beim GPU Chip und Lüfter läuft auf den Standard eingestellten 48% sprich zu den bereits erwähnten mit 2370 bis 2390 U/Min

BIOS Version 016.001.001.000.008737

UV noch nicht probiert, so 20 bis 2100 U/Min wäre wohl ideal und durchaus leicht zu ertragen
Die 2400 U/min sind doch lauter als ich selbst angenommen, uns sollte doch stolze 52 - 55% der Lüftergeschwindigkeit der Sapphire Fury Nitro OC ausmachen.

RoughNeck
2017-09-27, 02:12:15
Undervolten, das Temperatur Target erhöhen und den Lüfter bis Max. 2100 drehen lassen und schauen was passiert. Zur Not kannst auch noch mit den Takt runter und dann überleg dir wirklich den Umbau auf den Morpheus Kühler.

=Floi=
2017-09-27, 02:34:33
Karte ist da und viiiieeel zu laut!

nun enttäusch uns nicht!
Fanboy NO1.

horn 12
2017-09-27, 05:35:18
nun enttäusch uns nicht!
Fanboy NO1.

Nun dies war ironisch gemeint da ihr alle nur drauf gewartet habt :-)
Aber gut, bissi Feintuning braucht die Vega allemal!
Wichtig unter Idle so gut wie lautlos
und besser der Lüfter läuft als komplett abzuschalten,- dies hatte die Fury dafür lief der Speicher auf "Hochturen".

Muss mich noch mit Vega beschäftigen, aber alles schonmal besser als mit den Furys, (X) auch da die 4GB der Fiji Karten links liegen gelassen wurden seit Polaris Launch.

Loeschzwerg
2017-09-27, 06:47:43
Glückwunsch zur Karte :) Schau bei Gelegenheit mal bitte ob dem Bios Nr. 2 von deiner Karte ebenfalls die niedrigeren Powerlimits fehlen.

Bezüglich Lautstärke => "Power Save" Einstellung im Treiber wäre die einfachste Lösung.

horn 12
2017-09-27, 07:24:22
Bitte Bitte, ja werde meinen Spass haben.
UV und ausloten der GPU kommt nächsten Tage.
Zudem durch meine Offenes Mesh Gehäuse
kommt Karte wohl nochmals "lauter" bzw. unangenehmer rüber...

Habe immer noch jenes:
http://de.thermaltake.com/products-model.aspx?id=C_00000137

Neues Gehäuse ist bereits seit Dezember 2016 da, wartet aber auf Ryzen.
Denke Winter, oder gar Hebst kauf ich NEUES System dann...

Zwecks Bios, habe alles im Auslieferungszustand, auch die Position belassen und werde berichten...Bios trägt am Ende 8737

Hübie
2017-09-27, 07:33:42
heute habe ich bf1 mal wieder im borderless modus gespielt.
was soll ich sagen, lief butterweich.

und vor allem -> der takt war permanent um 1715 +/-7MHz

so krass hatte ich das sonst nie. Temps 40-45°C, Lüfter@~2300UpM festgepinnt.

und auch im spiel war der GPU-Graph sehr ruhig und fast glatt.

mfg

Wenn ich das richtig sehe hängst du zu 80% oder mehr im CPU-Limit. Ist das im Fullscreen auch so? Ist die Performance identisch?
Gut dass dein Monitor doch keinen Schatten hat. :up: :D

@horn12: Was lange währt, wird gut. Glückwunsch. Warum hast du nicht gleich die Liquid genommen?

@vinacis_vivids: Von dir kommt weitaus weniger Inhalt, also schön den Ball flach halten. Wie wäre es wenn du deine Holzkiste mal entsorgst und was anständiges kaufst, damit du hier auch mal wirklich mitreden und Inhalt liefern kannst? :|

HTB|Bladerunner
2017-09-27, 07:44:02
heute habe ich bf1 mal wieder im borderless modus gespielt.
was soll ich sagen, lief butterweich.

und vor allem -> der takt war permanent um 1715 +/-7MHz

so krass hatte ich das sonst nie. Temps 40-45°C, Lüfter@~2300UpM festgepinnt.

und auch im spiel war der GPU-Graph sehr ruhig und fast glatt.

mfg

Wenn Du deinen Monitor über HDMI angeschlossen hast und zusätzlich benutzerdefinierte Spannungen im Wattman einstellst, bleiben die Änderungen nur im Window-Mode aktiv. Sobald man eine 3D-Anwendung im Vollbildmodus startet bekommt der Chip plötzlich volle 1,05-1,10mV zugeführt. Dadurch fällt der Takt auf 800-1100MHz ab. Die hohe Spannung liegt dann nach der 3D-Anwendung auch im idle an. Erst ein Neustart schafft abhilfe.

Über den Displayport-Anschluss funktioniert das Ganze besser.

horn 12
2017-09-27, 07:52:23
@Hübie

Nun weil jene nochmals 120 Euro Teurer geworden wäre und in mein "Noch Gehäuse" eben nicht befestigt werden kann da ich etwas improvisiert habe.
Zudem HD Käfig demontiert und 3HD Käfig oben bei DVD Laufwerksschacht verbaut.

Hübie
2017-09-27, 08:40:17
Du brauchst dringend ein neues Gehäuse. :D

@HTB|Bladerunner: Er hat's per DP 1.2 dran. ;)

akuji13
2017-09-27, 09:07:00
Neues Gehäuse hat er doch schon lumliegen. :wink:

Der Peter 2 hat doch eine runde Auflagefläche. Das kann doch gar nicht gehen ...

Wenn die Fläche groß genug wäre schon.
Auf meiner Fury hatte ich auch eine AiO mit runder Kühlfläche drauf.

Das bringt mich dann auch gleich zu folgenden Fragen:
Ist die Größe des packages aus GPU+HBM ähnlich der der Fury und sind die Lochabstände identisch?

foenfrisur
2017-09-27, 09:20:17
und der framelimiter ist bei 73fps. daher das cpu Limit.

der vollbildmodus geht mit dem insider-build 16362 nicht. ist ein inoffizielles insider sogar. vermutlich auch der grund für das monitor Problem.

mfg

bnoob
2017-09-27, 09:57:14
Wenn Du deinen Monitor über HDMI angeschlossen hast und zusätzlich benutzerdefinierte Spannungen im Wattman einstellst, bleiben die Änderungen nur im Window-Mode aktiv. Sobald man eine 3D-Anwendung im Vollbildmodus startet bekommt der Chip plötzlich volle 1,05-1,10mV zugeführt. Dadurch fällt der Takt auf 800-1100MHz ab. Die hohe Spannung liegt dann nach der 3D-Anwendung auch im idle an. Erst ein Neustart schafft abhilfe.

Über den Displayport-Anschluss funktioniert das Ganze besser.
Oh, das erklärt das :freak:

Superposition z.B. verhält sich bei mir aber dann wie ein windowed Programm, ist das intern ein borderless window?

@Spulenfiepen: Meine 64 Black hatte am Anfang extremes Spulenfiepen, eine Woche später war das fast weg. Kann das sein, oder ist das ein reiner Gewöhnungseffekt?

Hasenpfote
2017-09-27, 10:20:36
Wenn Du deinen Monitor über HDMI angeschlossen hast und zusätzlich benutzerdefinierte Spannungen im Wattman einstellst, bleiben die Änderungen nur im Window-Mode aktiv. Sobald man eine 3D-Anwendung im Vollbildmodus startet bekommt der Chip plötzlich volle 1,05-1,10mV zugeführt. Dadurch fällt der Takt auf 800-1100MHz ab. Die hohe Spannung liegt dann nach der 3D-Anwendung auch im idle an. Erst ein Neustart schafft abhilfe.

Über den Displayport-Anschluss funktioniert das Ganze besser.Die Treiber-Leute bei AMD haben doch nicht mehr alle Latten am Zaun. Meine Fresse! Bei meiner niegelnagelneuen 560 Taktet der Speicher im Dual-Monitor-Betrieb auf max. Frequenz hoch. Laut Wattman gibt es nen Zwischenschritt, der aber nicht genutzt wird. Liegt vemurtlich daran, dass ein Monni via HDMI und der andere via DVI angeschlossen ist (anders anschließen geht aber nicht). Warum bestätigen immer noch das Klischee, dass AMD beschissene Treiber hat? Immer und immer wieder.:freak::confused:

foenfrisur
2017-09-27, 10:32:03
HDMI ist doch eh ein schrott standard mit Lizenzgebühren.

ärgerlich, wenn man keine alternative nehmen kann.

mfg

X-Bow
2017-09-27, 11:00:25
Die Treiber-Leute bei AMD haben doch nicht mehr alle Latten am Zaun. Meine Fresse! Bei meiner niegelnagelneuen 560 Taktet der Speicher im Dual-Monitor-Betrieb auf max. Frequenz hoch. Laut Wattman gibt es nen Zwischenschritt, der aber nicht genutzt wird. Liegt vemurtlich daran, dass ein Monni via HDMI und der andere via DVI angeschlossen ist (anders anschließen geht aber nicht). Warum bestätigen immer noch das Klischee, dass AMD beschissene Treiber hat? Immer und immer wieder.:freak::confused:

Das habe ich bei meiner V64 nicht. Hab den 4K Monitor am DP und den 720p Fernseher an HDMI.

Treiber:17.9.2


Welchen Treiber verwendest Du?

unl34shed
2017-09-27, 11:03:42
Das würde mit Vega auch geändert, hier ist der Speichertakt und Bustakt unabhängig.

Zergra
2017-09-27, 12:09:32
Wenn die Fläche groß genug wäre schon.
Auf meiner Fury hatte ich auch eine AiO mit runder Kühlfläche drauf.

Das bringt mich dann auch gleich zu folgenden Fragen:
Ist die Größe des packages aus GPU+HBM ähnlich der der Fury und sind die Lochabstände identisch?
Richtig, habe den Peter 2 hier herum liegen und bin mir relativ sicher, das der eben nicht drauf passt. Könnte ich aber probieren, wenn ich meine Vega 64 unter Wasser setz. Dann muss der Kühler ja eh herunter.

akuji13
2017-09-27, 12:38:00
Wäre interessant ob auch da eine AiO draufgeschnallt werden könnte. :)

Das neue Löcher gebohrt werden müssen in die Halterung ist klar, war bei der Fury auch so.

Zergra
2017-09-27, 13:32:57
Gibt doch eine Aio von Alphacool für die Karte?

akuji13
2017-09-27, 13:45:26
Ich kaufe keinen AC Schrott. ;)

dildo4u
2017-09-27, 15:33:39
Neue Informationen zu Custom-Designs der Radeon RX Vega56


http://www.tomshardware.de/amd-radeon-rx-vega64-vega56,testberichte-242396.html

Grendizer
2017-09-27, 16:38:47
Neue Informationen zu Custom-Designs der Radeon RX Vega56


http://www.tomshardware.de/amd-radeon-rx-vega64-vega56,testberichte-242396.html


Oha .... das ist ja eine echte Katastrophe für AMD.

akuji13
2017-09-27, 17:27:37
Und für uns.

Kartenlehrling
2017-09-27, 17:29:59
Das beste an dieser "AMD"-News ist, sie Ende mit einer Nvidia gtx1070Ti Meldung.

Grendizer
2017-09-27, 17:40:22
Naja .... es scheint halt so, als ob die Vega Customdesigns von einigen Herstellern zugunsten der 1070er TI zurückgestellt oder sogar eingestellt werden.

vinacis_vivids
2017-09-27, 18:02:57
Vega ist einfach ausverkauft und wird sicher nicht eingestellt ;)

Grendizer
2017-09-27, 18:09:59
Vega ist einfach ausverkauft und wird sicher nicht eingestellt ;)

Da AMD keine Chips liefern kann (oder will *lol*) und zumindest 2 Partner die Karte für zu fehleranfällig halten werden diese wohl keine Vega 64 Customdesigns bringen und konzentrieren sich nun auf die 1070 TI.

Der Vegalaunch war vor 6 Wochen und es gibt außer einer angekündigten Asus Karte nichts wirkliches greifbares. Für mich hört sich die TH Meldung leider sehr plausibel an.

vinacis_vivids
2017-09-27, 18:26:14
Die aufgewärmte News ist doch nichts Neues. Vega ist frisch auf dem Markt und die Produktion kann nur langsam hochgefahren werden.

dildo4u
2017-09-27, 18:27:16
Die Yield's werden einfach grottig sein Jay's Strix Karte hatte schon Probleme mit 1.6Ghz.

https://youtu.be/MyFTQFtju4Y?t=12m26s

Wird mit 1546 ausgeliefert.

hlynska
2017-09-27, 18:37:08
Die aufgewärmte News ist doch nichts Neues. Vega ist frisch auf dem Markt und die Produktion kann nur langsam hochgefahren werden.Frisch.... *hust*
Wann waren gleich noch mal Tape-Out und Bring-Up? ich kann mich wirklich an keine derartige Rumlutscherei in den letzten 25 Jahren erinnern. :(

vinacis_vivids
2017-09-27, 18:42:22
Die Yield's werden einfach grottig sein Jay's Strix Karte hatte schon Probleme mit 1.6Ghz.

https://youtu.be/MyFTQFtju4Y?t=12m26s

Wird mit 1546 ausgeliefert.

Der hat PT+50% vergessen, ist klar dass da nichts funktioniert und die Spannung muss noch weiter runter.

Frisch.... *hust*
Wann waren gleich noch mal Tape-Out und Bring-Up? ich kann mich wirklich an keine derartige Rumlutscherei in den letzten 25 Jahren erinnern. :(

Es gibt zig verschiedene Vega's und alle wollen bedient werden. AMD kann gar nicht so schnell *produzieren*, da ihnen die GPUs förmlich aus den Händen gerissen werden.

Megamember
2017-09-27, 19:05:44
Der Vivacis kommt mir vor wie die Amd Version von dem Kerl hier:

https://abload.de/img/thgcjwd.jpg (http://abload.de/image.php?img=thgcjwd.jpg)

dargo
2017-09-27, 19:12:24
Der Vivacis kommt mir vor wie die Amd Version von dem Kerl hier:

Mal was anderes... woher willst du wissen, dass die meisten Vegas nicht einfach in die Server kommen? Schließlich bekommt AMD dort die größten Margen. Es wäre durchaus denkbar, dass der Gamingsektor wo man wenig verdient erstmal stiefmütterlich behandelt wird. Ich finds wieder köstlich, dass gerade die Grünen sich am meisten Sorgen um die Lieferbarkeit der Custom RX Vegas machen. :rolleyes:

hlynska
2017-09-27, 19:14:42
Dann hätte man sicher dementsprechende Erfolgsmeldungen in die Presse lanciert. Leuchtturmprojekte findet man ab und an, aber nichts in Stückzahlen. Leider.

dargo
2017-09-27, 19:18:40
Gibt es Meldungen über schlechte Yields bei Vega?

Th3o
2017-09-27, 19:21:22
Warum soll AMD posten, wo die Vega Chips landen? Mal sehen, wie die nächsten Quartalszahlen ausfallen.

bnoob
2017-09-27, 19:25:08
Wenn Du deinen Monitor über HDMI angeschlossen hast und zusätzlich benutzerdefinierte Spannungen im Wattman einstellst, bleiben die Änderungen nur im Window-Mode aktiv. Sobald man eine 3D-Anwendung im Vollbildmodus startet bekommt der Chip plötzlich volle 1,05-1,10mV zugeführt. Dadurch fällt der Takt auf 800-1100MHz ab. Die hohe Spannung liegt dann nach der 3D-Anwendung auch im idle an. Erst ein Neustart schafft abhilfe.

Über den Displayport-Anschluss funktioniert das Ganze besser.
Gerade mal nachgestellt:

4K@HDMI: 3DMark laufen lassen, danach war die Spannung auf 1050 getackert

4K@Club3D DP-to-HDMI2: 3DMark laufen lassen, danach ist die spannung zwar nicht mehr ganz runter gegangen, aber immerhin auf 900 und geht beim Videoschauen auch hoch

Beide Male war es der selbe Eingang am Monitor

Das kann doch nicht deren Ernst sein ;D

vinacis_vivids
2017-09-27, 19:56:50
idtech und frostbite sind absolut Vegas's Domäne.
Diese engines skalieren wunderbar mit den SPs und GPU-Takt.

https://abload.de/img/frostbitevegaycuxi.png
https://abload.de/img/idtechvegaiuukv.png

https://tweakers.net/reviews/5667/13/amds-rx-vega-liquid-getest-de-vega-lineup-compleet-battlefield-1-medium-en-ultra.html

Grendizer
2017-09-27, 20:01:25
idtech und frostbite sind absolut Vegas's Domäne.
Diese engines skalieren wunderbar mit den SPs und GPU-Takt.

https://abload.de/img/frostbitevegaycuxi.png
https://abload.de/img/idtechvegaiuukv.png

https://tweakers.net/reviews/5667/13/amds-rx-vega-liquid-getest-de-vega-lineup-compleet-battlefield-1-medium-en-ultra.html

Ne liquid testen und die 1080 Ti nicht mittesten ?

HTB|Bladerunner
2017-09-27, 20:55:14
Gerade mal nachgestellt:

4K@HDMI: 3DMark laufen lassen, danach war die Spannung auf 1050 getackert

4K@Club3D DP-to-HDMI2: 3DMark laufen lassen, danach ist die spannung zwar nicht mehr ganz runter gegangen, aber immerhin auf 900 und geht beim Videoschauen auch hoch

Beide Male war es der selbe Eingang am Monitor

Das kann doch nicht deren Ernst sein ;D

Danke für den Test! Genau die selbe Reaktion zeigt auch meine Karte.
Daher "muss" ich auch auf den Club3D-Adapter ausweichen. Übertakten fällt halt momentan flach über HDMI. Ich hoffe nur AMD kümmert sich frühzeitig darum.

Zergra
2017-09-27, 21:35:42
Möglicherweise bin ich mit Vega nur so zufrieden, weil ich eben nur BF1 Spiele und die Karte dort, locker doppelt so schnell ist wie meine 290x :D


Jedenfalls, sieht es bei den Custom Karten echt düster aus, ich kann Verstehen das hier ein paar Hersteller abspringen. AMD wird ihnen keine Stückzahl Garantieren, da ist es imho nicht wirklich Wirtschaftlich eine Karte zu entwickeln, wenn es keine Chips dafür gibt.

scully1234
2017-09-27, 21:44:45
Wie viele aktuelle Spiele gibt es eigentlich? Ich sehe immer nur Doom :confused:

http://www.redhill-cherryfarm.com.au/wp-content/uploads/2012/08/pick-your-own-cherries-melbourne1.jpg


und du meinst das hilft bei dem hoffnungslosen Fall?

Naja .... es scheint halt so, als ob die Vega Customdesigns von einigen Herstellern zugunsten der 1070er TI zurückgestellt oder sogar eingestellt werden.


Ich denke die können auch 1+1 zusammenzählen ,und sich ausrechnen wo die Produktionskapazitäten besser angelegt sind

TGKlaus
2017-09-27, 21:55:50
Ich sehe immer nur Doom :confused:


Was ist an den geposteten Battlefield 1 Werten schlecht?

Megamember
2017-09-27, 22:20:29
Was ist an den geposteten Battlefield 1 Werten schlecht?

Dx12 Version. Die ist eh noch total verbugged bzw. wurde von DIce schon aufgegeben.

Hübie
2017-09-27, 22:20:40
Die Werte sind praxisfern. Keiner mit NV spielt das unter DX12, es sei denn er hat kein Plan oder ist besoffen. ;)

Edit: Ja DX11 Steinzeit API Blah blah blah. Spielt aber noch keine Rolle, da mit NV DX11 meist schneller ist (und auch schneller als AMD`s Pendants, was ja das eigentlich peinliche ist).

TGKlaus
2017-09-27, 22:24:28
Dx12 Version.

Ahh, nicht gesehen ...
Naja, ist schon spät ....

24p
2017-09-27, 22:45:05
Hat sich ja nichts geandert seit ich vor einiger Zeit hier mal reingeschaut habe. Weiterhin werden alle paar Seiten irgendwelche D3 Benches gepostet. Wie sieht es denn zB bei PCars 2 aus?

foenfrisur
2017-09-27, 22:48:09
ich habe das schon mal unter eine news gefragt gehabt:

"ich frage mich ernsthaft, wie wahrscheinlich es ist, dass man evtl. vega-performance oder auch einfach nur den verbrauch bewusst in so ein schlechtes verhältnis setzt, dass die nachfrage nicht zu hoch wird, weil man die niemals decken könnte.

wenn man selbst schon die geringe nachfrage kaum decken kann.

ist der (image-)schaden höher, wenn man ein schlechtes produkt liefert, statt gutes produkt in zu geringer menge??"

also im grunde, was würde auf dem markt passieren, wenn vega der oberknaller wäre, aber amd nix liefern kann.

im moment deckt sich ja nachfrage und angebot recht gut, auf einem geringem niveau vermutlich.

mfg

vinacis_vivids
2017-09-27, 23:01:34
Die Werte sind praxisfern. Keiner mit NV spielt das unter DX12, es sei denn er hat kein Plan oder ist besoffen. ;)

Edit: Ja DX11 Steinzeit API Blah blah blah. Spielt aber noch keine Rolle, da mit NV DX11 meist schneller ist (und auch schneller als AMD`s Pendants, was ja das eigentlich peinliche ist).

Falsch:
https://abload.de/img/bfdx11gfsrf.png

https://abload.de/img/fbenginerdqgs.png

Dass die RX56 bei Frostbite auf dem Level der 1080Ti performt wurde schon länger gezeigt:
Vega56@UV
https://youtu.be/spRJa7d2FPA

1080Ti@OC
https://youtu.be/6H-Qtqzcy0A

aufkrawall
2017-09-27, 23:17:12
In 4k ist DX12 mit Vega 64 auch nicht schneller als 11 und hat in Auflösungen <4k niedrigere min-fps als DX11. Was willst du uns hier wieder für einen Unfug auftischen...
Ich würd auch mal davon ausgehen, dass auch mit Vega der DX12 Pfad einen höheren Input Lag hat als DX11. Oder wird das dann halt dein nächstes Märchen bez. Vorteilen von Radeons, nach angeblich besser Bildqualität und weiterem Schwachsinn...

foenfrisur
2017-09-27, 23:21:23
dx12 läuft auch schrottig auf vega.

teste es aber morgen gerne noch mal.

mfg

horn 12
2017-09-27, 23:38:48
Gerade getestet
Lüfter auf 3400 U/Min erhöht, also max. Speed
Bios auf Turbo in Wattman gesetzt.

GPU 77 bis 78 Grad
HotSpot 87 bis 89 Grad
HBM 81 bis 84 Grad

Clock Speed 1380 bis 1430 Mhz
Spannung lag immer unter 1,10 Volt an

Also was das PowerSave Bios aktiv, bzw. Schalter steht dort.

PS: Zur Zeit noch KEIN Untervolting Betrieben.
Was sollte mit anderem Bios dann möglich sein ?

Zergra
2017-09-27, 23:58:13
Der Unterschied zwischen den Bios Versionen sind nur 10Watt ASIC. Das merkt man selten.

horn 12
2017-09-28, 00:02:57
Was muss ich machen um 1550 bis 1600 Mhz zu erreichen und eben die Temperatur zu 84/85 Grad halten zu können?
PowerLimit rauf und Lüfter höher drehen lassen,- oder genügt da auch nur das untervolten

Wieviel Grad Celsius erspart sich Vega 64 mit Untervolting in etwa ?

Zergra
2017-09-28, 00:16:35
Normales UV bei 0% PT sorgt nur dafür das die Taktraten Stabil geblieben sind. Ohne mehr PowerLimit, ist die Karte bei mir bei <1500Mhz geblieben. Als erstes PT hoch und Lüfter hoch, dann kann man schauen, wie sich UV auf die Karte auswirkt.

Hasenpfote
2017-09-28, 00:41:23
also im grunde, was würde auf dem markt passieren, wenn vega der oberknaller wäre, aber amd nix liefern kann.Sieht man bei den Minern und der RX5x0: alle Welt heult rum, dass AMD nicht liefern kann und die Preise gehen durch die Decke, wobei AMD nichts dran verdient. Bei Vega kriegt AMD wenigstens etwas Kohle, ob das reicht die Kosten zu decken sei mal dahingestellt.

vinacis_vivids
2017-09-28, 00:49:32
Was muss ich machen um 1550 bis 1600 Mhz zu erreichen und eben die Temperatur zu 84/85 Grad halten zu können?
PowerLimit rauf und Lüfter höher drehen lassen,- oder genügt da auch nur das untervolten

Wieviel Grad Celsius erspart sich Vega 64 mit Untervolting in etwa ?

probier mal das:
GPU-volt:925/1025mv
GPU-Takt: 1537/1602Mhz
HBM-volt:975mv
HBM-Takt:1000Mhz
PL:+25-50%
Lüfter: 3000-3200rpm