PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45

hq-hq
2017-12-16, 22:16:10
Nein und nein.

AC ging/geht bei Nvidia ohnehin nicht.
Deferred Rendering on bedeutet schlechtere Qualität. Aber ofensichtlich ist HQ nicht_mehr Nvidias Feld.

Wolfenstein ist Schrott! Eigentlich schade da die Engine ja offensichtlich mehr kann.
---
Ich wette 2018 sehen wir auch "AMD_Works", AMD beginnt es wie Nvidia zu machen und Programmiert ihren eigenen Benchmark.

also ich bin mir sicher einen Test bzgl. Wolfenstein gelesen zu haben wo AC bei NVidia ~ +2% gebracht hat und bei AMD - x%(?)

-> jo doch doch, das war so als das Game neu war :freak: (glaub das war in einem ein Computerbase Artikel...)


also ja und ja, nach x Treiberupdates und Game-Updates -> who the fuck knows :biggrin:

https://www.youtube.com/watch?v=WuoXot2TukA

however... peace :uhippie:

hmmm
2017-12-16, 22:29:55
also ich bin mir sicher einen Test bzgl. Wolfenstein gelesen zu haben wo AC bei NVidia ~ +2% gebracht hat und bei AMD - x%(?)

-> jo doch doch, das war so als das Game neu war :freak: (glaub das war in einem ein Computerbase Artikel...)


also ja und ja, nach x Treiberupdates und Game-Updates -> who the fuck knows :biggrin:

https://www.youtube.com/watch?v=WuoXot2TukA

however... peace :uhippie:
Computerbase hat keine Ahnung, AC war auch auf AMD an -nur total kaputt (wie einiges andere ja auch auch).
Nochmal: Das Spiel war und ist kaputt.

Th3o
2017-12-16, 22:50:35
Es ist meine Meinung die ich auf von der Vega 56 Air die hier auf der Arbeit in mehreren Rechnern eingesetzt wird bilden durfte. Und ich bleibe dabei, die Turbine ist nichts was man sich antun möchte.
Wir sind im Jahr 2017, da hat ein Rechner leise zu sein, egal wie Leistungsfähig bzw. wie hoch der Verbrauch ist.

Bei anderen Dingen wie V8 Motoren, da bin ich anderer Meinung aber wer am Rechner auch arbeitet und sich konzentrieren möchte / muss, der will sicher kein Triebwerk neben sich haben.
Welche Arbeit treibt die Vega so an, dass sie über 2000rpm geht. Darunter ist sie mMn überhaupt nicht störend.

hmmm
2017-12-16, 23:03:23
OMG. Ist mir noch gar nicht aufgefallen... :eek:

Ich sortiere hier gerade den 6900K @4.2 GHz aus, weil ich CPU-Bottlenecks definitiv ausschließen möchte. Und der hatte ja nach seinem Launch den 5930K abgelöst, der auch schon mit 4.5 GHz lief. Ins 2018er System kommt der 7900K mit 4.5 Ghz, das gibt noch einmal einen ordentlichen Schub, denn ich renne auch mit dem aktuellen System unterhalb bzw. ab WQHD bei vielen Spielen schon ab und an ins Limit, bei FHD sowieso. Nimmt der wirklich so einen alten Schleicher zum Benchmarken? Dann sind die Werte wirklich alles Makulatur. Ich kann natürlich auch nicht jeden Monat umbauen und es müssen weltweit vier identische Systeme / Images existieren (Kosten, Aufwand), aber einmal pro Jahr / zwei Jahren kann man schon mal aufrüsten. Das ist man letztendlich auch den Lesern und sich selbst schuldig. Wenn dem wirklich so ist. :confused:

Die Werte sind, wenn überhaupt, genau so "Makulatur" wie deine Werte auch. Selbst wenn sie nen Single-Core Celeron nehmen würden wären die Werte nicht mehr oder weniger "Makulatur" als die deinen.
Sollange dies angegeben ist, ist an den Werten doch 0,nichts auszusetzen. So wie an deinen Werten eben auch. Es kommt doch vielmehr auf die Intention an.
zB:
Das bei einem 4,5GHz Sytem DX11 noch gut/sehr gut gegen LLAPIs aussieht ist somit dann auch klar. Ist da deine Intention DX11 am leben zu halten?

Grendizer
2017-12-16, 23:03:43
In meinem Coolermaster HAF rennt mittlerweile wieder eine der billigsten 1080 mit 1100-1300 rpms bei 1950 Mhz. Die Vega 64 Air drehte bei den gleichen Spiele auf 2300-2400 rpms hoch. Wenn man sie etwas manuell einfängt dann bis 2100. Und auch die LCE fand ich nicht so besonders leise, wie man es von einer Wasserkühlung irgendwie erwartet.

HAF Gehäuse sind löchrig und laut, dafür sind durch die vielen Lüftern die Umgebungstemperaturen halt gering, aber man benötigt entsprechend leise Komponenten. Mein Ryzen 1700X und der Noctua NH-D15 SE-AM4 sind auch unter dauerhafter Volllast kaum hörbar, in so einen Rechner paßt eine Vega leider nicht richtig rein.

Schlammsau
2017-12-16, 23:30:16
Welche Arbeit treibt die Vega so an, dass sie über 2000rpm geht. Darunter ist sie mMn überhaupt nicht störend.
Dann hast du ein Problem mit deinem Gehör, über 1400rpm ist definitiv störend wenn man 1-2m neben dem Rechner ist!

=Floi=
2017-12-17, 01:15:21
Selbst wenn sie nen Single-Core Celeron nehmen würden wären die Werte nicht mehr oder weniger "Makulatur" als die deinen.

Eben nicht. Um das ging es ja gestern im grunde. Wenn du dich im CPU-Limit bewegst, rücken alle karten zusammen. Die echte performance der gpu zeigt sich nur, wenn das cpu-limit auch so gering wie möglich gehalten wird.
Es ist ein test der grafikkarten und nicht ob die games auf den systemen performen.
Stell dir vor die 1080er wäre in einem test nur 5% langsamer als die 1080Ti. In der realität sind es dann um die 30%.



Hat mal jemand die vorcompilierten shader über steam geladen? Gibt es die bei wolfenstein 2 und bringen die etwas?


Kann man nun Vsync off im neuen treiber erzwingen und gehen custom AA modi?

TGKlaus
2017-12-17, 01:47:24
Wenn du dich im CPU-Limit bewegst, rücken alle karten zusammen.

Und genau deshalb ist der Test interessant.
Denn ca. 98% der Leute haben eben nicht die schnellste CPU in Ihrem Rechner.
Die sehen hier deutlich realistischer was ne neue Grafikkarte bringt.

Gibt doch genug andere Tests. Schau dir die an wenn du auf theoretische lange Balken stehst.

Leute die "nur" aufrüsten haben von dem Test aber mehr / realistischere Infos.

Man kann ja gerne darauf hinweise, aber das gehate was von dir und ein paar anderen kommt ist absolut lächerlich.

scully1234
2017-12-17, 02:39:50
Leute die "nur" aufrüsten haben von dem Test aber mehr / realistischere Infos.

.

Nein das haben sie nicht!

Wenn ich aufrüsten will ,interessiert mich die maximale Leistung des Produkts was getestet wird, und nicht wie luschenhaft CPU 1 oder 2 die neue Grafikkarte befeuert

Die Flaschenhälse muss der Tester dabei so weit als möglich ausschließen ,und das ist dort nicht im entferntesten geschehen!

Oder willst du demnächst noch Highendgrafikkarten mit nem Bulldozer testen, weil irgend ein Sparfuchs nicht begreift ,wie man ein System ausgewogen konfiguriert

x-force
2017-12-17, 02:55:06
Und genau deshalb ist der Test interessant.
Denn ca. 98% der Leute haben eben nicht die schnellste CPU in Ihrem Rechner.


und weil 99% der leute keinen 8700k@5,2ghz haben, testen wir cpus im gpu limit oder was? :upicard:

dargo
2017-12-17, 08:08:07
also ich bin mir sicher einen Test bzgl. Wolfenstein gelesen zu haben wo AC bei NVidia ~ +2% gebracht hat und bei AMD - x%(?)

Mir kam schon der erste CB-Test spanisch vor. Die hatten nämlich bei TSSAA (8TX) -18% auf Vega gemessen, was ich nicht nachstellen konnte. Mag sein, dass AC bei AMD kurzzeitig etwa schneller war, es gab ja schon einige Patches und neuere Treiber. Aktuell und beim letzten Spielpatch ist es definitiv nicht so. Ich kann natürlich nur für Vega sprechen.

Edit:
Wird jetzt hier etwa seitenlang die gleiche sinnlose Diskussion geführt wie bei CPU-Tests? Oh man... beides ist legitim! Schnellste CPU um mögliche CPU-Limits auszuschließen damit man besser sehen kann wieviel Prozent GPU A schneller ist als GPU B. "Massentauglichere CPU" um besser sehen zu können wie die Ergebnisse in der Praxis für denjenigen ausfallen der eben diese CPU oder was ähnlich schnelles verwendet. Jeder der sich einigermaßen mit Limits beschäftigt wird aus beiden Tests die richtigen Schlüsse ziehen können. Mehr gibts dazu einfach nicht zu sagen.

und weil 99% der leute keinen 8700k@5,2ghz haben, testen wir cpus im gpu limit oder was? :upicard:
Das hat er doch gar nicht gesagt. Lese seinen gesamten Post und versuche diesen auch zu verstehen anstatt nur einen Bruchteil zu zitieren. :rolleyes:

Nein das haben sie nicht!

Wenn ich aufrüsten will ,interessiert mich die maximale Leistung des Produkts was getestet wird, und nicht wie luschenhaft CPU 1 oder 2 die neue Grafikkarte befeuert

Die Flaschenhälse muss der Tester dabei so weit als möglich ausschließen ,und das ist dort nicht im entferntesten geschehen!

Oder willst du demnächst noch Highendgrafikkarten mit nem Bulldozer testen, weil irgend ein Sparfuchs nicht begreift ,wie man ein System ausgewogen konfiguriert
Dann schau dir Tests an die von der Konfiguration her besser zu dir passen. Immerhin hat man die Wahl wenn andere Redaktionen unterschiedliche Testsysteme verwenden und nicht nur immer das schnellste. Mal als Beispiel... was genau bringt dem User X ein Vega Test mit einem 5,2Ghz i7-8700K wenn er selbst einen i5-3570K hat und von sagen wir mal R9 390 auf RX Vega umsteigen möchte? Das gleiche Problem hast du auch umgekehrt... spielt User X immer mit max. Details in 4K wird ihm die schnellste CPU auch in den seltesten Fällen was nennenswertes bringen wenn die vorherige nicht gerade um zig Größenordnungen langsamer war. Dieses schwarz/weiß denken mancher hier nervt einfach nur noch.

Und wenn dir die beiden Limits immer noch nicht reichen hast du noch ein Applikationslimit. Bestes aktuelle Beispiel AC: O.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11573583&postcount=62

Ein 4,8Ghz 4 Threader von Intel @Kaby Lake krebst nur noch vor sich hin, trotz Nvidia Treiber. Der 8 Threader macht es zwar etwas besser. Nichts aber auf was man stolz sein könnte wenn man sich die Frametimes anschaut.

Igor TH
2017-12-17, 08:48:44
Die Werte sind, wenn überhaupt, genau so "Makulatur" wie deine Werte auch. Selbst wenn sie nen Single-Core Celeron nehmen würden wären die Werte nicht mehr oder weniger "Makulatur" als die deinen.
Sollange dies angegeben ist, ist an den Werten doch 0,nichts auszusetzen. So wie an deinen Werten eben auch. Es kommt doch vielmehr auf die Intention an.
zB:
Das bei einem 4,5GHz Sytem DX11 noch gut/sehr gut gegen LLAPIs aussieht ist somit dann auch klar. Ist da deine Intention DX11 am leben zu halten?Sorry, aber das ist eine verklärte Verkennung dessen, was man mit einem solchen Test bezweckt. Wenn ich mit einem Celeron testen will, so dass alle Karten gleich sind, dann teste ich eine Karte und kenne alle. Das verkaufe ich dann als Special und lasse mich dafür sogar noch von den jeweils betroffenen Fanboys feiern. Rot oder Grün ist da völlig egal, Hauptsache der Fetisch wird bedient. Nur ist dies eben kein Test, dessen Benchmarkbalken dann fortlaufend von den üblichen Verdächtigen als Beweis für hahnebüchenen Unsinn missbraucht werden sollten, weil die Kernaussage eine völlig andere ist.

Um eine Karte möglichst objektiv testen zu können, was sie ohne jegliche äußere Limitierungen zu leisten imstande sein könnte, muss ich exakt diese negativen Einflüsse, zumindest so weit es mir möglich ist, auch beseitigen. Ich kann mir auch geschmeidig selbst in die Tasche lügen und für jedes Testobjekt das passende Szenario hinkonstruieren. Alles andere sind Tests eines möglichst passenden und in sich stimmigen Gesamtsystems, Analyseartikel zu Treibern und CPU-Overhead usw. Aber wenn, dann muss man dies schon so kennzeichnen und nicht die offensichtlichen und völlig unpassenden Limits im Nachhinein sogar noch zum Feature erheben.

dargo
2017-12-17, 08:57:17
Um eine Karte möglichst objektiv testen zu können, was sie ohne jegliche äußere Limitierungen zu leisten imstande sein könnte, muss ich exakt diese negativen Einflüsse so weit es mir möglich ist, auch beseitigen.
Um mal etwas Öl ins Feuer zu gießen. Wie beseitigst du ein Applikationslimit, zb. bei einem Softwareschrott wie AC: O? :devil: Schließlich gibt es keine CPUs mit 10-15GHz. :D Keine Sorge, ich habe dich schon verstanden... "so weit es mir möglich ist". :)

Igor TH
2017-12-17, 09:10:07
@dargo:
Das ist total einfach:
Ich lasse diesen Schrott aus den Benchmarks einfach raus. So etwas gehört in einen Spielebenchmark und ist eine Momentaufnahme einer bestimmten Karte mit einem gewissen Treiber zum Zeitpunkt X und Patch Y auf dem System Z. Nicht mehr, aber auch nicht weniger. Nur ist es eben kein Grafikkartenvergleichstest im herkömmlichen Sinne, der ein möglichst breites Spektrum an Szenarien abdeckt. Es ist wie bei der Statistik - Außreißer kann man erwähnen,darf sie aber nicht über Gebühr wichten. Wir hatten für die Sapphire sogar Daten aus 15 Spielen, wovon ich nach einer intensiveren Analyse 6 Benchmarks wegen Plausibilitätslücken wieder aussortiert habe. Erstens muss man ja paritätisch wichten und auch DX11 und DX12 gegeneinander abwägen (ohne irgendwo ein Übergewicht zu erzeugen) und zweitens fallen dann solche gendefekten Spiele wie Wolf 2 durchs Statistik-Raster. Die Gefahr, dass sich an meiner Aussgae mit einem der sinnlosen Patches nur ein paar Tage später wieder mal alles ins Gegenteil verkehrt, ist mir einfach zu groß. Ich versuche immer, möglichst aktuell, aber eben auch nicht zu aktuell zu sein, weil ich so die anfänglichen Schwankungen einigermaßen ausgleichen bzw. sogar vermeiden kann. Dann kann man mit so einem Artikel nämlich auch noch in ein paar Wochen etwas Sinnvolles anfangen. Der Aufwand ist ungleich höher, als wenn man stupide seine Lieblingsgames durchballern würde, aber es beugt auch der Gefahr vor, missbräuchlich als Kirschpflücker-Argument benutzt und somit missverstanden zu werden.

Um mal auf das Problem mit V_V zurückzukommen:
Seine herausgepickten Beispiele zeigen gut, wie eine Grafikkarte in einer ganz speziellen Umgebung funktionieren könnte, wobei man immer noch fragen muss, wie wahrscheinlich so eine Kombination eigentlich ist (also die breite Masse reflektiert) damit man das überhaupt verallgemeinern kann. Genau da sieht es aber zappenduster aus. Er hat ja nicht mal unrecht, nur hat so ein Ergebnis mit der Realität in der breiten Masse eben nichts gemein. Falsch ist es nicht, sonst hätte es man ja so nicht gemessen. Nur ist so ein Aufbau nicht sonderlich zweckmäßig. Weder der alte Intel 6-Kerner, noch der große Threadripper sollten hier dem Zweck gerecht werden können. Während man mit einem 4.5 GHz Skylake-X wenigstens noch eine Aussage (GPU ohne externes Limit) ziemlich gut hinbekommt, sind die anderen Varianten zu überhaupt nichts nutze (da eher unüblich, aber immer limitierend). Womit wir wieder am Anfangspunkt angekommen wären.

dargo
2017-12-17, 09:37:15
Um mal auf das Problem mit V_V zurückzukommen:
Seine herausgepickten Beispiele zeigen gut, wie eine Grafikkarte in einer ganz speziellen Umgebung funktionieren könnte, wobei man immer noch fragen muss, wie wahrscheinlich so eine Kombination eigentlich ist (also die breite Masse reflektiert) damit man das überhaupt verallgemeinern kann. Genau da sieht es aber zappenduster aus. Er hat ja nicht mal unrecht, nur hat so ein Ergebnis mit der Realität in der breiten Masse eben nichts gemein. Falsch ist es nicht, sonst hätte es man ja so nicht gemessen. Nur ist so ein Aufbau nicht sonderlich zweckmäßig. Weder der alte Intel 6-Kerner, noch der große Threadripper sollten hier dem Zweck gerecht werden können. Während man mit einem 4.5 GHz Skylake-X wenigstens noch eine Aussage (GPU ohne externes Limit) ziemlich gut hinbekommt, sind die anderen Varianten zu überhaupt nichts nutze (da eher unüblich, aber immer limitierend). Womit wir wieder am Anfangspunkt angekommen wären.
Ach... die Realität, ein sehr schwieriges Thema. :D

Da könnte man ein Buch drüber schreiben. Die Realität wird keine Redaktion am PC jemals abbilden können weil es tausende verschiedene Hardwarekombinationen gibt. Das wäre eine Lebensaufgabe. Und dann kommen paar Spielpatches und neuere Treiber und schon kannst du u.U. deine Lebensaufgabe wieder begraben. :D Und hierbei habe ich noch nicht mal die Vorlieben der einzelnen User erwähnt. Und zwar Grafikdetails. In der Regel nehmen die Redaktionen max. Details. Wenn ich in einem Spiel sehe, dass eine einzelne Option (nehmen wir zb. Schattenauflösung oder Tessellation) mal eben ~20% die Leistung drückt wo ich den Unterschied noch mit einer Lupe suchen muss dann kann ich nur mit dem Kopf schütteln. Klar... habe ich eine Grafikkarte wo ich trotz max. Details immer noch sehr hohe Frameraten habe juckt mich das kaum. Habe ich aber eine Szene wo ich mich zwischen bsw. 55fps (max. Details) und 66fps (eine Option reduziert) entscheiden muss dann nehme ich zweiteres, trotz VRR. Jeder hat da seine eigenen Vorlieben was Details und Frameraten angeht.

Grendizer
2017-12-17, 11:06:02
Achmal ganz ehrlich. Wir ziehen diskutieren hier leidenschaftlich über ein paar FPS in irgendwelchen DX11/DX12 Engines und was spiele ich gerade ? Vaporum und Dead Cells. Da würden vermutlich sogar noch eine Geforce 460 für reichen.

DrFreaK666
2017-12-17, 11:13:13
Achmal ganz ehrlich. Wir ziehen diskutieren hier leidenschaftlich über ein paar FPS in irgendwelchen DX11/DX12 Engines und was spiele ich gerade ? Vaporum und Dead Cells. Da würden vermutlich sogar noch eine Geforce 460 für reichen.

Mit einer GeForce hast bestimmt mehr FPS *Spaß*
Ich bin ganz deiner Meinung. Ich denke aber dass viele mit ihrer Vega Spaß haben, aber wir sind im 3DC, da gehört sowas dazu ;)
Ich selbst spiele zur Zeit Titan Quest ^^

Raff
2017-12-17, 11:17:51
Das kann eigentlich nicht sein. Du musst nur zwei Sachen beachten.

1. Sobald ein Save geladen ist erstmal wenige Sekunden warten. Die Framerate steigt etwas.
2. Beim Laden der Saves nach Möglichkeit nicht die Maus bedienen. Wenn du die Maus im Ladescreen verschiebst kann es passieren, dass der Bildschirminhalt auch verschoben ist und nicht mehr exakt zum letzten passt. Was wiederum leichte Abweichung in der Framerate bedeuten kann.

Kann ich so bestätigen. Das Streaming muss sich erst "einrödeln", danach sind saubere Messungen mittels OCAT mit minimaler Abweichung möglich.

Die aktuelle Spielversion von Wolfenstein 2 läuft auf beiden IHVs wie Butter in der Sonne, davon konnte ich mich in einer schicken Nachtschicht der letzten Woche überzeugen. Vor allem AMD-Anhänger finden hier einen gewiss gern zitierten Bestcase. Da bietet sich ein Online-Spinoff an ...

MfG,
Raff

dargo
2017-12-17, 14:09:21
Da ich ja neugierig bin (:D) habe ich mich heute etwas mit dem OverdriveNTool beschäftigt. Zur Erinnerung... ich kam ums Verrecken nicht unter 1,0V bei der GPU. Warum? Konnte mir bis heute keiner beantworten. Aber eins nach dem anderen.

Ich habe mir jetzt mal eine Szene in Witcher 3 ausgesucht. Es wird Bios 2 mit Default 220W Asicpower benutzt.

1. Igors Undervolting mit 1,0V, +50% PT und P6 mit 1712Mhz sowie P7 1722Mhz.
https://abload.de/thumb/witcher3_2017_12_17_1rasne.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1rasne.jpg)

2. Defaultsettings mit 220W Asicpower.
https://abload.de/thumb/witcher3_2017_12_17_1n4ssi.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1n4ssi.jpg)

Nüchtern betrachtet bringt das UV von Igor zumindest in dieser Szene sehr wenig. Bei über 100Mhz mehr GPU-Takt kommen gerade mal 4% mehr Leistung bei rum. Die Szene bzw. der Maximaltakt sind etwas ungünstig gewählt da ich mit dem UV von Igor die 220W nicht ganz erreiche. Auf die 7W aber drauf geschissen.

Jetzt wirds interessant.

3. Ich habe das ganze versucht mit dem OverdriveNTool nachzustellen. Also mich erstmal auf 1,0V beschränkt.
https://abload.de/thumb/witcher3_2017_12_17_1srs31.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1srs31.jpg)

Trotz ~70Mhz weniger GPU-Takt exakt die gleichen Frames. Soweit so gut. Mir gab das aber keine Ruhe warum ich nicht unter die 1,0V komme. Also habe ich weiter rumprobiert. Habe aktuell folgende Settings.

https://www2.pic-upload.de/img/34487133/NTool.jpg

Auch damit komme ich nicht unter 1,0V. Dann habe ich das Powerlimit im Wattman um 10% angehoben. Das funktioniert so wie man es erwarten würde und ich hatte ~240W Asicpower im Spiel. Allerdings plötzlich mit 1050mV. Ich habe keinen blassen Schimmer woher die 1050mV kommen wenn ich max. 950mV einstelle. :D Daraufhin habe ich das Powerlimit auf -10% gesetzt. Normalerweise würde man 200W erwarten. Stattdessen bekomme ich das hier. Man achte besonders auf die Frames, die Asicpower und die Spannung. X-D

https://abload.de/thumb/witcher3_2017_12_17_1e7s5v.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1e7s5v.jpg)

Zum ersten Mal sehe ich weniger als 1,0V. :eek: Und so wie es aussieht wird diese 1,0V Blockade bei mir erst dadurch gelöst, dass das Powerlimit ins Negative gezogen wird. Undervolting mit Vega ist ne Wissenschaft für sich. :crazy: Aber schon nicht schlecht... den gesamten Verbrauch um über 70W reduziert und trotzdem minimal schneller als mit Defaultsettings. X-D Aber warum 900mV anliegen wenn ich 950mV setze bleibt auch ein Geheimnis. ;D

Zergra
2017-12-17, 14:20:25
Aber warum 900mV anliegen wenn ich 950mV setze bleibt auch ein Geheimnis. ;D
Zuviele States mit gleichen Spannungen, kann dafür sorgen das die Karten in P1 hängen bleibt. Sonst einfach mal die letzten Zahlen ändern, daher 948 usw.

BeetleatWar1977
2017-12-17, 14:22:31
Da ich ja neugierig bin (:D) habe ich mich heute etwas mit dem OverdriveNTool beschäftigt. Zur Erinnerung... ich kam ums Verrecken nicht unter 1,0V bei der GPU. Warum? Konnte mir bis heute keiner beantworten. Aber eins nach dem anderen.

Ich habe mir jetzt mal eine Szene in Witcher 3 ausgesucht. Es wird Bios 2 mit Default 220W Asicpower benutzt.

1. Igors Undervolting mit 1,0V, +50% PT und P6 mit 1712Mhz sowie P7 1722Mhz.
https://abload.de/thumb/witcher3_2017_12_17_1rasne.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1rasne.jpg)

2. Defaultsettings mit 220W Asicpower.
https://abload.de/thumb/witcher3_2017_12_17_1n4ssi.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1n4ssi.jpg)

Nüchtern betrachtet bringt das UV von Igor zumindest in dieser Szene sehr wenig. Bei über 100Mhz mehr GPU-Takt kommen gerade mal 4% mehr Leistung bei rum. Die Szene bzw. der Maximaltakt sind etwas ungünstig gewählt da ich mit dem UV von Igor die 220W nicht ganz erreiche. Auf die 7W aber drauf geschissen.

Jetzt wirds interessant.

3. Ich habe das ganze versucht mit dem OverdriveNTool nachzustellen. Also mich erstmal auf 1,0V beschränkt.
https://abload.de/thumb/witcher3_2017_12_17_1srs31.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1srs31.jpg)

Trotz ~70Mhz weniger GPU-Takt exakt die gleichen Frames. Soweit so gut. Mir gab das aber keine Ruhe warum ich nicht unter die 1,0V komme. Also habe ich weiter rumprobiert. Habe aktuell folgende Settings.

https://www2.pic-upload.de/img/34487133/NTool.jpg

Auch damit komme ich nicht unter 1,0V. Dann habe ich das Powerlimit im Wattman um 10% angehoben. Das funktioniert so wie man es erwarten würde und ich hatte ~240W Asicpower im Spiel. Allerdings plötzlich mit 1050mV. Ich habe keinen blassen Schimmer woher die 1050mV kommen wenn ich max. 950mV einstelle. :D Daraufhin habe ich das Powerlimit auf -10% gesetzt. Normalerweise würde man 200W erwarten. Stattdessen bekomme ich das hier. Man achte besonders auf die Frames, die Asicpower und die Spannung. X-D

https://abload.de/thumb/witcher3_2017_12_17_1e7s5v.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1e7s5v.jpg)

Zum ersten Mal sehe ich weniger als 1,0V. :eek: Und so wie es aussieht wird diese 1,0V Blockade bei mir erst dadurch gelöst, dass das Powerlimit ins Negative gezogen wird. Undervolting mit Vega ist ne Wissenschaft für sich. :crazy: Aber schon nicht schlecht... den gesamten Verbrauch um über 70W reduziert und trotzdem minimal schneller als mit Defaultsettings. X-D Aber warum 900mV anliegen wenn ich 950mV setze bleibt auch ein Geheimnis. ;D
Jetzt kommt die dumme Frage - du stellst schon hier:
https://abload.de/thumb/radeonsettingsw0j0g.jpg (http://abload.de/image.php?img=radeonsettingsw0j0g.jpg)

entsprechend um?

dargo
2017-12-17, 14:24:30
Zuviele States mit gleichen Spannungen, kann dafür sorgen das die Karten in P1 hängen bleibt. Sonst einfach mal die letzten Zahlen ändern, daher 948 usw.
Da bleibt nichts hängen. Schau doch einfach auf den GPU-Takt der tatsächlich Ingame anliegt. Und würde ich im P1 hängen würde ich garantiert keine 94fps erreichen. ;)

btw.
Es reicht schon -1% PT damit ich unter 1,0V komme.
https://abload.de/thumb/witcher3_2017_12_17_1wisrl.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1wisrl.jpg)

Lustigerweise ändert sich beim Stromverbrauch nichts. Es scheint mir, dass durch dieses Vorgehen die Telemetrie wie schon beim UV von Igor komplett ausgehebelt wird und ich den Stromverbrauch von nun an nur über den Takt weiter beeinflussen kann. Ich schaue mir das mal genauer an indem ich die Taktraten wieder anhebe.

Jetzt kommt die dumme Frage - du stellst schon hier:
https://abload.de/thumb/radeonsettingsw0j0g.jpg (http://abload.de/image.php?img=radeonsettingsw0j0g.jpg)

entsprechend um?
Takt und Spannungen über den PPTable-Editor vom OverdriveNTool. PT-Limit über den Wattman. Achso... noch was. Die Speicherfrequenz ist auch über den Wattman auf 945Mhz manuell gestellt. Lasse ich die auf "Auto" ist es schon mal passiert, dass ich Ingame nur noch 800Mhz HBM2 hatte. Und dann hatte ich nur noch 90fps in der besagten Szene erreicht.

BeetleatWar1977
2017-12-17, 14:41:51
Die Spannungsregelung muss auf manuell stehen (Core und Speicher) sonst übernimmt er nicht alles!

dargo
2017-12-17, 14:56:05
Ich habe jetzt den Takt bei P4 und P5 angehoben.

https://abload.de/img/ntool_1stsao.jpg

Die Karte verhält sich aber komplett anders als ich erwartet habe. :D Anstatt, dass der Takt und entsprechend der Verbrauch ansteigen ist beides minimal gefallen. :freak:
https://abload.de/thumb/witcher3_2017_12_17_1vrsgu.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1vrsgu.jpg)

Ich habe aber noch eine Idee wie ich das ändern könnte. Vega hat ja zwei Biose. Ich bin jetzt im Bios 2 mit 220W Asicpower Default und 165W im Savemodus. Irgendwie sieht das hier gerade nach dem Savemodus aus. Warum auch immer. ;D Wenn ich das Bios 1 nehme und die gleichen Schritte anwende müsste die Karte eigentlich wieder Richtung 198W Asicpower gehen. :uponder:

https://images.idgesg.net/images/article/2017/08/gpu-power-limit-vega-power-profile-100731707-orig.jpg

Falls nicht verstehe ich nur Bahnhof. :freak:

Edit:
Ok... ich verstehe nur Bahnhof. :biggrin: Mit Bios 1 ändert sich nichts. Bei gleichen Settings...

https://abload.de/img/ntool_2kfssx.jpg

sind es immer noch ~165-170W Asicpower.
https://abload.de/thumb/witcher3_2017_12_17_1c8sii.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1c8sii.jpg)

dargo
2017-12-17, 15:45:41
Ich habs nun endlich. :up: :ucatch:
https://abload.de/img/witcher3_2017_12_17_1dhswa.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1dhswa.jpg)
5% mehr Leistung bei ~20% weniger Verbrauch. Das nenne ich vernünftiges Undervolting. =) Wobei mir die Zusammenhänge immer noch nicht ganz klar sind. Vorhin hatte ich gesagt ich käme nicht unter 1,0V wenn das PT bei 0% bleibt. Stimmt aktuell gar nicht mehr. Geht auch mit 0% PT nun. :usweet: Fragt mich nicht warum, ich weiß es nicht. :ulol:

Achja... der GPU-Takt (und entsprechend natürlich der Verbrauch) ging jetzt nur nach oben weil ich P6 und P7 erhöht habe.

https://abload.de/img/ntool_3kusxa.jpg

Igor TH
2017-12-17, 16:04:55
Das Dumme ist, dass das Ganze, auf eine andere Vega angewandt, so schon nicht mehr funktionieren muss. Es läuft am Ende darauf hinaus, wie bei Pascal so ein Setting für jede Karte im Detail selbst auszutüfteln. Das kostet Zeit und Nerven, kann aber schon was bringen. Nur darf man es nicht verallgemeinern, weil es bei der nächsten Karte schon wieder komplett anders aussehen kann. Die Telemetrie von Power Tune ist sogar stark treiberabhängig (power estimation).

Wer Lust und Interesse mitbringt, kann da fast schon kleine Wunder bewirken. Individuelle Anpassungen bringen bei jeder Karte etwas, sind aber leider im Gegenzug auch nicht pauschal anwendbar. Das wäre dann doch zu schön. Je nach Chip, hat Pascal sogar noch größere Schwankungen, was auch zeigt, dass selbst Nvidia nicht alles zu 100% im Griff hat und zur Sicherheit einiges obendrauf legt, nur um die Ausbeute zu optimieren. Da AMD bei den Spannungen immer sehr großzügig ist, kann man bei Vega ordentlich Potential vorfinden - einen der bessren Chips vorausgesetzt.

Wobei ich mich ein wenig gegen den Begriff UV sträube. Auch wenn man Absolutwerte für die Spannungen eingibt, sind es am Ende abzüglich dessen, was in den Registern ab Werk hinterlegt ist, nur eine Art Offset-Werte. Das kann dann auch erklären, warum nie das hinten raus kommt, was main eigentlich einstellt hat. Es gibt der Telemetrie nur die Richtung vor, wohin die Reise gehen soll. Den Rest erlegt der Arbitrator trotzdem noch ohne direkte Eingriffsmöglichkeit. Man verschiebt eigentlich nur Unter- und Obergrenze. Gummiband-Effekt. :)

(übrigens war Chris Hook heute wieder gut genug drauf, mir seinen neuesten #poorvolta Link ins Facebook zu hämmern. Der kann's nicht lassen :D )

Ex3cut3r
2017-12-17, 16:08:27
Kann mich mal jemand aufklären Asic Power ist doch nicht der komplette Verbrauch oder? Verbraucht Dargos Karte wirklich weniger als meine 1070er?

Megamember
2017-12-17, 16:12:13
Asic ist nur chip und nicht ganze Karte, und das auch nur grob geschätzt.

dargo
2017-12-17, 16:12:23
Kann mich mal jemand aufklären Asic Power ist doch nicht der komplette Verbrauch oder? Verbraucht Dargos Karte wirklich weniger als meine 1070er?
Nein... die 175W Asicpower bedeuten ca. 227W gesamte Karte. Du musst da einfach 30% draufrechnen bei einer Liquid. Ich richte mich da nach dem Test von Igor wo 220W Asicpower 286W für die gesamte Karte bedeuten.

@Igor
Ich blicke bei den Zusammenhängen aber echt nicht durch. Ich habe jetzt folgende Settings probiert.

https://www2.pic-upload.de/img/34488067/NTool_4.jpg

Und bekomme das. :freak:
https://abload.de/thumb/witcher3_2017_12_17_1leshi.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1leshi.jpg)

Das ist doch total verrückt. Wo ist hier die Logik? :biggrin:

dildo4u
2017-12-17, 16:18:22
Das ist nur die GPU ohne Speicher.

http://abload.de/img/vega2gxpfp.png

http://abload.de/img/vega4ipsk.png

Igor TH
2017-12-17, 16:19:03
Ganz so einfach geht das zwar nicht, da sich die Differenz aus Lüfter, Speicher, sämtlichen Spannungswandlerverlusten usw. zusammensetzt. Lüfter rauf kostet, Lüfter runter auch, weil die auch die VRM-Verluste mit deren Temperatur steigen. Speicher-OC kostet auch. Aber als Richtwert kann man in ungefähr schon damit leben. :)

dargo
2017-12-17, 16:21:45
Ganz so einfach geht das zwar nicht, da sich die Differenz aus Lüfter, Speicher, sämtlichen Spannungswandlerverlusten usw. zusammensetzt. Lüfter rauf kostet, Lüfter runter auch, weil die auch die VRM-Verluste mit deren Temperatur steigen. Speicher-OC kostet auch. Aber als Richtwert kann man in ungefähr schon damit leben. :)
Ich wollte es jetzt nicht unbedingt verkomplizieren. ;)

Das ist nur die GPU ohne Speicher.

Ist nur falsch, es ist der Verbrauch von GPU + HBM2. Ohne VRM Verluste, Lüfter und was sonst noch Strom zieht.

Ex3cut3r
2017-12-17, 16:23:59
Ok Danke Leute. :up:

Igor TH
2017-12-17, 16:27:02
Viele Leistungsaufnahmewerte bei AMD-Karten (nicht nur bei CB) scheinen mir immer einen Tick zu hoch angesetzt, was aber am langsamen Messequipment und der Methode liegen könnte. Und dann einfach den Strom mal 12V geht eigentlich auch nicht. Meist hat man an den Stellen, wo die Spitze der Peaks liegt, nämlich die niedrigste Spannung. Das zeitgleich synchron zu messen, erfordet aber mehr als zur ein Zangenamperemeter. Die Folgen sind ja bekannt, wo manche 600 Watt an der R9 295 X2 gemessen haben wollen, wo es in Wahrheit nur 450 Watt waren. Für die 450 habe ich sogar noch Prügel bekommen. Aber wenn man sich nämlich mal die Spannungswandler angeschaut hätte, hätte man auch merken können, dass man jeden Stecker einschließlich der korrespondierenden Spannung hätte separat messen müssen. Ich habe das einfach mal zum Plausibilitätstest an einer Chroma einzeln grob nachgemessen. Und siehe da... Lehrgeld für so manchen. Und ich habe da über Jahre heftig gezahlt. :D

ich erinnere mich noch (un)gern an die GTX 980, die hier bei mir keine 180 Watt aufgenommen hatte, sondern immer darunter blieb. Bis ich irgendwann begriffen habe, dass ich einem Golden Sample aufgesessen bin und zudem die Mess-Szene für genau diese Karten plötzlich nicht mehr sonderlich geeignet war. Daraus lernt man, so dass ich mittlerweile mehrere Testszenarien durchlaufen lasse. Und ich mache immer, schon zur Sicherheit, eine genaue Platinenanalyse. Dann begreift man auch, wie die Rails ticken können. Karten mit speziellem Load-Balancer, wo dann eine oder mehrere Phasen von zwei verschiedenen 12V-Sourcen gespeist werden, sind da besonders heikel. Da muss man vor allem bei den korrespondierenden Spannungen aufpassen.

Ist nur falsch, es ist der Verbrauch von GPU + HBM2. Ohne VRM Verluste, Lüfter und was sonst noch Strom zieht.MVDD wird extra erzeugt und kommt meistens sogar aus dem PEG. Soweit ich den Sensor-Loop beim Auslesen richtig begriffen habe, lese ich da nur die VDDC und den passenden Stromfluss aus. MVDD kommt aus einer separaten Phase. Das wird so nichts.

dargo
2017-12-17, 16:39:55
Also das geht echt auf keine Kuhhaut. X-D

https://www2.pic-upload.de/img/34488200/witcher3_2017_12_17_16_30_20_677.jpg

Ca. 192W für die ganze Karte und das Ding ist immer noch minimal vor den Defaultwerten mit ~286W. :crazy:

@Igor
Der Wattman ist echt eine Akte X. Bei meinem letzten Post #7529 war ich mit den dort genannten Settings bei 1,0V und 220W Asic obwohl ganz andere Settings eingestellt. Nun gehe ich in den Wattman und stelle das Powerlimit auf +50%. Plötzlich habe ich 310W Asicpower mit 1650Mhz und 1,15V GPU. ;D Ich gehe wieder in den Wattman rein und stelle -10% PT. Daraufhin habe ich 148W Asicpower mit 1480Mhz und 0,875V GPU. :ubash: Ich gehe nochmal in den Wattman rein und stelle +10% PT und habe immer noch 148W Asicpower. Also ein letzter Versuch mit dem Wattman und wieder +50% PT gestellt... es sind immer noch 148W Asicpower. Wer soll da noch durchblicken? ;D ;D ;D

Igor TH
2017-12-17, 16:41:04
Niemand, nicht mal AMD :P

Die sogenannte ASIC-Power ist wirklich nur ein Rechenwert von Einzelwerten aus einem fragilen und zudem zeitkritischen Sensor-Loop. Wenn man per I2C mit den Vorgabewerten mauschelt, heiß es noch lange nicht, dass die Karte wirklich das aufnimmt, was man glaubt vorgegeben zu haben. Was die Telemetrie dann in Echtzeit daraus macht, kann komplett anders aussehen und kann nicht wirklich per ASIC Power ausgelesen werden. Ergo werden auch manchmal nur Vorgabewerte angezeigt, die mit der Praxis nicht mehr viel zu tun haben. Außerdem sind die Intervalle für eine sinnvolle Messung viel zu groß.

Nvidia-Karten wären da einfacher zu handhaben, da der INA3221 auch die dort verbauten Shunts auf der primären Seite überwacht. Trotzdem hat das NV als direkt auslesbaren Wert leider unterbunden. Die %-Angaben des PT im GPU-Z sind somit eigentlich auch nur Schätzwerte, dafür aber wenigstens für die Gesamtaufnahme. Geht bei AMD so nicht, weil es Vega nicht hergibt.

dargo
2017-12-17, 16:52:28
Eine wichtige Frage... kann man sich auf die angezeigte Asicpower überhaupt verlassen? Ich meine jetzt nicht exakt wie bei einer professionellen Messung. Du weißt wie ich es meine. Oder verarscht mich gerade hier der Afterburner? Ich glaube ich schließe gleich mal meinen Energy Monitor 3000 an. Die Unterschiede sind mir doch zu heftig was der AB da anzeigt. Die Temps. werden aber auch geringer. Nur wenn die sich nach irgendwelchen falschen Daten richten....

Edit:
Ok... die Werte vom AB sind zuverlässig. Habs hinterm Netzteil jetzt das gesamte System nachgemessen.

Idle = ~62W
Witcher 3 mit UV über OverdriveNTool = ~290W
https://abload.de/thumb/witcher3_2017_12_17_1yus5h.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1yus5h.jpg)

Witcher 3 Default Bios 1 = ~395W
https://abload.de/thumb/witcher3_2017_12_17_1b1sqp.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1b1sqp.jpg)

Das mit den 290W kommt hin wenn man noch berücksichtigt, dass die CPU und das Brett bei Last noch was zusätzlich ziehen. Wahrscheinlich sind es sogar etwas weniger als 192W für die Karte. Warum ich jetzt allerdings mit Defaultsettings nur 220W Asic habe ist mir ein Rätsel. Beim Bios 1 sollten es eigentlich 264W sein. Vielleicht kommt der Treiber durch zuviel Rumspielerei mit dem OverdriveNTool durcheinander. :D Jedenfalls sind die Asicpowerangaben vom Afterburner zuverlässig.

PS: Das Ding ist jedenfalls bis ca. 900mV verdammt effizient. :O

Igor TH
2017-12-17, 17:10:58
Solange Du nicht irgendwelche Firmware-Vorgaben manuell überschreibst, kommt das schon recht gut hin. Nur bei manuellen Spielereien traue ich den Rückgabewerte nur so viel, wie einem Hütchenspieler mit Migrationshintergund. :D

Hübie
2017-12-17, 17:26:43
Eine wichtige Frage... kann man sich auf die angezeigte Asicpower überhaupt verlassen? Ich meine jetzt nicht exakt wie bei einer professionellen Messung. Du weißt wie ich es meine. Oder verarscht mich gerade hier der Afterburner? Ich glaube ich schließe gleich mal meinen Energy Monitor 3000 an. Die Unterschiede sind mir doch zu heftig was der AB da anzeigt. Die Temps. werden aber auch geringer. Nur wenn die sich nach irgendwelchen falschen Daten richten....

Edit:
Ok... die Werte vom AB sind zuverlässig. Habs hinterm Netzteil jetzt das gesamte System nachgemessen.

Idle = ~62W
Witcher 3 mit UV über OverdriveNTool = ~290W
https://abload.de/thumb/witcher3_2017_12_17_1yus5h.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1yus5h.jpg)

Witcher 3 Default Bios 1 = ~395W
https://abload.de/thumb/witcher3_2017_12_17_1b1sqp.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1b1sqp.jpg)

Das mit den 290W kommt hin wenn man noch berücksichtigt, dass die CPU und das Brett bei Last noch was zusätzlich ziehen. Wahrscheinlich sind es sogar etwas weniger als 192W für die Karte. Warum ich jetzt allerdings mit Defaultsettings nur 220W Asic habe ist mir ein Rätsel. Beim Bios 1 sollten es eigentlich 264W sein. Vielleicht kommt der Treiber durch zuviel Rumspielerei mit dem OverdriveNTool durcheinander. :D Jedenfalls sind die Asicpowerangaben vom Afterburner zuverlässig.

PS: Das Ding ist jedenfalls bis ca. 900mV verdammt effizient. :O

Mit Lautsprecher und Monitor oder nur PC? Ist mir gerade nicht ganz klar. Ich vermute letzteres. =)

dildo4u
2017-12-17, 17:37:39
290W ist ziemlich gut für den PC,komme auf 240 mit Ryzen 1600 und GTX 1070.
Wobei ich das nur mit AC Origins getestet habe was die CPU gerne mal auf 80% treibt. :eek:

dargo
2017-12-17, 17:43:27
Mit Lautsprecher und Monitor oder nur PC? Ist mir gerade nicht ganz klar. Ich vermute letzteres. =)
Nur PC.

@Igor
Jetzt blicke ich endlich durch was hier offenbar passiert. Nochmal ganz von vorne.

Ich bin aktuell im Bios 1 mit Default 264W Asicpower. Wenn ich mit dem OverdriveNTool folgende Werte setze.

https://abload.de/img/ntool_5ccsq1.jpg

Im PPTable-Editor versteht sich, das ganze als reg File abspeichere und den Rechner neustarte bekomme ich das hier.
https://abload.de/thumb/witcher3_2017_12_17_1ztsjk.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1ztsjk.jpg)

Mir ist noch nicht ganz klar warum es 220W sind, eigentlich müssten es 264W sein. Hier wird schon offenbar im ersten Schritt was an der Telemetrie geändert.

Gehe ich nach dem Rechnerneustart in den Wattman und wechsle von "ausgewogen" auf "benutzerdefiniert"... ich ändere dabei keine Werte im Wattman! Wechsle allerdings von "automatisch" auf manuell, so dass ich alle Werte bei den Taktraten und Spannungen sehe. PT bleibt weiterhin bei 0%. Dann bekomme ich das hier.
https://abload.de/thumb/witcher3_2017_12_17_1bbs1m.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1bbs1m.jpg)

Und das ist nun endlich reproduzierbar. Wäre nett wenn mal ein anderer Vega User das bei sich testen könnte. Am besten mit RX Vega64 Liquid. Mir scheint es, dass sobald der Wattman aufgerufen wird und das Powerprofil geändert wird (offenbar reicht es schon von ausgewogen auf benutzerdefiniert zu gehen) die Telemetrie als Basis nicht mehr die originalen Daten von AMD nimmt sondern die Daten vom OverdriveNTool.

PS: mir scheint so, dass man für ein vernünftiges Undervolting das OverdriveNTool sozusagen als eine Vorstufe braucht. Und erst dann den Wattman. Aber alles noch unter Vorbehalt. Ich muss mir die Zusammenhänge noch genauer ansehen.

Der_Korken
2017-12-17, 17:46:35
Gibt es irgendwo einen Vergleichswert, was eine handoptimierte GTX1080 so schafft? Die Vega Liquid liegt ja im Schnitt über alle Games ungefähr auf einer Höhe mit der 1080. Wenn man die Vega jetzt unter 200W bekommt, ohne Leistung zu verlieren, wäre man Perf/W-technisch quasi fast an der 1080 dran. Deswegen würde mich mal ein Duell UV vs UV interessieren, denn die Vega-Karten sind im Auslieferungszustand anscheinend miserabelst konfiguriert. Das Chaos mit den Spannungen und States (bei der Diskussion war ich schon mal dabei) spricht wohl wirklich dafür, dass AMD seinen Boost selber nicht so ganz unter Kontrolle hat.

dildo4u
2017-12-17, 17:50:46
Ich wäre vorsichtig mit solchen Aussagen vorallem wenn er nicht in 4k testet,da fallen Stabilitäts Probleme eher auf.Es ist auch wahrscheinlich das man Vega nur mit DX12 oder Vulkan wirklich voll auslasten kann.

dargo
2017-12-17, 17:53:06
Es ist auch wahrscheinlich das man Vega nur mit DX12 oder Vulkan wirklich voll auslasten kann.
Ist nur falsch wenn du dich dabei ausschließlich auf den Verbrauch beziehst. Ein Witcher 3 "heizt" genauso gut wie ein Wolfenstein 2 oder The Division @DX12. Es liegt also nicht nur an der API sondern welche Bereiche der GPU gefordert werden.

Gibt es irgendwo einen Vergleichswert, was eine handoptimierte GTX1080 so schafft? Die Vega Liquid liegt ja im Schnitt über alle Games ungefähr auf einer Höhe mit der 1080. Wenn man die Vega jetzt unter 200W bekommt, ohne Leistung zu verlieren, wäre man Perf/W-technisch quasi fast an der 1080 dran. Deswegen würde mich mal ein Duell UV vs UV interessieren, denn die Vega-Karten sind im Auslieferungszustand anscheinend miserabelst konfiguriert. Das Chaos mit den Spannungen und States (bei der Diskussion war ich schon mal dabei) spricht wohl wirklich dafür, dass AMD seinen Boost selber nicht so ganz unter Kontrolle hat.
Nun mal langsam... ich kann auch einfach nur Glück bei der GPU-Lotterie gehabt haben. Wie stellst du dir das vor? Soll AMD jetzt jeder GPU andere Parameter verpassen? Was kommt dann bei den Tests raus? Riesige Unterschiede beim Verbrauch trotz gleicher Grafikkarte? Der Shitstorm wäre echt geil. :D Man sucht einfach einen Kompromiss für die gesamte Reihe.

=Floi=
2017-12-17, 17:55:32
PS: Das Ding ist jedenfalls bis ca. 900mV verdammt effizient. :O

lass sie mal meinen, ob sie auch wirklich stabil ist.

Igor TH
2017-12-17, 17:55:35
Bei einem guten Chip kommt man man mit einer 1080, die ordentlich gekühlt läuft, ohne echten Performanceverlust auf ca. 150-160 Watt Leistungsaufnahme für die gesamte Karte, um auf dem Level der 1080 FE zu spielen, wenn diese sich im Limit befindet. Mit einem sehr guten Chip und viel Pusselei sogar noch darunter. Ein Golden Sample der 1070 hatte ich bei 120 Watt. Irrsinn, aber extrem selten.

dildo4u
2017-12-17, 17:55:50
Bei mir crasht DX12 deutlich häufiger wobei ich vermute das es eher was mit Ram Instabilität zu tun hat,The Divsion DX12 ist extrem schwer stabil zu bekommen.

Igor TH
2017-12-17, 17:57:18
The Division ist aber ein guter Test dafür :)

dargo
2017-12-17, 17:58:45
Bei mir crasht DX12 deutlich häufiger wobei ich vermute das es eher was mit Ram Instabilität zu tun hat,The Divsion DX12 ist extrem schwer stabil zu bekommen.
Da würde ich erstmal ansetzen. Check das mal @DDR4-2133, nur als Kontrolle.

Dino-Fossil
2017-12-17, 17:59:59
PS: mir scheint so, dass man für ein vernünftiges Undervolting das OverdriveNTool sozusagen als eine Vorstufe braucht. Und erst dann den Wattman. Aber alles noch unter Vorbehalt. Ich muss mir die Zusammenhänge noch genauer ansehen.

Interessant das alles. Würde nicht ausschließen, dass sich hier die verschiedenen Tools aber ein wenig gegenseitig in die Quere kommen und dann gibt es ja noch deine Vermutung der "ausgehebelten" Telemetrie bei bestimmten Aktionen.

dargo
2017-12-17, 18:02:47
Interessant das alles. Würde nicht ausschließen, dass sich hier die verschiedenen Tools aber ein wenig gegenseitig in die Quere kommen und dann gibt es ja noch deine Vermutung der "ausgehebelten" Telemetrie bei bestimmten Aktionen.
Das Hauptproblem vom Wattman ist, dass man nur Zugriff auf P6 und P7 hat. Man braucht aber mehr für vernünftiges Undervolting. Und dafür ist die "Vorstufe" vom OverdriveNTool genau das Richtige.

Edit:
Richtig geile Sache wenn man endlich unter 1,0V kommt und die Zusammenhänge langsam versteht. =)

Nun bin ich bei 1,5Ghz mit <900mV und die Framerate steigt weiter an. Genau so soll es sein. :up:
https://abload.de/thumb/witcher3_2017_12_17_1g4sm6.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1g4sm6.jpg)

Ob das ganze nun stabil ist bedarf natürlich einer längeren Untersuchung. Ich schau mir das jetzt an. Eigentlich wollte ich Richtung 200-220W Asicpower, da ist also noch sehr viel Luft nach oben. :tongue:

btw.
Um die ganze Testerei zu verkürzen habe ich nun P6 als den höchsten State gesetzt.
https://abload.de/thumb/wattmanacssw.jpg (http://abload.de/image.php?img=wattmanacssw.jpg)

Wie man sehen kann ist der max. Takt nur ein Richtwert für die Telemetrie.

Edit:
Mir fällt gerade ein... für so einen Test müsste ich eigentlich die Freesync Range (aktuell 35-90Hz) erhöhen. Denn es gibt schon öfter mal Stellen wo ich in die 90fps Grenze falle und dann sinkt der Verbrauch noch weiter. :freak:
https://abload.de/thumb/witcher3_2017_12_17_125sz9.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_125sz9.jpg)

Das dürften dann ca. 175-178W für die gesamte Karte sein. X-D

Der_Korken
2017-12-17, 18:55:50
Bei einem guten Chip kommt man man mit einer 1080, die ordentlich gekühlt läuft, ohne echten Performanceverlust auf ca. 150-160 Watt Leistungsaufnahme für die gesamte Karte, um auf dem Level der 1080 FE zu spielen, wenn diese sich im Limit befindet. Mit einem sehr guten Chip und viel Pusselei sogar noch darunter. Ein Golden Sample der 1070 hatte ich bei 120 Watt. Irrsinn, aber extrem selten.

Danke. Wenn man also 150W für die 1080 und 195W für die Vega Liquid rechnet, wäre der Rückstand von Vega zu Pascal "nur" noch 30% bei Perf/W. Wobei der Vergleich etwas hinkt, da AMD teuren aber sparsameren HBM2 verwendet und die niedrige Temperatur durch die AiO sicher auch noch ein paar Wättchen ausmacht.

@dargo: Klar kann man dein Sample nicht verallgemeinern, aber es gibt nicht gerade viele, die ihre Hardware so akribisch testen. Die meisten knallen wahrscheinlich einfach das dickste BIOS mit 350W rein und verschwenden keinen Gedanken daran, ob das überhaupt Sinn ergibt.

fondness
2017-12-17, 19:18:01
Die ISA-Instructions für Mining scheinen sich bezahlt zu machen?
http://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-ReLive-Edition-Beta-for-Blockchain-Compute-Release-Notes.aspx
https://wccftech.com/amd-rx-vega-64-mining-performance-blows-away-titan-v-xmr-monero/

Fast die doppelte XMR Monero Performance wie mit dem regulären Gaming Treiber.

hmmm
2017-12-17, 19:20:16
Um eine Karte möglichst objektiv testen zu können, was sie ohne jegliche äußere Limitierungen zu leisten imstande sein könnte, muss ich exakt diese negativen Einflüsse, zumindest so weit es mir möglich ist, auch beseitigen. Ich kann mir auch geschmeidig selbst in die Tasche lügen und für jedes Testobjekt das passende Szenario hinkonstruieren. Alles andere sind Tests eines möglichst passenden und in sich stimmigen Gesamtsystems, Analyseartikel zu Treibern und CPU-Overhead usw. Aber wenn, dann muss man dies schon so kennzeichnen und nicht die offensichtlichen und völlig unpassenden Limits im Nachhinein sogar noch zum Feature erheben.
Die "äußere Limitierungen" kommen doch schon von DX11, dessen Thread schwäche (die maßgebend für die existenz von DX12 ist) du damit nur immer weiter nach hinten schiebst.
Ungeachtet dessen sind die Messungen mit schwächeren CPUs mindestens so relevant wie die deinen und eben keine "makulatur", man muss sie eben nur zu deuten wissen.

dildo4u
2017-12-17, 19:21:46
Also wird man die nie wieder zu kaufen bekommen wenn sich das rumspricht,oder es hat sich schon und deshalb hat Mindfactory und Caseking keine mehr.

hmmm
2017-12-17, 19:26:53
Edit:
Mir fällt gerade ein... für so einen Test müsste ich eigentlich die Freesync Range (aktuell 35-90Hz) erhöhen. Denn es gibt schon öfter mal Stellen wo ich in die 90fps Grenze falle und dann sinkt der Verbrauch noch weiter. :freak:

Zum Teile ist eine Vega56 bei max 60FPS so effizient wie eine gtx1070, die Vega profitiert also überdurchschnittlich, im vergleich zu nvidia, von der FPS Begrenzung.

akuji13
2017-12-17, 19:28:34
@dargo

Warum nutzt du den Wattman für die Erhöhung des PT?

dargo
2017-12-17, 19:32:33
So... meine gewohnten 1,6Ghz habe ich wieder, bei immer noch sehr angenehmen 182W Asicpower. :D
https://abload.de/thumb/witcher3_2017_12_17_1vcs9v.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_1vcs9v.jpg)

https://abload.de/img/ntool_6vlslb.jpg

Aktuell also 17% weniger Stromverbrauch bei 6,5% mehr Leistung gegenüber Default 220W Asicpower.

Jetzt heißt es zocken, zocken, zocken bis die Birne qualmt. ;D

Edit:
HBM2 auf glatte 1000Mhz hochziehen gibt dann glatte 100fps und somit knapp 9% mehr Leistung gegenüber Default. :tongue:
https://abload.de/thumb/witcher3_2017_12_17_2sms3d.jpg (http://abload.de/image.php?img=witcher3_2017_12_17_2sms3d.jpg)

Zum Teile ist eine Vega56 bei max 60FPS so effizient wie eine gtx1070, die Vega profitiert also überdurchschnittlich, im vergleich zu nvidia, von der FPS Begrenzung.
90fps ist noch ne ganz andere Liga. Bei nur 60fps langweilt sich meine Karte zu Tode. ;)

@dargo

Warum nutzt du den Wattman für die Erhöhung des PT?
Tue ich doch gar nicht... mehr. :confused:

fondness
2017-12-17, 19:34:43
Zum Teile ist eine Vega56 bei max 60FPS so effizient wie eine gtx1070, die Vega profitiert also überdurchschnittlich, im vergleich zu nvidia, von der FPS Begrenzung.

Die Leistungsaufnahme skaliert bei Vega weit stärker wie bei NV. Wenn man übertaktet steigt die Leistungsaufnahme stärker, wenn man untertaktet sinkt sie stärker. Raja hat das auch mal extra angesprochen im Hinblick auf mobile Lösungen.

Igor TH
2017-12-17, 19:41:16
Die "äußere Limitierungen" kommen doch schon von DX11, dessen Thread schwäche (die maßgebend für die existenz von DX12 ist) du damit nur immer weiter nach hinten schiebst.
Ungeachtet dessen sind die Messungen mit schwächeren CPUs mindestens so relevant wie die deinen und eben keine "makulatur", man muss sie eben nur zu deuten wissen.Bitte alle Posts lesen. Ich wichte auch zwischen DX11 und DX12. Nur dass ich auch unter DX12 mit dem alten 6-Kerner und Threadripper ins Leere laufe. Skalierungen über verschiedene CPUs gehören in ein Special und nicht in die Ermittlung der Maximalperformance. Das ist wie mit Fotos: kleiner (und damit nominell schlechter) machen kann man sie immer. Nur sehe ich z.B. den Unterschied meiner 36,5 MPix RAW Datei zu einem JPEG mit 2560 x 1709 Pixeln nur am großen UHD-Eizo, nicht aber an einem preiswerteren WQHD Gaming-TFT. Trotzdem wird ein Kameratest wohl kaum mit einem JPEG gemacht, auch wenn das wohl eher die breite Masse nutzt.

dargo
2017-12-17, 23:20:18
Das ist auch geil. :D


https://abload.de/img/newcolossus_x64vk_201qos58.jpg

https://abload.de/img/newcolossus_x64vk_201ktsfi.jpg

In der zweiten Szene bin ich trotz weniger GPU-Takt 6% schneller bei 11% weniger Verbrauch als mit dem UV von Igor vorher.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11577060&postcount=7217

Ca. 2% gehen auch Kosten von HBM2 @1Ghz. Undervolting macht jetzt mit Vega noch mehr Fun. =)

PS: beschränke ich mich auf 1,5Ghz kann ich das Teil tatsächlich auf 200W drücken (gesamte Karte). Und das beste... das Ding wird nicht langsamer als mit Defaultsettings.

scully1234
2017-12-17, 23:24:10
Nur sehe ich z.B. den Unterschied meiner 36,5 MPix RAW Datei zu einem JPEG mit 2560 x 1709 Pixeln nur am großen UHD-Eizo, nicht aber an einem preiswerteren WQHD Gaming-TFT. Trotzdem wird ein Kameratest wohl kaum mit einem JPEG gemacht, auch wenn das wohl eher die breite Masse nutzt.

originell mal keine Auto Allegorie=)

Thunder99
2017-12-17, 23:30:02
Vega muss ja Fluch und Segen zugleich sein... . Extrem skalierbar im positiven wie negativem Sinn. Extrem hui wenn man sich viel Mühe macht und extrem pfui beim maximalen übertakten :freak:

dargo
2017-12-17, 23:40:08
Maximales Übertakten ist bei jeder Karte hirnverbrannt, auch Pascal. Gebe mal GP102 +50% PT (das erlaubt AMD nämlich per Treiber) sofern du so ein Bios überhaupt findest und takte die GPU bis zur Kotzgrenze. Sollte der Chip vorher beim Takt nicht limitieren erlebst du dein blaues Wunder. ;)

Darkseth
2017-12-17, 23:43:29
Bei einem guten Chip kommt man man mit einer 1080, die ordentlich gekühlt läuft, ohne echten Performanceverlust auf ca. 150-160 Watt Leistungsaufnahme für die gesamte Karte, um auf dem Level der 1080 FE zu spielen, wenn diese sich im Limit befindet. Mit einem sehr guten Chip und viel Pusselei sogar noch darunter. Ein Golden Sample der 1070 hatte ich bei 120 Watt. Irrsinn, aber extrem selten.
Hab ich dann etwa nen sehr guten Chip...?! Oder mit welchen Werten hast du den stromverbrauch? Man kann ja bis 0.8v runter.

Bei OC schaff ich aber keine 2100 Mhz (will ich gar nicht, weil ineffizient. Aber prinzipiell)

Alles in allem krieg ich meine 1080 aber auf 130w~ etwa, und spiel auf nem Niveau ne ecke über 1080 FE niveau. Siehe weiter unten mein 0.800 Volt profil ^^

Gibt es irgendwo einen Vergleichswert, was eine handoptimierte GTX1080 so schafft? Die Vega Liquid liegt ja im Schnitt über alle Games ungefähr auf einer Höhe mit der 1080. Wenn man die Vega jetzt unter 200W bekommt, ohne Leistung zu verlieren, wäre man Perf/W-technisch quasi fast an der 1080 dran. Deswegen würde mich mal ein Duell UV vs UV interessieren, denn die Vega-Karten sind im Auslieferungszustand anscheinend miserabelst konfiguriert. Das Chaos mit den Spannungen und States (bei der Diskussion war ich schon mal dabei) spricht wohl wirklich dafür, dass AMD seinen Boost selber nicht so ganz unter Kontrolle hat.
Ich kann evtl was liefern.
Hab eine MSI Gaming X 1080. Die allerdings etwas "stromschluckender" ist, als andere 1080er.
Aber erstmal hier die Werte, alles nach Aufzeizen / einpendeln in Witcher 3, WQHD @ Ultra, an einer bestimmten Stelle (welche egal, ist aber in jedem der folgenden Tests die selbe).
Ist evtl nicht das perfekteste szenario, aber es geht ja um die ersparnis verglichen zu stock, bzw verschiedenen UV stufen.


Stock:
- 1.031v (fängt bei 1.043v an, dropt dann. Wegen temperatur wohl)
- 1962 Mhz Core Clock
- 5008 Memory Clock (Bei allen anderen manuellen Profilen nutze ich ein +500 mhz OC. Läuft stabil, erhöht stromaufnahme nur etwas.)
- 76°C~
- 71 fps~

220w stromverbrauch (Laut HwInfo64), manchmal drops auf 207-215w, mal peaks auf 235w~.
Gesamtsystem (Strommessgerät vor dem Netzteil): 350w~, manchmal peaks auf 355-360w.

@ UHD: 230w~, und ab und an kratzt es an den 240w ran (PT ist 240%, bei 121% ist es 291w)


0.800 Volt:
- 0.800v
- 1811 Mhz Core Clock
- 5508 Mhz Memory Clock (Läuft super stabil, kein Grund hier keine +500 Mhz zu machen, steigert auch die Leistung ordentlich. Bedenkt das aber, dass das wohl auch paar Watt mehr zieht)
- 65°C~
- 67-69 fps (SO ein deutlicher Unterschied in temperatur und stromverbrauch... so wenig in fps...)

130-135w stromverbrauch
gesamtsystem: 235-240w~

In UHD mittels DSR steigt der stromverbrauch auf 150~ Watt, und die temperatur auf 68°C.

Ist aber definitiv ÜBER einer 1080 Founders (welche nicht nur den speicher bei 5008 Mhz hat, sondern sich aufgrund des temperatur-limits bei 1610-1660 Mhz~ einpendeln sollte?!


0.850 Volt:
- 0.850v
- 1886 Mhz Core Clock
- 5508 Mhz Memory clock
- 69-70°C
- 71~ fps

155-160w stromverbrauch~
gesamtsystem: 265w

0.900 Volt:
- 0.900v
- 1962 Mhz Core Clock
- 5508 Mhz Memory Clock
- 71-72°C
- 74 fps

170w Stromverbrauch
gesamtsystem: 285w~


In UHD ist das ganze entsprechend höher, um ein paar °C, bzw einige Watt.

Aber wie gesagt, es ging um die Prozentuale Ersparnis, und den damit verbundenen Leistungsverlust. ^^

Igor TH
2017-12-17, 23:56:36
Mit was misst Du die Leistungsaufnahme der Karte?

Dino-Fossil
2017-12-18, 00:24:37
Vega muss ja Fluch und Segen zugleich sein... . Extrem skalierbar im positiven wie negativem Sinn. Extrem hui wenn man sich viel Mühe macht und extrem pfui beim maximalen übertakten :freak:

Vega ist (imho) eine unausgegorene Beta, auch wenn mir da zumindest dargo widerspricht. ;)

Tesseract
2017-12-18, 00:33:44
Gebe mal GP102 +50% PT (das erlaubt AMD nämlich per Treiber) sofern du so ein Bios überhaupt findest und takte die GPU bis zur Kotzgrenze. Sollte der Chip vorher beim Takt nicht limitieren erlebst du dein blaues Wunder. ;)

viele custom GP102 sind ab werk nur ~1-3% vom maximaltakt entfernt und overvolting bringt bei pascal kaum was. oft limitiert der maximaltakt schon bevor man überhaupt 100% PT (320W) erreicht - von furmark und ähnlichen spezialfällen mal abgesehen.

dargo
2017-12-18, 08:19:13
Hat NV da ne Taktmauer implementiert? Ich kann mich noch schwach daran erinnern, dass vor dem Pascal Release 2,5Ghz gezeigt wurden.

pilzsammler2002
2017-12-18, 08:24:52
Hat NV da ne Taktmauer implementiert? Ich kann mich noch schwach daran erinnern, dass vor dem Pascal Release 2,5Ghz gezeigt wurden.
Ne, es wurde doch immer nur gesagt >2ghz ist mit jedem Chip drin. Aber 2,5 wäre mir neu... :D

dargo
2017-12-18, 08:50:33
Vega ist (imho) eine unausgegorene Beta, auch wenn mir da zumindest dargo widerspricht. ;)
Man muss das Teil auch erstmal richtig kennen lernen. ;) Selbst Igor wusste nicht wie er unter 1,0V kommt. Ich könnte mit dir wetten, dass er nach meiner Anleitung jetzt drunter kommt.

btw.
Versuche mich weiter Richtung 220W Asicpower zu nähern.
https://abload.de/img/newcolossus_x64vk_201lesgh.jpg

https://abload.de/img/newcolossus_x64vk_2019xsb6.jpg
Jetzt bin ich sogar etwas schneller als vor dem Spielpatch mit Async Compute off. :tongue: So wie es aussieht könnten die 1,7Ghz noch in ~230-240W Asicpower rein passen. Sinnvoll ist das dann wohl aber kaum. Das schöne an den <1,0V ist jetzt, dass sich jeder seine eigene Vega "Nano" erstellen kann. :D Und die ist nur unwesentlich langsamer.

Edit:
Mal ein kleiner Vergleich zu der kleinsten Spannung die ich bisher getestet habe (wenn man will kann man auch Richtung 800mV gehen).

https://abload.de/img/newcolossus_x64vk_201h7s7d.jpg

https://abload.de/img/newcolossus_x64vk_201dpsz1.jpg

6% weniger Leistung bei 29% weniger Verbrauch. Das dürften jetzt ca. 195W für die gesamte Karte sein. Eigentlich total behämmert die 1,6+Ghz anzupeilen. Nur... für ~1,5Ghz @UV ist die AIO totaler Overkill. :D Bei einer Custom-Lukü würde ich eher 1,5Ghz (max. 1,55Ghz) beim UV anpeilen und sich über eine extrem leise Karte freuen, auch ohne einen 1,6kg Klotz. ;)

Mit 1,4Ghz hat man eine sparsamere Nano. :tongue:

https://abload.de/img/newcolossus_x64vk_201m9sec.jpg

https://abload.de/img/newcolossus_x64vk_2019isx6.jpg

9% weniger Leistung bei 39% weniger Verbrauch. ;D

Grundkurs
2017-12-18, 09:43:42
9% weniger Leistung bei 39% weniger Verbrauch. ;D
im Umkehrschluss erkauft man sich also 9 % mehr Leistung für knapp 40% höheren Verbrauch? Spricht ja nicht gerade für die Karte....

dargo
2017-12-18, 09:48:41
Nö... gegenüber Defaultsettings sind es eher 2-3% mehr Leistung bei 39% mehr Verbrauch. Brechstange halt. Wobei man dabei natürlich nicht vergessen sollte, dass UV immer von der Chipgüte abhängig ist und meine GPU nicht für alle repräsentativ sein kann. Außerdem... nur weil meine Games stabil laufen heißt es noch lange nicht, dass die Karte unter allen Bedingungen mit den UV-Settings stabil ist. Die IHVs haben da sicherlich ganz andere Ansprüche als paar schnöde Games. ;)

Der_Korken
2017-12-18, 09:54:34
Ich kann evtl was liefern.
Hab eine MSI Gaming X 1080. Die allerdings etwas "stromschluckender" ist, als andere 1080er.
Aber erstmal hier die Werte, alles nach Aufzeizen / einpendeln in Witcher 3, WQHD @ Ultra, an einer bestimmten Stelle (welche egal, ist aber in jedem der folgenden Tests die selbe).
Ist evtl nicht das perfekteste szenario, aber es geht ja um die ersparnis verglichen zu stock, bzw verschiedenen UV stufen.

[...]

130-135w stromverbrauch
gesamtsystem: 235-240w~

In UHD mittels DSR steigt der stromverbrauch auf 150~ Watt, und die temperatur auf 68°C.

Danke für die Werte. Die 1080 hat also auch einiges an Potenzial nach unten beim Verbrauch, vielleicht so bis 140W. Damit relativiert sich das UV bei Vega wieder ein bisschen.


Mal ein kleiner Vergleich zu der kleinsten Spannung die ich bisher getestet habe (wenn man will kann man auch Richtung 800mV gehen).

6% weniger Leistung bei 29% weniger Verbrauch. Das dürften jetzt ca. 195W für die gesamte Karte sein. Eigentlich total behämmert die 1,6+Ghz anzupeilen. Nur... für ~1,5Ghz @UV ist die AIO totaler Overkill. :D Bei einer Custom-Lukü würde ich eher 1,5Ghz (max. 1,55Ghz) beim UV anpeilen und sich über eine extrem leise Karte freuen, auch ohne einen 1,6kg Klotz. ;)

Läuft das alles noch stabil @862mV? Das ist schon Wahnsinn, was Vega da ursprünglich an Spannung draufhaut. Die Air hat bei 1500Mhz afaik schon an die 1100mV :freak:.

Zergra
2017-12-18, 10:18:58
Die Air hat bei 1500Mhz afaik schon an die 1100mV :freak:.
Das ganze geht auch nur bei niedriger Temperatur. Wenn die Karte zu warm wird, reichen die 860mV auch nicht mehr. Daher ist die AIR auch eher unbrauchbar, da sinnvolle Temperaturen kaum angenehm erreichbar sind. Bei den aktuellen Preisen würde ich eine normale AIR verscheuern und mir dafür eine Custom kaufen, oder gleich einen FC-Block drauf schrauben.

Loeschzwerg
2017-12-18, 10:28:55
Die 860mV knallen gut gekühlt mit ziemlicher Sicherheit ebenfalls in gewissen Szenarien oder bei Lastwechseln in denen sich die Logik der Karte verhaspelt.

dargo
2017-12-18, 10:34:58
Läuft das alles noch stabil @862mV?

Bis jetzt ja. Braucht natürlich einer längeren Untersuchung. Frag mich das in ein paar Tagen nochmal. ;) Wobei ich mich aktuell noch nicht entscheiden kann was ich nun nehme. ;D Ich glaube ich schaue mir an was die Liquid mit Defaultsettings bei 220W Asic und 264W Asicpower an Frames schafft und dann mache ich mich ans UV um die gleiche Performance bei wesentlich weniger Verbrauch zu erreichen. Sonst werde ich nie fertig. :usweet:


Das ist schon Wahnsinn, was Vega da ursprünglich an Spannung draufhaut. Die Air hat bei 1500Mhz afaik schon an die 1100mV :freak:.
Default mit Undervolting zu vergleichen war noch nie sinnvoll. ;)

Das ganze geht auch nur bei niedriger Temperatur.
Naja... wenn man die Air-Version auf ~130W Asicpower drückt kann ich mir kaum vorstellen, dass der Referenzkühler immer noch damit überfordert ist. Müsste mal einer testen. Das sind immerhin ca. 120W weniger bei ganzer Karte!

Edit:
Noch ne Kleinigkeit... ich hatte mich vorher gewundert warum ich mit Defaultsettings trotz Bios 1 anstatt 264W Asicpower nur 220W Asicpower habe. Man muss für die Defauts von AMD im PPTable-Editor auf "Delete" klicken.

https://www2.pic-upload.de/img/34492471/PP_Editor.jpg

Erst damit wird alles auf Default gesetzt.

Loeschzwerg
2017-12-18, 11:06:53
Müsste mal einer testen.

Schon 950mV schmieren mir je nach Spiel ab. Der ComputeMark läuft und der Takt bleibt dort über 1500MHz.

dargo
2017-12-18, 11:12:29
Dann ist dein Takt bei P6 bzw. P7 zu hoch der als Richtwert dient. ;)

Loeschzwerg
2017-12-18, 11:17:19
Hm... muss ich dann wirklich nochmal testen :)

dargo
2017-12-18, 11:19:19
Nimm am besten P6 als max. Pstate, dann bist du schneller mit austüfteln fertig.

@Loeschzwerg
Als kleine Arbeitshilfe... der max. P-State dient wie gesagt nur als Richtwert. Wenn du die Spannungen änderst variiert dann beim gleichen Richtwert auch der real anliegende Takt.

Mal ein Beispiel...

Bei 1,0V und max. P-State von 1650Mhz hast du real 1500Mhz anliegen. Nimmst du jetzt 950mV liegen paar Mhz weniger an. Nimmst du 1050mV liegen paar Mhz mehr an. Jedesmal wenn du also die Spannung änderst musst du den realen Takt vom Neuen ausloten. Mein Tipp... wenn das Game freezed probiere beim Richtwert 20Mhz weniger.

Th3o
2017-12-18, 11:22:33
Ich habe eine Frage bzgl. FreeSync, da hier viele AMD Experten versammelt sind, hoffe ich, dass es nicht zu sehr OffTopic ist.
Da ich mir demnächst eine Vega 64 Custom kaufen werde, bin ich am Überlegen einen FreeSync Monitor zu kaufen. Es soll auf jedem Fall ein 34" mit 21:9 und 3440x1440 sein. Da gibt es ein gerades Model von LG mit 60Hz Bildwiederholungsfrequenz und 40-60Hz FreeSync Range für ca. 560€, auf der anderen Seite die curved Modele von LG oder BenQ mit 100Hz Bildwiederholungsfrequenz und 48-100Hz FreeSync Range für ca. 750€. Der Bildschirm soll beruflich zum Programmieren und in der Freizeit zum Spielen (meistens RPGs) benutzt werden. Ist ein curved Monitor wirklich praktisch/sinnvoll beim Programmieren? Ist die 40-60Hz FreeSync Range ausreichend beim Spielen?

dargo
2017-12-18, 11:29:12
Ist die 40-60Hz FreeSync Range ausreichend beim Spielen?
Tue dir selbst einen Gefallen und kauf nicht diesen Quatsch. Kaufe einen Bildschirm mit LFC! Am besten mit Faktor >2,5. Angeblich soll LFC auch mit Faktor 2 gehen, ich habe damit aber keine Erfahrungen gesammelt und kann es deswegen nicht empfehlen. Es gibt ja einige Bildschirme mit 40-144Hz, das wäre meine Empfehlung. Falls es unbedingt ein 21:9 1440p Bildschirm sein muss warte lieber bis die DP1.3/1.4 mit 144+Hz kommen.

Thomas Gräf
2017-12-18, 11:31:57
Also ich hab zwei 21:9 Monitore. Einen geraden und einen krummen.
Den krummen könnt ich hassen dafür das er krumm ist.:freak:
Niewieder kauf ich etwas was ge-curved ist.
Es ist auch ein 34'er und man sieht jede gerade Linie nicht als eine solche, sondern als eine "krumme". Es ist einfach nur hässlich.
Gibt es eigentlich im www irgendwo jemanden der sich für solch Monitor einen geraden Rahmen selbst gebaut hat?

Loeschzwerg
2017-12-18, 11:34:40
Nimm am besten P6 als max. Pstate, dann bist du schneller mit austüfteln fertig.

@Loeschzwerg
Als kleine Arbeitshilfe... der max. P-State dient wie gesagt nur als Richtwert. Wenn du die Spannungen änderst variiert dann beim gleichen Richtwert auch der real anliegende Takt.

Mal ein Beispiel...

Bei 1,0V und max. P-State von 1650Mhz hast du real 1500Mhz anliegen. Nimmst du jetzt 950mV liegen paar Mhz weniger an. Nimmst du 1050mV liegen paar Mhz mehr an. Jedesmal wenn du also die Spannung änderst musst du den realen Takt vom Neuen ausloten. Mein Tipp... wenn das Game freezed probiere beim Richtwert 20Mhz weniger.

Danke, schau ich mir an :)

Th3o
2017-12-18, 11:37:58
Also ich hab zwei 21:9 Monitore. Einen geraden und einen krummen.
Den krummen könnt ich hassen dafür das er krumm ist.:freak:
Niewieder kauf ich etwas was ge-curved ist.
Es ist auch ein 34'er und man sieht jede gerade Linie nicht als eine solche, sondern als eine "krumme". Es ist einfach nur hässlich.
Gibt es eigentlich im www irgendwo jemanden der sich für solch Monitor einen geraden Rahmen selbst gebaut hat?
Das sind auch meine Bedenken bzgl. curved. Leider sind die neueren Modelle alle curved, ist wieder so ein Trend :(

pilzsammler2002
2017-12-18, 11:38:52
Also ich habe nen LG 34 Zoll mit Freesync ( LG 34UC79G-B ) und der Range 50-144hz...
Auflösung = 2560x1080 (nur 3800 curved also sehr dezent)
Reicht vollkommen aus und läuft schon mit ner 470 Nitro+ sehr gut. Mit Vega Könntest den Freesync rahmen voll ausnutzen (Chill ist so ein geniales feature mit freesync) :freak:

Fast alle Games die ich habe laufen da vernünftig drauf, auf RPGs bezogen wären das, Witcher 3, Divinity, Torchlight II etc. Keine probs mit 21:9 :biggrin:

dargo
2017-12-18, 11:40:55
Habe jetzt die Defaultwerte der Liquid mit Bios 1.

https://abload.de/img/newcolossus_x64vk_201nvslp.jpg

https://abload.de/img/newcolossus_x64vk_201h8s1n.jpg

https://abload.de/img/witcher3_2017_12_18_14zsh1.jpg

Wenn man sich das hier anschaut...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11579748&postcount=7571

werde ich wohl ca. 880mV bei etwa 170W Asicpower für die gleiche Performance brauchen. Eigentlich Wahnsinn... das wären ca. 125W weniger bei der gesamten Karte. X-D

Dino-Fossil
2017-12-18, 11:56:50
Man muss das Teil auch erstmal richtig kennen lernen. ;) Selbst Igor wusste nicht wie er unter 1,0V kommt. Ich könnte mit dir wetten, dass er nach meiner Anleitung jetzt drunter kommt.

Ich fürchte, dass gilt auch für AMD... :D

Ne ernsthaft - das sind interessante Ergebnisse, die eben wieder die Vermutung aufkommen lassen, das AMD mit Vega richtig ordentlich Potential verschenkt hat, weil die Karten zu früh (im Sinne der Marktreife, ansonsten war man ja doch eher spät dran) auf den Markt kamen.
Taktpotential, PT, die richtigen Einstellungen für die P-States, mglw. die gesamte Telemetrie hätte noch der einen oder anderen Überarbeitung bedurft (meine subjektive Meinung).

Natürlich sollte man aber erstmal abwarten, wie stabil das bei dir bleibt und v.a. auch ein paar andere Exemplare testen.
Evtl. hattest du eben unglaubliches Glück in der Chip-Lotterie und deine WaKü trägt bestimmt das ihre dazu bei.

dargo
2017-12-18, 12:13:29
Ne ernsthaft - das sind interessante Ergebnisse, die eben wieder die Vermutung aufkommen lassen, das AMD mit Vega richtig ordentlich Potential verschenkt hat, weil die Karten zu früh (im Sinne der Marktreife, ansonsten war man ja doch eher spät dran) auf den Markt kamen.
Taktpotential, PT, die richtigen Einstellungen für die P-States, mglw. die gesamte Telemetrie hätte noch der einen oder anderen Überarbeitung bedurft (meine subjektive Meinung).

Nochmal meine Frage... wie stellt ihr euch das bitte vor? Nehmen wir an ich habe eine der besseren GPUs erwischt. Ich werfe einfach mal eine Zahl von 30% in den Raum. Was soll deiner Meinung nach AMD mit den restlichen 70% der GPUs machen? In den Müll werfen? Als Vega56 verschleudern? Das wäre Selbstmord. Denkt einfach etwas weiter nach. :)

Der_Korken
2017-12-18, 12:19:21
Ich frage mich einfach, ob die Spannungen nicht viel zu pessimistisch gesetzt wurden. Ich habe meine 470 bei Default-Takt von 1137 auf 1000mV absenken können und habe schon gedacht, dass das ziemlich viel wäre. Die geringe GPU-Temperatur der AiO macht natürlich auch nochmal viel aus, aber dann könnte man fragen, warum AMD den Boost nicht so konfiguriert, dass er bei geringen Temps auch automatisch geringere Spannungen anlegt. Ich bin der Ansicht, man hätte die V64 Air ohne Leistungsverluste in 225W packen können mit mehr Sorgfalt und Tuning.

Megamember
2017-12-18, 12:20:42
Nochmal meine Frage... wie stellt ihr euch das bitte vor? Nehmen wir an ich habe eine der besseren GPUs erwischt. Ich werfe einfach mal eine Zahl von 30% in den Raum. Was soll deiner Meinung nach AMD mit den restlichen 70% der GPUs machen? In den Müll werfen? Als Vega56 verschleudern? Das wäre Selbstmord. Denkt einfach etwas weiter nach. :)

Häh, wieso sollten sie das machen, ist doch überall so das es gute und schlechte Chips gibt. Meine 1070 macht die 2050MHZ auch mit 0,95V, manche packen das nichtmal mit max. Spannung. Viel kommt eben auch von der Wakü.

Dino-Fossil
2017-12-18, 12:27:33
Nochmal meine Frage... wie stellt ihr euch das bitte vor? Nehmen wir an ich habe eine der besseren GPUs erwischt.

Weswegen ich ja selbst geschrieben habe:
Natürlich sollte man aber erstmal abwarten, wie stabil das bei dir bleibt und v.a. auch ein paar andere Exemplare testen.
Evtl. hattest du eben unglaubliches Glück in der Chip-Lotterie und deine WaKü trägt bestimmt das ihre dazu bei.

Nur ist AMD bei Vega so dermaßen mit der Brechstange ran, es wäre schon verwunderlich, wenn da nicht gehörig Potential verschenkt wurde, selbst wenn man davon ausgeht, dass du einen guten Chip bekommen hast.
Die geringen Performanceunterschiede relativ zu den Unterschieden in der Leistungsaufnahme selbst mit den verschiedenen Bios-Varianten auf der Referenz-Karte zeigen doch ebenso in die Richtung.

Raff
2017-12-18, 12:33:27
Evtl. hattest du eben unglaubliches Glück in der Chip-Lotterie und deine WaKü trägt bestimmt das ihre dazu bei.

This. Mit einer referenzluftgekühlten Karte ist das alles undenkbar und selbst bei Custom-Designs muss/kann/sollte man sich über 1.600 MHz mit gesenkter Spannung (also der Kombination) freuen.

MfG,
Raff

dargo
2017-12-18, 12:39:31
Häh, wieso sollten sie das machen, ist doch überall so das es gute und schlechte Chips gibt. Meine 1070 macht die 2050MHZ auch mit 0,95V, manche packen das nichtmal mit max. Spannung.
Mir brauchst du das nicht erklären sondern Dino. ;)

btw.
Ich habs jetzt endlich, gleiche bis minimal bessere Performance wie RX Vega64 Liquid bei ca. 36% weniger Verbrauch was ca. 125W weniger für die gesamte Karte bedeutet. Bitte dabei nicht vergessen, dass ich hier als Basis das Bios 1 der Liquid mit ~345W nehme.

https://abload.de/img/newcolossus_x64vk_20120shs.jpg

https://abload.de/img/newcolossus_x64vk_201jfsqw.jpg

https://abload.de/img/witcher3_2017_12_18_16isyl.jpg

Die ~170W Asicpower sind für die AIO schon fast ne Beleidigung. ;D Wobei... ich könnte die Lüftersteuerung wieder anpassen. Mit max. 1000RPM quasi eine unhörbare Vega und immer noch unter 60°C auf Dauer. :ulol:

PS: jetzt fehlt nur noch der letzte Feinschliff. Sprich... entweder 10-15mV runter oder Takt etwas drauf. Wenn das nicht stabil sein sollte dann halt 10-15mV rauf, macht den Braten auch nicht mehr fett.

Hier die aktuellen Daten.
https://abload.de/img/ntool_72qslo.jpg

Sehe gerade P1 GPU hätte ich auch auf 875mV setzen können. P1 GPU Vcore = P2 Speichercontroller.


https://abload.de/img/wattman_1c7s89.jpg

Meine Vegas häufen sich an. :D
https://abload.de/img/zwischenablage06t3sg1.jpg

Zergra
2017-12-18, 12:45:28
@Dargo welches PT nutzt du nun? Bei Wattman stehen 0% und bei Editor hast du 50%?

dargo
2017-12-18, 12:50:28
@Zerga

PT ist 0%. Die 50% PT vom PPTable-Editor sind max. möglich.


Nur ist AMD bei Vega so dermaßen mit der Brechstange ran, es wäre schon verwunderlich, wenn da nicht gehörig Potential verschenkt wurde, selbst wenn man davon ausgeht, dass du einen guten Chip bekommen hast.

Das hatte ich schon vor gefühlt 50 Seiten gesagt, wir drehen uns im Kreis. :) Weniger Takt bedeutet immer weniger Spannung und somit weniger Verbrauch. Letzteres wirkt sich noch wesentlich stärker auf den Verbrauch aus.

Thunder99
2017-12-18, 12:51:17
Maximales Übertakten ist bei jeder Karte hirnverbrannt, auch Pascal. Gebe mal GP102 +50% PT (das erlaubt AMD nämlich per Treiber) sofern du so ein Bios überhaupt findest und takte die GPU bis zur Kotzgrenze. Sollte der Chip vorher beim Takt nicht limitieren erlebst du dein blaues Wunder. ;)
Naja, bisher hat bei AMD das PT einen höheren Takt verhindert. Bei Nvidia bei Karten mit ausreichend hohem PT der Chip. Meine kann ich auf +50 stellen, hab aber die Karte noch nicht auf OC getestet. Die Default 250W sind zu wenig für das freie Boosten (meistens klebe ich an den 100%).

Sapphire hat ja eine Karte kreiert welche wirklich 3x8 Pin brauchen kann :freak:

Hübie
2017-12-18, 12:57:48
Wenn Interesse besteht verwurste ich das gerne mal in eine Tabelle und generiere einen Graphen. Dazu wären vor allem mehrere Proben hilfreich (Loeschzwerg? Raff? :D)

yamamoto_dc
2017-12-18, 13:09:48
Tue dir selbst einen Gefallen und kauf nicht diesen Quatsch. Kaufe einen Bildschirm mit LFC! Am besten mit Faktor >2,5. Angeblich soll LFC auch mit Faktor 2 gehen, ich habe damit aber keine Erfahrungen gesammelt und kann es deswegen nicht empfehlen. Es gibt ja einige Bildschirme mit 40-144Hz, das wäre meine Empfehlung. Falls es unbedingt ein 21:9 1440p Bildschirm sein muss warte lieber bis die DP1.3/1.4 mit 144+Hz kommen.

Ich komme mit der Freesync-Range von 40-60Hz ganz gut klar, ist aber wohl eine Frage des Anspruchs. Ich möchte jedenfalls nicht mehr auf 4K-Auflösung verzichten, zum Spielen reicht mir dagegen Full-HD aus, was auf einem 4K ja gut skaliert.

Zergra
2017-12-18, 13:23:45
Naja... wenn man die Air-Version auf ~130W Asicpower drückt kann ich mir kaum vorstellen, dass der Referenzkühler immer noch damit überfordert ist. Müsste mal einer testen. Das sind immerhin ca. 120W weniger bei ganzer Karte!

Grundsätzlich geht das auch, trotzdem bleibt die Drehzahl einem Bereich der für mich nicht erträglich ist. Die Karte muss eben bei 60-70°C bleiben, sonst wird das ganze sehr schnell instabil. Je weniger desto besser.

Ich werde meinen PC erst nach dem Winterurlaub auf die WaKü umbauen, daher Mitte Januar.

Th3o
2017-12-18, 13:36:17
Ich komme mit der Freesync-Range von 40-60Hz ganz gut klar, ist aber wohl eine Frage des Anspruchs. Ich möchte jedenfalls nicht mehr auf 4K-Auflösung verzichten, zum Spielen reicht mir dagegen Full-HD aus, was auf einem 4K ja gut skaliert.
Welchen Monitor hast Du?

Dino-Fossil
2017-12-18, 13:46:17
Das hatte ich schon vor gefühlt 50 Seiten gesagt, wir drehen uns im Kreis. :) Weniger Takt bedeutet immer weniger Spannung und somit weniger Verbrauch. Letzteres wirkt sich noch wesentlich stärker auf den Verbrauch aus.

Also stimmst du mir ja prinzipiell zu, legst aber offenbar großen Wert darauf, dass man das nicht so sagen sollte. :tongue: ;)

yamamoto_dc
2017-12-18, 14:19:16
Welchen Monitor hast Du?


Samsung U24E590D 59,94 cm (23,6 Zoll)

Ist schon zwei Jahre alt, mittlerweile gibt es sicherlich besseres, ich bin aber zufrieden. Ich kriege jedenfalls jedes mal die Kriese wenn ich mich vor so einen groben Full-HD setzen muss. :biggrin:

dargo
2017-12-18, 14:30:37
Also stimmst du mir ja prinzipiell zu, legst aber offenbar großen Wert darauf, dass man das nicht so sagen sollte. :tongue: ;)
Keine Ahnung was dein Problem ist. Dass Vega mit den bekannten Taktraten und Spannungen (beides hängt wie immer zusammen) @Dafault Leistungsprofil Brechstange ist dachte ich wäre schon lange geklärt. Hast du was Neues auf Lager? :tongue:

Th3o
2017-12-18, 15:16:07
Samsung U24E590D 59,94 cm (23,6 Zoll)

Ist schon zwei Jahre alt, mittlerweile gibt es sicherlich besseres, ich bin aber zufrieden. Ich kriege jedenfalls jedes mal die Kriese wenn ich mich vor so einen groben Full-HD setzen muss. :biggrin:
UHD auf 24" wäre mir zu fein, das sind 183 PPI, bei meinem 27" 1440p sind es 108 PPI, ein 34" 3440x1440 hat 109 PPI. Mehr will ich meinen Augen nicht zumuten mit 54 Jahren und Brille.

yamamoto_dc
2017-12-18, 15:29:58
Ich bin auch schon 48 und merke wie meine Augen sich verändern, aber noch passt es. Dokumente und Webseiten sehen jedenfalls aus wie gedruckt.

Tesseract
2017-12-18, 15:32:31
Hat NV da ne Taktmauer implementiert? Ich kann mich noch schwach daran erinnern, dass vor dem Pascal Release 2,5Ghz gezeigt wurden.

der median wird wohl so bei ~2050MHz mit ~1.06V liegen und der boost-unterschied zwischen einzelnen karten ist dann meist schon größer als der headroom mit OC, zumindest wenn man mit der spannungserhöhung in dem bereich bleibt den das bios ohne mods zulässt.

Schlammsau
2017-12-18, 15:43:39
Meiner Meinung nach macht Dargo die letzten Tage oder Wochen schon nicht gerade Werbung für Vega. :freak:

dargo
2017-12-18, 15:51:37
Ist das jetzt gut oder schlecht? ;D

Kehaar
2017-12-18, 16:02:39
Meiner Meinung nach macht Dargo die letzten Tage oder Wochen schon nicht gerade Werbung für Vega. :freak:
Nach seiner ganzen Schwerstarbeit müsste sich AMD eigentlich bei ihm melden und ihn als Vorabtester von Navi nutzen :biggrin: .

Ist das jetzt gut oder schlecht? ;D
Osternest will doch gefüllt werden. Vielleicht schickt AMD irgendwelche ungelegten Eier ;D .

Pirx
2017-12-18, 16:06:06
Nach seiner ganzen Schwerstarbeit müsste sich AMD eigentlich bei ihm melden und ihn als Vorabtester von Navi nutzen :biggrin: .
...
definitiv und das würde richtig was bringen

Loeschzwerg
2017-12-18, 19:28:13
Aktuell noch kein Absturz @ 940mV (siehe Anhang) getestet mit zig. ComputeMark und TimeSpy-Durchläufen. GPU-Z-Mitschnitt von TimeSpy habe ich ebenfalls angehängt.

Mit diesen Einstellungen erreiche ich den "Balanced"-Score mit ca. der Leistungsaufnahme von "PowerSave". Takt ~1500MHz.

horn 12
2017-12-18, 19:30:55
Wie schnell lässt den Lüfter drehen für deine Unter Volting Werte
Haltet die Karte bei 4K immer die 1500+ Mhz ?

Teste bitte mit Sniper Elite in 4K mit DX11 / DX12
Dank Dir!

dargo
2017-12-18, 19:35:27
Mit diesen Einstellungen erreiche ich den "Balanced"-Score mit ca. der Leistungsaufnahme von "PowerSave". Takt ~1500MHz.
Geht doch. :) Immerhin ca. 75W weniger bei gleicher Leistung.

Loeschzwerg
2017-12-18, 19:35:40
Fan = Default also ~2400. Siehe auch das Sensor-Log.

Sniper Elite habe ich verkauft, kratzt mich nicht das Spiel ^^ Ich teste morgen mal die Wolfenstein Demo.

Edit: @Dargo: Jup, aber ich teste natürlich noch weiter. Danke nochmal :) Als ich UV zu Beginn getestet habe, da durfte man P6 und P7 noch nicht identisch setzen, der Takt hing sonst zwischen P4 und 5. Das Tool gefällt mir sehr gut, der WattMan interessiert mich überhaupt nicht mehr :D

dargo
2017-12-18, 19:41:04
Edit: @Dargo: Jup, aber ich teste natürlich noch weiter. Danke nochmal :) Als ich UV zu Beginn getestet habe, da durfte man P6 und P7 noch nicht identisch setzen, der Takt hing sonst zwischen P4 und 5. Das Tool gefällt mir sehr gut, der WattMan interessiert mich überhaupt nicht mehr :D
Den Wattman brauchen nur Leute zusätzlich die eine Art 1,0V Sperre bei ihren Vegas haben und eben tiefer möchten, dazu gehören Igor und meine Wenigkeit schon mal. :D Möglicherweise hängt das an unterschiedlichen Biosen.

btw.
Wenn du noch zusätzlich sparen willst empfiehlt es sich den HBM2 Takt anzuheben. Bei meinen Versuchen hat sich herausgestellt, dass das Anheben von HBM2 von 945Mhz auf 1000Mhz ca. 30Mhz GPU-Takt kompensiert. Irgendwie traue ich mich nicht auf 1,1Ghz zu gehen. :redface: Damit könnte man sicherlich schon 50-60Mhz GPU kompensieren wodurch du noch mehr Strom sparen kannst da du dann mit der Spannung für GPU weiter runter kannst. Wobei man hier auch schauen muss wie tief man bei der Spannung für den Speichercontroller kommt. Meine Karte hat Default 950mV bei 945Mhz. Ich lasse sie mit 875mV und 1000Mhz laufen. Ob 875mV noch für 1100Mhz reichen weiß ich nicht. Ich denke aber, dass selbst 900-925mV für den IMC in Summe immer noch sparsamer ist als das Plus an GPU Takt um gleiche Leistung mit weniger Bandbreite zu erreichen. Ob die Spielereien mit dem HBM2 bei der Air-Version auch so anwendbar sind kann ich nicht sagen da bei dieser die Temperaturen einiges höher sind.

Loeschzwerg
2017-12-18, 19:45:10
War jetzt bei mir zum Glück nicht der Fall. Bios geladen, editiert und die .reg-geladen => funktioniert :)

Mal schauen wo die Grenze bei meiner Karte liegt. Bin am überlegen ob mir der Takt von "PowerSave" (1300-1400) nicht eh ausreicht und ich die Karte daher extrem sparsam laufen lasse.

horn 12
2017-12-18, 19:47:27
NEUES von der AMD Fornt:
Zitiert von Forumdeluxx

Ich hoffe die Amd Tech Demo für Vulcan / primitive Shader kommt noch vor Weihnachten.

Ich vermute mal, nachdem in den letzten Tagen immer häufiger das Gerücht aufkam, daß vega die primitive Shader gar nicht kann, muß Amd wohl relativ schnell das Gegenteil beweisen.

Sollte es sich rausstellen, daß Vega die primitive Shader wirklich nicht kann, dann drohen Amd in den Usa mal wieder Klagen.

dargo
2017-12-18, 19:51:50
Mal schauen wo die Grenze bei meiner Karte liegt. Bin am überlegen ob mir der Takt von "PowerSave" (1300-1400) nicht eh ausreicht und ich die Karte daher extrem sparsam laufen lasse.
Hehe... das wäre dann Vega Nano. :biggrin:

PS: wer die Wahl hat, hat die Qual. :tongue:

Darkseth
2017-12-19, 00:20:11
Mit was misst Du die Leistungsaufnahme der Karte?
Kann ich (leider) nur über HW Info 64 machen. Zeigt ja nicht nur Power% an (wie Afterburner) sondern auch die Watt als Zahl.

Gesamtsystem mittels echtem Strommessgerät, was zwischen steckdose und Netzteil (BeQuiet Straight Power E9 480w CM) steckt. Kein High end teil, "nur" ein 25-30€~ teil war das.

im Umkehrschluss erkauft man sich also 9 % mehr Leistung für knapp 40% höheren Verbrauch? Spricht ja nicht gerade für die Karte....
Naja, das ist bei Pascal auch nicht anders ^^"
Siehe meine GTX 1080 werte. statt 220w geht's mit maximalem UV (0.800 v) auf 130-140w runter, bei rund 0-5% Leistungsverlust.

Wären also auch rund 40% ersparnis für 5% Leistungsverlust.

Anders rum, währen es 5% mehr Leistung für 55-60% mehr Verbrauch.

Gilt also auch für Pascal, die laufen WEIT weg vom Sweet spot. Der liegt bei Pascal bei 0.8 volt, und welche Taktrate auch immer damit stabil läuft.

Wenn man die Taktrate für 0.850v auslotet, verliert man schon Leistung pro Watt (sprich, der stromverbrauch steigt stärker, als die mehrleistung)

Danke für die Werte. Die 1080 hat also auch einiges an Potenzial nach unten beim Verbrauch, vielleicht so bis 140W. Damit relativiert sich das UV bei Vega wieder ein bisschen.
Yup, gerade weil Pascal daher auch nicht sehr effizient ist, wenn man die Leistung pro watt @ Stock vs. undervolted vergleicht. Und das, obwohl Pascal extrem effizient erscheint, gegenüber allem, was es bisher gab. Sowohl die vorgänger, als auch AMD modelle.

Das ganze lässt sich btw auch so auf ne GTX 1070 oder 1060 übertragen^^
Eine 1070 mit 0.8v UV und entsprechender Taktrate von 1750-1800 Mhz~ dürfte dann bei etwa 100w landen, maximal jedoch 110w~ (hab ich auch schon von nem User gesehen).

Und bei ner GTX 1060, hatte ich auch mal, ging der verbrauch auf 85w~ runter (+400-500 Mhz beim Speicher, und 1861 Mhz Core Clock war es glaub)

x-force
2017-12-19, 00:32:47
Nochmal meine Frage... wie stellt ihr euch das bitte vor? Nehmen wir an ich habe eine der besseren GPUs erwischt. Ich werfe einfach mal eine Zahl von 30% in den Raum. Was soll deiner Meinung nach AMD mit den restlichen 70% der GPUs machen? In den Müll werfen? Als Vega56 verschleudern? Das wäre Selbstmord. Denkt einfach etwas weiter nach. :)

früher gab es gerne min. 2 varianten des vollausbaus, eine mit höheren taktraten
alleine von der besten ati karte 9800 gab es 4 versionen ;)

Igor TH
2017-12-19, 06:54:55
Kann ich (leider) nur über HW Info 64 machen. Zeigt ja nicht nur Power% an (wie Afterburner) sondern auch die Watt als Zahl.Es ist trotzdem komplett falsch, weil es ja im Prinzip auch nur die % sind, nur dass man halt mit dem hinterlegten Wert fürs Power Target fertigerechnet hat. Das ist keine belastbare Messung und noch nicht einmal ein Annäherungswert. Die 130 Watt kann ich hier im Labor selbst mit meinem Golden Sample (1 of 1000) nicht nachstellen. Zumindest nicht bei nur 0-5% Leistungsverlust. Diese Sensorgeschichte klappt so nicht bei UV und manuell überschriebenen Registern. Dann müsste man auch das in der Firmware hinterlegte Power Target aquivalent absenken, sonst kommt bei der Rechnerei zu wenig raus. Wenn es so einfach wäre, das alles einfach richtig auszulesen, müsste unsereins nicht einen super ausgestatteten Kompakten allein für ordentliches Equipment bei der Leistungsaufnahmemessung versenken. Auslesen statt Messen und lieber mal ein paar Monate ab in die Karibik. ;)

horn 12
2017-12-19, 07:40:39
RX Vega 56 Nitro lieferbar in 2 Tagen bei Alternate
Die 64 Nitro ist nicht mal gelistet, nur auf dem Papier lieferbar oder was ist da los
----> Zum Ladenhüter verdammt.

Pirx
2017-12-19, 08:19:45
Vega ist fast gar nicht mehr lieferbar, dafür ist Polaris jetzt massenhaft verfügbar:ulol:

dargo
2017-12-19, 08:24:00
Ist völlig normal wenn ein neuer Mining-King erscheint. :usad: Wenn das mit dem Mining so weiter anhält werden wir das selbe Problem mit Navi haben.

Th3o
2017-12-19, 08:29:56
RX Vega 56 Nitro lieferbar in 2 Tagen bei Alternate
Die 64 Nitro ist nicht mal gelistet, nur auf dem Papier lieferbar oder was ist da los
----> Zum Ladenhüter verdammt.
Wo hast Du diese Informationen her? Ich kann bei Alternate nichts finden. Ich habe jetzt bei CaseKing eine Vega 64 RD vorbestellt, vielleicht bekomme ich eine irgendwann mal.

dildo4u
2017-12-19, 08:41:36
Ist völlig normal wenn ein neuer Mining-King erscheint. :usad: Wenn das mit dem Mining so weiter anhält werden wir das selbe Problem mit Navi haben.
Polaris ist auch einfacher zu produzieren,hätte AMD 500€ Karten mit GDDR5 gäbs mehr Karten auf Lager.

DrumDub
2017-12-19, 09:22:05
Vega ist fast gar nicht mehr lieferbar, dafür ist Polaris jetzt massenhaft verfügbar:ulol: aber selbst bei polaris ziehen die preise weider an ... der mining-wahnsinn geht immer noch weiter.

dargo
2017-12-19, 09:45:05
Polaris ist auch einfacher zu produzieren,hätte AMD 500€ Karten mit GDDR5 gäbs mehr Karten auf Lager.
Unsinn... wenn Vega günstiger wäre wäre die Nachfrage bei den Minern noch größer. Hast du schon vergessen wie lange Polaris ausverkauft war trotz ganz anderer Preisklasse? Das sehr gute Mining bei AMD GPUs ist gleichzeitig Fluch und Segen. Je nachdem für wen.

btw.
Ich habe nun mein Setting gefunden. =)

https://abload.de/img/ntool_8jbstm.jpg

Die 1752Mhz als Richtwert waren bei real 900mV GPU minimal zu hoch. Nach ca. 30 Minuten Witcher 3 gab es einen Freeze. 10Mhz runter und schon passt alles. Gestern konnte ich 2 Stunden am Stück Witcher 3 ohne Probleme zocken, heute nochmal 1,5 Stunden am Stück... keine Probleme. Zu 99% kann ich also sagen das passt. Den Rest zeigen dann die nächsten Tage.

Das Undervolting ist richtig geil. :up: Ich habe jetzt meine Lüftersteuerung so angepasst, dass der Lüfter nur noch mit max. ~1165RPM (21%) dreht. Weniger macht eh keinen Sinn mehr. Leiser als unhörbar geht nicht. :D Die GPU-Temperatur bewegt sich in Witcher 3 bei 53°C bis max. 56°C, der Stromverbrauch bewegt sich dabei bei ca. 160-180W Asicpower. Im Schnitt kann man sagen ~170W. Sind ca. 220W für die gesamte Karte mit der Leistung einer RX Vega64 Liquid @345W. :D

https://abload.de/img/witcher3_2017_12_19_0bls0m.jpg

Beim Undervolting gibt es diese harte Powergrenze die es mit den Defaultsettings gibt nicht mehr.

Edit:
Und wenn man Games wie die Forzateile spielt, die die Grafikkarte wenig auslasten langweilt die sich nur noch. :biggrin:

https://abload.de/img/fh3_7cos5x.jpg

https://abload.de/img/fh3_8lise5.jpg

https://abload.de/img/fh3_9a4slr.jpg

Die Asicpower bewegt sich in Forza Horizon 3 zwischen 102W und 130W. Eigentlich Wahnsinn bei den Frameraten. :eek: Im Schnitt sind das ca. 150W für die ganze Karte. X-D

yamamoto_dc
2017-12-19, 10:15:15
aber selbst bei polaris ziehen die preise weider an ... der mining-wahnsinn geht immer noch weiter.

Kein Wunder, der Ether-Kurs ist jetzt bei knapp 900 USD, Mining ist jetzt wieder genauso lukrativ wie im Sommer. Meine Spielekisten laufen seit ein paar Tagen auch wieder durch...;D

Tru
2017-12-19, 10:15:51
Was stellt ihr beim Unvervolten für ein Powerlimit ein?

dargo
2017-12-19, 10:38:25
Was stellt ihr beim Unvervolten für ein Powerlimit ein?
Nichts, beim UV gibt es kein festes Powerlimit. Deine Spannung und der Takt bestimmen den Verbrauch.

Edit:
Hier mal ein kleiner Auszug aus FH3.

https://www2.pic-upload.de/img/34498143/Zwischenablage07.jpg

Mich würde mal brennend interessieren warum AMD so eine glatte Linie bei der Spannung mit den Defaultsettings bei Vega nicht hinbekommt? :uponder: Stattdessen gibt es diese großen Sprünge. Igor... hast du dazu eine Idee?

G3cko
2017-12-19, 11:04:36
Was stellt ihr beim Unvervolten für ein Powerlimit ein?

Das Undervolting sorgt für eine höhere Effizienz. Der absolute Verbrauch bleibt durch das feste Powerlimit unverändert. Durch die Kombination bekommt man also bei gleichem Verbrauch mehr Performance.

Wegen dem mining hatte ich recht schnell zur ersten vega gegriffen. Wakü auf die Referenz drauf und fertig. Keine lange Wartezeit. Günstigste Karte mit möglichst langer Garantie und keine Monate warten bis die customs kommen. Ist bei nvifias founders Edition Strategie auch nicht anders.

Durch die miner und die hohe Nachfrage gibt's keinen Stress für amd das voll Potenzial direkt zu entfalten und die PS schon jetzt zu aktivieren. Navi ist ja nur ein multichip vega. Daher taucht der auch so fix im Treiber auf. Erst mit multichip wird man wie bei Zen in Angriff gehen. Aktuell wird man vega auch so los.

Dino-Fossil
2017-12-19, 11:19:59
Die Multichip-Geschichte halte ich nach wie vor für ein Gerücht. :D

Und wenn doch, wäre es ziemlich sicher ein guter Grund Navi als konkurrenzfähiges Produkt abzuschreiben.
(Ich halte es für einen interessanten Ansatz, bezweifle aber, dass es AMD gelingt in näherer Zukunft ein funktionierendes Produkt zu veröffentlichen).
Aber wer weiß, Wunder gibt es immer wieder...


Es ist trotzdem komplett falsch, weil es ja im Prinzip auch nur die % sind, nur dass man halt mit dem hinterlegten Wert fürs Power Target fertigerechnet hat. Das ist keine belastbare Messung und noch nicht einmal ein Annäherungswert.

Kannst du das bitte mal genauer erklären, bzw einen Link dazu zur Verfügung stellen, wie die Werte zustande kommen? Gilt das für Rot und Grün, oder aktuell nur für Pascal?

Daredevil
2017-12-19, 11:27:38
Alphacool hat im Outlet n WaKü Blöckchen für die Vega, 90€ ist dafür eigentlich ganz okay.
http://www.aquatuning.de/gebrauchte-ware/22864/b-ware-alphacool-nexxxos-gpx-amd-rx-vega-m01-mit-backplate-schwarz?c=407

Vielleicht kommen ja bald mehr rein, wenn die Lager noch voll damit sind. Aber das müssten sie halt auch sein. :D

dargo
2017-12-19, 11:40:26
Der absolute Verbrauch bleibt durch das feste Powerlimit unverändert.
Das ist schlicht und ergreifend falsch. Beim Undervolting gibt es kein festes Powerlimit mehr da die Telemetrie ausgehebelt wird. Der maximale Takt im höchsten P-State gilt in dem Fall nur als Richtwert und in Kombination mit deiner gesetzten Spannung ergibt das den realen Takt X. Dieser Takt X liegt real nahezu durchgehend an sofern die Temperaturen natürlich nicht limitieren (CPU-Limit mal außen vorgelassen). Hier muss man nur aufpassen welche GPU-Last diverse Spiele erzeugen. Bei einem Witcher 3 ist der Takt X etwas geringer (im Schnitt 30Mhz mit meinen aktuellen Settings bei trotzdem höheren Verbrauch) als bei einem Forza Horizon 3. Aus diesem Takt X + gesetzten Spannung ergibt sich dann der Verbrauch, der variabel ist.

RoughNeck
2017-12-19, 11:42:44
Ich muss mich mal genauer mit meiner Vega beschäftigen.
Das heißt du hast jedes P State angepasst, so wie ich das sehe.

Scheint so als muss man Vega ganz anders undervolten als alle anderen Karten bis jetzt.

dargo
2017-12-19, 12:09:57
Das heißt du hast jedes P State angepasst, so wie ich das sehe.

Die niedrigeren P-States sind eigentlich unwichtig. Mal als Beispiel... P1 und P2 siehst du nur in Gamemenüs. Und ob ich da jetzt 13W oder 15W Asicpower habe ist dann auch völlig wumpe. Da ich aber beim Speichercontroller von Default P3 950mV auf 875mV runter gegangen bin ändern sich paar Sachen in den P-States der GPU.

P3 Vcore IMC = P2 GPU
P2 Vcore IMC = P1 GPU

Bei P3 GPU habe ich zb. 925mV genommen. Aber auch das ist offenbar völlig egal da ich in keinem Spiel unter 1408Mhz (ergo P4) mit den aktuellen Settings komme.

Tru
2017-12-19, 12:45:40
Ich war noch auf dem Stand, dass bei UV ohne Erhöhung des Powerlimits das Powertune verrückt spielt. Deswegen fragte ich noch mal nach. :)

yamamoto_dc
2017-12-19, 12:48:21
Die Multichip-Geschichte halte ich nach wie vor für ein Gerücht. :D

Und wenn doch, wäre es ziemlich sicher ein guter Grund Navi als konkurrenzfähiges Produkt abzuschreiben.
(Ich halte es für einen interessanten Ansatz, bezweifle aber, dass es AMD gelingt in näherer Zukunft ein funktionierendes Produkt zu veröffentlichen).
Aber wer weiß, Wunder gibt es immer wieder...


Was sollte AMD mit Scalability in ihren Präsentationen denn anderes meinen? Bei Threadripper und EPYC hat das ganze gut geklappt, mal schauen, wie das mit Navi dann läuft. Irgendwann wird Nvidia auch von monolytischen Dies wegehen müssen, es sei denn die Prozesstechnik macht noch mal einen großen Sprung, was ich im Moment nicht erkennen kann.

dargo
2017-12-19, 12:54:24
Ich war noch auf dem Stand, dass bei UV ohne Erhöhung des Powerlimits das Powertune verrückt spielt. Deswegen fragte ich noch mal nach. :)
Das war bei der Methode von Igor der Fall. Man hat zwar undervoltet aber auch Leistung verloren wenn PT nicht erhöht wurde. Mit dem PPTable-Editor vom OverdriveNTool ist das nicht der Fall.

Für jeden der sich bei Vega am UV versucht... suchst euch in 2 Games 1-2 Savegames im GPU-Limit raus und vergleicht die Leistung. Dann wisst ihr auch ob ihr richtig undervoltet.

Dino-Fossil
2017-12-19, 14:01:53
Was sollte AMD mit Scalability in ihren Präsentationen denn anderes meinen? Bei Threadripper und EPYC hat das ganze gut geklappt, mal schauen, wie das mit Navi dann läuft.

Wer weiß das schon? Könnte auch bessere Skalierung von GCN auf mehr CUs bedeuten - da hakte es ja in der Vergangenheit schonmal.
Vielleicht war es auch wirklich mal angedacht, aber soweit ich weiß, ist die erste Roadmap aus der das stammt mittlerweile auch relativ alt.
Und ja, es klappt bei Zen, speziell Threadripper und Epyc ganz gut, die liegen mMn hinsichtlich des Interconnect in den Anforderungen aber ein gutes Stück unter einer GPU.

Das sowas langfristig sinnvoll sein kann bestreite ich auch nicht - und sicherlich wird AMD da dran arbeiten.

Wenn ich mir aber den Zustand von Vega ansehe, mache ich mir aktuell keine besonders großen Hoffnungen, dass es gelingen wird ein Anspruchsvolles Projekt wie Multi-Chip GPUs in näherer Zukunft in einer Form an den Markt zu bringen, mit der man abseits von Spezialfällen ein rundes Produkt bieten kann.
Im idealen Fall haben wir eine modulare GPU, die vom OS/Programm als eine große, monolithische wahrgenommen wird.
Im schlimmsten Fall haben wir einzelne Chips, die dann evtl sogar nur per mGPU/Crossfire zusammenspielen können - also eher in Ausnahmefällen.

Vielleicht sollten wir das im Navi-Thread weiterführen...

Hübie
2017-12-19, 14:04:03
Wen es interessiert: Google "MCM GPU for continued performance scalability" :smile: Ist aber nicht das Thema hier, daher bitte die Diskussion dann zu NV verlagern, falls Bedarf besteht.

Tru
2017-12-19, 14:04:40
Das war bei der Methode von Igor der Fall. Man hat zwar undervoltet aber auch Leistung verloren wenn PT nicht erhöht wurde. Mit dem PPTable-Editor vom OverdriveNTool ist das nicht der Fall.

Für jeden der sich bei Vega am UV versucht... suchst euch in 2 Games 1-2 Savegames im GPU-Limit raus und vergleicht die Leistung. Dann wisst ihr auch ob ihr richtig undervoltet.
Ah, gut zu wissen.

Raff
2017-12-19, 14:11:24
Das heißt, nur Undervolting mittels Editor ist das Wahre?

MfG,
Raff

dargo
2017-12-19, 14:27:40
Jup, dennoch zur Sicherheit die Performance + Asicpower mit exakt reproduzierbaren Savegames zur Kontrolle überprüfen. Kann nicht schaden.

dargo
2017-12-19, 22:41:20
Eine wichtige Ergänzung zum Undervolting!

Ich hatte vorhin diese Settings gepostet.
https://abload.de/img/ntool_8jbstm.jpg

Damit habe ich 5% weniger Leistung in Wolfenstein 2. Deshalb ist es unheimlich wichtig, dass man sich mit Defaultsettings paar Savegames durchbencht um die richtigen Werte zu kennen! Mit diesen Settings habe ich 137fps in der ersten Wolfenstein 2 Szene obwohl ich vorher 144fps hatte.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11579914&postcount=7595

Nach einer kurzen Überlegung was ich alles noch geändert habe ist mir eingefallen, dass ich P3 bei der GPU von 940mV auf 925mV geändert habe. Und genau daran liegt es. Stelle ich P3 wieder auf 940mV habe ich meine 144fps. Also höllisch aufpassen beim Undervolting wenn man keine Leistung verschenken will.

So muss es also aussehen.
https://abload.de/img/ntool_9nysot.jpg

Warum das so ist, da ich weder im P3 noch P4 vom Takt her Ingame bin (außer Ladescreens bzw. Menüs) ist mir noch ein Rätsel.

Edit:
Hier nochmal zur Kontrolle mit 940mV bei P3.

https://abload.de/img/newcolossus_x64vk_2014osxz.jpg

https://abload.de/img/newcolossus_x64vk_2012gsiv.jpg

Passt. :)

Mangel76
2017-12-19, 23:16:46
Diese PPTable ist ja echt mächtig! Angefixt durch eure Berichte hab ich auch mal ein bisschen rumgespielt. Erstes Ergebnis mit meiner V56@H2O: an einer bestimmten Stelle in Wolfenstein 2 in WQHD von @Balanced 94FPS bei 165W GPU auf 104FPS bei 150W, also etwa +10% Leistung bei -10% Verbauch. Die Verringerung des Verbrauchs kann ich am Messgerät für den Gesamt-PC bestätigen! Ich werde da mal in den nächsten Tagen noch ein bisschen mehr probieren.

@dargo: danke für die Hinweise, werde ich ausprobieren

Mangel76
2017-12-19, 23:34:11
Nach einer kurzen Überlegung was ich alles noch geändert habe ist mir eingefallen, dass ich P3 bei der GPU von 940mV auf 925mV geändert habe. Und genau daran liegt es. Stelle ich P3 wieder auf 940mV habe ich meine 144fps. Also höllisch aufpassen beim Undervolting wenn man keine Leistung verschenken will.

Warum das so ist, da ich weder im P3 noch P4 vom Takt her Ingame bin (außer Ladescreens bzw. Menüs) ist mir noch ein Rätsel.


Das kann ich so nicht bestätigen. Hatte auch erst eine ansteigende Spannungskurve und zur Kontrolle jetzt alles ab P3 auf 940 gesetzt. Dabei ändert sich an der Leistung nichts, es sind immer noch 104FPS, aber Spannung und Verbrauch gehen dabei leicht nach oben (156W statt 150W).

Da steckt ne Menge Potential drin, aber auch viele Stolpersteine :D

=Floi=
2017-12-20, 02:54:54
Nach ca. 30 Minuten Witcher 3 gab es einen Freeze. 10Mhz runter und schon passt alles. Gestern konnte ich 2 Stunden am Stück Witcher 3 ohne Probleme zocken, heute nochmal 1,5 Stunden am Stück... keine Probleme. Zu 99% kann ich also sagen das passt. Den Rest zeigen dann die nächsten Tage.


das ist nie im leben rockstable! Beim richtigen workload sollte es so direkt abschmieren.
Die chips werden auch nach ner weile schlechter.

probier mal minen oder etwas hochoptimiertes.

Hübie
2017-12-20, 03:13:14
Anekdote: Nach über zwei Jahren Dauerstabilität kam Mass Effect Andromeda daher und fordert, dass ich 20 MHz herunter gehe. Dann geht's auch 8 Stunden und weiß der Geier wie lang ohne Absturz. Kein anderes Spiel hat das geschafft - und ich habe an die 50-60 Titel in den letzten 2,25 Jahren gespielt.

Edit: In Zahlen ist das von 1443 MHz auf 1425 MHz.

BeetleatWar1977
2017-12-20, 05:46:07
Noch ne Anekdote - Ich kann hier mit dem 17.12.X etwa 40mV weniger einstellen als noch mit 17.11.X und bin stabil..... evtl was am LLC-Verhalten geändert? Fragen über Fragen......

dargo
2017-12-20, 08:38:25
Anekdote: Nach über zwei Jahren Dauerstabilität kam Mass Effect Andromeda daher und fordert, dass ich 20 MHz herunter gehe. Dann geht's auch 8 Stunden und weiß der Geier wie lang ohne Absturz. Kein anderes Spiel hat das geschafft - und ich habe an die 50-60 Titel in den letzten 2,25 Jahren gespielt.

Edit: In Zahlen ist das von 1443 MHz auf 1425 MHz.
Na hoffentlich sind die Games dadurch jetzt nicht unspielbar wenn du ~0,5% Frames nun weniger hast. X-D :wink:

Noch ne Anekdote - Ich kann hier mit dem 17.12.X etwa 40mV weniger einstellen als noch mit 17.11.X und bin stabil..... evtl was am LLC-Verhalten geändert? Fragen über Fragen......
Was ich ganz lustig bei Vega finde... wenn das Ding zu wenig Spannung hat gibts einfach einen Freeze in Games. Bei Grenada fing es erst mit Grafikfehlern an. Und die musstest du teilweise lange suchen ob da bsw. irgendwo was kurz aufblitzt. Vega gefällt mir in dieser Beziehung besser. :tongue:

das ist nie im leben rockstable! Beim richtigen workload sollte es so direkt abschmieren.

Immer wieder erstaunlich, dass derjenige der die Karte nicht hat meint es besser beurteilen zu können. :rolleyes:


Die chips werden auch nach ner weile schlechter.

Bullshit³. Oder sprichst du von Nvidia Chips? :tongue:

Das kann ich so nicht bestätigen.
Hat deine Vega auch diese 1,0V Sperre? Vielleicht hängt das damit zusammen? Mich würde auch interessieren warum manche Vegas diese Sperre haben. Vielleicht muss OverdriveNTool noch überabreitet werden um diese Sperre bei manchen Vegas zu umgehen? Mal neuere Versionen abwarten. Naja... solange es mit Hilfe von Wattman funktioniert kann es mir egal sein.

Mangel76
2017-12-20, 09:04:28
Hat deine Vega auch diese 1,0V Sperre? Vielleicht hängt das damit zusammen? Mich würde auch interessieren warum manche Vegas diese Sperre haben. Vielleicht muss OverdriveNTool noch überabreitet werden um diese Sperre bei manchen Vegas zu umgehen? Mal neuere Versionen abwarten. Naja... solange es mit Hilfe von Wattman funktioniert kann es mir egal sein.


Ich glaube nicht, dass ich so eine Sperre habe. Bei eingestellten konstanten 940mV zeigt mir afterburner etwa 1455 MHz bei konstant 937mV an, bei meiner ansteigenden Kurve hatte ich den gleichen Takt bei 915mV in meiner Testszene in Wolfenstein 2.

Mich wundert nur ein bisschen, dass es nicht noch höher geht, da das Powerbudget ja gar nicht ausgeschöpft wird. Hast du dafür eine Erklärung? Durch weiteres UV senke ich eher den Verbrauch als dass die Taktraten steigen.

dargo
2017-12-20, 09:09:56
Wenn du mehr Takt haben willst musst du mit dem höchsten P-State höher bis es wieder instabil wird. Dann halt mit der Spannung höher. Die Spannung und der Takt ergeben den tatsächlichen Verbrauch. Ein PT als Orientierungshilfe bzw. Grenze gibt es nicht mehr.

Taigatrommel
2017-12-20, 09:10:48
Mal kurz eingeworfen:
Wer Interesse an einer Custom Vega (64) hat, Alternate scheint gerade die Asus Strix reinbekommen zu haben, jedenfalls ist sie in Kürze versandfertig. Der Haken liegt wohl beim Preis von 739,-€
https://m.alternate.de/ASUS/ROG-STRIX-RX-VEGA-64-OC-Grafikkarte/html/product/1406252

x-force
2017-12-20, 09:10:55
Bullshit³. Oder sprichst du von Nvidia Chips? :tongue:



das nennt man physik... der physik unterliegt auch amd, selbst wenn du glaubst, daß die gpu nicht von dieser erde ist ;D das problem wird aber größer gemacht als es ist.

stichwort elektromigration, bevor da jetzt nochmal die physik negierst.

dargo
2017-12-20, 09:12:04
Jaja... Theorie und Praxis. Mein letzter Grenada hatte nach über zwei Jahren Nutzungszeit nichts "abgebaut". ;) Und was Elektromigration beim Undervolting zu suchen hat weißt du wohl nur selbst.

Mal kurz eingeworfen:
Wer Interesse an einer Custom Vega (64) hat, Alternate scheint gerade die Asus Strix reinbekommen zu haben, jedenfalls ist sie in Kürze versandfertig. Der Haken liegt wohl beim Preis von 739,-€
https://m.alternate.de/ASUS/ROG-STRIX-RX-VEGA-64-OC-Grafikkarte/html/product/1406252
Sorry, aber bei dem Preis ist das einfach nur hirnverbrannt. :)
https://www.csv-direct.de/artinfo.php?artnr=A0621338&KATEGORIE=062&pva=geizhals&data=ZxZaedoOUV4dFsv4gYdZaISq%2BAVrNL8VFu%2BjBGLJh3%2FG9U3OYxjqiiZSv4dC1UQ6D3kjx tWqgc%2Befv3qsRhbyDHLa2A9CCmaEC0lNlg8H5pxeWrWziHi6HdXb%2FFntBOUrlJ4snMh15OhRXbE6 hgnQ%2BISsnDvrAjeliIolkmcTOE%3D

Rancor
2017-12-20, 09:16:33
Nur weils bei deinem Grenada nach 2 Jahren nicht aufgetaucht ist, heisst das nicht, das es nicht bei anderen passiert sein kann.

Elektromigration tritt immer auf, sobald Strom durch elektrische Schaltkreise fließt. Weniger Spannung verlangsamt den Prozess nur.

Deine Arroganz nervt einfach nur noch :rolleyes:

dargo
2017-12-20, 09:18:28
Elektromigration tritt immer auf, sobald Strom durch elektrische Schaltkreise fließt. Weniger Spannung verlangsamt den Prozess nur.

Ach nee... erzählt mir was Neues. Ich habe mal einen Tipp für dich... kaufe am besten gar keine Hardware dann ist Elektromigration für dich gleich kein Thema mehr. :rolleyes:

Schnitzl
2017-12-20, 09:18:56
Immer wieder erstaunlich, dass derjenige der die Karte nicht hat meint es besser beurteilen zu können. :rolleyes:
das hat nix mit der Karte zu tun.
Wenn Karte XY bei Witcher "stabil" ist heisst das (für Ihn) eben noch nicht komplett "rockstable"
Letzteres wäre erst gegeben wenn die Karte bei einer anderen noch mehr fordernden(?) Applikation/Spiel/Benchmark nicht abschmiert.

2€

Rancor
2017-12-20, 09:19:45
Ach nee... erzählt mir was Neues. Ich habe mal einen Tipp für dich... kaufe am besten gar keine Hardware dann ist Elektromigration für dich gleich kein Thema mehr. :rolleyes:

:facepalm: Mehr kann man zu dir einfach nicht mehr sagen.. --> Willkommen auf der Igno, du hast es dir lange und hart erarbeitet. Bist ja auch langsam in guter Gesellschaft mit v_v, was dein Trolling betrifft.

dargo
2017-12-20, 09:23:50
das hat nix mit der Karte zu tun.
Wenn Karte XY bei Witcher "stabil" ist heisst das (für Ihn) eben noch nicht komplett "rockstable"
Letzteres wäre erst gegeben wenn die Karte bei einer anderen noch mehr fordernden(?) Applikation/Spiel/Benchmark nicht abschmiert.

Was interessiert mich was Floi als "rockstable" bezeichnet? Wenn meine Games nicht freezen dann reicht mir das. Ich habe nirgendwo gesagt, dass die Karte alle erdenklichen Applikationen auf dieser Welt stabil durchsteht. Das wird dir niemand der OC (oder in dem Fall besser gesagt außerhalb der Defaults) betreibt garantieren können.

Igor TH
2017-12-20, 09:27:17
Nur weils bei deinem Grenada nach 2 Jahren nicht aufgetaucht ist, heisst das nicht, das es nicht bei anderen passiert sein kann.
Meine MSI 390X läufft noch, die HIS war nach einem Monat defekt. Auch das sagt allein nichts aus. :)

Rancor
2017-12-20, 09:30:15
Meine MSI 390X läufft noch, die HIS war nach einem Monat defekt. Auch das sagt allein nichts aus. :)

Nein natürlich nicht.
Aber beim werten Herr dargo zählen ja nur seine eigenen Erfahrungen, denn wenn beim ihm ein Phänomen nicht auftritt, tritt es gar nicht auf.
Deshalb ist Elektromigration für ihn ja zB. kein Thema, weil Theorie und Praxis unzoo :freak:

Er betreibt seine VEGA mit minimaler Spannung die gerade noch so stabil ist. Daher ist es durchaus möglich das in 1 - 2 Jahren die Settings eben nicht mehr stable sind. Will er aber nicht hören.
Stattdessen wird er eben wieder arrogant und patzig.

Wir sind hier im Review Thread, daher kann man durchaus mal ansprechen, das extremes UV am Limit mit der Zeit eben zu Instabilitäten führen kann, aber nicht muss. Ich denke mehr wollte Floi auch nicht sagen.

dargo
2017-12-20, 09:36:01
Aber beim werten Herr dargo zählen ja nur seine eigenen Erfahrungen, denn wenn beim ihm ein Phänomen nicht auftritt, tritt es gar nicht auf.
Junge... lese mal im Kontext bevor das hier wieder ausartet!

Wenn meine Vega von AMD mit Bios 1 für 345W und im Schnitt ca. 1050mV ausgelegt ist und ich diese mit ~220W und 900mV betreibe warum soll ich nur einen einzigen Gedanken für Elektromigration verschwenden? Ist dir gerade langweilig?

Meine MSI 390X läufft noch, die HIS war nach einem Monat defekt. Auch das sagt allein nichts aus. :)
Korrekt... aber lieber wird wieder eine sinnlose OT-Diskussion gestartet. Übrigens war mein Grenada eine HIS.

btw.
Hast du schon eine Idee bzw. sinnvolle Erklärung für die größeren Fluktuationen in der Spannung von Vega mit Defaultsettings? Und hast du versucht deine Vega nun unter 1,0V zu bringen?

pilzsammler2002
2017-12-20, 09:38:58
Elektromigration ist immer da... Bisher habe ich es so gehandhabt (wenn ich z.b. bei den Polaris karten nen UV Bios erstelle) das ich standardtakt nehme bis zum letzten Punkt wo alles Stabil läuft. Bsp. Rx 470 950mv @ 1266mhz, bei 940 hat der 3dmark oder unigine manchmal bunte pixel geschmissen ;D

Das heisst für mich dann "rock-stable" @ 975mv. Wenns für externe ist habe ich die uv auf 1000mv festgesetzt damit innerhalb der groben nutzungszeit keine probs auftreten :freak:

Igor TH
2017-12-20, 09:42:29
Elektromigration findet immer statt, da hat er schon recht. Und Untervolting hebt die Physik nun mal auch nicht komplett aus den Angeln. Was heute gerade noch so geht, muss dies in ein paar Monaten nicht mehr. Genau das ist der Grund, warum ich mich gegen so manche angebliche Sensation ein wenig sträube. Maturing ist immer mit eingeplant, wobei es bei AMD wohl eher zu einer Kombination aus möglichst hoher Yield und möglichem Maturing kommt. Dass man da für sein Exemplar das Optimum finden möchte - da gehe noch komplett konform. Aber den kippligen, gerade noch so laufenden Wert als Beweisführung für was auch immer zu nutzen, ist nicht wirklich mein Ding. Ich habe hier sechsr Vega64 und vier Vega56. Nicht eine Karte gleicht im genauen Verhalten der anderen. Und genau deshalb wird es erst einmal keinen Nachtest mehr geben. Die Leute nageln einen ja am Ergebnis fest. Nur genau das kann ich keinem garantieren. Schon gar nicht auf Dauer.

RoughNeck
2017-12-20, 09:46:12
Nein natürlich nicht.
Aber beim werten Herr dargo zählen ja nur seine eigenen Erfahrungen, denn wenn beim ihm ein Phänomen nicht auftritt, tritt es gar nicht auf.
Deshalb ist Elektromigration für ihn ja zB. kein Thema, weil Theorie und Praxis unzoo :freak:

Er betreibt seine VEGA mit minimaler Spannung die gerade noch so stabil ist. Daher ist es durchaus möglich das in 1 - 2 Jahren die Settings eben nicht mehr stable sind. Will er aber nicht hören.
Stattdessen wird er eben wieder arrogant und patzig.

Meine alte GTX 580 läuft immer noch beim Freund.
Die habe ich mittels überarbeiteten Bios (ja damals ging das noch) ans Limit getaktet und die Karte läuft heute noch am Limit, jetzt mehr denn je da die Games die Karte mehr fordern.

Elektromigration gibt es, heißt aber noch lange nicht dass sich das wirklich bemerkbar macht, mehr sagt Dargo auch nicht. Glauben tust du es aber nicht.

Rancor
2017-12-20, 09:51:57
Nur weil es bei der GTX 580 nicht auftritt, kann es bei einer anderen aber schon wieder ganz anders aussehen.
Es liegt ja auch noch an der Chipgüte usw. Zudem hat eine GTX 580 auch wesentlich weniger Transistoren und eine gröbere Fertigung als moderne GPUs, was den Chip allgemein nicht so anfällig macht.

Igor bestätigt das im Grund ja auch noch mal. Mir geht es nur darum, das andere User sich bewusst sind, das Undervolting am Limit eben mit der Zeit zu Instabilitäten führen kann und ich betone KANN und nicht muss.

Dural
2017-12-20, 09:53:46
Ich habe eher die erfahrung gemacht das die chips immer wie besser laufen, man sie quasi einfahren kann, jedoch plötzlich und spürbar runter gehen.
das wichtigste ist einfach die kühlung, umso kühler umso länger wird es dem chip gut gehen.

dargo
2017-12-20, 10:00:04
Elektromigration findet immer statt, da hat er schon recht. Und Untervolting hebt die Physik nun mal auch nicht komplett aus den Angeln. Was heute gerade noch so geht, muss dies in ein paar Monaten nicht mehr. Genau das ist der Grund, warum ich mich gegen so manche angebliche Sensation ein wenig sträube. Maturing ist immer mit eingeplant, wobei es bei AMD wohl eher zu einer Kombination aus möglichst hoher Yield und möglichem Maturing kommt. Dass man da für sein Exemplar das Optimum finden möchte - da gehe noch komplett konform. Aber den kippligen, gerade noch so laufenden Wert als Beweisführung für was auch immer zu nutzen, ist nicht wirklich mein Ding.
Geht das schon wieder los?

Ich habe nirgendwo gesagt, dass meine Vega für alle repräsentativ sei. Ich weiß ganz genau, dass es in einer Serie immer gute und wenige gute GPUs/CPUs gibt. Schick mir eine der schlechteren zu dann untersuche ich diese auf UV. Jetzt mal ehrlich... ich erreiche im Schnitt aktuell ca. 1,55Ghz bei 900mV. Wenn du eine weniger gute Chipgüte hast was macht das aus? 1,5Ghz bei 900mV? Im schlechtesten Fall vielleicht 1,45GHz bei 900mV? Bitte dabei nicht vergessen, dass ich mich hier ausschließlich auf eine Vega XTX und keine XT beziehe! Die Möglichkeit besteht immer noch, dass die GPUs für die Liquid stärker selektiert sind als bei der Air-Version. Ich wiederhole... die Möglichkeit besteht. Nicht, dass es tatsächlich so ist.

Soll ich dir was verraten? Das juckt keinen Schwein, das sind nur Zahlen. Und je höher die Basisfrequenz ist umso weniger bedeutend sind solche kleinen Unterschiede in der Frequenz. In Frames bedeutet das im ersten Fall ca. 1-2% weniger Leistung bei gleicher Bandbreite. Im zweiten Fall lass es 3-4% sein. Wahnsinn... :eek: :cool:

Edit:
Thema Undervolting...

Wie ich gerade festgestellt habe liegt der Leistungsverlust von ~5% nicht am P3. Mir ist gerade aufgefallen, dass die GPU in Forza Horizon 3 mit ~1,55Ghz läuft. Die sollte eigentlich mit ~1,57Ghz laufen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11580615&postcount=7630

Daraufhin also zur Kontrolle Wolf 2 angeschmissen und es bestätigt sich, wieder fehlen 5% Leistung.

https://abload.de/img/newcolossus_x64vk_201hgsy2.jpg

Man sieht auch, dass in Wolf 2 ca. 20Mhz GPU fehlen und entsprechend der Verbrauch auch etwas sinkt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11581163&postcount=7648

100% zuverlässig ist diese UV-Methode also noch nicht. Nichts dramatisches, dennoch würde mich interessieren woran es liegt. Ein Bug im OverdriveNTool/Wattman? Das wirklich kuriose ist, dass 5% Leistung bei ~1% weniger GPU-Takt fehlen was eigentlich unmöglich ist. Aber wer weiß schon ob die Taktraten von den lahmen Tools auch korrekt angezeigt werden? :tongue:

RoughNeck
2017-12-20, 10:28:10
Vom OverdriveNTool gibt es eine neuere Version 0.2.3.0.
Ich beschäftige mich gerade mit meiner, noch kann ich das Verhalten was die Karte an den Tag legt nicht zu 100% nachvollziehen.

Was ich aber sagen kann ist, ich kann deine Werte 1 - 1 übernehmen.
Habe da vorhin 30 Minuten Witcher 3 und jetzt knapp 1 Stunde Battlefront 2 gezockt, ist der Karte wurscht. Verbrauch gegen über meinen 1750 / 1100 ist um fast 80W gesunken, die FPS vielleicht um 7 - 9, da muss ich mal messen (habe da nicht darauf geachtet).

dargo
2017-12-20, 10:35:51
Vom OverdriveNTool gibt es eine neuere Version 0.2.3.0.

Ah, danke. Gleich mal ausprobieren.
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/


Additional info:
-Workaround for bug in 17.7.2 drivers, when driver sometimes uses default voltages instead of user settings: use reset and re-apply profile.
-It's possible to disable/enable each P state. To do this click on P0, P1.. etc. label. If P state is disabled it will not be used by GPU.
-I2C currently supports: IR3567B (RX470, RX480, some RX5xx), up9505 (MSI RX5xx)
-If you prefer to not touch fan settings it's possible to deactivate Fan section for each GPU. To do this press Ctrl + double click somewhere on the Fan box. It's saved per gpu_id, so GUI or commandline will not touch fan settings for such GPU.
-To open Settings or SoftPowerPlayTable editor left click on top-left program icon, or right click on the titlebar.

Edit:
Kleines Feedback zur neuen Version.

Die 1,0V Sperre wird damit nicht ausgehebelt bei mir. Wattman ist zusätzlich weiter nötig. Die Leistung mit gleichen Settings im PPTable-Editor passt wieder.

https://abload.de/img/newcolossus_x64vk_201h4s8o.jpg

Ob das dauerhaft so bleibt muss sich erst zeigen. Ich habe die Settings im Wattman auch wieder geändert. Und zwar P6 nicht mehr als max. P-State.

https://abload.de/img/wattman_29ls2a.jpg

Die Taktrate bei P6 auf Default gelassen und die 1742Mhz halt bei P7 gesetzt. Mal sehen ob es damit besser ist. Wer viel probiert... :tongue:

Dino-Fossil
2017-12-20, 11:03:36
Ich habe hier sechsr Vega64 und vier Vega56.

Da gehen also alle Karten für den deutschen Markt hin... :motz:

:D

Th3o
2017-12-20, 11:04:15
Wie steif sind die Schläuche der LC? Bin schwer am Überlegen, doch eine zu kaufen, habe allerdings keinerlei Erfahrung mit AiOs. Gehäuse ist ein R5, Kühler ein Noctua NH-U12. So wie es auf dargos Bildern ausschaut, muss der Lüfter hinten angebracht werden, da ist ja schon eines. Braucht man den dann noch, wenn die Grafikkarte eine AiO hat?

Achill
2017-12-20, 11:34:06
Wie steif sind die Schläuche der LC? Bin schwer am Überlegen, doch eine zu kaufen, habe allerdings keinerlei Erfahrung mit AiOs. Gehäuse ist ein R5, Kühler ein Noctua NH-U12. So wie es auf dargos Bildern ausschaut, muss der Lüfter hinten angebracht werden, da ist ja schon eines. Braucht man den dann noch, wenn die Grafikkarte eine AiO hat?

Zur Steifheit der Schläuche, geht so - sind auf jeden Fall steifer als mein Masterkleer Schlauch PVC 16/10mm bei der Wakü.

Wenn der CPU-Kühler auf den Radiator bläst, dann sinkt erstmal die Kühlleistung weil die Luft schon erwärmt ist.

Dargo lässt daher von oben nochmal Frischluft einblasen, das ist eine Möglichkeit.

Je nach Platz müsste man sich auch ein Luft-Kanal "bauen" können um die warme Luft vom CPU-Kühler nach nach oben zu lenken aus den Gehäuse hinaus.

Savay
2017-12-20, 11:52:09
Beim R5 müsste der Radiator aber theoretisch auch vorne hin passen...oder unten vorm NT.
Ist nur die Frage wie es mit den Schläuchen hinhaut. :wink:

dargo
2017-12-20, 13:07:41
Gibt es eigentlich einen Benchmark der weder die CPU, den Arbeisspeicher noch das Brett belastet? Also quasi nur die Grafikkarte?

dildo4u
2017-12-20, 13:09:52
Gibt es eigentlich einen Benchmark der weder die CPU, den Arbeisspeicher noch das Brett belastet? Also quasi nur die Grafikkarte?
Superposition. https://benchmark.unigine.com/superposition

Der_Korken
2017-12-20, 13:12:13
Gibt es eigentlich einen Benchmark der weder die CPU, den Arbeisspeicher noch das Brett belastet? Also quasi nur die Grafikkarte?

Eventuell Furmark mit hoher Auflösung?

dargo
2017-12-20, 13:20:34
Superposition. https://benchmark.unigine.com/superposition
Taugt nichts. Die CPU geht dort in 1440p oft Richtung 20+W und 30+W laut HWiNFO. Jetzt mal außen vor gelassen, dass diese Werte exakt stimmen. Selten sehe ich sogar 40+W beim Wechsel der Szenen.

Eventuell Furmark mit hoher Auflösung?
Schon besser. Aber auch hier zeigt mir HWiNFO bei der CPU im Schnitt noch ca. 15W an @1440p und 4xMSAA.

Achill
2017-12-20, 13:32:45
Eine wichtige Ergänzung zum Undervolting!

Ich hatte vorhin diese Settings gepostet.
https://abload.de/img/ntool_8jbstm.jpg

Damit habe ich 5% weniger Leistung in Wolfenstein 2. Deshalb ist es unheimlich wichtig, dass man sich mit Defaultsettings paar Savegames durchbencht um die richtigen Werte zu kennen! Mit diesen Settings habe ich 137fps in der ersten Wolfenstein 2 Szene obwohl ich vorher 144fps hatte.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11579914&postcount=7595

Nach einer kurzen Überlegung was ich alles noch geändert habe ist mir eingefallen, dass ich P3 bei der GPU von 940mV auf 925mV geändert habe. Und genau daran liegt es. Stelle ich P3 wieder auf 940mV habe ich meine 144fps. Also höllisch aufpassen beim Undervolting wenn man keine Leistung verschenken will.

So muss es also aussehen.
https://abload.de/img/ntool_9nysot.jpg

Warum das so ist, da ich weder im P3 noch P4 vom Takt her Ingame bin (außer Ladescreens bzw. Menüs) ist mir noch ein Rätsel.

Edit:
Hier nochmal zur Kontrolle mit 940mV bei P3.

https://abload.de/img/newcolossus_x64vk_2014osxz.jpg

https://abload.de/img/newcolossus_x64vk_2012gsiv.jpg

Passt. :)

Ich kann bestätigen dass meine Vega64 LC auch mit 950 mV läuft. Der Takt geht dann auch bei mir aber nur bis 1520-1530 Mhz jedoch sinkt der Verbrauch entsprechend.

Es ist für 950mV sehr stabil (habe natürlich es noch nicht so lange laufen wie meine letzten UV Settings), kurz Getestet: Furmark, Valley, Heaven, W2 (4k), SW:BF2 (4k). Aber es gibt auch wie gesagt nicht mehr als ~1525Mhz ...

Wählte ich z.B. 1000mV, so geht der Takt höher und es gibt sehr schnell ein Crash (bei mir) - laut Overlay bin ich dann immer >1600 Mhz (das Bild steht dann immer sehr kurz bevor der Treiber-Reset greift).

Zusammengefasst für mich habe ich jetzt für die kleineren P-States 950mV und aber ab 1560 entsprechend mehr. Um die ~1750Mhz zu erreichen, braucht ich weiterhin ~1180mV - damit läuft auch MrH OpenCL-Mark v1.1 &v1.3 bei ~1800Mhz durch (Verbrauch ~220W GPU+HBM2), der Boost wird automatisch ausgefahren, hier scheint 1750 nicht das Limit zu sein.

pilzsammler2002
2017-12-20, 13:34:15
Taugt nichts. Die CPU geht dort in 1440p oft Richtung 20+W und 30+W laut HWiNFO. Jetzt mal außen vor gelassen, dass diese Werte exakt stimmen. Selten sehe ich sogar 40+W beim Wechsel der Szenen.


Schon besser. Aber auch hier zeigt mir HWiNFO bei der CPU im Schnitt noch ca. 15W an @1440p und 4xMSAA.

Was ist denn (als bsp.) mit diesen 64kb Demoszenen? Also wie man sie früher bei downloads von groups gehabt hat :D

dargo
2017-12-20, 13:43:44
Ich kann bestätigen dass meine Vega64 LC auch mit 950 mV läuft. Der Takt geht dann auch bei mir aber nur bis 1520-1530 Mhz jedoch sinkt der Verbrauch entsprechend.

Es ist für 950mV sehr stabil (habe natürlich es noch nicht so lange laufen wie meine letzten UV Settings), kurz Getestet: Furmark, Valley, Heaven, W2 (4k), SW:BF2 (4k). Aber es gibt auch wie gesagt nicht mehr als ~1525Mhz ...

Wählte ich z.B. 1000mV, so geht der Takt höher und es gibt sehr schnell ein Crash (bei mir) - laut Overlay bin ich dann immer >1600 Mhz (das Bild steht dann immer sehr kurz bevor der Treiber-Reset greift).

Dann ist der Richtwert im max. P-State etwas zu hoch für 1,0V. Wie ich schon mal gesagt habe erhöhst du die Vcore erhöht sich der reale Takt automatisch bei gleichen Richtwert. Nehme 10-20Mhz runter und schaue nochmal.

Der_Korken
2017-12-20, 14:03:46
Schon besser. Aber auch hier zeigt mir HWiNFO bei der CPU im Schnitt noch ca. 15W an @1440p und 4xMSAA.

Kannst du die Auflösung per Treiber-Downsampling nicht noch höher schrauben? Bei meiner 470 kann ich auf einem FullHD-Monitor bis 4K hochgehen. Dazu muss Furmark natürlich im Vollbild laufen oder die Desktop-Auflösung auf 4K gesetzt werden. Bei deinem 1440p-Monitor gehen vielleicht auch 5K.

Achill
2017-12-20, 14:34:16
Dann ist der Richtwert im max. P-State etwas zu hoch für 1,0V. Nehme 10-20Mhz runter und schaue nochmal.

Jo, wollte nur testen ob die Karte auch einen stabilen Takt bei 1000mV "findet" - bei 950mV musste ich nichts an den P-States einstellen, meine Vega ging einfach nicht höher als ~1530Mhz. Mit 1000mV hat "die Karte" versucht in den 1600 Bereich zu gehen und ist dort gecrashed, darum habe ich für 1560 glaube ich 1020mV eingestellt, 1668Mhz mit 1080mV und für 1750Mhz 1200mV. Damit kann man dann via PT regeln wie weit die Karte takten soll - max. Effizienz war/ist nicht mein Ziel sondern wenn ich nicht die vollen 17xxMhz brauche, da mir in einen RPG oder Strategie-Spiel 60fps reichen, dann kann die Karte gern effizient sein, für Shooter sind 90fps nett und dann wir sie halt Ausgefahren.

Ich habe außerdem eine weitere Beobachtung gemacht, wenn ich den HBM2 auf 1Ghz1.1Ghz übertakten will, dann brauche ich 1000mV für den Speichercontroller (975mV geht auch, gibt aber beim Boot manchmal ein Back-Screen). Dies scheint auch die Spannung der anderen P-States zu beeinflussen, so kann bei den höheren P-States wieder etwas abziehen, es reicht dann z.B. ~1175mV für die 1750Mhz ... hab da aber noch kein richtiges System raus gefunden noch bin ich mir richtig sicher... Da aber 1050Mhz bei 950mV völlig stabil sind, werde ich wohl dabei bleiben da man weniger rum testen muss.

--

Kannst du die Auflösung per Treiber-Downsampling nicht noch höher schrauben? Bei meiner 470 kann ich auf einem FullHD-Monitor bis 4K hochgehen. Dazu muss Furmark natürlich im Vollbild laufen oder die Desktop-Auflösung auf 4K gesetzt werden. Bei deinem 1440p-Monitor gehen vielleicht auch 5K.

5k gehen mit Vega und den Asus MG279Q - man muss aber DS per Monitor und via VSR machen. 4k@60Hz wird mit CRD eingestellt und 4k->5k geht dann via VSR wenn ich das noch richtig im Kopf habe (5k ging glaube auch via Monitor, aber die Hz-Zahl sinkt weiter ...).

Nutzen tue ich aber nur 2160p->1440p via VSR, da damit 120Hz möglich sind mit FreeSync (48-120).

dargo
2017-12-20, 14:50:57
Ich habe außerdem eine weitere Beobachtung gemacht, wenn ich den HBM2 auf 1Ghz übertakten will, dann brauche ich 1000mV für den Speichercontroller (975mV geht auch, gibt aber beim Boot manchmal ein Back-Screen).

Strange... ich fahre 875mV für 1Ghz, 850mV noch nicht probiert. :freak: Dann ist die Serienstreuung doch recht hoch, zumindest beim IMC.


Da aber 1050Mhz bei 950mV völlig stabil sind, werde ich wohl dabei bleiben da man weniger rum testen muss.

Hö? 1Ghz brauchen 1000mV und 1,05Ghz 950mV? :|

Kannst du die Auflösung per Treiber-Downsampling nicht noch höher schrauben?
Das führt nicht zum Ziel welches ich verfolge da ich in 1440p spiele. Egal... dann eben nicht.

dargo
2017-12-20, 15:05:57
dp

dildo4u
2017-12-20, 15:22:47
Taugt nichts. Die CPU geht dort in 1440p oft Richtung 20+W und 30+W laut HWiNFO.
1080P Extrem ist extrem GPU Limitiert bei mir um 30fps auf meiner 1070.

dargo
2017-12-20, 15:42:51
Mich interessiert weder 1080p noch 4k. Einfach einen Benchmark bei dem die CPU, Mobo und Speicher in 1440p nur rum idlen. Gibts aber offenbar nicht.

Edit:
Bist du überhaupt sicher, dass das 1080p Extreme Preset stark gpu-limitiert ist? Sieht nämlich bei mir nicht danach aus. Asicpower mit UV nur bei 150+W. Da schaffen ein Witcher 3, Wolf 2 oder The Division @DX12 mehr.

PS: in 4k Optimized bin ich bei ~185W Asicpower. Also der Extreme Preset sieht mir eher nach CPU-Limit aus, extremer Einbruch der Frames trotz kleiner Auflösung bei wenig Verbrauch der GPU. Vielleicht verstärkte Last bei der Physik über CPU?

Achill
2017-12-20, 15:59:58
[..]
Hö? 1Ghz brauchen 1000mV und 1,05Ghz 950mV? :|
[..]

Vertippt, 1.1Ghz braucht 1000mV und bei 975mV gibt es ab und zu ein Back-Screen beim Boot.

Wie weit ich bzgl. Spannung bei 945Mz für den HBM2 runter gehen kann habe ich bisher nicht getestet.

dildo4u
2017-12-20, 16:29:20
Edit:
Bist du überhaupt sicher, dass das 1080p Extreme Preset stark gpu-limitiert ist? Sieht nämlich bei mir nicht danach aus. Asicpower mit UV nur bei 150+W. Da schaffen ein Witcher 3, Wolf 2 oder The Division @DX12 mehr.

Möglich das Vega das weniger schmeckt ich hab jetzt 168 Watt max gesehen,Games in 4k sind bei mir eher bei 155.

horn 12
2017-12-20, 18:58:32
KEINE Custom zu Weihnachten, KEINE Referenz, kaum LC Versionen mehr erhältlich
AMD hat wohl Alles falsch gemacht was man nur falsch machen kann bei Vega und dessen Verfügbarkeit, vor Allem im Dezember- Neujahr!

Mann hätte die Referenz Karte einfach bis Mitte Jänner anbieten sollen, die gesamten Custom Design Modelle wurden weltweit vielleicht 350 bis 500 Mal verkauft, komplett lächerlich!!

Kriegsgeier
2017-12-20, 19:02:57
Das hat doch ein Grund, System: es heißt Apple!

Der_Korken
2017-12-20, 19:05:27
Das führt nicht zum Ziel welches ich verfolge da ich in 1440p spiele. Egal... dann eben nicht.

Was hast du denn genau vor? Ich hatte vermutete du willst den realen GPU-Verbrauch messen und deswegen soll alles außer der GPU idlen. Da wäre die hohe Auflösung halt gut (höhere Auflösung -> weniger fps -> weniger Arbeit für die CPU).

Griffon
2017-12-20, 19:15:46
KEINE Custom zu Weihnachten, KEINE Referenz, kaum LC Versionen mehr erhältlich
AMD hat wohl Alles falsch gemacht was man nur falsch machen kann bei Vega und dessen Verfügbarkeit, vor Allem im Dezember- Neujahr!

Mann hätte die Referent bis Mitte Jänner anbieten sollen, die gesamten Custom Design Modelle wurden weltweit vielleicht 350 bis 500 Mal verkauft, komplett lächerlich!!

Ich bin mal gespannt, gestern war die Sapphire Vega 56 Nitro bei Alternate als Lieferung zwischen 22. bis 23. Dezember gelistet. Ich hab sie bestellt, mal sehen was passiert.
Sollte sie nicht vor Weihnachten kommen wird storniert, wir machen Weihnachten immer vom 27. bis 30.12. Lan, da wäre es nett gewesen, sonst kann ich auch noch warten.

dargo
2017-12-20, 19:46:29
Was hast du denn genau vor?
Den Stromverbrauch unter realen Bedingungen (bei mir 1440p) der Grafikkarte isoliert messen. Den Idle-Verbrauch vom gesamten System kenne ich bereits.

horn 12
2017-12-20, 20:11:55
Alternate hat den Termin gelöscht, heute früh stand in 8 Tagen lieferbar...
Sapphire ist nur auf dem Papier, entweder kommt Refresh von Vega oder dies wars echt schon!

PS:
Dies sagt ein eingefleischter AMD Verfechter,- und obwohl Vega toll ist sehe ich mit Bangen in die Zukunft von AMD.

Achill
2017-12-20, 20:31:08
Den Stromverbrauch unter realen Bedingungen (bei mir 1440p) der Grafikkarte isoliert messen. Den Idle-Verbrauch vom gesamten System kenne ich bereits.

Wie wäre es mit 2nd_stage_boss - die 4kb demo, die nur auf der GPU läuft ... http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/

Vega ist hier außerdem 'for_future_GPUs' ... Vega@1080p läuft hier mehr als doppel (81fps avg.) so schnell als auf der FuryX (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/#BenchmarkCollection_1187323_234)(35 fps avg.)

Griffon
2017-12-20, 21:04:30
Alternate hat den Termin gelöscht, heute früh stand in 8 Tagen lieferbar...
Sapphire ist nur auf dem Papier, entweder kommt Refresh von Vega oder dies wars echt schon!

Jetzt ist die Karte ja ganz raus bei Alternate und auch bei Geizhals Deutschland.

Am Morgen stand noch was von Lieferbar in einem Tag.
Naja vermutlich ist sie eh ca. 200 Euro zu teuer, wenn ich bedenke, dass es die 56er im Referenzdesign kurz für 400 Euro gab.

BeetleatWar1977
2017-12-20, 21:07:01
is ja witzig^^
2nd_stage_boss.20160221.1280x720.win7.exe benchmark completed, 17824 frames rendered in 144.953 s
Average framerate : 122.9 FPS
Minimum framerate : 70.5 FPS
Maximum framerate : 185.5 FPS

2nd_stage_boss.20160221.1920x1080.win7.exe benchmark completed, 8655 frames rendered in 145.359 s
Average framerate : 59.5 FPS
Minimum framerate : 33.9 FPS
Maximum framerate : 85.5 FPS

ich schau mal ob der CPU-Takt was ausmacht, volle Auslastung auf der Graka erreicht er selten......

-=Popeye=-
2017-12-20, 21:40:35
KEINE Custom zu Weihnachten, KEINE Referenz, kaum LC Versionen mehr erhältlich
AMD hat wohl Alles falsch gemacht was man nur falsch machen kann bei Vega und dessen Verfügbarkeit, vor Allem im Dezember- Neujahr!

Mann hätte die Referenz Karte einfach bis Mitte Jänner anbieten sollen, die gesamten Custom Design Modelle wurden weltweit vielleicht 350 bis 500 Mal verkauft, komplett lächerlich!!

Lass mal die Kirche im Dorf.

AMD hat hier einfach nur den richtigen Zeitpunkt zur Freigabe verpasst, schlecht ist die Karte ja nun nicht wirklich.

Th3o
2017-12-20, 21:46:21
KEINE Custom zu Weihnachten, KEINE Referenz, kaum LC Versionen mehr erhältlich
AMD hat wohl Alles falsch gemacht was man nur falsch machen kann bei Vega und dessen Verfügbarkeit, vor Allem im Dezember- Neujahr!

Mann hätte die Referenz Karte einfach bis Mitte Jänner anbieten sollen, die gesamten Custom Design Modelle wurden weltweit vielleicht 350 bis 500 Mal verkauft, komplett lächerlich!!
Wenn AMD weiterhin die Referenzkarte anbieten würde, dann hätten sie eventuell nicht genug Chips für die Partner wie Sapphire und PowerColor usw. Außerdem weiß man auch nicht, wieviele Vegas Apple versprochen wurden. Und dann sind da noch die Karten für die AI Anwender. In nehme an, dass AMD schon am Anschlag produziert.

dargo
2017-12-20, 22:11:38
Wie wäre es mit 2nd_stage_boss - die 4kb demo, die nur auf der GPU läuft ... http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/

Vega ist hier außerdem 'for_future_GPUs' ... Vega@1080p läuft hier mehr als doppel (81fps avg.) so schnell als auf der FuryX (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/#BenchmarkCollection_1187323_234)(35 fps avg.)
Ja... das ist schon nicht schlecht.

https://abload.de/img/2nd_stage_boss.201612g9s1q.jpg

Leider ist aber der Verbrauch nicht ganz so hoch wie in Games, außer vielleicht den Forza Teilen. :tongue: Liegt womöglich an nur 1080p. Gibt kein 1440p Preset oder? CPU scheint aber wirklich zu idlen. Witzig... ist die einzige Applikation die ich kenne wo der HBM2 kühler als die GPU ist. :tongue:

nairune
2017-12-20, 22:14:04
Für Horn ist alles schwarz-weiß.
Der Monero-Kurs explodiert gerade, da kann man vergessen eine Vega zu bekommen. Dieser ganze Mining Scheiß regt mich so tierisch auf... hohe Speicherpreise sind ja nicht genug.

akuji13
2017-12-20, 22:27:50
Hab jetzt auch mal Zeit gefunden dargos settings zu testen.

P6/P7 geht bei mir nicht mit 940, es müssen mindestens 950 sein sonst schmiert z. B. TW3 reproduzierbar ab.
Die Spanne die einem zur Verfügung steht ist trotzdem schon erstaunlich hoch. :)

In TW3 beträgt der Unterschied zwischen ~190 Watt ASIC und ~300 Watt ASIC oftmals nur 2 fps.

Den größten Unterschied hatte ich in Prey.
Da gibts mit ~266 Watt dann 77 fps und mit ~180 Watt immer noch 70 fps.
Also knapp 10% mehr Leistung für 47% mehr Stromaufnahme.

Der Knüller ist aber mMn ACO...das läuft dann oft nur noch mit ~140 Watt.

Strange... ich fahre 875mV für 1Ghz, 850mV noch nicht probiert. :freak: Dann ist die Serienstreuung doch recht hoch, zumindest beim IMC.

Ich nutze auch schon seit Wochen 1Ghz@875mV ohne Probleme.

dargo
2017-12-20, 22:36:51
P6/P7 geht bei mir nicht mit 940, es müssen mindestens 950 sein sonst schmiert z. B. TW3 reproduzierbar ab.

Wie gesagt... wenn was instabil ist ist der Richtwert von 1752Mhz im höchsten P-State zu hoch. Einfach mal 10-20Mhz weniger eintragen.


Der Knüller ist aber mMn ACO...das läuft dann oft nur noch mit ~140 Watt.

Liegt bestimmt am hohen CPU-Limit. Würde mich jedenfalls bei AC: O nicht wundern.

btw.
Mir gibt das keine Ruhe mit den teilweise fehlenden 5% Leistung bei nur 1% weniger Takt. Jemand eine Idee woran das liegen könnte? Gerade eben habe ich das wieder. Kann ja nicht sein, dass es mal vernünftig läuft und mal mit paar Megahertzchen weniger und gleich 5% langsamer. Müssen etwa doch in jedem P-State unterschiedliche Spannungen stehen? Mir fällt sonst nichts dazu ein. Sind 940mV das Problem, hilft eventuell 950mV mit entsprechend höheren Taktraten? Fragen über Fragen.

@Achill
Diese Demo würde sich offenbar doch ganz gut eignen. Gerade läuft nur meine Vega in dem "erweiterten Stromsparmodus". Deshalb ist der Verbrauch und Takt etwas zu niedrig. :D

Ich teste jetzt mal das.
https://abload.de/img/ntool_10ojs1y.jpg

Damit passt wieder die Performance. Fragt sich nur wie lange? :D Wahrscheinlich morgen nach dem ersten Rechnerstart wieder nicht.

@Achill
An dem Verbrauch der Demo hat sich nichts geändert. Das ist etwas zu harmlos.

https://abload.de/img/2nd_stage_boss.201612m1s5f.jpg

Im Schnitt bleiben es ~150W trotz jetzt höherem Takt.

pilzsammler2002
2017-12-20, 22:53:56
Wie gesagt... wenn was instabil ist ist der Richtwert von 1752Mhz im höchsten P-State zu hoch. Einfach mal 10-20Mhz weniger eintragen.


Liegt bestimmt am hohen CPU-Limit. Würde mich jedenfalls bei AC: O nicht wundern.

btw.
Mir gibt das keine Ruhe mit den teilweise fehlenden 5% Leistung bei nur 1% weniger Takt. Jemand eine Idee woran das liegen könnte? Gerade eben habe ich das wieder. Kann ja nicht sein, dass es mal vernünftig läuft und mal mit paar Megahertzchen weniger und gleich 5% langsamer. Müssen etwa doch in jedem P-State unterschiedliche Spannungen stehen? Mir fällt sonst nichts dazu ein. Sind 940mV das Problem, hilft eventuell 950mV mit entsprechend höheren Taktraten? Fragen über Fragen.

@Achill
Diese Demo würde sich offenbar doch ganz gut eignen. Gerade läuft nur meine Vega in dem "erweiterten Stromsparmodus". Deshalb ist der Verbrauch und Takt etwas zu niedrig. :D

Das mit den Demos hatte ich doch gepostet :P
Die laufen ansich nur auf der gpu und vllt minimal zuweisung von der cpu...

-=Popeye=-
2017-12-20, 22:56:23
Wie wäre es wenn du die Karte einfach in 4k oder 8K stresst und schauste ob die von dir gewählten Settings (FPS sind unwichtig) stabil laufen.

dargo
2017-12-20, 23:04:50
Stehe nicht so auf niedrige Frameraten. Für 4k ist die Karte für mich zu langsam.

-=Popeye=-
2017-12-20, 23:18:25
Es geht ja auch nicht um FPS.

Sondern um Takt und Volt-Stabilität.

dargo
2017-12-20, 23:19:24
Ich muss die Games aber spielen, ergo kommts nicht in Frage. Die einzige Ausnahme wäre wohl nur Forza 7, dort sind die Frames auch mit 4k sehr hoch.

Das mit den Demos hatte ich doch gepostet :P
Die laufen ansich nur auf der gpu und vllt minimal zuweisung von der cpu...
Brauchst dich nicht gleich angepisst fühlen. :)

Ich habe mal eine kleine Messung mit der Demo trotzdem angestellt.

Wie gesagt zeigt mir der AB im Schnitt ca. 150W Asicpower, was nach der "Standardrechnung" von +30% 195W für die ganze Karte bedeuten sollte. Mein gesamter Rechner zieht hinter dem NT in Idle ~63W. Das bedeutet also, dass mein System vor den NT-Verlusten ~53W braucht. 84% Effizienz bei 50W Last.
http://www.tomshardware.de/80plus-Gold-netzteil-gunstig,testberichte-240956-12.html

In der besagten Demo zeigt mir mein EM 3000 270-286W. Nehmen wir die Mitte von 278W. Bei 300W hat mein NT eine Effizienz von 92%, das wird sich denke ich in dem Bereich von 250W kaum ändern. Ergo wären es 256W für den gesamten Rechner. Nach Abzug vom Idleverbrauch also 203W. Kommt alles in etwa hin, ist ja nur eine etwas grobe Rechnung. Ich wollte es halt nur mit einer Messung untermauern, mehr nicht.

Schaffe89
2017-12-20, 23:36:10
In nehme an, dass AMD schon am Anschlag produziert.

Nachem die 1070 Ti rauskam dürfte die potentielle Nachfrage eigentlich wieder gesunken sein, da 1070 Ti und Vega 64 gleichschnell sind.

Ich würde sagen die Produktion von Vega ist stark reduziert worden, anders kann das doch gar nicht sein, es ist nicht eine Karte lieferbar, während vor einiger Zeit noch x Karten erhältlich waren.
Jetzt ist sogar die Frontier kaum mehr erhältlich.

Digidi
2017-12-21, 00:29:25
Nachem die 1070 Ti rauskam dürfte die potentielle Nachfrage eigentlich wieder gesunken sein, da 1070 Ti und Vega 64 gleichschnell sind.

Ich würde sagen die Produktion von Vega ist stark reduziert worden, anders kann das doch gar nicht sein, es ist nicht eine Karte lieferbar, während vor einiger Zeit noch x Karten erhältlich waren.
Jetzt ist sogar die Frontier kaum mehr erhältlich.

Fällt dir was auf bei dir ist alles an Vega schlecht. Alles was Vega bietet ist bei dir zum Kotzen. Wie armselig bist du nur?

BvB123
2017-12-21, 00:32:39
Nachem die 1070 Ti rauskam dürfte die potentielle Nachfrage eigentlich wieder gesunken sein, da 1070 Ti und Vega 64 gleichschnell sind.

Ich würde sagen die Produktion von Vega ist stark reduziert worden, anders kann das doch gar nicht sein, es ist nicht eine Karte lieferbar, während vor einiger Zeit noch x Karten erhältlich waren.
Jetzt ist sogar die Frontier kaum mehr erhältlich.

Unterschätzt Mal nicht die Mining Nachfrage bei den Vegas. Monero läuft extrem gut

Digidi
2017-12-21, 00:38:50
Unterschätzt Mal nicht die Mining Nachfrage bei den Vegas. Monero läuft extrem gut

Nicht nur Mining. Im Mac Pro ist das teil auch verbaut und die Bordpartner brauchen auch jeden Chip. Zudem hat wohl global foundrys nicht die Kapazitäten wie sie TSMC hat.

Ich frag mich warum man Schaffe nicht endlich mal wegen Trollings bannt. Ich hab ja nichts gegen Kritik an Vega. Mir gehen z.B. die versprochenen Features ziemlich auf den Senkel. Aber trozdem ist es noch eine gute Karte für den (angedachten) Preis.

Und @Schaffe89 wenn Vega so scheiße ist warum steigt dann der Preis täglich? Drehen wir den Spieß doch mal um. Warum ist die 1070ti so billig? Kann es sein das sie keiner haben will?

Darkseth
2017-12-21, 01:26:14
Es ist trotzdem komplett falsch, weil es ja im Prinzip auch nur die % sind, nur dass man halt mit dem hinterlegten Wert fürs Power Target fertigerechnet hat. Das ist keine belastbare Messung und noch nicht einmal ein Annäherungswert. Die 130 Watt kann ich hier im Labor selbst mit meinem Golden Sample (1 of 1000) nicht nachstellen. Zumindest nicht bei nur 0-5% Leistungsverlust. Diese Sensorgeschichte klappt so nicht bei UV und manuell überschriebenen Registern. Dann müsste man auch das in der Firmware hinterlegte Power Target aquivalent absenken, sonst kommt bei der Rechnerei zu wenig raus. Wenn es so einfach wäre, das alles einfach richtig auszulesen, müsste unsereins nicht einen super ausgestatteten Kompakten allein für ordentliches Equipment bei der Leistungsaufnahmemessung versenken. Auslesen statt Messen und lieber mal ein paar Monate ab in die Karibik. ;)
Interessant, Danke für die Tiefe :wink:
Wie gesagt, als "Normalnutzer" mangelt es mir an entsprechendem Equipment für solche Art von messungen. Lohnt ja auch nicht, solange man damit kein Geld verdient ^^"

Was ist denn mit meinem physischen Strommessgerät, was zwischen steckdose und Netzteil steckt?
Wenn ich auf 0.8v undervolte, sinkt der Wert fast um 100 Watt. Der einzige Faktor, der sich ändert, ist Spannung + Takt der Grafikkarte.
So "komplett" falsch kann das ja nicht sein?!
Mir war schon klar, dass das nicht wirklich sehr Präzise ist, aber zumindest grob sollte das passen? Ob das letztendlich 130w sind, oder 145, ist für mich als 08/15 User zumindest schon in die grobe Richtung...^^"


Mal anders gefragt, da ihr das Equipment habt, und das evtl sicher schon probiert / notiert habt.

Kannst du mir mal deine Werte mitteilen @ stock und mit nem stabilen 0.8v Undervolt?
Jeweils mit GPU Spannung unter Last, Taktrate, Speichertakt^^"
Falls du mal Zeit dafür hast. Evtl auch, was euer Equipment sagt, und was als vergleich HWInfo ausliest (damit ich mal seh, wie hoch der Unterschied nun ist).

Igor TH
2017-12-21, 05:57:15
@Darkseth:
Jede Karte ist anders und ich habe leider keine Zeit, hier jede der Karten auf DIE besten Settings hin zu prüfen. Pascal ist fast schon Geschichte und damit durch. Da lohnt sich so etwas noch nicht einmal für einen Artikel. Und bei Vega habe ich hier so eine Streuung, dass ich mich innerlich weigere, da was Verallgemeinertes zu schreiben. Da bitte ich echt um Verständnis.

pilzsammler2002
2017-12-21, 06:26:21
@Dargo
War/bin ich nicht...
Das liegt nur am Smiley. Der ansich nette ";P" wird hier böse angezeigt xD

uweskw
2017-12-21, 07:03:00
.........


Du bekommst als Insider doch so einiges mit, was ist deine persönliche Meinung?
Hält AMD wirklich Chips zurück um über eine Subfirma selbst kräftig Coins zu schürfen?

greetz
US

horn 12
2017-12-21, 07:03:25
@Igor

Wie siehst Du bitte dem weiterern Werdegang von Vega, den Custom Varianten und möglichen Referenz Karten, eventuell NEU aufgelegt.

Igor TH
2017-12-21, 07:20:16
@uweskw:
Ob wer wie was zurückhält weiß niemand, maximal der liebe Gott. Und der wird uns sicherlich nichts verraten. Noch nicht mal denen, die brav Kirchgeld und Kirchensteuer zahlen. Sollte AMD selbst schürfen (lassen), müsste das ja dann auch irgendwann mal in den Bilanzen auftauchen. Da man das alles schon seit Polaris kolportiert, glaube ich persönlich nicht dran. Ich denke eher, man hat sich beim HBM2 grandios verzockt. Das erklärt ja auch die verschiedenen Packages, weil man mangels eines funktionierenden Forecasts immer nur reagiert, aber nie agiert. Dann kauft man, was man kriegt und muss zusehen, wer dann die Teile wo und wie zusammenstöpselt.

@horn 12:
Vega ist genauso ausgegangen, wie ich es im Juli geschrieben habe. Ich würde mich nicht darauf verlassen, das Teil noch in Massen im Laden zu sehen. Wer eine will, sollte zuschlagen, solange es noch welche gibt. Die Boardpartner mit Mischportfolio orientieren sich bereits auf Ampere. Für die ist Vega gelaufen. System FuryX eben. Und Apple kann gar nicht so viele seiner überteuerten Kisten verkaufen, um wirklich schuld an der Nichtverfügbarkeit zu sein.

uweskw
2017-12-21, 08:07:31
thanks für die schnelle Antwort.
Ich hätte es für gut befunden, wenn AMD jetzt erstmal egoistisch seine Finanzreserven aufgestockt hätte und damit 2018/2019 eine richtige Knaller-GPU rausgebracht hätte....

greetz
US

Daredevil
2017-12-21, 08:33:29
Nochmal eben was zu Effizienz von Vega mit Hilfe des Power Targets.
System Idle: 125w
Vega 64 + Vega56@Vega64 Bios
Beide in Betrieb für Nicehash bei minen von ZCash.

-50 660Sols - 391w - 1400rpm
+6,2% +14,0%
-40 701Sols - 446w - 1639rpm
+8,2% +11,6%
-30 759Sols - 498w - 1769rpm
+11,9% +9,0%
-20 850Sols - 543w - 2004rpm
+7,5% +9,9%
-10 914Sols - 597w - 2316rpm
+4,3% +9,5%
0 954Sols - 654w - 2604rpm
-20% bilden in dem Szenario den Sweet Spot zwischen Geschwindigkeit, Verbrauch und eben auch Lautstärke.

Warum hat Vega eigentlich so eine übertriebene Lüftersteuerung? Kommt das noch aus dem Profi segment?
Ich wüsste nicht, wieso die Karte bei Belastung auf einmal auf 3300rpm aufdrehen muss, damit sie sich dann bei 2300rpm wieder einpendelt, dieses schwammige Verhalten nervt mich.
http://abload.de/img/unbenanntm4sw1.png

Bucklew
2017-12-21, 09:38:10
Vega ist genauso ausgegangen, wie ich es im Juli geschrieben habe.
Und bist damals von den ganzen Fans, die jetzt schon auf Vega Reloaded und Navi hoffen, zerfleischt worden :freak: ;D

damit 2018/2019 eine richtige Knaller-GPU rausgebracht hätte....
Hört doch bitte auf zu träumen. Selbst wenn AMD jetzt alles Geld der Welt (und Ingenieure hätte), wäre da nichts vor 2020 möglich. Vega zeigt eben dies hier:
https://techreport.com/news/28033/report-amd-r-d-spending-falls-to-near-10-year-low
Das wird sich von heute auf morgen auch nicht ändern. Das wird ein jahrelanger Prozess sein müssen, so NVIDIA es nicht irgendwann mal richtig verkackt - wonach es aber nicht aussieht. Oder NVIDIA ala Intel "lazy" wird und nur noch marginale Verbesserungen einbaut - wonach es aber ebenfalls nicht aussieht.

Igor TH
2017-12-21, 09:59:42
@Bucklew:
Manchmal ist es auch angenehmer, eines Besseren belehrt oder positiv überrascht zu werden. Allerdings betreiben die großen AIB ebenfalls Forecast und wenn die nichts ordern oder Optionen ziehen, dann wissen die meist sehr genau, was sie tun (oder auch nicht). Man kann ja auch nicht eben mal von jetzt auf gleich die Produktion auf Knopfdruck hochfahren. Deshalb kann man an so einem Verhalten auch vieles ablesen, ohne nun gleich täglich in Lisas morgendlichen Kaffeesatz gucken zu müssen. Der ganze Prozess ist eine elendige kausale Kette und auch den Minern kann man ja vieles anhängen, aber eben nicht alles.

uweskw
2017-12-21, 10:18:58
.....Hört doch bitte auf zu träumen. Selbst wenn AMD jetzt alles Geld der Welt (und Ingenieure hätte), wäre da nichts vor 2020 möglich. Vega zeigt eben dies hier:
https://techreport.com/news/28033/report-amd-r-d-spending-falls-to-near-10-year-low ......

Ich sehe das bei AMD garnicht so schwarz. Die HW-Architektur ist gut.
Wenn man Vega sparsamer und taktfeudiger hinbekommt würde es schon eng. Ich glaube mit entsprechenden Ressourcen liesse sich da einiges erreichen. Vor allem im Software Bereich.

greetz
US

Bucklew
2017-12-21, 10:36:45
Ich sehe das bei AMD garnicht so schwarz. Die HW-Architektur ist gut.
Die HW ist einfach zu ineffizient. Sowohl was die Diefläche angeht, als auch die Leistungsaufnahme. Der Vergleich zu GP102 ist schon krass.

Wenn man Vega sparsamer und taktfeudiger hinbekommt würde es schon eng.
Genau hier fehlt AMD aber eben das R&D. Und das ist nix, was man mal-eben-so, wenn der Chip fertig ist, noch hinzufügt. Das muss vom Start weg direkt richtig gemacht werden, sonst kommt hinten eben etwas wie Vega bei raus.

@Igor: Es wäre eben nett, wenn man nicht den Boten erschießt, nur weil er schlechte Nachrichten überbringt. Man sollte nach Fiji, Polaris und Vega einfach mal aufhören zu glauben, dass AMD jetzt einfach so den großen NVIDIA-Killer aus der Hüfte schießt.

Der_Korken
2017-12-21, 10:41:27
Ich sehe das bei AMD garnicht so schwarz. Die HW-Architektur ist gut.
Wenn man Vega sparsamer und taktfeudiger hinbekommt würde es schon eng. Ich glaube mit entsprechenden Ressourcen liesse sich da einiges erreichen. Vor allem im Software Bereich.

greetz
US

Die Hardware ist vielleicht in Ansätzen gut, aber nicht insgesamt. Ich habe gerade den im Titan V-Thread verlinkten Artikel von Anandtech (zur Titan V) gelesen und bin doch erstaunt, wie viele Änderungen es dort unter der Haube gab. Man sieht an vielen Tests auch, dass die Karte sich von den Pascal-Derivaten deutlich stärker absetzt, als die gestiegene Rohleistung erahnen lässt. Genau das vermisse ich bei AMD seit GCN 1.0. Die 7900 war eigentlich super, man war beim Frontend zwar hinter Nvidia und hat auch ein bisschen mehr Strom verbraucht, hatte aber deutlich mehr Rohleistung und ein Compute-Monster. Diese Tugenden sind allerdings mittlerweile verloren gegangen, während man die alten Laster (Verbrauch, Leistung "auf die Straße bringen") nach wie vor mit sich rumschleppt.

Natürlich gibt es auch Lichtblicke bei Vega, allen voran der HBCC. Bei immer weiter steigendem VRAM-Bedarf durch immer ineffizienterem Umgang mit diesem durch die Spiele selbst, trifft so ein Feature genau den Zeitgeist. Die Kombination mit schnellem, aber teurem HBM passt da extrem gut. Auch der DSBR geht in die richtige Richtung, aber so wirklich Wirkung hat er bisher nicht gezeigt (hat eigentlich mittlerweile mal wer getestet ob und wo er aktiv ist?). Dann noch die Primitive Shader, die sich erstmal sehr gut anhören, weil man eine komplizierte Pipeline vereinfacht bzw. vereinheitlicht und mehr Flexibilität hinzufügt. Bloß hier weiß keiner, was die Dinger so genau machen oder machen sollen, ob sie aktiv sind oder ob sie überhaupt jemals aktiv sein werden.

Am Ende muss man bei all den (geplanten) Innovationen aber festhalten, dass hinten nichts bei raus kommt. Normiert nach Bandbreite und Rechenleistung holt man gegenüber Polaris nichtmal eine 1:1-Skalierung raus. Keine Besserung bei Perf/W (ja, man kann Vega undervolten, aber das geht bei Polaris auch und Vega hat noch HBM) und sogar schlechtere Perf/Fläche. Da lässt sich nur hoffen, dass V10 eine Art Pipecleaner war für die neue Architektur und dass AMD mit dem nächsten Chip die Leistung hochfährt. So wie quasi beim RV770 gegenüber R600.

dargo
2017-12-21, 11:15:48
Die HW ist einfach zu ineffizient.
Wie lange wird dieser Bullshit hier noch von den üblichen Verdächtigen durchgekaut die offensichtlich keinen blassen Schimmer von der Hardware haben? Du kannst es auch gerne noch zig mal wiederholen, es bleibt Bullshit.


Man sollte nach Fiji, Polaris und Vega einfach mal aufhören zu glauben, dass AMD jetzt einfach so den großen NVIDIA-Killer aus der Hüfte schießt.
Stimmt... die Konkurrenz muss natürlich sofort den großen Killer mit mindestens 50% mehr Leistung bringen, alles andere ist Fail. :facepalm: Und die Produkte außerhalb der schnellsten GPUs interessieren wie immer die Welt auch nicht mehr. Oh man...

@Achill und akuji13
Habt ihr das bei euren Vegas beim Undervolting auch, dass 5% Leistung später fehlen? Bei mir ist das jetzt reproduzierbar. Ich nehme also den PPTable-Editor, setze meine Settings und speichere diese als Reg-File ab. Führe die Datei aus und starte den Rechner neu. Die Performance sowie der Takt passen. Beim nächsten Neustart fehlen wieder 5% Leistung bei nur 1% weniger Takt was komplett unlogisch ist.

Könntet ihr dieses Verhalten bei euch genau überprüfen? Wichtig wäre sich die Performance bei der ersten Begegnung vom PPTable-Editor zu merken, ansonsten "arbeitet" ihr dann mit den etwas falschen Frameraten.

Damit kann ich schon mal diesen Bug nicht aushebeln.
https://abload.de/img/ntool_10ojs1y.jpg https://abload.de/img/ntool_11u6s08.jpg

Als nächstes versuche ich mal 950mV. Vielleicht mag Vega bestimmte Spannungen nicht? Wie ist das bei Vega überhaupt mit den Spannungen? Ändern sich diese wirklich in 1mV Schritten oder wie sieht es bei Vega aus?

@Bucklew
Gehe einfach in deine NV-Threads in Frieden. Hier kommt von dir sowieso nichts Informatives zu Vega, außer Trolling und Schwarzmalerei.

Igor TH
2017-12-21, 11:54:39
Der Ansatz bei Vega ist eigentlich genial und passt sehr schön zu Epyic. Alles,was in Richtung Server und Machine Learning geht, ergibt da einen Sinn und ist in sich schlüssig. Und ist allemal innovativer, als Intels mutloses Mesh, zumal es in diesem Bereich auch gut funktioniert. Und zum besseren Verständnis: in dieser Sparte wird die Kohle abgeräumt und nicht bei den Gamern. Enterprise ist ein goldenes Kalb und AMD wäre grob fahrlässig, nicht mitzunehmen, was es mitzunehmen gibt. Viele der Packages landen auch in der MI25, da muss man ga nicht erst die Miner vors Loch schieben wenn es darum geht, anderweitig Verwendung für Vega zu finden.

Leider ist all dies nicht so publikumswirksam, wie der ganze Gaming-und Mining-Hype-Train. Bedauerlicherweise hat heute kaum noch eine Redaktion größere Intentionen, auch mal Workstation und Server-Geraffel zu testen oder wenigstens ausführlicher darüber zu berichten. Klicks werden mit anderen Dingen generiert, leider.

Dino-Fossil
2017-12-21, 12:05:23
Das macht er doch schon seit Tagen hier ^^

Jein - er zeigt das Vega viel Potential hat, wenn
a) man ordentlich undervolten kann, was aber voraussetzt das der Chip sowas mitmacht
und
b) Vega eine bessere Feinabstimmung erhält.

Leider hat AMD sich entschlossen Vega im Brechstangenmodus zu veröffentlichen, vermutlich weil keine Zeit mehr und die 1080 geschlagen werden sollte.
Und in dieser Form ist Vega klar ineffizienter als nVidias Pascal GPUs - sowohl Perf/Watt als auch Perf/mm^2.

Ich finde das schade, da man mit einer runderen, gereiften Vega deutlich mehr Eindruck hätte machen können. Gut, die Nachfrage könnte man dann vermutlich erst recht nicht bedienen, aber es hätte dem lädierten Ruf gut getan.

@Igor:
Ich hoffe, dass AMD im professionellen Markt damit Erfolg hat. Aber es liegt halt in der Natur der Sache, dass du in öffentlichen Foren wie diesem hier v.a. Spieler siehst, die eben Gamingkarten suchen...

Igor TH
2017-12-21, 12:11:54
@Dino-Fossil:
AMD hat das neue Server-Zeug auf Consumer-Level runtergebrochen. Dass da so mache Gaming-bezogene Optimierung fehlt, liegt in der Natur der Sache. Aber dafür, dass es eigentlich "zweckentfremdete" Produkte sind, sind sie noch recht gut. Nur die bezahlten PR-Lautsprecher nerven mich immer wieder, weil sie gegen besseres Wissen Bullshit verbreiten. :)

yamamoto_dc
2017-12-21, 12:21:02
In den meisten Ländern interessiert Effizienz nicht besonders, kann man jetzt schlecht finden, ist aber so. Ich bin mit meiner Vega recht zufrieden, für Freesync-Nutzer gibt es keine bessere Karte im oberen Leistungsbereich.

NV-Nutzer sollten sich hier mal etwas zurücknehmen, wir wissen mittlerweile, dass ihr Vega nicht mögt. Das muss man nicht x-mal wiederholen, freut euch auf Ampere und stimmt die Nvidia-Jubelarien woanders an.

Dino-Fossil
2017-12-21, 12:26:09
@Dino-Fossil:
AMD hat das neue Server-Zeug auf Consumer-Level runtergebrochen. Dass da so mache Gaming-bezogene Optimierung fehlt, liegt in der Natur der Sache. Aber dafür, dass es eigentlich "zweckentfremdete" Produkte sind, sind sie noch recht gut. Nur die bezahlten PR-Lautsprecher nerven mich immer wieder, weil sie gegen besseres Wissen Bullshit verbreiten. :)

Gut, kaum Interesse/Resonanz hast du ja schon angesprochen, aber ist da trotzdem was geplant bei euch?
In der Vergangenheit hast du ja durchaus mal eine Workstation-Karte getestet.

yamamoto_dc
2017-12-21, 12:30:18
Was haltet ihr von der Hypothese, dass Navi erst in 2019 kommt und im Frühling/Sommer ein Vega-Refresh in 12nm zwischengeschoben wird. Das wäre für mich auch eine mögliche Erklärung, dass die Boardpartner sich im Moment sehr zurückhalten.

Daredevil
2017-12-21, 12:48:13
@dargo
Schon mal das Vega56 Bios auf deine Karte gespielt zwecks undervolting?
Weil... Power Target kann man ja immer erhöhen, aber senken geht nicht gut bis zu einem bestimmten Level.

Birdman
2017-12-21, 12:49:37
im Frühling/Sommer ein Vega-Refresh in 12nm zwischengeschoben wird.
Halte ich sehr wenig davon, weil die Zeitspanne zwischen aktuellem Vega Release (was "quasi" dem JETZT entspricht) und Frühling/Sommer zu kurz ist um einen Sinn zu ergeben, bzw. um überhaupt möglich zu sein.

dargo
2017-12-21, 12:52:44
Noch eine weitere Kuriosität beim Undervolting.

Ich bin jetzt ja bei 950mV. Damit passiert sehr oft, dass nach einem Rechnerneustart der Wattman die benutzerdefinierten Settings nicht behält und zurück auf den balanced Modus springt. Selbst wenn ich wieder auf benutzerdefiniert wechsle habe ich immer noch 220W Asicpower, das richtige Undervolting greift also nicht. So ein Verhalten hatte ich komischerweise bei 940mV nicht. Gehe ich in den Wattman, wechsle auf benutzerdefiniert und ändere die 950mV im P6 auf 940mV (P7 ist weiterhin auf 950mV) wird wieder richtig undervoltet. :freak:

Kann mir noch jeder folgen? ;D Wahrscheinlich nicht, erst recht nicht diejenigen die gar keine Vega haben. :D

Einen Punkt muss ich noch korrigieren. Wenn ich diese 220W Asicpower und 1,0V zu Gesicht bekomme liegen keine 1,0V vom UV an, oder besser gesagt nur im Schnitt ~1,0V. Das sehe ich daran, dass die Spannung weiterhin zwischen 9xxmV und 11xxmV schwankt. Das bedeutet in diesem Fall greift weiterhin die Telemetrie von AMD. Beim richtigen UV (also wo die Telemetrie von AMD ausgehebelt wird) gibt es diese starken Fluktuationen in der Spannung nicht. Warum ich allerdings im Bios 1 eine 220W Grenze und keine 264W Grenze habe ist mir weiterhin ein Rätsel. Das liegt irgendwie an den Settings vom OverdriveNTool. Wenn ich wieder 264W Asicpower haben will muss ich die Daten aus der Registry löschen.

@dargo
Schon mal das Vega56 Bios auf deine Karte gespielt zwecks undervolting?

Ich spiele keine anderen Biose drauf.


Weil... Power Target kann man ja immer erhöhen, aber senken geht nicht gut bis zu einem bestimmten Level.
Wie kommst du auf diese Schnapsidee? Natürlich kannst du die Asicpower weiter absenken indem du ganz einfach die Spannung und somit den Takt weiter absenkst. Es ist überhaupt kein Problem eine RX Vega64 (Liquid) mit bsw. 150W (ganze Karte) zu betreiben.

Achill
2017-12-21, 12:56:46
@dargo
Schon mal das Vega56 Bios auf deine Karte gespielt zwecks undervolting?
Weil... Power Target kann man ja immer erhöhen, aber senken geht nicht gut bis zu einem bestimmten Level.

Ist hier ggf. "ab" gemeint? Ich habe beim Senken des Power Targets bisher nichts negatives feststellen können (Außer das Takt und damit FPS weniger werden). Prinzipiell wird Vega aber Effizienter mit einen kleineren Power Target ... Was sind denn andere Erfahrungen dazu?

akuji13
2017-12-21, 12:58:46
Eins kann ich sicher sagen... diese fehlenden 5% Performance beim Undervolting kommen nicht zustande wenn ich den Rechner neu starte. Hier passt die Leistung und Takt weiterhin. Es gibt also zwei Möglichkeiten.

1. Sobald die Grafikkarte vom Strom getrennt wird kommen die Daten vom OverdriveNTool die in der Registry hinterlegt sind durcheinander (ein Bug?) und es gibt 5% weniger Leistung bei nur 1% weniger GPU-Takt.

Ich würde auch auf das tool tippen.
Ohne Neustart hatte ich da schon kuriose Fälle.
So wurde die sonst funktionierender PT diese überhaupt nicht mehr beachtet und es lagen die Originalen Spannungen an.

Und jetzt noch verrätst du mir noch wieso ich mit den settings reproduzierbares FreeSync Flackern habe.
FS Schalter auf aus, Flackern weg, Schalter auf ein, Flackern wieder da. :eek::confused:

Noch eine weitere Kuriosität beim Undervolting.

Ich bin jetzt ja bei 950mV. Damit passiert sehr oft, dass nach einem Rechnerneustart der Wattman die benutzerdefinierten Settings nicht behält und zurück auf den balanced Modus springt. Selbst wenn ich wieder auf benutzerdefiniert wechsle habe ich immer noch 220W Asicpower, das richtige Undervolting greift also nicht. So ein Verhalten hatte ich komischerweise bei 940mV nicht. Gehe ich in den Wattman, wechsle auf benutzerdefiniert und ändere die 950mV im P6 auf 940mV (P7 ist weiterhin auf 950mV) wird wieder richtig undervoltet. :freak:

Kann mir noch jeder folgen? ;D Wahrscheinlich nicht, erst recht nicht diejenigen die gar keine Vega haben. :D

Kenne ich.

Der Wattman springt bei mir auch immer wieder zurück, ist mir allerdings egal weil ich den überhaupt nicht mehr nutze.

Der_Korken
2017-12-21, 13:00:05
Halte ich sehr wenig davon, weil die Zeitspanne zwischen aktuellem Vega Release (was "quasi" dem JETZT entspricht) und Frühling/Sommer zu kurz ist um einen Sinn zu ergeben, bzw. um überhaupt möglich zu sein.

Wer weiß. Ein Vega-Refresh kann ja durchaus parallel entwickelt worden sein. Außerdem gab es (abgesehen von APUs) nur einen Vega-Die, nämlich V10. Da AMD auch noch einen 1:2DP-Chip braucht und es bei V10 massiv Verbesserungspotenzial gibt, wäre ein "V10 done right +DP" im Frühjahr 2018 nicht abwegig. Außerdem hatte ich bei V10 das Gefühl, dass das Silizium schon länger fertig war, aber es beim HBM und beim Treiber haperte.

Zwischen R600 und RV770 lag übrigens auch nur ein Jahr, inklusive Zwischenschieber RV670 und je zwei zusätzlichen Dies für Lowend und Midrange.

dargo
2017-12-21, 13:00:24
Und jetzt noch verrätst du mir noch wieso ich mit den settings reproduzierbares FreeSync Flackern habe.
FS Schalter auf aus, Flackern weg, Schalter auf ein, Flackern wieder da. :eek::confused:
Welches Spiel?


Kenne ich.
Der Wattman springt bei mir auch immer wieder zurück, ist mir allerdings egal weil ich den überhaupt nicht mehr nutze.
Dann hat deine Liquid also keine 1,0V Sperre? Ich brauche den Wattman leider um drunter zukommen bzw. um überhaupt richtig zu undervolten.

akuji13
2017-12-21, 13:01:15
Jedes...selbst auf dem desktop. :D

Sogar da läuft FS! :D

dargo
2017-12-21, 13:02:20
Strange. :freak: Schon mal weniger Takt probiert? Ansonsten versuche mal noch höhere Spannung beim IMC.

Daredevil
2017-12-21, 13:07:34
Ist hier ggf. "ab" gemeint? Ich habe beim Senken des Power Targets bisher nichts negatives feststellen können (Außer das Takt und damit FPS weniger werden). Prinzipiell wird Vega aber Effizienter mit einen kleineren Power Target ... Was sind denn andere Erfahrungen dazu?
Mit gesenktem Power Target kommt man unter 0.9v, aber ab ~-35% geht die Leistung( Takt ) nicht mehr linear, sondern schlagartig in den Keller.
Mit einem Vega56 Bios könnte man das zum Teil umgehen, weil dort komplett andere Spannungen ( Mem Voltage ) und Takte ( SoC Takt ) anliegen.

Es ist besser, wenn man unten anfängt und nach oben tweakt, als wenn man oben ist und nach unten tweakt mit dem PT, weil man die Auswirkungen des -PT mit dem Takt beeinflussen kann.

RoughNeck
2017-12-21, 13:17:47
Dann hat deine Liquid also keine 1,0V Sperre? Ich brauche den Wattman leider um drunter zukommen bzw. um überhaupt richtig zu undervolten.

Wie 1V Sperre?
Ich nutze den Wattman überhaupt nicht, nur das OverdrivNTool.
Aber trotzdem verstehe ich meine Karte immer noch nicht, manchmal liegen 0,975 oder 0,950 an.

Gipsel
2017-12-21, 13:24:34
Jetzt kriegen sich die zwei, drei Herren mal wieder ein! Das ist hier immer noch der Review-Thread, in dem der eine oder andere eine gesittete Diskussion lesen will.