PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41 42 43 44 45

akuji13
2017-12-21, 13:33:40
Dann hat deine Liquid also keine 1,0V Sperre? Ich brauche den Wattman leider um drunter zukommen bzw. um überhaupt richtig zu undervolten.

Hat sie nicht würde ich sagen.

Zumindest sagen die tools das sie z. B. im Witcher zwischen 0.906, 0.912 und 0.918 wechselt.

Strange. :freak: Schon mal weniger Takt probiert? Ansonsten versuche mal noch höhere Spannung beim IMC.

Weniger Takt brachte nichts, mehr Spannung auf dem Speicher schon.

875mV waren wohl zu wenig für 1Ghz auch wenns stabil war.
Ab 880 verschwindet das Flackern reproduzierbar, gesetzt habe ich jetzt 885 damit ein bißchen Reserve vorhanden ist.
Mal schauen ob das jetzt Flackerfrei bleibt auf die Dauer.

dargo
2017-12-21, 13:39:09
Wie 1V Sperre?

Manche Karten gehen nicht unter 1,0V, ich vermute hier verschiedene Biose.

btw.
Das mit dem UV bleibt erstmal Akte X :D

1. 5% Leistung fehlen sobald die Karte vom Strom getrennt wird (reproduzierbar)
2. Ob die Spannungen in den einzelnen P-States gleich oder unterschiedlich sind spielt keine Rolle
3. Der Takt bei P6 ist komplett unwichtig sofern es noch einen höheren P-State (P7) als Richtwert gibt
4. Die fehlenden 5% Leistung lassen sich nicht mit mehr Takt ausgleichen

Beispiel...
Mit 950mV im höchsten P-State und 1752Mhz habe ich real 1560Mhz in Wolf 2 mit 145fps wenn das UV richtig greift. Wenn die Karte vom Strom getrennt wird sind es 138fps bei 1530Mhz. Erhöhe ich in dem Fall den Richtwert bei P7 auf 1802Mhz ergibt das wieder 1560Mhz real. Die Frames steigen aber kaum an... <=1fps. :freak:

PS: ich möchte dabei betonen, dass sich diese Erfahrungen ausschließlich auf meine Karte beziehen und nicht unbedingt in jedem Punkt 1:1 auf andere Vegas übertragbar sind!

RoughNeck
2017-12-21, 13:51:17
Ich beschäftige mich damit am WE weiter, aktuell fehlt mir Zeit.
Vor Weihnachten geht es hier in der Firma drunter und drüber.

Was die 5% angeht.
Beim undervolten mit dem Curve Editor verliere ich auch etwas mit der 1080 TI, ist also kein reines AMD Problem und stört mich eigentlich nicht.

Dino-Fossil
2017-12-21, 13:59:13
Das ist auch wieder falsch. Wenn der User die Karte nicht bedienen kann ist nicht AMD schuld. AMD hat sich sicherlich für die Brechstange im balanced Profil entschieden. Den Turbomodus blende ich komplett aus, das ist noch hirnverbrannter. Jeder User hat aber die Möglichkeit den Powersave-Modus zu verwenden. Selbst also ohne UV steigt die Perf/W erheblich damit an. Und mit dem Alternativbios kann man das ganze noch feinfühliger betreiben.

Wenn AMD die Karte nicht mit vernünftigen Default-Einstellungen liefern kann oder möchte ist einzig und alleine AMD schuld.

Ich schätze ja deine Hartnäckigkeit beim Ausloten der Feinheiten von Vega und anderer Hardware - aber grundsätzlich die Verantwortung von AMD auf den Nutzer abzuwälzen ist einfach Quatsch.

RoughNeck
2017-12-21, 14:26:42
@Dino Fosil

Da gebe ich dir natürlich recht.
Nur es macht auch Spaß seine Hardware kennen zu lernen und AMD stellt nach guter alter Tradition immer zu viel Volt. Ob das jetzt daran liegt dass die jeden noch so schlechten Chip verwenden möchten oder nicht weiß nur AMD.

dargo
2017-12-21, 14:27:38
Was die 5% angeht.
Beim undervolten mit dem Curve Editor verliere ich auch etwas mit der 1080 TI, ist also kein reines AMD Problem und stört mich eigentlich nicht.
Das ist ein komplett anderes Thema. Die 5% fehlen hier nur nach einen Kaltstart, also wenn die Graka vorher vom Strom getrennt war. Wer die 5% also nicht verlieren möchte muss nach jedem Kaltstart die Reg-Datei neu einspielen. Hier gibt es zu 99% einen Bug im OverdriveNTool. Also auf eine neuere Version hoffen die das behebt oder ältere Versionen probieren. Letzteres gehe ich noch an.

Wenn AMD die Karte nicht mit vernünftigen Default-Einstellungen liefern kann oder möchte ist einzig und alleine AMD schuld.

Ich schätze ja deine Hartnäckigkeit beim Ausloten der Feinheiten von Vega und anderer Hardware - aber grundsätzlich die Verantwortung von AMD auf den Nutzer abzuwälzen ist einfach Quatsch.
Du hast offenbar immer noch nicht verstanden, dass AMD dir mit Vega 6 verschiedene PT-LimitsPresets und somit auch Grafikkarten liefert. Der User hat also die Wahl. Seit wann ist eine Wahl schlecht? Hier sind manche so festgefahren, dass die neue Features nicht akzeptieren können. Rein theoretisch könnte AMD alleine mit Vega64 Air nach dem alten Schema 6 verschiedene Grafikkarten anbieten. Wäre dir das lieber?

Dino-Fossil
2017-12-21, 14:48:09
Nur es macht auch Spaß seine Hardware kennen zu lernen

Natürlich, ich kann auch nachvollziehen, dass die Leute Spaß am optimieren ihrer Hardware haben. Dafür ist Vega geradezu ideal.

Du hast offenbar immer noch nicht verstanden, dass AMD dir mit Vega 6 verschiedene PT-LimitsPresets und somit auch Grafikkarten liefert

Ja ne, ist klar. Wer nicht dargo's Linie folgt hat nix verstanden...
Ich habe doch nie bestritten, dass Vega diese Möglichkeiten bietet.
Trotzdem hat sie bescheidene default Settings - und das wird getestet, das ist es was 95% aller Nutzer verwenden werden.
Wenn du nicht einsiehst, dass sich AMD damit ins eigene Fleisch schneidet, Vega so zu veröffentlichen, glaube ich eher du hast hier etwas nicht verstanden - nämlich grundlegende Mechanismen von Wahrnehmung und Kaufverhalten.

Daredevil
2017-12-21, 14:48:49
Du tust ja so, als würde AMD dir damit einen Gefallen tun. :D

AMD bietet nicht aus Nächstenliebe so viele Idiotensichere Möglichkeiten an, sondern weil sie eben nicht das "On Point" Produkt haben. Entweder zu lahm/leise oder schnell/laut.

dargo
2017-12-21, 14:56:07
Ja ne, ist klar. Wer nicht dargo's Linie folgt hat nix verstanden...
Ich habe doch nie bestritten, dass Vega diese Möglichkeiten bietet.
Trotzdem hat sie bescheidene default Settings - und das wird getestet, das ist es was 95% aller Nutzer verwenden werden.
Wenn du nicht einsiehst, dass sich AMD damit ins eigene Fleisch schneidet, Vega so zu veröffentlichen, glaube ich eher du hast hier etwas nicht verstanden - nämlich grundlegende Mechanismen von Wahrnehmung und Kaufverhalten.
Dann sollte man langsam vielleicht die Kompetenz einiger Redaktionen in Frage stellen die sich mit grundlegenden Funktionen einer Grafikkarte in einem Review überhaupt nicht auseinander setzen. Immerhin haben sich einige mit den zwei Biosen und verschiedenen Powerprofilen näher befasst. Und wenn User mit solchen Kleinigkeiten (ich spreche jetzt von den Standardsettings die Vega bietet und kein UV an) überfordert sind dann sollten diese sich vielleicht eine Konsole zulegen. Dort heißt es nur Hirn abschalten, Konsole einschalten und losdaddeln.

@Daredevil
Ich finde die Wahl zu haben immer vorteilhaft. Mir reicht die Leistung einer RX Vega64 Liquid mit ~125W weniger Verbrauch (jetzt auf UV bezogen) während zb. Achill oder Gedi mehr Leistung anstreben weil der Verbrauch bei denen zweitrangig ist. Schon sind alle glücklich.

Lehdro
2017-12-21, 15:04:55
Dann sollte man langsam vielleicht die Kompetenz einiger Redaktionen in Frage stellen die sich mit grundlegenden Funktionen einer Grafikkarte in einem Review überhaupt nicht auseinander setzen. Immerhin haben sich einige mit den zwei Biosen und verschiedenen Powerprofilen näher befasst. Und wenn User mit solchen Kleinigkeiten (ich spreche jetzt von den Standardsettings die Vega bietet und kein UV an) überfordert sind dann sollten diese sich vielleicht eine Konsole zulegen. Dort heißt es nur Hirn abschalten, Konsole einschalten und losdaddeln.
Es haben sich nichtmal alle Redaktionen mit den Biosen und Profilen befasst, aber du dehnst das direkt auf die Enduser aus. Mal als realistische Anmerkung: Die wenigsten PC User öffnen überhaupt das Treibermenü.

AMD und NV versuchen nicht ohne Grund das ganze mit 1 Click Programmen zu vereinfachen.

Daredevil
2017-12-21, 15:10:52
Ja super. :D
AMD verpackt das PowerTarget in 2 Biose und 3 Knöpfe im Treiber.
Bei Nvidia dreht man halt das PT hoch = Mehr Takt+Saft oder dreht es eben runter = weniger Takt+Saft.
Da hat man immerhin eine Leistungssteigerung, wenn man es hochschraubt. :D

Basteln kannste halt auch überall und ja, das ist fein.
Manche lassen ihre GTX1080@2.1Ghz mit 1.05v laufen, ich lass meine gerade mit 1.8Ghz@0.85v laufen. So what.

dargo
2017-12-21, 15:22:09
Bei Nvidia dreht man halt das PT hoch = Mehr Takt+Saft oder dreht es eben runter = weniger Takt+Saft.
Da hat man immerhin eine Leistungssteigerung, wenn man es hochschraubt. :D

Und bei AMD hat man es nicht oder was? Vergleich mal Referenz GTX1080 mit einer Custom 1080 die in den Regionen von 1,85-1,90Ghz boostet und dann eine Referenz Vega mit der Vega Liquid.

Bucklew
2017-12-21, 15:33:23
Manche lassen ihre GTX1080@2.1Ghz mit 1.05v laufen, ich lass meine gerade mit 1.8Ghz@0.85v laufen. So what.
Der Punkt ist aber halt, dass man es nur kann und nicht muss.

Und wenn AMD eben die Vega-Karte im Default so ausliefert, wie sie im Default ausgeliefert wird, ist das eben der status quo? :rolleyes:

Savay
2017-12-21, 15:36:11
Der Punkt ist aber halt, dass man es nur kann und nicht muss.

Der eigentliche Punkt ist...UV und/oder OC ist immer optional.

Nirgendwo "muss" man irgendwas! :freak:

Rancor
2017-12-21, 15:42:52
Es ist aber schon ein Unterschied ob eine Karte @Default ne vernünftige Effizienz liefert oder man erst stundenlang rum konfigurieren/testen muss, damit man auf ein halbwegs vernünftiges Perf/Watt Verhältnis kommt. Natürlich muss man das nicht machen, aber dann ist VEGA eben ineffizient bis zum get no.

Dargos Bemühungen in allen Ehren, aber alleine das zeigt schon, wie unausgereift das Produkt eigentlich ist.
Da beisst die Maus nun mal eben keinen Faden ab.

Man kann nur hoffen das die Customs da besser ausbalanciert sind, sofern sie denn mal in nennenswerten Mengen auf den Markt kommen.

Daredevil
2017-12-21, 15:47:00
Und bei AMD hat man es nicht oder was?
Doch, schon. Nur steigen dann nicht die FPS großartig an, sondern leider nur der Geräuschpegel. :freak:
Ich hab ebenfalls ne GTX1080 FE zum zocken gehabt, da geht durchaus mehr im Rahmen des vertretbaren und es eskaliert nicht so sehr. :)

Wenn ne GTX1080 FE mit 2Ghz Boosttakt ausgeliefert wird, würde das genauso aussehen.
Standard Betrieb an der Kotzgrenze, heiß und laut.

Savay
2017-12-21, 15:49:28
vernünftige Effizienz

Definiere "vernünftige Effizienz"! :rolleyes:

Effizienz ist zum einen kein starres Kriterium und der Rahmen ändert sich zudem eh laufend...mindestens mit jedem Node im Fertigungsprozess...und noch dazu ist es von persönlichen und anwendungsbezogenen Vorgaben abhängig, was noch "vernünftig" ist und was nicht.

Ich finds langsam ziemlich schwachsinnig und ermüdend sich daran abzuarbeiten...Zumal diejenigen die hier diesbezüglich am lautesten rumkrakelen eh mal wieder jene welche sind die ne AMD Karte nicht mal mit ner Kneifzange anfassen würden...egal wie die Effizienz aussähe.

Nachtigall, ick hör dir trapsen.

Rancor
2017-12-21, 15:51:52
VEGA 64 Liquid liefert @ primär Bios und Turbomodus bei nahezu 300 Watt ~ GTX 1080 Custom Leistung + ggf 10%. In LL etwas mehr. Das ist aber ineffizient im Vergleich zu den NV Karten.

Jetzt kann man ewig rumbasteln bis man vllt. auf 220 Watt bei nahezu gleicher Leistung kommt. Aber warum sollte man das, wenn man sich einfach ne Custom GTX 1080 in den Rechner stecken kann und dann auch bei 220 Watt landet, sich aber die Frickelei spart? Ich sehe bis auf die etwas bessere LL Performance, da keinen rationalen Grund zu.

Ich fasse die Karten deswegen nicht an, weil Sie mMn. das schlechtere Gesamtpaket liefern und nicht weil sie von AMD kommen.
Ich habe ja selber eine AMD CPU, weil mich dort AMD überzeugt hat. Mir ist es egal welcher Hersteller was liefert. Es kommt auf das Produkt an.

Savay
2017-12-21, 16:01:56
Ich sehe bis auf die etwas bessere LL Performance da keinen rationalen Grund zu.

Und ich habe keine rationalen Gründe gesehen mir eine 1080er in die Kiste zu stecken, weil ich dann gleich nochmal zusätzliche 300-400€ für nen äquivalenten G-Sync Monitor hätte drauflegen dürfen...da kann die Karte schon ganz schön lange unter Volllast für laufen (was sie idR ja nicht mal immer tut) um das auszugleichen! :freak:

Wie gesagt...das ist, vor allem in der Systembetrachtung, alles viel zu sehr von individuellen Kriterien und Rahmenbedingungen abhängig.

Bucklew
2017-12-21, 16:02:25
Der eigentliche Punkt ist...UV und/oder OC ist immer optional.

Nirgendwo "muss" man irgendwas! :freak:
Nein, natürlich nicht. Darum geht es auch nicht.

Nur: Ich kann die Effizienz (Leistung, Leistungsaufnahme, Lautstärke etc. pp.) einer Karte im Grunde nur im Default messen und mit Anderen vergleichen. Alles Andere ist defakto unmöglich. OC und/oder UV ist immer Chip abhängig und nur weil mein Chip +30% OC oder -20% UV verträgt, muss das die Karte vom Nachbarn noch lange nicht können.

Und im Default gilt eben das, was hier als Trolling bezeichnet wurde: Vega ist in Sachen Effizienz deutlich schlechter als GP102. Das ist ein Fakt, den nun wirklich niemand leugnen kann!

Linmoum
2017-12-21, 16:13:57
Es ist aber schon ein Unterschied ob eine Karte @Default ne vernünftige Effizienz liefert oder man erst stundenlang rum konfigurieren/testen muss, damit man auf ein halbwegs vernünftiges Perf/Watt Verhältnis kommt.
Das Vega @Default mit der Brechstange betrieben wird, darüber brauchen wir ja nicht großartig zu diskutieren. Zwar unverständlicherweise, aber so ist das eben. Aber wenn man eines nicht muss, dann stundenlang rumtesten um ein vernünftiges Perf/Watt-Verhältnis zu bekommen. In diesem Zustand hätte schon AMD die Karten ganz simpel ausliefern können.

https://i.gyazo.com/f0b65f563dde51e7e9b5939809d0f98f.png
https://i.gyazo.com/c9ddd46e6f5e1697fae31489b1d4e8a3.png

https://www.computerbase.de/2017-09/radeon-rx-vega-bios-power-test/2/

Rancor
2017-12-21, 16:15:20
Und ich habe keine rationalen Gründe gesehen mir eine 1080er in die Kiste zu stecken, weil ich dann gleich nochmal zusätzliche 300-400€ für nen äquivalenten G-Sync Monitor hätte drauflegen dürfen...da kann die Karte schon ganz schön lange unter Volllast für laufen (was sie idR ja nicht mal immer tut) um das auszugleichen! :freak:

Wie gesagt...das ist, vor allem in der Systembetrachtung, alles viel zu sehr von individuellen Kriterien und Rahmenbedingungen abhängig.

Wenn man einen adaptive Sync Monitor hat, dann ist das natürlich eine andere Geschichte, klar.

Savay
2017-12-21, 16:18:15
Nur: Ich kann die Effizienz (Leistung, Leistungsaufnahme, Lautstärke etc. pp.) einer Karte im Grunde nur im Default messen und mit Anderen vergleichen.

Natürlich kann man das auch anders machen...wird ja auch durchaus so praktiziert...zumal das hin und herschubsen eines Schiebers fürs BIOS oder des Leistungspresets jetzt nicht so der enorme Akt ist.
Es treibt den Aufwand nur ins Absurde wenn man wirklich alle Kombinationen austesten will.

Wenn man deine Logik weiterspinnt, darf man übrigens auch nur Referenzkarten miteinander vergleichen...alles andere wäre ja dann meistens auch schon nicht mehr "Default".
Und diese ganzen zusätzlichen "OC/UV" Betrachtungen in den Reviews wären auch überflüssig.

Irgendwo kann man sich auch zu sehr einschränken...damit ist der Aufwand dann zwar geringer, aber ob sich damit dann noch ein wirklich vollständiges Bild ergibt ist damit noch lange nicht gesagt.
Aber differenziertere Betrachtungen taugen halt nicht zur Polemik.

Megamember
2017-12-21, 16:23:10
Und ich habe keine rationalen Gründe gesehen mir eine 1080er in die Kiste zu stecken, weil ich dann gleich nochmal zusätzliche 300-400€ für nen äquivalenten G-Sync Monitor hätte drauflegen dürfen.

Also ich hab bis jetzt Freesync kein Stück vermisst. Mit einem guten 144Hz TFT isses eh egal, da kann man gucken wie man will, man bemerkt einfach keine Bildzerreisser mehr, vielleicht noch mit Messequipment oder so. Wieso man also für Nvidia unbedingt noch ein Gsync Monitor braucht erschliesst sich mir nicht.

Bucklew
2017-12-21, 16:25:46
Es treibt den Aufwand nur ins Absurde wenn man wirklich alle Kombinationen austesten will.
Es hat wenig mit Aufwand/Absurd zu tun, sondern damit, dass OC/UV einfach nicht repräsentativ sind für das, was man als Käufer bekommt, weil jede Karte anders ist.

Wenn ich aber das Produkt im Default vergleiche - das bekommt der Kunde ja auch, wenn er in den Laden geht. Wenn nicht, hat er auch das Recht, das einzufordern.

Wenn man deine Logik weiterspinnt, darf man übrigens auch nur Referenzkarten miteinander vergleichen...alles andere wäre ja dann meistens auch schon nicht mehr "Default".
Und diese ganzen "OC/UV" Betrachtungen in den Reviews wären auch überflüssig.
Nein.

1. Customkarten können auch gekauft werden, wie getestet. Und der Hersteller muss dies liefern. Wenn er mir 10% OC auf die Referenz verspricht und meine Karte kann nur 5 - habe ich Anrecht auf die versprochen 10%.
2. Ich hoffe ja, dass die entsprechenden Reviewer an solchen Betrachtungen ja auch dran schreiben, dass diese Werte sich nur auf ihre Testkarte beziehen und nicht versprechen, dass jeder Käufer diese erhält.

Ich denke wir können uns drauf einigen, dass Default-Zustand der sinnvollste Test-Zustand ist. Ob Referenz- oder Customkarte ist egal. Oder?

Rancor
2017-12-21, 16:29:06
Also ich hab bis jetzt Freesync kein Stück vermisst. Mit einem guten 144Hz TFT isses eh egal, da kann man gucken wie man will, man bemerkt einfach keine Bildzerreisser mehr, vielleicht noch mit Messequipment oder so. Wieso man also für Nvidia unbedingt noch ein Gsync Monitor braucht erschliesst sich mir nicht.

Sehe ich nicht so. Selbst mit einem 144 HZ Monitor sieht man Tearing, nämlich immer dann, wenn man nicht 144 FPS hat. :rolleyes:

Savay
2017-12-21, 16:29:29
Ich denke wir können uns drauf einigen, dass Default-Zustand der sinnvollste Test-Zustand ist. Ob Referenz- oder Customkarte ist egal. Oder?

Aha...und was fällt unter Default und was nicht?

BIOS2@PowerSave ist in dem Sinne kein UV/OC...
Das ist nix anderes als schlicht ein anderes "Default" Setting.

Bei meiner Karte sinds sogar 3 BIOSe mit 3 Presets...mit denen ich die Karte in beliebiger Kombination betreiben kann....und das ohne auch nur irgendwo händisch was am Takt oder den Spannungen rumfummeln zu müssen.

Megamember
2017-12-21, 16:29:35
Sehe ich nicht so. Selbst mit einem 144 HZ Monitor sieht man Tearing, nämlich immer dann, wenn man nicht 144 FPS hat. :rolleyes:

Dann hab ich wohl was mit den Augen. In meinen settings hab ich immer unter 100fps.

Rancor
2017-12-21, 16:31:49
Dann hab ich wohl was mit den Augen.

Keine Ahnung. GGf. bist du dafür auch nicht so empfindlich. Es gibt Leute die stört Tearing überhaupt nicht. Ich dagegen hasse es. Aber wird zu offtopic ^^

Bucklew
2017-12-21, 16:34:05
Aha...und was fällt unter Default und was nicht?
Karte einstecken, Treiber installieren. Sonst nix. Keinen DIP-Switch anklicken, keinen "Spezielmodus" aktivieren usw. usf.

Man kann natürlich drüber diskutieren, dass z.B. verschiedene BIOSe getestet werden, dann aber auch transparent gezeigt (wie oben von CB). Aber das Fazit sollte sich eben auf den Default beziehen. Man kann ja gern erwähnen, dass es natürlich auch andere Settings gibt. Wurde aber IMHO auch so getan.

Dino-Fossil
2017-12-21, 16:54:16
Ich finds langsam ziemlich schwachsinnig und ermüdend sich daran abzuarbeiten...Zumal diejenigen die hier diesbezüglich am lautesten rumkrakelen eh mal wieder jene welche sind die ne AMD Karte nicht mal mit ner Kneifzange anfassen würden...egal wie die Effizienz aussähe.

Für deine Akten: Ich habe seit Jahren eine AMD Karte, aktuell eine RX 480.

Ich "reg mich drüber auf", weil ich es für relativ unverständlich halte, das man soviel Potential bei Vega verschenkt hat.

Das Vega @Default mit der Brechstange betrieben wird, darüber brauchen wir ja nicht großartig zu diskutieren. Zwar unverständlicherweise, aber so ist das eben. Aber wenn man eines nicht muss, dann stundenlang rumtesten um ein vernünftiges Perf/Watt-Verhältnis zu bekommen. In diesem Zustand hätte schon AMD die Karten ganz simpel ausliefern können.

Ja, schon das hätte viel gebracht mMn.
Wobei ich mir denken kann was dahinter steckt: es gab die Vorgabe, dass die 1080 mindestens geschlagen werden muss. Mittlerweile dürfte das dank Treiberarbeit auch im Öko-Modus drin sein, damals war das leider noch nicht der Fall. Also kam die Brechstange raus.
Ähnliches gab es ja schon beim Polaris Launch 2016 mit dem selbsterklärten Gegner GTX 970.

Screemer
2017-12-21, 17:09:45
Dann hab ich wohl was mit den Augen. In meinen settings hab ich immer unter 100fps.

Dann hast du auch tearing. Das ist schlicht Prinzip bedingt.

@dino: Polaris war doch keinen Funken anders. Hab meine 480 damals um fast 250mv unterbietet, dabei den Takt noch über 580-Level gezogen und dabei noch den Speicher geknüppelt. Das Ende vom Lied war eine fast 20% schneller Karte, bei fast 20% weniger Verbrauch als die strixx gefault hatte.

dargo
2017-12-21, 17:27:50
Jetzt kann man ewig rumbasteln bis man vllt. auf 220 Watt bei nahezu gleicher Leistung kommt. Aber warum sollte man das, wenn man sich einfach ne Custom GTX 1080 in den Rechner stecken kann und dann auch bei 220 Watt landet, sich aber die Frickelei spart? Ich sehe bis auf die etwas bessere LL Performance, da keinen rationalen Grund zu.

Was für ewig rumbasteln? Mein Ergebnis habe ich schon längst. Es braucht halt paar Tage bis man das Powermanagement einer neuen Architektur versteht. Und warum ich keine Nvidia in Erwägung ziehe weißt du längst. Oder muss ich das 100x wiederholen? Zum einem wurde ich von NV mit der GTX970 verarscht was ich denen sehr übel nehme. Zum anderen, was viel schlimmer ist... ich unterstütze lieber einen offenen Standard. Nennt sich A-Sync.

Edit:
Die 220W für die ganze Karte habe ich jetzt nur bei meiner Vega genommen weil es die gleiche bis minimal höhere Leistung wie eine Default Vega Liquid @345W liefert und ich eben die Liquidkühlung habe. Bei 220W gesamte Karte langweilt sich der Radiator schon. Ich könnte genauso als Anhaltspunkt die Performance einer Liquid @220W Asic nehmen. Damit würde ich bei ca. 180-190W für die ganze Karte landen. Aber wie gesagt... die Kühlung macht es möglich. Bei einer RX Vega Custom mit Luft würde ich mich definitiv an den 200-220W Asic (je nach dem wie gut die Kühllösung ist) orientieren beim undervolten.

Also ich hab bis jetzt Freesync kein Stück vermisst. Mit einem guten 144Hz TFT isses eh egal, da kann man gucken wie man will, man bemerkt einfach keine Bildzerreisser mehr, vielleicht noch mit Messequipment oder so. Wieso man also für Nvidia unbedingt noch ein Gsync Monitor braucht erschliesst sich mir nicht.
Dann kannst du dich glücklich schätzen wenn du die Ruckler nicht siehst. Ich sehe sie ständig ohne Freesync. 144Hz helfen da kein Stück. Es ist zwar deutlich besser als der 60Hz Unfall, die Ruckler sind aber für mich persönlich noch deutlich erkennbar. Tearing finde ich bei 144Hz gar nicht mal so schlimm. Das ständige Ruckeln/Mikroruckeln verdirbt mir aber jeglichen Spielspaß. Ich frage mich heute immer noch wie ich dieses Geruckel früher ertragen konnte? Man kannte es halt nicht besser.


Wobei ich mir denken kann was dahinter steckt: es gab die Vorgabe, dass die 1080 mindestens geschlagen werden muss. Mittlerweile dürfte das dank Treiberarbeit auch im Öko-Modus drin sein, damals war das leider noch nicht der Fall. Also kam die Brechstange raus.

Und wie stellst du dir das vor? Soll jetzt AMD neue Biose veröffentlichen und von jedem 08/15 Hans erwarten, dass der in der Lage ist dieses aufzuspielen? Wer haftet wenn das Biosupdate schief läuft?

Daredevil
2017-12-21, 17:55:32
Pascal ist halt langweilig, Vega ist viel spannender. :)

Dino-Fossil
2017-12-21, 17:57:24
@dino: Polaris war doch keinen Funken anders. Hab meine 480 damals um fast 250mv unterbietet, dabei den Takt noch über 580-Level gezogen und dabei noch den Speicher geknüppelt. Das Ende vom Lied war eine fast 20% schneller Karte, bei fast 20% weniger Verbrauch als die strixx gefault hatte.

Hm, ein Stück weit hast du damit Recht, ja. Betreibe meine auch mit UV und (leicht) abgesenktem PT im "Öko-Modus" wo möglich (also unter Windows, Linux muss ich mit den Standardeinstellungen leben, aber da ocke ich auch nicht viel).

Nur spielt die Karte in der Referenzausführung verbrauchstechnisch in einer ganz anderen Liga und auch ist die Chipfläche günstiger im Vergleich zum direkten Konkurrenten.

Und wie stellst du dir das vor? Soll jetzt AMD neue Biose veröffentlichen und von jedem 08/15 Hans erwarten, dass der in der Lage ist dieses aufzuspielen? Wer haftet wenn das Biosupdate schief läuft?

Wer redet bitteschön von Biosupdates? Schon alleine die Treiberarbeit seit Launch der Referenzkarten dürfte da ein paar % aufgeholt haben. Nix Biosupdate.

Grendizer
2017-12-21, 17:57:57
nVidia (Pascal) ist abgehangen und nach 17 Monaten gibt es da nichts überraschendes mehr, was soll man da noch diskutieren was nicht bekannt wäre. Das wird dann mit Ampere wieder anders. Und zum Teil wird man vergleichen dürfen und bei aller Liebe zu Vega (ich habe sowohl eine Vega 64 Air wie auch eine Vega 64 LCE mehrere Wochen im Rechner gehabt) ist meiner Meinung nach das einzige valide Argument pro Vega Freesync. Und das ist dann für eine aktuelle Architektur die 15 Monate nach dem Konkurrenten auf den Markt kommt, dann doch etwas zu wenig. Dazu waren die AMD Tools, mit denen Dargo gerade die Limits auslootet vor 4 Wochen noch sehr instabil und mir hat das ganze rumgefummel mit spontanen Tool resets nur sehr bedingt Spass gemacht. Meine Vega LCE hat damals auch deutlich weniger uv vertragen als Dargos Karte.

Raff
2017-12-21, 18:02:35
Pascal ist halt langweilig, Vega ist viel spannender. :)

Yep, das Ding läuft einfach. Öde. ;D Sieht man auch an den Kommentaren, Vega lebt und der Rest dümpelt vor sich hin. Wer nicht gerne herumfummelt, soll sich 'ne Konsole kaufen. :biggrin:

MfG,
Raff

dargo
2017-12-21, 18:03:07
Wer redet bitteschön von Biosupdates? Schon alleine die Treiberarbeit seit Launch der Referenzkarten dürfte da ein paar % aufgeholt haben. Nix Biosupdate.
Ich habe dich so verstanden, dass du das Profil Powersave nun als Balanced definiert haben möchtest.

Meine Vega LCE hat damals auch deutlich weniger uv vertragen als Dargos Karte.
Die Aussage ist mir zu schwammig. Ohne, dass es jetzt negativ rüber kommt... hast du die Zusammenhänge beim Powermanagement von Vega richtig verstanden? Ich kann mich noch schwach daran erinnern, als du mit dem AB undervoltet hattest kammst du schneller an die Grenzen als ich. Das muss aber überhaupt nichts bedeuten. Es reicht schon, dass meine Vega in Idle weniger Spannung für einen stabilen Betrieb verträgt als deine schon ist das Ergebnis Grütze. Nicht vergessen... der AB senkt jeden P-State um X mV. Und genau das soll nicht der Fall sein. Ich hätte zu gerne deine Vega hier um die Grenzen auszuloten.

scully1234
2017-12-21, 18:20:17
Wer nicht gerne herumfummelt, soll sich 'ne Konsole kaufen. :biggrin:

MfG,
Raff

Herumfummeln aus Spaß an der Freude, oder Herumfummeln um Unzulänglichkeiten zu fixen, sind aber zwei paar Schuhe

Deswegen muss man nicht gleich zur Konsole wechseln wollen

dargo
2017-12-21, 18:22:55
Wo es nichts zum rumfummeln gibt kann man auch schlecht rumfummeln. Oder seit wann bietet NV im Treiber was vergleichbares zu Wattman?

scully1234
2017-12-21, 18:24:54
Ich weiß nicht was Nvidias dabei soll,aber um deine Frage zu beantworten, ja sowas wie Wattman gibts auch dort, wenn auch nicht Treiber gebunden

dargo
2017-12-21, 18:34:23
Ich habe explizit vom Treiber gesprochen und nicht von externen Tools. Nur der Treiber ist das was der IHV freigibt!

scully1234
2017-12-21, 18:35:11
und wo ist da jetzt der Breakpoint?

Ob ich das per EVGA Tool, Popobrenner ,Inspector,oder Treiber realisiere, ist doch vollkommen wurscht

Raff
2017-12-21, 18:40:28
Zwar ist das, was AMD softwaremäßig anbietet, klar besser als das von Nvidia. Einen Power User interessiert's jedoch nicht, ob das Tool offiziell oder von Dritten ist, solange es funktioniert. Oder nicht? :)

MfG,
Raff

Daredevil
2017-12-21, 18:41:51
Und weil der WattMan ja so gut funktioniert, arbeitest du mit dem WattTool und dem OverdriveNTool. :D
Aber ja, Nvidias CP sieht aus wie Windows98. ;D

Grendizer
2017-12-21, 18:44:07
Ich habe explizit vom Treiber gesprochen und nicht von externen Tools. Nur der Treiber ist das was der IHV freigibt!

Echt jetzt..... jede Custom Pascal hat ihr eigenes Tool (also Freigabe durch die Hersteller ?) dabei und AMD benötigt Wattman ja auch nur deshalb, weil das Zusammenspiel mit Afterburner seit Polaris nur noch suboptimal war. Das jetzt als ultimativen Vorteil für AMD zu entdecken finde ich dann doch etwas an den Haaren herbeigezogen.

Dino-Fossil
2017-12-21, 18:46:41
Ich habe dich so verstanden, dass du das Profil Powersave nun als Balanced definiert haben möchtest.

Meine Aussage war:
Hätte AMD schon zum Launch den Treiber besser im Griff gehabt, wäre das Ziel "1080" wohl damals schon bei geringerem PT zu erreichen gewesen und mglw. eine entsprechend effizientere und leisere Referenz-Vega (auch @default) erschienen.
Eventuell besser austarierte Telemetrie noch ganz außen vor gelassen.

Aber hätte, hätte, Fahradkette...

scully1234
2017-12-21, 18:46:58
Einen Power User interessiert's jedoch nicht, ob das Tool offiziell oder von Dritten ist, solange es funktioniert. Oder nicht? :)

MfG,
Raff

richtig

Grendizer
2017-12-21, 18:57:41
Ich gebe dir ja recht, das bei Vega vermutlich auf Grund der Preislage recht viele Poweruser zuschlagen werden, aber in der Diskussion oben ging es um "normale" User die weder undervolten oder übertakten.

Vega ist meiner Meinung nach auch wirklich nichts für Leute, die sich nicht mit ihrer Hardware beschäftigen wollen. Ich sehs doch bei mir im Bekanntenkreis. Da werden 1060er gekauft und ein weniger übertaktet, aber mit der Stormversorgung beschäftigt sich da keiner mehr.

Ist Vega für solche Leute die ideale Karte ?

dargo
2017-12-21, 18:59:41
Zwar ist das, was AMD softwaremäßig anbietet, klar besser als das von Nvidia. Einen Power User interessiert's jedoch nicht, ob das Tool offiziell oder von Dritten ist, solange es funktioniert. Oder nicht? :)

Richtig... ein Poweruser beschäftigt sich bei Vega dann aber auch mit Undervolting. ;) Ihr müsst euch schon in eurer Argumentationskette entscheiden. Mal kommt einer mit dem 08/15 Hans der im schlimmsten Fall nicht mal den Rechner bedienen kann und im anderen Fall wird wieder mit Poweruser argumentiert.


Ob ich das per EVGA Tool, Popobrenner ,Inspector,oder Treiber realisiere, ist doch vollkommen wurscht
Es ist eben nicht wurscht. Für Features im Treiber gibt es Support seitens des IHV. Wenn bei NV mit einem externen Tool was nicht richtig funktioniert sind die fein raus weil es NV schlicht nicht interessiert.

Echt Lustig, wie sich die Nvidiafans verbiegen. Gerade hieß es noch:

Genau das meine ich. ;)

TGKlaus
2017-12-21, 19:03:41
. Ich sehs doch bei mir im Bekanntenkreis. Da werden 1060er gekauft und ein weniger übertaktet, aber mit der Stormversorgung beschäftigt sich da keiner mehr.

Ist Vega für solche Leute die ideale Karte ?

Zumindest keine bisher käuflich erwerbbare VEGA. Ich bin kein Fan der Referenz.

Aber wer ne 1060 zum Preis einer 480x 8GB / 580x 8GB gekauft hat, sollte gehauen werden. :biggrin:

scully1234
2017-12-21, 19:04:04
@Dargo

Der 0815 Hans wird wohl kaum über das übliche Treiberupdate hinaus was an der Karte drehen


Und der Poweruser wird sowohl das eine, wie das andere bedienen können

Wo ist also jetzt das Problem?

dargo
2017-12-21, 19:07:09
Vega ist meiner Meinung nach auch wirklich nichts für Leute, die sich nicht mit ihrer Hardware beschäftigen wollen. Ich sehs doch bei mir im Bekanntenkreis. Da werden 1060er gekauft und ein weniger übertaktet, aber mit der Stormversorgung beschäftigt sich da keiner mehr.

Ist Vega für solche Leute die ideale Karte ?
Ist die Frage ernst gemeint? :freak: Ist der direkte Konkurrent zur GTX1060 jetzt schon Vega? :crazy: Nein... Vega wäre in diesem Preissegment keine Alternative, aber Polaris gewiss.

@Dargo

Der 0815 Hans wird wohl kaum über das übliche Treiberupdate hinaus was an der Karte drehen


Und der Poweruser wird sowohl das eine, wie das andere bedienen können

Wo ist also jetzt das Problem?
Du könntest mal langsam mit dem schwarz/weiß denken aufhören. Es gibt sicherlich den 08/15 User der kaum Ahnung hat und den Poweruser der alles mögliche untersucht/ausprobiert. Und dann gibt es noch jede Menge Spieler dazwischen. Es gibt ja auch nicht nur low-end und high-end im GPU-Gamingbereich.

Grendizer
2017-12-21, 19:13:39
Ist die Frage ernst gemeint? :freak: Ist der direkte Konkurrent zur GTX1060 jetzt schon Vega? :crazy: Nein... Vega wäre in diesem Preissegment keine Alternative, aber Polaris gewiss.

Es geht nur um die Beobachtung das sich die wenigsten ( es sei den sie sind User im 3dcenter Forum ) intensiver mit dem Thema undervolting beschäftigen. Ich selber zähle mich durchaus zu den Powerusern, aber auch mir reicht es dann nach 2-3 Stunden einstellen und testen und das Thema ist dann für mich durch bis ich vieleicht wegen Abstürzen nachjustieren muss. Ich vermute selbst hier beschäftigen sich weniger als die Hälfte der User mit undervolting (mit übertakten mit Sicherheit deutlich mehr :biggrin:)

scully1234
2017-12-21, 19:17:38
Du könntest mal langsam mit dem schwarz/weiß denken aufhören. Es gibt sicherlich den 08/15 User der kaum Ahnung hat und den Poweruser der alles mögliche untersucht/ausprobiert. Und dann gibt es noch jede Menge Spieler dazwischen. Es gibt ja auch nicht nur low-end und high-end im GPU-Gamingbereich.

Auch für das Klientel ,sollte es völlig belanglos sein ,wie das realisiert wird, beschäftigen müssen sie sich da u dort damit um es zu nutzen.

Treiber hin Extra Tool her,es spielt absolut keine Rolle,wie das Kind heisst.

Und wer es nicht mal auf die Reihe bekommt Software zu installieren, für den ist beides völlig unangebracht u nutzlos

Ich weiß also nicht was du da mit schwarz weiß argumentieren willst?



Es ist eben nicht wurscht. Für Features im Treiber gibt es Support seitens des IHV. Wenn bei NV mit einem externen Tool was nicht richtig funktioniert sind die fein raus weil es NV schlicht nicht interessiert.


Es wäre mir neu das die Boardpartner ihre Tools nicht ebenso pflegen, und Unwinder bzw Orbmu2k kann man auch nicht wirklich Untätigkeit vorwerfen wollen, ganz im Gegenteil

Du konstruierst hier also ein Szenario, was es bis dato nicht einmal gegeben hat,diese Tools funktionieren nicht mehr oder minder gut, wie deine präferierte Treiberlösung

dargo
2017-12-21, 19:18:34
Es geht nur um die Beobachtung das sich die wenigsten ( es sei den sie sind User im 3dcenter Forum ) intensiver mit dem Thema undervolting beschäftigen.
Wie soll man sich damit auch intensiver beschäftigen wenn die meisten nicht mal die Zusammenhänge beim UV von Vega verstehen? :freak: Es ist doch vollkommen normal, dass bei einer komplett neuen Architektur sich einige Sachen ändern können und man erst einiges ausloten muss. Bei aller Liebe zu Igor, aber selbst er hatte sich mit Vega nicht richtig auseinander gesetzt was UV angeht. Zufälligerweise hat er nämlich auch eine Vega wie ich mit der 1,0V "Sperre". Und das ist jetzt nicht böse gemeint Igor. Ich weiß, dass du nicht die Zeit aufbringen kannst wie ein User der sich nur mit einer Karte beschäftigt.

Grendizer
2017-12-21, 19:22:02
Wie soll man sich damit auch intensiver beschäftigen wenn die meisten nicht mal die Zusammenhänge beim UV von Vega verstehen? :freak: Es ist doch vollkommen normal, dass bei einer komplett neuen Architektur sich einige Sachen ändern können und man erst einiges ausloten muss. Bei aller Liebe zu Igor, aber selbst er hatte sich mit Vega nicht richtig auseinander gesetzt was UV angeht. Zufälligerweise hat er nämlich auch eine Vega wie ich mit der 1,0V "Sperre". Und das ist jetzt nicht böse gemeint Igor. Ich weiß, dass du nicht die Zeit aufbringen kannst wie ein User der sich nur mit einer Karte beschäftigt.

Wobei Igor das aber auch gar nicht so konnte, da beim Test Wattman zum Release ja auch einige harte Limits hatte, die erst mit neueren Versionen deine weiteren Tests möglich gemacht haben, oder ?

dargo
2017-12-21, 19:37:19
Wobei Igor das aber auch gar nicht so konnte, da beim Test Wattman zum Release ja auch einige harte Limits hatte, die erst mit neueren Versionen deine weiteren Tests möglich gemacht haben, oder ?
Wenn damals es nicht ging dann war es eben so. Das ist aber gewiss kein Hindernis für einen Nachtest.

Grendizer
2017-12-21, 19:39:31
Wenn damals es nicht ging dann war es eben so. Das ist aber gewiss kein Hindernis für einen Nachtest.

Wäre ja mit den Customs möglich gewesen, aber da hat AMD ja leider wieder andere Baustellen aufgerissen, mit denen sich die Redakteure beschäftigen mußten, anstatt sich mal auf den eigentlichen Test konzentrieren zu können.

dargo
2017-12-21, 19:51:28
Wäre ja mit den Customs möglich gewesen, aber da hat AMD ja leider wieder andere Baustellen aufgerissen, mit denen sich die Redakteure beschäftigen mußten, anstatt sich mal auf den eigentlichen Test konzentrieren zu können.
Die wären?

Wenn ich sowas bei der CB lese:

Radeon RX Vega 56 Nitro+ im Test: Sapphires 1,6-kg-Grafikkarte überzeugt auf ganzer Linie

dann kann ich da keine anderen Baustellen erkennen.

Grendizer
2017-12-21, 19:57:20
Die wären?

Wenn ich sowas bei der CB lese:

dann kann ich da keine anderen Baustellen erkennen.


Das die Partnerkarten nicht als richtige Vegakarten vom Treiber erkannt wurden und dadurch schlechter performt haben, wie sie konnten ? Und deshalb entsprechende Untersuchungen und Analysen notwendig wurden um die unerwarteten Performacegaps zu erklären ?

dargo
2017-12-21, 19:58:57
Und die fehlenden 5% (oder erwartest du mehr?) die mit späteren Treibern kommen machen die Karten natürlich wieder unbrauchbar gell?

Edit:
Wobei ich selbst die 5% bei gleicher Bandbreite anzweifle, ich tippe eher auf 1-3% bei gleicher Asicpower von 220W.

Grendizer
2017-12-21, 20:02:08
Und die fehlenden 5% (oder erwartest du mehr?) die mit späteren Treibern kommen machen die Karten natürlich wieder unbrauchbar gell?


Sag ich das ?... es wird aber den Tester Zeit gekostet haben, wenn die Ergebnisse von dem abweichen, was man erwartet.... man kann auch alles verdrehen...

Edit: Was würdest du den machen, wenn eine Karte höher taktet als die Referenz und trotzdem weniger FPS bringt... ich würde neu benchen, dann Rechner neu aufsetzen und Treiber installieren und wieder benchen .... danach grübeln, was man falsch gemacht hat...., mit Kollegen sprechen usw ... das ist aber Zeit die dann am Schluss fehlt, wenn man sich mit interessanten Randthemen wie uv beschäftigen möchte.

dargo
2017-12-21, 20:10:11
Als Redakteur würde ich zuerst AMD und die Partner kontaktieren.

Edit:
Mir schwirren noch paar Ideen im Kopf bezüglich der fehlenden 5% Leistung nach dem Kaltstart bei UV. Spart man durch Absenkung der IMC-Spannung überhaupt was an der Verlustleistung bzw. hat dann mehr Spielraum beim GPU-Takt? Der Unterschied (falls es überhaupt einen gibt) dürfte so gering sein, dass hierbei professionelles Equipment angebracht wäre.

Dino-Fossil
2017-12-21, 21:44:13
Irgendwie ironisch wie sich hier ständig gegenseitig Vorwürfe gemacht werden und jeder exakt das gleiche Verhalten an den Tag legt... :ugly:

MartinRiggs
2017-12-21, 22:03:27
Ich kann beide Seiten irgendwo verstehen.
War lange Zeit AMD-Nutzer aber VEGA finde ist mal wieder ein Baustein in AMDs rumstolperei.
Ein Kumpel der keine Ahnung hat braucht grade eine Grafikkarte.

Gute VEGA56-Customs gibt es noch nicht, außerdem soll die Kiste out-of-the-BOX vernünftig laufen, ohne Gefrickel ohne alles.
Also habe ich ihm zähneknirschend eine GTX1070 empfohlen, was will man für knapp 450€ anderes bestellen:frown:

Hübie
2017-12-21, 22:09:16
Gab doch neulich ne 1080 inkl. Destiny für 479 € X-D Bei AMD muss man halt leidensfähiger sein oder einfach Spaß am Gefrickel haben, dann kommt man damit klar.

dargo
2017-12-21, 22:22:25
Ein kleiner Workaround von mir für die fehlenden 5% Leistung nach einem Kaltstart bei UV. Wie gesagt fehlen nach einen Kaltstart immer 5% an Frames bei 1% weniger Takt was per se unmöglich ist. Die Werte werden offenbar nach einem Kaltstart zum Teil falsch interpretiert. Um dem mit dem kleinsten Aufwand entgegen zu wirken einfach das OverdriveNTool starten und den PPTable-Editor öffnen. Eure gesetzten Settings sind im Tool weiterhin vorhanden. Hier einfach auf "Save" drücken. Das Tool fragt ob die GPU restarted werden soll, mit "Ja" bestätigen. Der Bildschirm wird kurz schwarz (hier etwa 2 Sekunden) und die fehlenden 5% Leistung sind wieder da.

Feedback erwünscht.

Fisch
2017-12-21, 22:32:10
Ich würde mir ja liebend gerne eine Vega kaufen, am liebsten ne Vega 56.
Die günstigste lieferbare Vega bei Geizhals ist eine 64 für 792€, gefolgt von 805€ + von diversen LC Varianten.
Und dann noch 110€ für den FC Wasserkühler. Da schauen 500€ für ne 1070 mit vorinstalliertem Wasserkühler bei Caseking schon verlockend aus.
Ich gratuliere auf jeden Fall allen die sich am Anfang gleich ne Vega zu erträglichen Preisen gekauft haben

Thomas Gräf
2017-12-21, 22:57:32
Dienstag bestellt heut eingebaut, eine Sapphire 64 LC für 750 takken.
Kein Spulenfiepen kein Pumpengurgeln und sehr smoothes Lüftergeräusch.

Endllich Assetto Corsa in maxedUltra und FreeSync, ick freu mir. :biggrin:

akuji13
2017-12-21, 22:58:43
In dieser Graka Generation habe ich fast alles richtig gemacht. :)

Die Ti gleich nach release gekauft und die Vega 56 fast verlustfrei abgestoßen und für einen ordentlichen Preis die LC bekommen.
Hätte nur besser laufen können wenn ich sofort zu Anfang die LC gekauft hätte.

Ein kleiner Workaround von mir für die fehlenden 5% Leistung nach einem Kaltstart bei UV. Wie gesagt fehlen nach einen Kaltstart immer 5% an Frames bei 1% weniger Takt was per se unmöglich ist. Die Werte werden offenbar nach einem Kaltstart zum Teil falsch interpretiert. Um dem mit dem kleinsten Aufwand entgegen zu wirken einfach das OverdriveNTool starten und den PPTable-Editor öffnen. Eure gesetzten Settings sind im Tool weiterhin vorhanden. Hier einfach auf "Save" drücken. Das Tool fragt ob die GPU restarted werden soll, mit "Ja" bestätigen. Der Bildschirm wird kurz schwarz (hier etwa 2 Sekunden) und die fehlenden 5% Leistung sind wieder da.

Feedback erwünscht.

Ich teste es morgen nochmal gegen, bin aber fast sicher das meine Karte was ganz anderes macht. :D

dargo
2017-12-21, 23:16:44
Doch, schon. Nur steigen dann nicht die FPS großartig an, sondern leider nur der Geräuschpegel. :freak:

Das ist doch kompletter Unsinn und zeigt mir vorzüglich, dass du dich mit Vega nicht vernünftig auseinander gesetzt hast.

RX Vega64 Liquid mit Bios 1

Powersave mit 198W Asic

https://www2.pic-upload.de/img/34512858/NewColossus_x64vk_2017_12_21_22_52_56_162.jpg


Balanced mit 264W Asic

https://www2.pic-upload.de/img/34512857/NewColossus_x64vk_2017_12_21_22_54_05_012.jpg

Was sehen wir hier? 4,3% mehr Leistung bei 7,4% mehr GPU-Takt. Bei gleicher Bandbreite verwundert es auch wenig, dass es keine 1:1 Skalierung gibt.

Balanced mit 264W Asic + Erhöhung der Bandbreite um 7,4% (gleiche Erhöhung wie beim GPU-Takt)

https://www2.pic-upload.de/img/34512859/NewColossus_x64vk_2017_12_21_22_58_40_387.jpg

Nun haben wir eine perfekte 1:1 Skalierung. Du kannst mir gerne zeigen wo bei einer Geforce die Frames überproportional ansteigen. Erst recht bei gleicher Bandbreite.

Für 7% mehr Leistung 33% mehr zu verbraten ist natürlich kein guter Tausch, das ist wohl klar. Das ist überwiegend die Folge der höheren Spannung und liegt nicht so sehr an dem höheren Takt. Ein Pascal liegt afaik an der Kotzgrenze gerade mal bei 1,05V. Geräuschpegel zieht bei mir nicht. Hättest du dir den Referenz Quatsch nicht zugelegt hättest du auch keine Probleme mit dem Geräuschpegel.

Dienstag bestellt heut eingebaut, eine Sapphire 64 LC für 750 takken.
Kein Spulenfiepen kein Pumpengurgeln und sehr smoothes Lüftergeräusch.

Endllich Assetto Corsa in maxedUltra und FreeSync, ick freu mir. :biggrin:
Das kann doch gar nicht sein. Weil mit einer Vega wird man nicht glücklich. :wink:


Ich teste es morgen nochmal gegen, bin aber fast sicher das meine Karte was ganz anderes macht. :D
Du musst unter Umständen den Wattman im Auge behalten. Wenn du also auf "Save" drückst und die GPU restarted wird prüfe die Wattmansettings. Ich habe schon öfter gesehen, dass der wieder auf balanced steht. Für richtiges UV muss der bei mir aber auf benutzerdefiniert stehen und natürlich auch alle Werte auf manuell und nicht auto.

Edit:
Kleine Ergänzung dazu... wie ich gerade festgestellt habe müssen nur die Spannungen im Wattman auf manuell stehen. Bei den Taktraten reicht auto aus.

https://abload.de/img/wattman_4pmsse.jpg


Mist... auch falsch. :D

In dem Fall kann es passieren, dass der HBM2 mit nur 800Mhz taktet. Also müssen die Taktraten zumindest beim Speicher auch auf manuell stehen.

Auf ein Neues.

https://abload.de/img/wattman_509s54.jpg

Thomas Gräf
2017-12-21, 23:34:39
Hab heut abend nur mal mit Wattman getestet.
Ja habe die 350 Watt gesehen im AsssettoCorsa Benchmark ;) naja im Takt schaff ich die 1700 so nicht.
Was aber gut geht is der Speicher! Hatte per Wattman 1100 und die liefen. Temps bei 55 und alles aber kein Orkan oder so. Übrigends ich nutze ein Benchtable, da hört man auch alles.

x-force
2017-12-21, 23:44:03
Ein Pascal liegt afaik an der Kotzgrenze gerade mal bei 1,05V.
1,093v bei den "großen". 1,1v im schlechteren samsung prozess bei der 1030.

dargo
2017-12-21, 23:48:07
Die 1030 würde ich jetzt ausklammern, das ist Spielzeug im Vergleich zu Vega oder GP102.

Thomas Gräf
2017-12-22, 00:02:17
In meinem Benchmark gibts ja das Resultat min/max FPS.
Da kann man so richtig scheiße bauen via Wattman. Also wenn das alles so stimmt gehts von 7-20 oder aber von 50-55 min FPS.
Schon interessant denn am GPU Takt hängt das nicht so. Wiegesagt noch kein UV unter 1.0V, nur der Wattman.

Schaffe89
2017-12-22, 00:56:04
Richtig... ein Poweruser beschäftigt sich bei Vega dann aber auch mit Undervolting. ;)

Beschäftigt sich stunden damit, weil Wattman die Einstellungen nicht richtig übernimmt und oder das Overlay in 4K so klein wie eine Erbse ist.
Da ist es natürlich viel unpraktischer und aufwändiger Dritttools von Custom Partnern zu installieren, das ist wirklich extrem unsicher und kostet viel mehr Zeit.:freak:

Andererseits bin ich wirklich erstaunt dass es in diesem Thread jeden Tag jede Menge neue Seiten zum lesen gibt, obwohl doch zu Vega eigentlich alles gesagt ist.
Ich finde es schon auf gewisse Weise spannend wie man so lange herumfrickeln kann und da den Spaß an der Freude nicht verliert.
Ich hab mit meiner 1080 exakt 2 Minuten gebraucht was OC und PT anging und nun läuft sie bei etwa 1 Volt mit 2050 mhz bei etwa 200 Watt und ich hab mich seitdem nie wieder damit beschäftigt.

Es ist eben nicht wurscht. Für Features im Treiber gibt es Support seitens des IHV. Wenn bei NV mit einem externen Tool was nicht richtig funktioniert sind die fein raus weil es NV schlicht nicht interessiert.


Das ist völlig wurscht, weil es keinen Aufwand darstellt, ein popeliges Tool zu installieren. Wer hier noch einen Vorteil für AMD herauspressen will... naja, also die Diskussion ist doch komplett sinnbefreit, da könnte man sich auch über die Lieblingsfarbe unterhalten und das wäre sinnvoller.

Das letzte Treiberupdate war meiner persönlichen Meinung nach unsinniger Klickibuntikram und dann auch noch inkl. einer App.:facepalm:
Wieso besinnt sich AMD nicht auf die absoluten Basics als immer wieder eine neue Baustelle aufzumachen. Wenn du nicht mehr weiter weißt, gründe einen Arbeitskreis.
Das ganze Wattman Tool, das Overlay usw. wäre alles nicht nötig gewesen, weil kaum irgendein Nutzer da mehr als ein paar Minuten Lebenszeit darin verschwendet und die Poweruser kommen sowieso klar.

Hätte man den Support für den Ars**brenner vernünftig ausgebaut, dann wär das allemal besser gewesen und hätte sich lieber um andere Baustellen gekümmert.
Dort wo AMD ansetzen muss, sind sicherlich nicht die Treiberfeatures.

gedi
2017-12-22, 01:02:14
Beschäftigt sich stunden damit, weil Wattman die Einstellungen nicht richtig übernimmt und oder das Overlay in 4K so klein wie eine Erbse ist.
Da ist es natürlich viel unpraktischer und aufwändiger Dritttools von Custom Partnern zu installieren, das ist wirklich extrem unsicher und kostet viel mehr Zeit.:freak:



Das ist völlig wurscht, weil es keinen Aufwand darstellt, ein popeliges Tool zu installieren. Wer hier noch einen Vorteil für AMD herauspressen will... naja, also die Diskussion ist doch komplett sinnbefreit, da könnte man sich auch über die Lieblingsfarbe unterhalten und das wäre sinnvoller.

Das letzte Treiberupdate war meiner persönlichen Meinung nach unsinniger klickibuntikram und dann auch noch inkl. einer App.:facepalm:

Hätte man den Support für den Ars**brenner ausgebaut, dann wär das allemal besser gewesen und hätte sich lieber um andere Baustellen gekümmert.

Und welcher Treiber wäre denn der Beste - der von NV :freak:? Bevor bei dir das CP startet habe ich ein OS incl. sämtlicher Treiber installiert, zudem noch nebenher die 3TB bei Steam runtergeladen und anschließend noch ein Spiel durchgespielt :rolleyes:

aufkrawall
2017-12-22, 01:18:04
Es gibt ja auch sonst nichts wichtigeres als ein Control Panel.

Schaffe89
2017-12-22, 01:20:32
Und welcher Treiber wäre denn der Beste - der von NV :freak:?

Ich habe nichts gegen das von Nvidia und auch nichts gegen das von AMD, beides ist wunderbar bedienbar.

Bevor bei dir das CP startet habe ich ein OS incl. sämtlicher Treiber installiert, zudem noch nebenher die 3TB bei Steam runtergeladen und anschließend noch ein Spiel durchgespielt :rolleyes:

Dauert ganze 2 Sekunden bis es offen ist, das reicht aber in der Tat für nen kurzen Kratzer hinterm Ohr, das AMD Panel startete bei mir ein wenig schneller.
Wer Kacheln mag, der hat da eine schöne Klickibuntioberfläche mit n paar netten Spielerein, die wohl aber nur 0,001 der Nutzer benutzen werden, oder nutzt von euch jemand ernsthaft Chill, die Profile für Spiele oder sonst irgend so einen Kram?

Wer ernsthaft was aufzeichnen will, nutzt auch professionelle Software, nun kann man im AMD Treiber aber gleich seine Werke in die sozialen Netzwerke hochladen und sich mit der App nebenher noch etwas anzeigen lassen und die Refreshrate der mitgeloggten FPS aktualisiert sich gefühlt 1x pro Monat.
Ich bin gespannt was da noch alles dazu kommt und ob die Unzulänglichkeiten zeitnah gefixed werden und ob am Ende das ganze wieder nen dicken Bart bekommt und man es dann wieder wieder fallen lässt weil die Pflege zu aufwändig wird.

hq-hq
2017-12-22, 01:23:31
Und welcher Treiber wäre denn der Beste - der von NV :freak:? Bevor bei dir das CP startet habe ich ein OS incl. sämtlicher Treiber installiert, zudem noch nebenher die 3TB bei Steam runtergeladen und anschließend noch ein Spiel durchgespielt :rolleyes:

...das CP von NVidia ist tatsächlich etwas langsam, dauert ca. 1 Sekunde bis es sich öffnet und in dieser Sekunde sieht man die "Sanduhr"
Dafür ist es schon gefühlt ewig gleich und man findet alles wie gewohnt schnell.

OC mit Fremdtools macht es dafür etwas "nerdiger" :biggrin:

[1,23 Sekunden genau]

Daredevil
2017-12-22, 04:59:50
Das ist doch kompletter Unsinn und zeigt mir vorzüglich, dass du dich mit Vega nicht vernünftig auseinander gesetzt hast.

RX Vega64 Liquid mit Bios 1

Powersave mit 198W Asic

https://www2.pic-upload.de/img/34512858/NewColossus_x64vk_2017_12_21_22_52_56_162.jpg


Balanced mit 264W Asic

https://www2.pic-upload.de/img/34512857/NewColossus_x64vk_2017_12_21_22_54_05_012.jpg

Was sehen wir hier? 4,3% mehr Leistung bei 7,4% mehr GPU-Takt. Bei gleicher Bandbreite verwundert es auch wenig, dass es keine 1:1 Skalierung gibt.



Oh Dargo. :rolleyes:
Erstens haben wir von FE bzw. Ref Karten gesprochen und zweitens haben wir uns vorher über Stock Karten unterhalten und du kommst mir jetzt mit einer Powersave Einstellung als Basis. Supiii.

Wenn du einfach mal zugeben könntest, das jemand anderes Recht hat, müsste es diese Seitenlangen Diskussionen über irgendeinen trivialen scheiß nicht geben, nur weil du bockig bist.

Im Gegensatz zu deiner 1% Liquid Prinzessin habe ich eine Vega56 Stock, eine Vega64 Stock und habe schon einmal mit einer GTX1080 Stock sowie WaKü gebastelt. Du auch? :)

BeetleatWar1977
2017-12-22, 06:03:53
So sehr Prinzessin ist seine nicht - oder ich hab auch eine^^

https://abload.de/img/overdrive17.12.21nknl.jpg

Ich könnte bei p7 auch auf min 960(getestet) runter, aber ich wollte etwas mehr Boost.

So extrem funktioniert es aber erst seit den 17.12.X Treibern. Ich mach am WE mal einen Vergleich zwischen Stocksettings und den aktuellen..... aber geschätzt sind es min 15% weniger Verbrauch.

=Floi=
2017-12-22, 06:31:54
Dann teste du mal die stabilität. hast nicht richtig guten shadercode oder nen benchmark welcher sehr empfindlich ist, damit man auch wirklich sagen kann das ist stable?!

Daredevil
2017-12-22, 07:40:37
Ich meinte mit Prinzessin nicht die Güte seiner Vega, sondern dass die Liquid ein teures Nischenprodukt ist und wir im Moment vorher über Referenz Karten gesprochen haben.
Ich kann dir meine Wakü GTX1080 auch passiv Kühlen im Betrieb, das hat aber nichts mit der Aussagekraft einer Luftgekühlten Karte zutun.

Dreh die Referenz doch mal auf 264W Asic Verbrauch auf und schau dir dann die Lautstärke an.
( Ist Asic Power eigentlich In, weil man nur ein Teil des Gesamtverbrauches angibt? )

Das man darüber überhaupt diskutieren muss, ob man eine Ref Vega mit erhöhten Power Limit fahren kann und ob die Nachteile den Vorteilen aufwiegen, Stichwort Temperatur Limit bei 57 dB. :freak:
Vegas vertretbarer Sweetspot ist deutlich unterhalb der Standardmäßig gefahrenen Taktraten. Die Karte musste aber hochgeprügelt werden, damit sie beim erscheinen nicht noch weiter von Nvidia absteht.

Zergra
2017-12-22, 09:46:46
Dann teste du mal die stabilität. hast nicht richtig guten shadercode oder nen benchmark welcher sehr empfindlich ist, damit man auch wirklich sagen kann das ist stable?!

Das ist leider oft das Problem hier, in vielen Spielen lief die V64 bei mir auch mit sehr wenig Spannung. In BF1 gabs dann regelmäßig einen Crash, komplett stabil werden die Karten kaum sein, bei der LC sieht es da schon besser aus. Da sie dank der sehr niedrigen Temps auch mit weniger Spannung auskommt.

dargo
2017-12-22, 09:54:17
Oh Dargo. :rolleyes:
Erstens haben wir von FE bzw. Ref Karten gesprochen und zweitens haben wir uns vorher über Stock Karten unterhalten und du kommst mir jetzt mit einer Powersave Einstellung als Basis. Supiii.

Wenn du einfach mal zugeben könntest, das jemand anderes Recht hat, müsste es diese Seitenlangen Diskussionen über irgendeinen trivialen scheiß nicht geben, nur weil du bockig bist.

Willst du mich verkackeiern? Powersave Liquid im Bios 1 ist das selbe wie balanced Air-Version im Bios 2. Oder soll ich für dich die 2 Wattchen extra noch anheben? :| Meine Kernaussage war, dass du keine 1:1 Skalierung bekommst solange die Bandbreite unberührt bleibt. Und genau das gleiche Verhalten wirst du bei einer Air-Version haben! Es sei denn die Temperaturen limitieren, dann kannst du es vergessen.

Hier nochmal extra für dich mit den Asic-Presets einer Air-Version im Bios 1 mit balanced und Turbo.

https://abload.de/img/newcolossus_x64vk_201cvsao.jpg

https://abload.de/img/newcolossus_x64vk_20113s56.jpg

https://abload.de/img/newcolossus_x64vk_2013nsms.jpg

Bitte dabei nicht vergessen, dass der Framecounter die Frames aufrundet. 140fps kann alles zwischen 139,51 bis 140,49 sein.


Im Gegensatz zu deiner 1% Liquid Prinzessin habe ich eine Vega56 Stock, eine Vega64 Stock und habe schon einmal mit einer GTX1080 Stock sowie WaKü gebastelt. Du auch? :)
Na du bist ein ganz Großer. :comfort:


Ist Asic Power eigentlich In, weil man nur ein Teil des Gesamtverbrauches angibt?

Es ist die einzige zuverlässige Angabe ohne tueres Messequipment. :rolleyes: Jeder der sich mit Vega beschäftigt weiß, dass bei einer Liquid man 30% draufrechnen muss um den Verbrauch der ganzen Karte zu ermitteln. Bei einer Air-Version eher 36% wenn ich als Basis 300W nehme.

So sehr Prinzessin ist seine nicht - oder ich hab auch eine^^

https://abload.de/img/overdrive17.12.21nknl.jpg

Was ist daran jetzt so besonders? :) Nur mal eine Randinfo... die Werte in P6 sind völlig wumpe solange du noch P7 aktiv hast. ;) In dem Fall ist nämlich P7 der Richtwert.


Ich könnte bei p7 auch auf min 960(getestet) runter, aber ich wollte etwas mehr Boost.

Das ist ganz einfach... nehme mehr als 1590Mhz bei P7. Ich weiß ich wiederhole mich, aber anscheinend hats nicht jeder mitbekommen. Mit jeder Absenkung der Spannung im höchsten P-State senkt sich auch der reale Takt bei gleichem Richtwert. Genau so ist es umgekehrt. Mit jeder Erhöhung der Spannung im höchsten P-State erhöht sich der reale Takt bei gleichem Richtwert. Was anderes ist natürlich wenn deine Karte bei 960mV mit mehr als 1590Mhz als Richtwert instabil wird. Dann hilft logischerweise nur mehr Spannung für mehr realen Takt. In dem Fall wäre deine Vega56 aber keineswegs besser als meine Liquid. Ich fahre im Richtwert mindestens 150Mhz höher.

btw.
Diese Art Vergleiche sind recht sinnfrei. Wenn du schon vergleichen möchtest dann poste bitte paar Screenshots von Savegames mit den gleichen Daten vom AB die du in meinen Screenshots siehst. Nur der real anliegende Takt zählt. Die Taktraten im PPTable-Editor oder Wattman sind nur Umrechnugsfaktoren. Nicht mehr und nicht weniger, zumindest im höchsten P-State.

j4l
2017-12-22, 10:54:49
Warum lässt du dich die ganze Zeit so triggern?

RoughNeck
2017-12-22, 11:16:16
Ich finde nicht dass sich Dargo "triggern" lässt.
Er versucht den Leuten einfach beizubringen dass Vega mit etwas Zuwendung besser ist als es in den Tests rüberkommt. Ich finde das übrigens auch, auch wenn man sich dafür etwas Zeit nimmt, mir ist es Wert meine Hardware optimal einzustellen.

Mit den ganzen Optimierungen bringt man die LC entweder auf GTX 1080 Niveau (dafür ist die Karte dann sparsam) oder näher an eine 1080 TI (immer noch sparsamer als Stock). Weiß nicht was da manche für ein Problem haben, wir sind hier in einen Hardware Forum, da lässt selten einer seine Hardware so laufen wie es der Hersteller vorsieht.

j4l
2017-12-22, 11:19:40
Ja, aber die Jungs mit der grünen Laterne im Fenster wollen nichts "beigebracht" bekommen. Je mehr er hier was erklärt, je machen wird dadrüber gelacht.

Th3o
2017-12-22, 11:23:08
Es gibt ja die Ignore-Liste für solche unbelehrbaren Fälle.

robbitop
2017-12-22, 11:30:17
Wahrscheinlich gilt das für beide, wenn nicht alle marchs. Dass bessere Betriebspunkte als der Auslieferungszustand durch Tuning erreicht werden können. Warum das so kontrovers diskutiert wird, hat IMO keine rationalen Hintergründe.

Dino-Fossil
2017-12-22, 11:32:59
Bei Vega ist imo eher das Problem, dass der Auslieferungszustand besonders schlecht gewählt wurde und das Produkt (Gesamtprodukt inklusive Treiber) unfertig in den Markt entlassen wurde. Aber auch das darf man ja nicht sagen, weil es scheinbar teils als persönlicher Affront aufgefasst wird... :tongue:

Das da ne Menge Potential vorhanden ist, hat sich ja durchaus schnell gezeigt.

TGKlaus
2017-12-22, 11:48:56
Dreh die Referenz doch mal auf 264W Asic Verbrauch auf und schau dir dann die Lautstärke an.

Warum sollte man das machen wenns die Standardeinstellung "Powersave" gibt?


Die Karte musste aber hochgeprügelt werden, damit sie beim erscheinen nicht noch weiter von Nvidia absteht.

Durch uv sinkt aber nicht der Takt, sondern er steigt. :rolleyes:

Du als angeblicher VEGA 56 Nutzer solltest das doch wissen. ;D;D;D

Bucklew
2017-12-22, 11:49:14
Er versucht den Leuten einfach beizubringen dass Vega mit etwas Zuwendung besser ist als es in den Tests rüberkommt. Ich finde das übrigens auch, auch wenn man sich dafür etwas Zeit nimmt, mir ist es Wert meine Hardware optimal einzustellen.
Das ist aber Nichts Vega-spezifisches, das Gleiche gilt eben auch für Pascal - oder auch Polaris oder auch Maxwell oder, oder, oder.

Und so gilt der Grundsatz, dass AMD auch mit Vega in Sachen Effizienz NVIDIA hinterher hinkt und zwar ziemlich deutlich. Selbst wenn man dargos beste Werte, die er mit seinem UV erreicht hat, zugrunde legt, ist GP102 effizienter. Selbst im Standarddress.

Weiß nicht, warum das Trolling ist, wenn man solche Fakten einfach mal sachlich erwähnt.

Daredevil
2017-12-22, 11:54:42
Durch uv sinkt aber nicht der Takt, sondern er steigt. :rolleyes:

Du als angeblicher VEGA 56 Nutzer solltest das doch wissen. ;D;D;D
Also ich betreibe meine Karten sogar unter Dargos minimal Voltage und da sind sie herrlich Effizient. :)
Da sinkt der Takt aber ab.

Achill
2017-12-22, 11:58:44
[..]
Warum das so kontrovers diskutiert wird, hat IMO keine rationalen Hintergründe.

Weil man damit immer wieder ein "derailing" dieses Threads starten kann und anbringen, wie gut oder besser die anderen GPUs sind.

Dazu zähle ich auch Pseudo-Beträge wo im ersten Teil auf ein Detail von Vega eingegangen wird aber man doch wieder etwas zu einer NV GPU schreibt - und das halt immer wieder und/oder von den gleichen Personen.

Würde ich etwas unterstellen wollen, so passiert dies um von neuen interessanten Erkenntnissen/Fakten abzulenken. Es könnte ja ein interessierter Leser im Netz diesen (oder einen anderen) Thread finden wo er eine Anleitung in die Hand bekommt wie er seine Vega in die eine oder andere Richtung tunen könnte ... oder das es gar eine Option zu einer NV GPU sein kann.

RoughNeck
2017-12-22, 12:07:43
@Bucklew

Ist mir schon klar, nur verstehe ich immer noch nicht dein Problem.
Jeder wer will, optimiert seine Hardware, der Rest ist zufrieden so wie sie läuft. Ich kenne manche die geben sich mit den Voreinstellungen in Games zufrieden, trotz potenter Hardware. Denen ist es egal ob Game XY besser aussehen kann, es läuft fertig. Genau so sieht es bei vielen meiner Kollegen aus, Hauptsache der PC stemmt Game XY flüssig.

Und dann gibt es paar wenige die optimieren, stecken Zeit und Energie rein um die Hardware schneller und zugleich sparsamer zu machen.

Und zum Thema Effizienz.
Es sind 2 verschiedene Architekturen, die kann man nicht so leicht miteinander vergleichen. Im Mining hängt die Vega 64 selbst die Titan V Meilenweit ab in Games hängt AMD hinterher aber so gravierend ist der Unterschied nicht. Du tust ja gerade so als würde die Vega 64 200W mehr brauchen als eine 1080 bei GTX 1060 Performance (überspitzt ausgedrückt).

yamamoto_dc
2017-12-22, 12:47:26
So sieht es bei mir auch aus, ich habe Anfangs ein wenig mit den Settings herumgespielt, mittlerweile lasse ich meine V64 im Bios2/Powersaving Modus, Frame Target 58FPS, Radeon Chill und Freesync laufen. Läuft wunderbar mit hohen Details und der Lüfter dreht auch nicht groß hoch. Da ich die Karte für 509 EUR gekriegt habe, bin ich mit diesem Setting super zufrieden.

dargo
2017-12-22, 13:09:21
@RoughNeck, Achill und akuji13

Könntet ihr bitte folgendes mit eurer Liquid testen? Die Liquid hat ja im Bios 1 @balanced ein Limit bei 264W Asic. Setzt bitte im PPTable-Editor nur P7 auf 950mV, den Rest auf Default lassen. Die Reg-Datei erstellen, ausführen und neustarten. Den Wattman vorsichshalber zurücksetzen. Habs ihr nur dadurch in Games auch ein Limit bei 220W Asic?

RoughNeck
2017-12-22, 13:16:31
Ich kann es erst am Samstag testen

dargo
2017-12-22, 13:20:29
Und so gilt der Grundsatz, dass AMD auch mit Vega in Sachen Effizienz NVIDIA hinterher hinkt und zwar ziemlich deutlich. Selbst wenn man dargos beste Werte, die er mit seinem UV erreicht hat, zugrunde legt, ist GP102 effizienter. Selbst im Standarddress.

Und wieder kompletter Bullshit.

Solange die Software nicht limitiert trifft das garantiert nicht zu! In einem Wolfenstein 2 mit richtig implementierten Async Compute (hier fehlen noch ca. 15-20% bei Vega, hoffentlich merkst du dir das endlich) dürfte es mindestens gleiches Perf/W geben, wenn nicht sogar etwas bessere Perf/W bei Vega. Eure ganzen Perf/W Vergleiche anhand von Steinzeit-APIs @PC sind an Lächerlichkeit kaum zu überbieten.

btw.
Du kannst mir gerne paar aktuelle Benchmarks mit einer GTX1080TI in Wolf2 zeigen. Gebe dir aber Mühe bei der Suche. Ich brauche exakte Videos zum Nachstellen. Alle bisherigen Benchmarks in Wolf 2 sind für die Mülltonne. Mit dem letzten Spielpatch hat sich die Performance in Worst Cases bei Vega mehr als verdreifacht (jetzt fehlt nur noch der Feinschliff in der Applikation bei Async Compute denn es kostet aktuell Performance anstatt mehr Performance zu bringen). Bei Nvidia ist die Performance in Worst Cases auch gestiegen, aber bei weitem nicht in dem Ausmaß, sie ist ja vor dem Patch auch weniger stark eingebrochen.

Ich kann es erst am Samstag testen
Prima... halte mich auf dem Laufenden, gerne auch über PN.

Lehdro
2017-12-22, 13:27:27
Und zum Thema Effizienz.
Es sind 2 verschiedene Architekturen, die kann man nicht so leicht miteinander vergleichen. Im Mining hängt die Vega 64 selbst die Titan V Meilenweit ab
Woah, Vega ist im Mining ja so gut lol

Was ein Haufen Mist den du da schreibst:

ETH: Titan V >>>>>>> Vega (>Faktor 2)
Equihash: Titan V >>>>>>>>>>>>> Vega (>Faktor 2)
Lbry: Titan V >>>>>>>>>>>>> Vega (>Faktor 2)
lyra2rev2: Titan V >>>>>>>>>>> Vega (>Faktor 2)
Sia: Titan V >>>>>>>>>>>>>> Vega (>Faktor 2)
.
.
.

und zu guter Letzt:
Cryptonight: Vega >>>>>>>>> Titan V (Faktor 1,3)

Bei jedem einzelnen Miningalgorithmus braucht die Titan V übrigens wesentlich weniger Saft als ne optimierte Vega. Titan V ist ne ganz andere Liga als Vega, unabhängig oder gerade wegen derem Preis. Braucht man nichtmal vergleichen....

dildo4u
2017-12-22, 13:42:40
Wolf 2 scheint wirklich besser zu laufen schätze mal eine 2Ghz 1080 reicht jetzt für 4k/60.Hab in Manhattan jetzt 48fps an der härtesten Stelle mit der 1070@1.9Ghz,das hatte CB mit der 1080 in ihrem Test.

https://farm5.staticflickr.com/4590/27441068369_c8c2e339d1_b.jpg (https://flic.kr/p/HNSDAr)WOLD MANHATTEN (https://flic.kr/p/HNSDAr) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Igor TH
2017-12-22, 13:48:31
Mal wieder Asia-Shopping: der kleine und der große Joe. Jedenfalls ist mir nicht langweilig ;)

https://i.imgur.com/11v21Gx.jpg

Troyan
2017-12-22, 13:51:45
Wolfenstein 2, genauso wie Doom, läuft beschissen auf nVidia-Hardware. Die Engine ist komplett an Maxwell/Pascal vorbei programmiert und wird auch null für die Hardware optimiert. Das hatten wir schon hunderte Mal.

Titan V z.B. liefert bei nur 15% mehr Rechenleistung 35% mehr Leistung in Doom gegenüber Titan Xp. Das Spiel ist als Vergleich vollkommen ungeeignet und sagt überhaupt nichts aus, wie effizient einzelne Karten sind.

BTW: In Wolfenstein 2 benötigt eine 320W GTX1080TI weniger als 250W. Kann sich jeder selbst mal fragen, wo die restlichen 70W abgeblieben sind, die man z.B. in Battlefront 2 erreicht...

dildo4u
2017-12-22, 13:55:04
Wolfenstein 2, genauso wie Doom, läuft beschissen auf nVidia-Hardware. Die Engine ist komplett an Maxwell/Pascal vorbei programmiert und wird auch null für die Hardware optimiert. Das hatten wir schon hunderte Mal.

Titan V z.B. liefert bei nur 15% mehr Rechenleistung 35% mehr Leistung in Doom gegenüber Titan Xp. Das Spiel ist als Vergleich vollkommen ungeeignet und sagt überhaupt nichts aus, wie effizient einzelne Karten sind.

BTW: In Wolfenstein 2 benötigt eine 320W GTX1080TI weniger als 250W. Kann sich jeder selbst mal fragen, wo die restlichen 70W abgeblieben sind, die man z.B. in Battlefront 2 erreicht...
Wolf ist weiter als Doom,Doom ist ein Vulkan Port.Volta bekommt ohne Low Level die Power gar nicht auf die Straße.

http://abload.de/img/wolf34t8s8d.png

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45209-mehr-gpu-und-hbm2-takt-nvidia-titan-v-im-overlocking-test.html

Achill
2017-12-22, 14:06:31
Woah, Vega ist im Mining ja so gut lol

Was ein Haufen Mist den du da schreibst:

ETH: Titan V >>>>>>> Vega (>Faktor 2)
Equihash: Titan V >>>>>>>>>>>>> Vega (>Faktor 2)
Lbry: Titan V >>>>>>>>>>>>> Vega (>Faktor 2)
lyra2rev2: Titan V >>>>>>>>>>> Vega (>Faktor 2)
Sia: Titan V >>>>>>>>>>>>>> Vega (>Faktor 2)
.
.
.

und zu guter Letzt:
Cryptonight: Vega >>>>>>>>> Titan V (Faktor 1,3)

Bei jedem einzelnen Miningalgorithmus braucht die Titan V übrigens wesentlich weniger Saft als ne optimierte Vega. Titan V ist ne ganz andere Liga als Vega, unabhängig oder gerade wegen derem Preis. Braucht man nichtmal vergleichen....

Absichtlich keine Quellen angegeben? Es ist natürlich klar, dass alle Coints die auf Bandbreite gehen bei der Titan V besser aussehen (Ethereum und co): https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45212-nvidia-titan-v-erreicht-hohe-mining-leistung-rechnet-sich-dennoch-nicht.html
=> 75MH/s @270W

Eine optimierte Vega64 schafft bei Ethereum ~43MH/s mit ~130W ... https://www.techpowerup.com/236748/rx-vega-achieves-43-mh-s-130-w-in-ethereum-mining

Die Titan V schafft mit OC die 82MH/s: https://www.techpowerup.com/239686/nvidia-titan-v-achieves-82-mh-s-in-ethereum-mining jedoch wurde keine Verbrauch gemessen ...

Dino-Fossil
2017-12-22, 14:06:35
Und wieder kompletter Bullshit.
[...]
Eure ganzen Perf/W Vergleiche anhand von Steinzeit-APIs @PC sind an Lächerlichkeit kaum zu überbieten.

Das ist doch genauso Augenwischerei.
Mit der Argumentation kannst du auch die Kraftstoffverbrauchszahlen (oder Schadstoffausstoß) der Autoindustrie für voll nehmen - die kommen nämlich auch alle unter best-case Bedingungen zustande.

So lange wir sowohl low-level als auch "Steinzeit" APIs haben, muss auch beides betrachtet werden.
Da kannst du noch so oft mit DX12/Vulkan als großem Heilsbringer ankommen, es ändert nichts daran das DX11 heute und wohl auch in den nächsten 1-2 Jahren noch die am häufigsten genutzte API ist.
Sich da nur auf die wenigen optimalen Fälle zu beschränken geht an der Realität genauso vorbei, wie wenn man eine Karte nur in ein paar Gameworks/TWIMTBP Titeln testet.

Daher: Es ist völlig richtig und wichtig DX12/Vulkan in gut optimierten Titeln zu betrachten, zeigt es doch was geht und wo die Reise hingehen könnte, aber man kann nicht einfach das, was 90% der Spielerealität ausmacht für irrelevant erklären.

Th3o
2017-12-22, 14:13:56
Für den 4 fachen Preis einer Vega 64 ist die Mining Leistung einer Titan V erbärmlich schlecht.

dildo4u
2017-12-22, 14:19:00
Für den 4 fachen Preis einer Vega 64 ist die Mining Leistung einer Titan V erbärmlich schlecht.
Die Karte macht nur Sinn wenn man FP 64 nutzt oder Neurale Netzwerke trainiert.

https://www.pcper.com/image/view/88122?return=node%2F68915

https://www.pcper.com/image/view/88117?return=node%2F68915

https://www.pcper.com/image/view/88125?return=node%2F68916

https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-3-Deep-Learning-Performance

Lehdro
2017-12-22, 14:24:56
Absichtlich keine Quellen angegeben? Es ist natürlich klar, dass alle Coints die auf Bandbreite gehen bei der Titan V besser aussehen (Ethereum und co): https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45212-nvidia-titan-v-erreicht-hohe-mining-leistung-rechnet-sich-dennoch-nicht.html
=> 75MH/s @270W
"Full system" 213W, davon sind 95W nur das System.
https://www.youtube.com/watch?v=CW8LOQ2yvO4

Eine optimierte Vega64 schafft bei Ethereum ~43MH/s mit ~130W ... https://www.techpowerup.com/236748/rx-vega-achieves-43-mh-s-130-w-in-ethereum-mining
130W ASIC. Siehe der Link. Sollten eher so 165W für die ganze Karte sein, das hatte ich zumindest bei mir gemessen.

BeetleatWar1977
2017-12-22, 14:25:35
Uff - und jeder will bedient werden:

Dann teste du mal die stabilität. hast nicht richtig guten shadercode oder nen benchmark welcher sehr empfindlich ist, damit man auch wirklich sagen kann das ist stable?!
bisher Absturzfrei: The Division, Superposition, AvP Benchmark, VR-Mark, 3DMark........

so ca 960mV scheint meine Untergrenze zu sein.
Ich meinte mit Prinzessin nicht die Güte seiner Vega, sondern dass die Liquid ein teures Nischenprodukt ist und wir im Moment vorher über Referenz Karten gesprochen haben.
Ich kann dir meine Wakü GTX1080 auch passiv Kühlen im Betrieb, das hat aber nichts mit der Aussagekraft einer Luftgekühlten Karte zutun.

Dreh die Referenz doch mal auf 264W Asic Verbrauch auf und schau dir dann die Lautstärke an.
( Ist Asic Power eigentlich In, weil man nur ein Teil des Gesamtverbrauches angibt? )

Das man darüber überhaupt diskutieren muss, ob man eine Ref Vega mit erhöhten Power Limit fahren kann und ob die Nachteile den Vorteilen aufwiegen, Stichwort Temperatur Limit bei 57 dB. :freak:
Vegas vertretbarer Sweetspot ist deutlich unterhalb der Standardmäßig gefahrenen Taktraten. Die Karte musste aber hochgeprügelt werden, damit sie beim erscheinen nicht noch weiter von Nvidia absteht.
Ich werde die 56er wohl kaum bei 264W ASIC betreiben - es sei denn ich bau auf Wakü um^^
btw - du kannst die LQ ruhig als Nischenprodukt benennen - deswegen ist es aber trotzdem eine Referenzkarte

Willst du mich verkackeiern? Powersave Liquid im Bios 1 ist das selbe wie balanced Air-Version im Bios 2. Oder soll ich für dich die 2 Wattchen extra noch anheben? :| Meine Kernaussage war, dass du keine 1:1 Skalierung bekommst solange die Bandbreite unberührt bleibt. Und genau das gleiche Verhalten wirst du bei einer Air-Version haben! Es sei denn die Temperaturen limitieren, dann kannst du es vergessen.

Hier nochmal extra für dich mit den Asic-Presets einer Air-Version im Bios 1 mit balanced und Turbo.

https://abload.de/img/newcolossus_x64vk_201cvsao.jpg

https://abload.de/img/newcolossus_x64vk_20113s56.jpg

https://abload.de/img/newcolossus_x64vk_2013nsms.jpg

Bitte dabei nicht vergessen, dass der Framecounter die Frames aufrundet. 140fps kann alles zwischen 139,51 bis 140,49 sein.


Na du bist ein ganz Großer. :comfort:


Es ist die einzige zuverlässige Angabe ohne tueres Messequipment. :rolleyes: Jeder der sich mit Vega beschäftigt weiß, dass bei einer Liquid man 30% draufrechnen muss um den Verbrauch der ganzen Karte zu ermitteln. Bei einer Air-Version eher 36% wenn ich als Basis 300W nehme.


Was ist daran jetzt so besonders? :) Nur mal eine Randinfo... die Werte in P6 sind völlig wumpe solange du noch P7 aktiv hast. ;) In dem Fall ist nämlich P7 der Richtwert.


Das ist ganz einfach... nehme mehr als 1590Mhz bei P7. Ich weiß ich wiederhole mich, aber anscheinend hats nicht jeder mitbekommen. Mit jeder Absenkung der Spannung im höchsten P-State senkt sich auch der reale Takt bei gleichem Richtwert. Genau so ist es umgekehrt. Mit jeder Erhöhung der Spannung im höchsten P-State erhöht sich der reale Takt bei gleichem Richtwert. Was anderes ist natürlich wenn deine Karte bei 960mV mit mehr als 1590Mhz als Richtwert instabil wird. Dann hilft logischerweise nur mehr Spannung für mehr realen Takt. In dem Fall wäre deine Vega56 aber keineswegs besser als meine Liquid. Ich fahre im Richtwert mindestens 150Mhz höher.

btw.
Diese Art Vergleiche sind recht sinnfrei. Wenn du schon vergleichen möchtest dann poste bitte paar Screenshots von Savegames mit den gleichen Daten vom AB die du in meinen Screenshots siehst. Nur der real anliegende Takt zählt. Die Taktraten im PPTable-Editor oder Wattman sind nur Umrechnugsfaktoren. Nicht mehr und nicht weniger, zumindest im höchsten P-State.
Stimmt nur bedingt - wenn ich ins PT laufe schaltet er ja runter.

folgendes auch noch: sagen wir es sind 1590Mhz bei 1000mV eingestellt, da dropt die Spannung bei mir ca. auf 955mV was dann noch ~1500Mhz ergibt, stell ich auf 960mV sind noch ~1470, ich müsste ca 1640Mhz bei 960 einstellen um wieder auf den gleichen Takt zu kommen, und die sind nicht stabil.......

dargo
2017-12-22, 14:32:19
Stimmt nur bedingt - wenn ich ins PT laufe schaltet er ja runter.

folgendes auch noch: sagen wir es sind 1590Mhz bei 1000mV eingestellt, da dropt die Spannung bei mir ca. auf 955mV was dann noch ~1500Mhz ergibt, stell ich auf 960mV sind noch ~1470, ich müsste ca 1640Mhz bei 960 einstellen um wieder auf den gleichen Takt zu kommen, und die sind nicht stabil.......
Welches PT? :confused: Beim UV gibt es kein hartes PT-Limit mehr. Verdammt... ich müsste echt noch eine Referenz RX Vega56/64 hier haben. Wenn sich nämlich andere Vegas anders verhalten reden wir ständig aneinander vorbei. :usad: Du hast ja eine Referenz RX Vega56. Eventuell kommen diese Ungereimheiten dadurch zustande, dass deine Karte ständig ins TT-Limit rennt.

BeetleatWar1977
2017-12-22, 14:35:32
Welches PT? :confused: Beim UV gibt es kein hartes PT-Limit mehr. Verdammt... ich müsste echt noch eine Referenz RX Vega56/64 hier haben. Wenn sich nämlich andere Vegas anders verhalten reden wir ständig aneinander vorbei. :usad: Du hast ja eine Referenz RX Vega56. Eventuell kommen diese Ungereimheiten dadurch zustande, dass deine Karte ständig ins TT-Limit rennt.
- ich hab ja so gesehen nur 165W ASIC - es sei denn ich setz das PT hoch :D

Die erreich ich ja Problemlos auch mit UV.......

Stell mal auf -25%, dann merkst du was ich meine......

dargo
2017-12-22, 14:39:22
- ich hab ja so gesehen nur 165W ASIC - es sei denn ich setz das PT hoch :D

Moment mal... wenn du mit dem OverdriveNtool undervoltest kannst du trotzdem mit dem PT-Limit den Takt in beide Richtungen beeinflussen? In dem Fall verhalten sich unsere Vega nicht gleich. Bei mir spielt es keine Rolle was ich bei PT einstelle. Es hat einfach keine Auswirkung. Das würde allerdings bedeuten, dass bei deiner Karte trotz UV mit ODNT die Telemetrie nicht ausgehebelt wird. Ist dem so? Schau mal ob du ähnliche Fluktuationen bei der Spannung wie mit Defaultsettings hast.

Zergra
2017-12-22, 14:41:23
Klar das ging mit meiner Vega64 auch, da war das PT auch frei beweglich, egal bei welcher Spannung.

dargo
2017-12-22, 14:47:05
Frei beweglich ist es bei mir natürlich auch im Wattman, es hat nur keine Auswirkung. :D Bitte konkreter werden. :)

PS: hast du überhaupt mit dem PPTable-Editor undervoltet?

BeetleatWar1977
2017-12-22, 14:49:37
Frei beweglich ist es bei mir natürlich auch im Wattman, es hat nur keine Auswirkung. :D Bitte konkreter werden. :)

PS: hast du überhaupt mit dem PPTable-Editor undervoltet?
Türlich - aber die Telemetrie funktioniert hier noch ganz normal, nur halt mit weniger Verbrauch.

dargo
2017-12-22, 14:59:24
Türlich - aber die Telemetrie funktioniert hier noch ganz normal, nur halt mit weniger Verbrauch.
Aha. :cop:

Jetzt blicke ich langsam durch. Bei mir wird die Telemetrie nur mit dem ODNT auch noch nicht ausgehebelt. Das passiert erst wenn der Wattman anschließend ins Spiel kommt. Allerdings bringt mir alleine der ODNT nichts da ich damit nicht unter 1V komme und bei 220W Asic-Limit fest sitze. Das wird nur mit dem zweiten Schritt im Wattman ausgehebelt.

PS: mir fällt gerade ein, dass ich einen Schritt noch nicht probiert habe. UV mit ODNT und anschließend das PT mit dem ODNT ändern. Vielleicht kann ich damit den Takt und Verbrauch dann beeinflussen und meine Vega würde sich dann so verhalten wie deine. Das PT im Wattman zu ändern bringt ja nichts weil dann die Telemetrie hier ausgehebelt wird.

nairune
2017-12-22, 15:05:53
Ich sehe schon, wenn ich in 3 Monaten eine 56 Custom ergattere, hangel ich mich durch die letzten 100 Seiten und sammle dargos Puzzleteile auf :D

Igor TH
2017-12-22, 15:11:41
Ich hätte auch gern mal ein Kompendium. Dazwischen steht nämlich jede Menge meist unnützes Zeug ;)

akuji13
2017-12-22, 15:16:37
Mal wieder Asia-Shopping: der kleine und der große Joe. Jedenfalls ist mir nicht langweilig ;)

Ich freue mich schon drauf was darüber zu lesen. :)

Du musst unter Umständen den Wattman im Auge behalten. Wenn du also auf "Save" drückst und die GPU restarted wird prüfe die Wattmansettings. Ich habe schon öfter gesehen, dass der wieder auf balanced steht. Für richtiges UV muss der bei mir aber auf benutzerdefiniert stehen und natürlich auch alle Werte auf manuell und nicht auto.

Bei mir wird das Wattman Profil mit jedem Neustart auf balanced gesetzt.
Ist seit ein paar Tagen so und lässt sich auch nicht mit einer Treiber Neuinstallation beheben.

Egal, nutze ich eh nicht.

Moment mal... wenn du mit dem OverdriveNtool undervoltest kannst du trotzdem mit dem PT-Limit den Takt in beide Richtungen beeinflussen?

Geht hier nur nach unten.
In meiner TW3 Szene habe ich dann bei 0% 1560Mhz@188 Watt und bei -50% 1277Mhz@132 Watt.

Könntet ihr bitte folgendes mit eurer Liquid testen? Die Liquid hat ja im Bios 1 @balanced ein Limit bei 264W Asic. Setzt bitte im PPTable-Editor nur P7 auf 950mV, den Rest auf Default lassen. Die Reg-Datei erstellen, ausführen und neustarten. Den Wattman vorsichshalber zurücksetzen. Habs ihr nur dadurch in Games auch ein Limit bei 220W Asic?

Nö.

Wenn ich so vorgehe habe ich die 264 Watt anliegen. :D

TGKlaus
2017-12-22, 15:16:37
"Full system" 213W, davon sind 95W nur das System.
https://www.youtube.com/watch?v=CW8LOQ2yvO4



genau, laut dem Video auch noch "out of the box"

Sein Gesamtsystem verbraucht weniger als bei jedem glaubwürdigen ETH-Test die Grafikkarte alleine.


Wir sind hier nicht in einem Comedyforum ...

dargo
2017-12-22, 15:23:50
Bei mir wird das Wattman Profil mit jedem Neustart auf balanced gesetzt.
Ist seit ein paar Tagen so und lässt sich auch nicht mit einer Treiber Neuinstallation beheben.

Das war bei mir oft der Fall wenn ich bzw. 950mV sowohl bei P6 als auch P7 hatte. Versuche mal P7 950mV und P6 940mV.


Geht hier nur nach unten.
In meiner TW3 Szene habe ich dann bei 0% 1560Mhz@188 Watt und bei -50% 1277Mhz@132 Watt.

Noch mehr Chaos. X-D


Wenn ich so vorgehe habe ich die 264 Watt anliegen. :D
Gut zu wissen. Dann scheint es nur bei den Vegas mit der ominösen 1,0V Sperre der Fall zu sein. Da bräuchte ich noch Feedback von Igor um auf Nummer sicher zu gehen... wir arbeiten dran. ;)

@Beetle
Kannst du dein PT beim UV mit ODNT in beide Richtungen ändern oder nur nach unten wie akuji13? Man müsste diesbezüglich auch beide Biose untersuchen. Nicht, dass die Biose auf einer Karte sich in der Beziehung auch noch unterscheiden. :freak:

BeetleatWar1977
2017-12-22, 15:54:27
@Beetle
Kannst du dein PT beim UV mit ODNT in beide Richtungen ändern oder nur nach unten wie akuji13? Man müsste diesbezüglich auch beide Biose untersuchen. Nicht, dass die Biose auf einer Karte sich in der Beziehung auch noch unterscheiden. :freak:
In Beide - aber wie gesagt, ich hab ja auch nur 165W@Stock.....

scully1234
2017-12-22, 15:56:42
Bei Vega ist imo eher das Problem, dass der Auslieferungszustand besonders schlecht gewählt wurde

Ich denke eher die durchlaufen das selbe Binning Prozedere wie anderswo auch, da ist nichts mit "schlecht gewählt" die Chips geben oder gaben in Summe eben nicht mehr her,wenn eine Charge stabil laufen soll beim Endkunden

Das der ein oder andere mit viel magic Sauce u Geduld, da noch was rausholt ,ist schon immer so gewesen

hmmm
2017-12-22, 17:02:07
Ich denke eher die durchlaufen das selbe Binning Prozedere wie anderswo auch, da ist nichts mit "schlecht gewählt" die Chips geben oder gaben in Summe eben nicht mehr her,wenn eine Charge stabil laufen soll beim Endkunden

Das der ein oder andere mit viel magic Sauce u Geduld, da noch was rausholt ,ist schon immer so gewesen
Noch sind nicht alle Vega Features aktiviert. Die NGG erreicht _jetzt/so_ noch nicht ihren vollen "Durchsatz", sollte sich das ändern wird sich auch die dazu benötigte minV erhöhen. ;)

Achill
2017-12-22, 17:03:21
"Full system" 213W, davon sind 95W nur das System.
https://www.youtube.com/watch?v=CW8LOQ2yvO4


Die 95W werden angezeigt mit 2x EVGA 1080TI ... laut http://www.tomshardware.com/reviews/evga-gtx-1080-ti-ftw3-gaming,5061-5.html brauchen die jeweils 19W. Damit nimmt das System nur noch 55W Idle auf, je nach Netzteil ist der Wirkungsgrade bei solch einer geringen Last nochmal schlechter, dass System wird also etwas in Richtung 35-50W brauchen ...

Und mit "nur" 69MH/s passt originale Aussage bzgl. Faktor 2 zu Vega nicht mehr.


130W ASIC. Siehe der Link. Sollten eher so 165W für die ganze Karte sein, das hatte ich zumindest bei mir gemessen.


In den Screens meiner Quelle sieht man, dann beide Vega64 Air dort ~112W für GPU-HMB2 brauchen. Die 130W pro Karte werden also schon hinkommen.

Dino-Fossil
2017-12-22, 17:14:31
Ich denke eher die durchlaufen das selbe Binning Prozedere wie anderswo auch, da ist nichts mit "schlecht gewählt" die Chips geben oder gaben in Summe eben nicht mehr her,wenn eine Charge stabil laufen soll beim Endkunden

Du verstehst mich hier falsch, ich beziehe mich nicht auf die anliegenden Spannungen. Mir geht es vielmehr um ein schlecht gewähltes Powerlimit, dass kaum Performancevorteile relativ zur Leistungsaufnahme bringt.

Vega mit niedrigerem Powerlimit (ein paar % Performanceverlust in Kauf nehmend) wäre mMn die sinnigere default-Einstellung der Referenzkarte gewesen.

BeetleatWar1977
2017-12-22, 17:35:59
So, wie war das? Jetzt mal Butter bei die Fische.....


mit PP-Table:
https://abload.de/img/settings7ak74.jpg
Furmark 1080p Preset:
Ausbalanziert 165W, Benutzerdefiniert dasselbe.... wird nur P1 erreicht
6123 (http://www.ozone3d.net/gpudb/score.php?which=500389)

Ausbalanziert +50%PT 247W
7872 (http://www.ozone3d.net/gpudb/score.php?which=500391)

Benutzerdefiniert +50%PT 247W
8206 (http://www.ozone3d.net/gpudb/score.php?which=500393)

3DMark Timespy: GPU-Score
Ausbalanziert 165W - erreicht wird ~1340
6143 (https://www.3dmark.com/3dm/24118614?)

Benutzerdefiniert 165W - erreicht wird ~1430
6470 (https://www.3dmark.com/3dm/24118477?)

Ausbalanziert +50%PT 247W erreicht wird ~1520 PT permanent ausgeschöpft...
6729 (https://www.3dmark.com/3dm/24118728?)

Benutzerdefiniert +50%PT 247W - erreicht wird ~1560 bei 210W
6931 (https://www.3dmark.com/3dm/24118330?)

BlacKi
2017-12-22, 17:51:00
Vega mit niedrigerem Powerlimit (ein paar % Performanceverlust in Kauf nehmend) wäre mMn die sinnigere default-Einstellung der Referenzkarte gewesen.
was solls, die kunden sinds gewohnt.

dargo
2017-12-22, 17:51:26
Ich blicke da bei dir nicht mehr durch. ;D

Was heißt bsw. Ausbalanziert +50%PT? Das geht im Wattman gar nicht, Benutzerdefiniert +50%PT dagegen schon.

Igor TH
2017-12-22, 18:00:07
Ich blicke jetzt gar nicht mehr durch. Könnte Susi das bitte später mal kurz zusammenfassen?
https://www.youtube.com/watch?v=hlXFxpKF1eQ

hlXFxpKF1eQ

BeetleatWar1977
2017-12-22, 18:20:37
Ich blicke da bei dir nicht mehr durch. ;D

Was heißt bsw. Ausbalanziert +50%PT? Das geht im Wattman gar nicht, Benutzerdefiniert +50%PT dagegen schon.
Wattman auf ausbalanziert - Aber im OverdriveNTool +50%PT gesetzt, das geht (Alternativ Afterburner)

dargo
2017-12-22, 18:24:36
Wattman auf ausbalanziert - Aber im OverdriveNTool +50%PT gesetzt, das geht (Alternativ Afterburner)
Ah... ok. Diesen Punkt habe ich noch nicht ausprobiert. Deshalb noch etwas Neuland für mich. :D Ich kann mir das nur so erklären, dass der Wattman auf benutzerdefiniert mit anderen Daten arbeitet die vom OverdriveNTool gesetzt sind was bei gleichen Verbrauch zu mehr Leistung führt. Möglicherweise ist das die Folge davon, dass die Telemetrie ausgehebelt wird und es nicht mehr zu diesen Spannungsfluktuationen kommt. Hast du bei Benutzerdefiniert +50%PT eine deutlich glattere Spannungslinie?

Daredevil
2017-12-22, 18:25:36
Sind die Profile im Wattman nicht einfach feste PowerTarget Werte? o0

dargo
2017-12-22, 18:26:52
Sind die Profile im Wattman nicht einfach feste PowerTarget Werte? o0
Sind sie... nur wird mit OverdriveNTool @PP-Table Editor als "Vorstufe" einiges geändert. :D

BeetleatWar1977
2017-12-22, 18:30:13
Ah... ok. Diesen Punkt habe ich noch nicht ausprobiert. Deshalb noch etwas Neuland für mich. :D Ich kann mir das nur so erklären, dass der Wattman auf benutzerdefiniert mit anderen Daten arbeitet die vom OverdriveNTool gesetzt sind was bei gleichen Verbrauch zu mehr Leistung führt. Möglicherweise ist das die Folge davon, dass die Telemetrie ausgehebelt wird und es nicht mehr zu diesen Spannungsfluktuationen kommt. Hast du bei Benutzerdefiniert +50%PT eine deutlich glattere Spannungslinie?
Jein ;D - nur wenn ich nicht ins PT laufe.

Daredevil
2017-12-22, 18:32:16
Oooookay.
Ich musste gerade feststellen, dass zwei Vega mit -50%PT die Lüfterdrehzahl so niedrig stellen, dass die glühenden Karten mein Mainboard so sehr erhitzen, dass es Not abschaltet. ;D
Ich hab da halt eine Heatpipe quer über das Mobo und die Southbridge erhitzt sich dank den beiden Babys so sehr, dass es direkt zu den Spawas gelenkt wird. Nicht so ideal. :D
Aber gut, sehr viel ist zwischen den beiden halt auch nicht.

Aber mit 1600rpm@Nacht lüppt dat nu. :>

dargo
2017-12-22, 18:33:16
xD :freak:

Mal ne Frage am Rande... ist deine Vega56 noch Original oder hast du ein anderes Bios drauf?

Daredevil
2017-12-22, 18:46:30
Beim zocken hatte ich die letzten Tage ( Nicehash down ) das originale Bios drauf, weil das 64er Bios auf der 56er im Crossfire einfach nicht funktioniert.

Da Nicehash jetzt wieder on Point ist, hat die 56er wieder das 64er Bios drauf.
Das 56er Bios hat eine Begrenzung beim SoC Takt, ich komme mit dem nicht über 1Ghz. Zudem priorisiert es nicht die Mem Takt, wenn die Karte ins PT läuft.

Links Vega 64 = GPU2
Rechts Vega 56@64 = GPU3
PT -50% und 65°C als Ziel

http://abload.de/img/unbenannt1msn4.png

Die Vega56 fährt, ich denke mal aufgrund ihrer fehlenden Recheneinheiten, mehr Volt im -50% PT und kann deshalb mehr den Takt ausfahren und Performt deswegen auch besser.
UV ist mit dem Blockchain Treiber ja eh broken.

Lehdro
2017-12-22, 19:07:30
Und mit "nur" 69MH/s passt originale Aussage bzgl. Faktor 2 zu Vega nicht mehr.
Wieviel hat Vega denn ootb? Ah, richtig, keine 43 MH/s. Was soll das jetzt? Vega bringt auch nur ~35 MH/s stock mit.



In den Screens meiner Quelle sieht man, dann beide Vega64 Air dort ~112W für GPU-HMB2 brauchen. Die 130W pro Karte werden also schon hinkommen.
Nein. Teste es selbst, es sind rund 160W. Das wurde damals schon in dem reddit fred wo das her ist debunked. Die ~130W die er da gemessen hat sind der Offset zu seiner Idle Power. Idle verbraucht eine Vega ~20W, zack da haste deine 160W.

BeetleatWar1977
2017-12-22, 19:19:24
Sind sie... nur wird mit OverdriveNTool @PP-Table Editor als "Vorstufe" einiges geändert. :D
btw - Frequenzen werden auch ohne "benutzerdefiniert" übernommen wenn du sie im OverdriveNTool setzt, das ist nur für die Spannungen nötig.....

dargo
2017-12-22, 19:28:03
@Beetle

Kann man eigentlich den Vorgang OverdriveNTool starten-->PPTable-Editor öffen-->Save automatisieren? ODNT automatisch nach jedem Kaltstart starten ist wohl das kleinste Problem. Über die Aufgabensteuerung sollte es gehen. Aber was ist mit dem Rest? Ich meine es gibt auch eine Commandline für ODNT. Aber auch für die nötigen Schritte?

BeetleatWar1977
2017-12-22, 19:36:29
@Beetle

Kann man eigentlich den Vorgang OverdriveNTool starten-->PPTable-Editor öffen-->Save automatisieren? ODNT automatisch nach jedem Kaltstart starten ist wohl das kleinste Problem. Über die Aufgabensteuerung sollte es gehen. Aber was ist mit dem Rest? Ich meine es gibt auch eine Commandline für ODNT. Aber auch für die nötigen Schritte?
Wenn du einfach die Restart.exe vom CRU nutzt? https://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU

dargo
2017-12-22, 19:39:40
Ich kann dir nicht folgen. :confused:

BeetleatWar1977
2017-12-22, 19:54:45
Ich kann dir nicht folgen. :confused:
Du willst doch nur den Treiber resetten, oder? Die Werte stehen ja auch nach einem Neustart in der Registry. Das Tool macht genau das ;)

Achill
2017-12-22, 20:24:01
Wieviel hat Vega denn ootb? Ah, richtig, keine 43 MH/s. Was soll das jetzt? Vega bringt auch nur ~35 MH/s stock mit.



Nein. Teste es selbst, es sind rund 160W. Das wurde damals schon in dem reddit fred wo das her ist debunked. Die ~130W die er da gemessen hat sind der Offset zu seiner Idle Power. Idle verbraucht eine Vega ~20W, zack da haste deine 160W.

Warum auf einmal ootb? Die 75MH/s gab es mit OC des HBM2 und Karte:


[..]
Mit einem um 200 MHz höheren HBM2-Takt erreicht die NVIDIA Titan V eine Hashrate von 75,2 MH/s und ist damit doppelt so schnell, wie jede andere Karte, die wir getestet haben. Auf den ersten Blick sieht es also so aus, als würde sich die Anschaffung einer NVIDIA Titan V lohnen, allerdings gibt es noch einige andere Parameter, die beachtet werden sollten.

Mit 75 MH/s und einer Leistungsaufnahme der Karte von 270 W (durch die Übertaktung des HBM2 dürften wir hier landen) sowie einem durchschnittlichen Preis für die Kilowattstunde von 28 Cent liegt der Ertrag einer NVIDIA Titan bei einem aktuellen Kurs des Ether von 700 US-Dollar (etwas weniger als 600 Euro) bei 145 Euro im Monat. Es würde also mehr als 21 Monate dauern, bis die Anfangsinvestition von 3.100 Euro aufgefangen ist. Erst ab dann würde eine NVIDIA Titan V ein Plus erwirtschaften.
[..]


Wir fassen zusammen, man übertaktet eine GPU ohne die anderen GPUs - zu denen man den Vergleich zieht - anzufassen / diese zu optimieren.

Und btw. Vega64 LC @ Vega64 AIR mit UV und HBM2@1050 Mhz ...

Mit 850mV sind es noch ~114W für GPU+HMB2 bei 41-42MH/s mit den aktuellen Standard-Treiber (17.12.1):
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=62084

Mit 800mV sind es dann ~104W für GPU+HMB2 bei 41-42MH/s mit den aktuellen Standard-Treiber (17.12.1):
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=62085

Die 800mV haben aber der Treiber nach den Reboot nicht gemocht, der Treiber hat sich verweigert zu laden (kein Black-Screen) sondern VGA kompatibler Modus.

dargo
2017-12-22, 20:32:22
Ich habe jetzt das verschieben vom PT mit dem OverdriveNTool probiert ohne den Wattman anzufassen. Der wurde zurückgesetzt. Und tatsächlich kann ich das PT in den negativen Bereich verschieben. PT anheben geht nicht bzw. hat keine Auswirkung, also wie bei akuji13. Um aber noch mehr Verwirrung zu stiften... :D, bei mir wirkt sich das negative PT erst ab -25% aus. :freak:

Um das ganze in Bildern festzuhalten.

PT -20% über ODNT
https://abload.de/img/newcolossus_x64vk_201yhsua.jpg


PT -25% über ODNT
https://abload.de/img/newcolossus_x64vk_2018wsb0.jpg

PT -30% über ODNT
https://abload.de/img/newcolossus_x64vk_2013es8q.jpg

Man sieht hier auch sehr gut, dass die Karte bervorzugt den Speichertakt zu senken, was wir eigentlich nicht wollen. Denn dadurch verliert man überproportional Leistung. Die 800Mhz in der Anzeige bei -25% PT stimmt nicht. Im Bild habe ich gerade 800Mhz erwischt, die schwankt aber ständig zwischen 800 und 945Mhz. Offenbar kann der AB den avg. HBM2 Takt nicht korrekt erfassen. Die Skalierung der Frames spricht auch dafür, dass da keine dauerhaften 800Mhz anliegen können.

Warum die Karte den Speichertakt senkt kann ich mir nur so erklären. Über die 900mV der GPU kann die Karte das reduzierte PT-Limit alleine nicht mehr erreichen und so wird der Speichertakt ab einem bestimmten PT-Wert zusätzlich abgesenkt. Aus diesem Grund finde ich Undervolting über PT nicht sinnvoll. Man verliert unnötig Leistung. Schlauer ist es die Vcore der GPU weiter abzusenken damit das Budget im Powerlimit für den vollen HBM2-Takt ausreicht. Am Beispiel von -30% PT sieht man, dass die Karte bei mir nur noch 1471Mhz erreicht. Für diesen Takt kann ich aber eher ~850mV nehmen. Dadurch geht der GPU-Takt wieder höher und der Speichertakt wird nicht abgesenkt.

Dieser Vergleich in mit diesen PPTable-Editor Settings entstanden.
https://abload.de/img/ntool_126os59.jpg

Wie man sieht kann ich also doch die 1,0V Sperre ohne den Wattman umgehen. Ich muss nur das PT senken und nicht auf 0% lassen.

Edit:
Gerade bin ich etwas baff. Meine 1,0V Sperre hat sich mit den aktuellen PPTable-Editor Settings in Luft aufgelöst. :confused: Müssen zwischen den einzelnen P-States (P2 bis P7) mindestens 10mv Unterschied vorhanden sein? Anders kann ich mir das aktuell nicht erklären. Denn auch mit 0% PT im OverdriveNTool und ohne den Wattman erreiche ich nun 900mV. WTF? :D

Und noch was geiles. ;D

https://abload.de/img/newcolossus_x64vk_201k6s6k.jpg


https://abload.de/img/newcolossus_x64vk_201kqsb2.jpg

Beide Tools bedienen sich offenbar an zwei verschiedenen Stellen in der Registry was Powerlimit angeht. ;D

Lehdro
2017-12-22, 21:01:44
Warum auf einmal ootb? Die 75MH/s gab es mit OC des HBM2 und Karte:

Wir fassen zusammen, man übertaktet eine GPU ohne die anderen GPUs - zu denen man den Vergleich zieht - anzufassen / diese zu optimieren.
Wir fassen mal zusammen:

Stock 69 MH/s vs Stock 35 MH/s
Stock 120W vs Stock 200W+
So hoch optimiert hat noch niemand die NV Karte (und wird es auch hoffentlich nie tun...), da wurde nur immer der Takt hochgejubelt, aber nie UV betrieben. Du kannst jetzt von mir aus gerne die optimierte Vega gegen die nicht optimierte Stock Titan V stellen - dabei wird der Vergleich "besser", oder wie? Nicht alles was hinkt ist ein Vergleich.


Und btw. Vega64 LC @ Vega64 AIR mit UV und HBM2@1050 Mhz ...

Mit 850mV sind es noch ~114W für GPU+HMB2 bei 41-42MH/s mit den aktuellen Standard-Treiber (17.12.1):

114W ASIC

Verstehs es doch, das ist nur ein verdammter Sensorwert. Dann sinds halt 140W - 150W insgesamt für die Karte samt Wandler. Wow, streitest du echt mit mir um 10-20W?

Achso: Bei meiner Referenz Vega ging btw nur 875mV bevor er abstürzte und nun? Zählt die nicht weil zu schlecht?

Daredevil
2017-12-22, 21:27:02
Last ist aber nicht gleich Last.
Bei Ether Mining wird fast ausschließlich nur der HBM2 Speicher getreten, bei Monero selbst der nicht mehr, das ist dann eine Cache Sache oder was auch immer.

Achill
2017-12-22, 21:37:51
Wir fassen mal zusammen:

Stock 69 MH/s vs Stock 35 MH/s
Stock 120W vs Stock 200W+
[..]

Bitte gibt eine Quelle an, wo 69MH/s bei 120W mit der Titan V erreicht wurden.

Ansonsten einfach mal angemerkt, dass hier (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45212-nvidia-titan-v-erreicht-hohe-mining-leistung-rechnet-sich-dennoch-nicht.html) für 75MH/s von einer Leistungsaufnahme von 270W gesprochen wird. Wie kann bei nur -6 MH/s die Leistungsaufnahme auf 120W sinken?


[..]
114W ASIC

Verstehs es doch, das ist nur ein verdammter Sensorwert. Dann sinds halt 140W - 150W insgesamt für die Karte samt Wandler. Wow, streitest du echt mit mir um 10-20W?
[..]


Die Ungenauigkeit war bei früheren Karten der Fall, da nur der Wert der GPU ohne Ram ausgelesen werden konnte. Mit Vega kann jetzt für GPU+HBM2 der Verbrauch ausgelesen werden.

Der Aufschlag bzw. die Differenz von ~40W für das Board und Wandler wurde unter starker Last gemessen - ich weiß nicht ob Igor dies hier nur im Forum genannt hat, im Tests zur Vega habe ich es auf die Schnelle nicht gefunden: http://www.tomshardware.de/vega-benchmarks-performance-leistungsaufnahme-temperaturen,testberichte-242382-16.html.

Aber auch beim Board und Wandlern gilt, des deren Verlustleistung maßgeblich von der Last abhängt, "einfach so" 30W oder 40W anzunehmen ist einfach unsachlich. Die Vega verbrauch gesamt im Idle 19W - da können die Wandler und das Board einfach keine 30-40W bei keiner oder geringer Last brauchen.


Wow, streitest du echt mit mir um 10-20W?


Es ist doch ganz einfach, denn 2x Vega64 bedeutet:
- 210-220W Gesamtverbrauch
- 83-84MH/s
- halber Anschaffungspreis bei aktuellen Preisen (1500-1600€)

.. so ist zum jetzigen Stand eine Info zur TitanV im Vega-Review-Thread einfach OT sowie Aussagen oder gezogene Vergleiche im besten Fall sehr ungenau oder eigentlich einfach falsch.

dargo
2017-12-22, 22:08:37
@Beetle

Das ist einfach zu geil hier. ;D Wenn man es nicht selber sieht glaubt man es nicht. ;D ;D ;D

Die Idee mit der Restart.exe von CRU ist schon mal gold richtig. :up: Damit sind die fehlenden 5% Leistung wieder da. Aber jetzt kommts... nachdem ich die Restart.exe ausgeführt habe und der Treiber resetet wurde habe ich wieder mein 220W Limit und im Schnitt ~1V. :crazy:

https://abload.de/img/newcolossus_x64vk_201gns2c.jpg

Starte ich OverdriveNTool und schiebe das PT ins Negative (hier reichen schon -1%) passt wieder alles.

https://abload.de/img/newcolossus_x64vk_201b7sdf.jpg

Einfach nur zum brüllen. ;D

Hast du noch eine Idee wie ich OverdriveNTool dauerhaft auf -1% PT setzen kann? Weil in dem Fall kann ich auf den Wattman komplett verzichten.

dargo
2017-12-22, 22:45:17
Wolf 2 scheint wirklich besser zu laufen schätze mal eine 2Ghz 1080 reicht jetzt für 4k/60.Hab in Manhattan jetzt 48fps an der härtesten Stelle mit der 1070@1.9Ghz,das hatte CB mit der 1080 in ihrem Test.

https://farm5.staticflickr.com/4590/27441068369_c8c2e339d1_b.jpg (https://flic.kr/p/HNSDAr)WOLD MANHATTEN (https://flic.kr/p/HNSDAr) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Zum Vergleich meine Vega mit aktuellem Undervolting in 4k @Mein Leben Preset (MB und CA off).

https://abload.de/img/newcolossus_x64vk_201kwsbl.jpg

Aber wie gesagt fehlen da noch paar Prozent wegen dem kaputten Async Compute auf GCN. Verbrauch der ganzen Karte in der Szene ~244W.

Darkseth
2017-12-22, 23:55:33
@Darkseth:
Jede Karte ist anders und ich habe leider keine Zeit, hier jede der Karten auf DIE besten Settings hin zu prüfen. Pascal ist fast schon Geschichte und damit durch. Da lohnt sich so etwas noch nicht einmal für einen Artikel. Und bei Vega habe ich hier so eine Streuung, dass ich mich innerlich weigere, da was Verallgemeinertes zu schreiben. Da bitte ich echt um Verständnis.
Oh, garkein Problem :)

Meinte eher, solltest du sowas schon mal getestet haben, und irgendwo noch ne Tabelle drüber rumfliegen, das kurz rauskopieren oder so ;-)
Und schon garnicht mit jeder karte (nur mit 1 Beispiel, zwecks des Unterschieds).

Aber kann ich vollkommen verstehen, keine Sorge ^^

dildo4u
2017-12-23, 00:20:57
Zum Vergleich meine Vega mit aktuellem Undervolting in 4k @Mein Leben Preset (MB und CA off).

https://abload.de/img/newcolossus_x64vk_201kwsbl.jpg

Aber wie gesagt fehlen da noch paar Prozent wegen dem kaputten Async Compute auf GCN. Verbrauch der ganzen Karte in der Szene ~244W.
Muss mal jemand mit einer 1080 Testen,meine Karte kann nur 112% Powerlimit hänge bei 155 Watt fest.

dargo
2017-12-23, 00:52:13
Dann habe ich noch das im Angebot. :)

https://abload.de/img/newcolossus_x64vk_201wusik.jpg

btw.
Hier sieht man wieder ganz gut, dass man Vega auch falsch undervolten kann. 4% weniger GPU-Takt resultieren in 7% weniger Leistung bei gleicher Bandbreite. Irgendwelche Settings sind beim UV @850mV also suboptimal. Habe da schon einen Verdacht, muss noch bissel rumprobieren.

Edit:
Das hätte ich dann auch noch im Angebot.

https://abload.de/img/newcolossus_x64vk_201ras2r.jpg

dargo
2017-12-23, 10:50:43
Die Idee mit der Restart.exe von CRU ist schon mal gold richtig. :up: Damit sind die fehlenden 5% Leistung wieder da.
@Beetle

Wie ich heute festgestellt habe ist die Restart.exe von CRU unzuverlässig. Ich hatte heute paar Fälle wo die 5% trotzdem fehlten. Selbst das Neuschreiben der Daten vom PPTable-Editor brachte keine Abhilfe. Die Taktraten passten, es fehlten trotzdem 5% Leistung. Das ist komplett neu.

Ich habe daraufhin mit DDU den Treiber entfernt und neuinstalliert. Schon sind die 5% Leistung wieder da. Also die Restart.exe von CRU kann ich nicht empfehlen.

Screemer
2017-12-23, 11:03:24
die restart.exe macht nichts anderes als den treiber zu resetten. ist dieser bugged, dann hilft natürlich auch kein reininitalisierung von diesem. das wäre mal wieder ein fall fürs amd support forum.

Mr. Lolman
2017-12-23, 11:05:49
Und ja die Titan V lohnt nicht fürs Mining. Got you. Die lohnt auch nicht fürs Gaming. Got you. Aber trotzdem ist sie eine testbare NV Architektur mit HBM, so "sinnlos" sie auch sonst sein sollte.

Ja, stimmt. Immerhin bringt sie bei Ether knapp doppelte Miningleistung für bloß den 5-fachen Preis!

dargo
2017-12-23, 11:09:10
die restart.exe macht nichts anderes als den treiber zu resetten. ist dieser bugged, dann hilft natürlich auch kein reininitalisierung von diesem. das wäre mal wieder ein fall fürs amd support forum.
Ja, das stimmt. Allerdings funktioniert der Treiberreset über einen Neustart zuverlässig. Wer weiß ob der Fehler nicht in Windows liegt? Dieser Restart vom Treiber ohne Neustart ist glaube ich eh erst relativ neu mit WDM2.2 oder? Naja... mal etwas reifen lassen.

Screemer
2017-12-23, 11:16:58
das könnte natürlich auch sein.

dargo
2017-12-23, 11:22:26
Egal... ich habe mir jetzt angewöhnt nach einem Kaltstart das Reg-File nochmal auszuführen und neustarten. Mit SSDs geht das eh recht fix. Dennoch wäre ich euch sehr dankbar wenn einer das Problem mal vernünftig bei guru3d verpacken könnte. :)
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/

Ich weiß nicht mal ob das Problem dem Tool-Ersteller bei Vega bekannt ist.

Hier nochmal im Klartext. Nach einem Kaltstart (Kaltstart bitte nicht wortwörtlich nehmen, es ist egal ob die Karte kalt oder warm ist :D, die Trennung vom Strom ist ausschlaggebend, hat also anscheinend mit einer komplett neuen Initialisierung vom Bios zu tun) fehlen 5% Leistung. Diese fehlende Leistung ist wieder da wenn man nach dem Kaltstart das Reg-File nochmal ausführt und den Rechner neu startet.

Edit:
Noch was vergessen. Der Ruhezustand (was ich gerne nutze wenn ich nicht am Rechner bin) hat das gleiche Problem wie der Kaltstart. Nach dem Aufwachen aus dem Ruhezustand fehlen wieder 5% Leistung bei 1% weniger Takt.

hmmm
2017-12-23, 11:31:01
Egal... ich habe mir jetzt angewöhnt nach einem Kaltstart das Reg-File nochmal auszuführen und neustarten. Mit SSDs geht das eh recht fix. Dennoch wäre ich euch sehr dankbar wenn einer das Problem mal vernünftig bei guru3d verpacken könnte. :)
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/

Ich weiß nicht mal ob das Problem dem Tool-Ersteller bei Vega bekannt ist.

Hier nochmal im Klartext. Nach einem Kaltstart (Kaltstart bitte nicht wortwörtlich nehmen, es ist egal ob die Karte kalt oder warm ist :D, die Trennung vom Strom ist ausschlaggebend, hat also anscheinend mit einer komplett neuen Initialisierung vom Bios zu tun) fehlen 5% Leistung. Diese fehlende Leistung ist wieder da wenn man nach dem Kaltstart das Reg-File nochmal ausführt und den Rechner neu startet.
Ist das verhalten auch bei etwas älteren Treibern so oder erst ab Adrenalin?
Ist es nur in verbindung mit odnt oder auch schon bei WattMan?

Zergra
2017-12-23, 11:33:30
Hast du mal den Schnellstart in den Energieoptionen deaktiviert ? Also bei Einstellungen fürs Herunterfahren ?

Dino-Fossil
2017-12-23, 11:33:48
So, um die Vega vs Pascal Diskussion endgültig zu beenden, hier der definitive Vergleich:

Hier lang... (https://www.reddit.com/r/Amd/comments/7lnmii/the_truest_comparision_of_vega_5664_vs_geforce/)

/DISCUSSION

Achtung, Ironie!

dargo
2017-12-23, 11:43:47
Ist das verhalten auch bei etwas älteren Treibern so oder erst ab Adrenalin?

Kann ich dir nicht beantworten. Aber gut, dass du das gerade ansprichst.

Wer Feedback zum UV gibt haltet euch bitte nur an den neuen Adrenalin Treiber. Der Wattman ist ja Bestandteil vom Treiber. Und wenn AMD hier was verändert kommen wir nie auf einen gemeinsamen Nenner weil jeder im schlimmsten Fall andere Ergebnisse hat. Ob 17.12.1 oder 17.12.2 spielt keine Rolle. Ich konnte hier beim UV keinen Unterschied feststellen. Bin mit 17.12.2 unterwegs.


Ist es nur in verbindung mit odnt oder auch schon bei WattMan?
Der Wattman alleine taugt nicht zum UV weil du nur Zugriff auf P6 und P7 hast womit du beim UV schnell an Limits kommst.

Beispiel... P5 hat Default 1100mV, P6 1150mV und P7 1200mV. Seit Adrenalin hat P7 bei der Liquid im Wattman sogar 1250mV, keine Ahnung warum AMD das gemacht hat. Möglicherweise ein Treiberbug denn das Bios sagt weiterhin 1200mV. Aber das nur am Rande. Wenn du jetzt mit weniger als 1100mV undervolten willst kommt du mit dem Wattmann nicht weiter. Du brauchst Zugriff auf die anderen P-States um diese abzusenken. Du könntest zwar mit dem Wattman alleine mit 1,0V mit der Methode von Igor undervolten, aber das ist ja auch im Prinzip kein richtiges Undervolten. Du bekommst zwar etwas mehr Leistung gegenüber Default, der Verbrauch steigt aber auch ein wenig an. Nicht so wirklich das Wahre. Wenn ich undervolte dann möchte ich nach Möglichkeit gleiche Leistung mit weniger Verbrauch. Oder mehr Leistung bei gleichen Verbrauch.

Hast du mal den Schnellstart in den Energieoptionen deaktiviert ? Also bei Einstellungen fürs Herunterfahren ?
Schnellstart ist aktiviert. Meinst du das ändert was?

hmmm
2017-12-23, 11:59:16
Es geht ja darum den "Fehler" zu finden, es ist egal ob WattMan zum UV taugt oder nicht.
Aber wie ich das sehen liegt es nicht an odnt, denn auch ohne odnt "fehlen" _noch nicht reproduzierbar_ 3-5%. Auch komplett ohne UV, Wattman oder odnt. :O

dargo
2017-12-23, 12:03:48
Aber wie ich das sehen liegt es nicht an odnt, denn auch ohne odnt "fehlen" _noch nicht reproduzierbar_ 3-5%. Auch komplett ohne UV, Wattman oder odnt. :O
Interessant... hast du das selbst getestet? Ich spiele nicht mit Defaults deshalb ist mir das wohl noch gar nicht aufgefallen. Wenn das wirklich stimmt dann ist der Treiber wohl noch verbugt. Vielleicht gibts hier einen Zusammenhang mit dem "Durcheinander" bei den Customs auch.

hmmm
2017-12-23, 12:08:04
Ja, das Problem besteht auch ganz ohne UV. Hatte sowas schonmal gehabt nur war ich mir nicht sicher und da OpenCL wohl nicht betroffen ist, dachte ich ich hätte mich geirrt.

EDIT
Scheint nicht nur nach einem "Kaltstart" so zu sein, zB HBCC ist an -> HBCC aus -> HBCC an = es fehlen 7% :O

RoughNeck
2017-12-23, 12:17:56
@dargo

Wenn ich nur das P7 auf 0,950 runter setze habe ich ein Asic Limit von 210W. Was lustig ist, wenn ich dabei das Power Target auf -25 setze habe ich nur mehr 160W anliegen, der Takt bleibt aber bei über 1,5 GHZ.
Kannst ja mal gegentesten, ich blicke da bei Vega nicht so ganz durch wenn ich ehrlich bin.

dargo
2017-12-23, 12:20:18
@dargo

Wenn ich nur das P7 auf 0,950 runter setze habe ich ein Asic Limit von 210W. Was lustig ist, wenn ich dabei das Power Target auf -25 setze habe ich nur mehr 160W anliegen, der Takt bleibt aber bei über 1,5 GHZ.
Kannst ja mal gegentesten, ich blicke da bei Vega nicht so ganz durch wenn ich ehrlich bin.
Wir müssen uns langsam auf ein Spiel einigen sonst kommen wir damit auch nicht weiter. Unterschiedliche Szenen = unterschiedliche Powerlimits beim UV. Unterschiedliche Auflösungen ebenfalls. Was hälst du von Wolf 2? Alternativ Witcher 3?

PS: beim genaueren Lesen scheint sich aber deine Vega genauso wie meine zu verhalten. Ich stecke bei 220W fest mit 950mV bei P7. Deine Testszene könnte halt nur etwas weniger GPU-Last verursachen, deshalb 210W bei dir. Wie gesagt wir müssen uns langsam auf eine gemeinsame Szene einigen.

PPS: versuche mal PT -1% mit ODTN anstatt -25% wenn du die 210W siehst. Du müsstest dann ebenfalls bei ~160W landen.


EDIT
Scheint nicht nur nach einem "Kaltstart" so zu sein, zB HBCC ist an -> HBCC aus -> HBCC an = es fehlen 7% :O
Das am besten gar nicht erst anfassen und immer mit HBCC off testen. Ein weiterer, möglicher Störfaktor. :D Das könnte allerdings mit dem Treibereset zusammenhängen. Beim Wechsel von HBCC resetet sich der Treiber, der Rechner wird nicht neu gestartet. Hier gibt es einen Bug im Treiber oder in Windows.

|MatMan|
2017-12-23, 12:32:09
Ja, stimmt. Immerhin bringt sie bei Ether knapp doppelte Miningleistung für bloß den 5-fachen Preis!
Auf technischer Ebene finde ich den Vergleich durchaus interessant. Die Titan V hat nur etwa 1/3 mehr Bandbreite als Vega, aber knapp die doppelte Hashrate. Beide haben dieselbe Speichertechnologie (HBM). Auch im Vergleich zu Polaris ist Vega eigentlich etwas zu schwach bei Ethereum...

dargo
2017-12-23, 12:34:56
Das ist alles nur eine Momentaufnahme. Der Blockchain Treiber ist vom August und immer noch Beta. Wer weiß schon wieviel Potenzial da eventuell noch drin steckt. Polaris ist wesentlich länger auf dem Markt und konnte entsprechend reifen. Das mit dem möglichen Potenzial gilt natürlich auch für eine Titan V.

Edit:
Witzig... ein "poppeliges" Assetto Corsa "heizt" auf der Norschleife in 1440p genau so gut wie Wolfenstein 2 in 4k. :tongue:

https://abload.de/img/ac4gsp8.jpg

Naja... dass da noch einiges an Potenzial bei Wolf 2 brach liegt ist ja mittlerweile bekannt.

|MatMan|
2017-12-23, 12:53:10
Vega kam vor einem halben Jahr auf den Markt! Langsam wäre es mal Zeit, aber es kommt eine Handy App... Wie lange soll man denn noch warten?
Deine Ausdauer mit Vega ist echt bewundernswert. Ich hätte das Ding wohl schon an die Wand geworfen!

dargo
2017-12-23, 12:55:34
Auf was soll ich denn warten? Mining geht mir am Ars... vorbei. ;) Meine Spiele laufen blendend. Wenn ich aktuell bei GH die Verfügbarkeit von Vega und die Preise betrachte sollte AMD den Blockchain Treiber wohl erstmal besser so lassen. Ansonsten bekommt der geneigte Gamer eine Vega in den nächsten Monaten überhaupt nicht zu Gesicht.

btw.
Warten tue ich höchstens auf den nächsten Frühling, denn das Wetter ist zum Kotzen.

dargo
2017-12-23, 13:56:40
Das Undervolting von Vega ist der Oberhammer wenn man erst die Zusammenhänge verstanden hat. :O Ich habe gerade einen neuen UV-Rekord bei meiner Karte aufgestellt. :D


https://abload.de/img/newcolossus_x64vk_201fws61.jpg

https://abload.de/img/newcolossus_x64vk_20179sx8.jpg

Ca. 191W bis 203W Gesamtverbrauch der Karte beim Speed der RX Vega64 Liquid @Bios 1 (345W). X-D


https://abload.de/img/newcolossus_x64vk_201qdsia.jpg

https://abload.de/img/newcolossus_x64vk_201s6sw0.jpg

Ok... ~0,5fps fehlen gerade noch. Wer so kleinlich ist für den kann ich das noch nachjustieren. Dann sinds halt ~5-10 Wattchen mehr. ;)

So langsam wäre eine vernünftige Anleitung zum Undervolting angebracht. Nur wie verpacke ich das am besten, dass auch jeder Neuling es versteht? :uponder:

dildo4u
2017-12-23, 13:58:57
Haste da vielleicht ein CPU Limit 144 ist ja schon recht hoch.

dargo
2017-12-23, 14:08:21
Nö... das siehst du auch daran, dass die Karte mit Defaultsettings im PT-Limit steckt und noch lange kein max. Takt erreicht wurde. ;) Das wäre dann CPU-Limit, zumindest verstärkt.

https://abload.de/img/newcolossus_x64vk_2012ksqy.jpg

https://abload.de/img/newcolossus_x64vk_201u5skc.jpg


Edit:
Jetzt aber. :D

https://abload.de/img/newcolossus_x64vk_201jrskg.jpg

https://abload.de/img/newcolossus_x64vk_20113sze.jpg

https://abload.de/img/witcher3_2017_12_23_15xsz9.jpg

Th3o
2017-12-23, 15:33:54
Im neuen Wattman kann man ja Profile abspeichern. Da das Ascii Dateien sind, könnte man sie editieren und dann im Wattman wieder einlesen. Werden in diesem Fall die Werte der States <P6 ignoriert?

Schlammsau
2017-12-23, 15:41:48
Hmm, nur meine Meinung aber könntet ihr diese ganze Undervolting Geschichte nicht einen eigenen Thread auslagern? Genauso wie das Mining ja auch ausgelagert wurde. Finde das Undervolting nicht so sehr im Detail hier im Preview-Thread auftauchen muss. Geht ja seit 100 Seiten um nix anderes mehr hier ....

Danke!

Zergra
2017-12-23, 16:01:53
UV ist doch das einzige was diesea thread noch interessant macht, sonst kann man den auch gleich zu machen.

Schlammsau
2017-12-23, 16:22:38
Wieso, irgendwann werden doch auch die Customs kommen, dann wird der Thread auch wieder mit Leben erfüllt. Mich nervt aber langsam nur dieses eine Thema, was hier rauf und runter gebetet wird und sich mMn nur im Kreis dreht dreht.

Bitte nen eigenen Thread fürs UV, Mining ist zB auch schon verbannt worden.

|MatMan|
2017-12-23, 16:43:01
Auf was soll ich denn warten? Mining geht mir am Ars... vorbei. ;) Meine Spiele laufen blendend. Wenn ich aktuell bei GH die Verfügbarkeit von Vega und die Preise betrachte sollte AMD den Blockchain Treiber wohl erstmal besser so lassen. Ansonsten bekommt der geneigte Gamer eine Vega in den nächsten Monaten überhaupt nicht zu Gesicht.

btw.
Warten tue ich höchstens auf den nächsten Frühling, denn das Wetter ist zum Kotzen.
Ein rundes Produkt ist Vega jedenfalls noch nicht. Mit UV kommt man etwas näher heran, aber das hast selbst du noch nicht 100%ig verstanden und es ist mega hakelig da mit 2-3 Tools hantieren zu müssen. Zum Mining geht UV gar nicht, was dich nicht interessiert, aber andere schon. Warum braucht man überhaupt einen separaten Mining Treiber und kann die Optimierungen nicht einfach in den normalen Treiber integrieren? Es funktionieren immernoch nicht alle Features bzw. scheinbar nicht richtig.
Schön, dass du zufrieden bist. Insgesamt kann man es mit der Vega-Situation aber einfach nicht sein.

dargo
2017-12-23, 17:03:23
Ein rundes Produkt ist Vega jedenfalls noch nicht. Mit UV kommt man etwas näher heran, aber das hast selbst du noch nicht 100%ig verstanden und es ist mega hakelig da mit 2-3 Tools hantieren zu müssen.
Für mich ist das sogar ein sehr rundes Produkt. Aber schön, dass du mir erzählen willst wie unrund Vega ist wo ich eine habe. :rolleyes: Hast du überhaupt eine? Und keine Sorge... ich verstehe durchaus wie das UV funktioniert. Ich poste nicht jeden Pups hier. 2-3 Tools? Ich brauche nur eins. :P

Zum Mining geht UV gar nicht, was dich nicht interessiert, aber andere schon.
Erzähle mir weitere Märchen. Komisch... ich kann den Verbrauch bei gleicher Hashrate mehr als halbieren. :rolleyes:

UV + 1050Mhz Speicher
https://abload.de/img/blockchain1s6sth.jpg

Default
https://abload.de/img/blockchain2nrsad.jpg

Default + 1050Mhz Speicher
https://abload.de/img/blockchain3n0sz4.jpg

Ist jetzt natürlich mit dem Gaming-/ und nicht Blockchaintreiber bei dem die Hashrate bei >2.000 H/s liegt. Das ganze bei nur ~150W für die ganze Karte ist durchaus ansprechend.

Hübie
2017-12-23, 17:12:17
Imo hat er Recht und das empfinden viele andere Konsumenten ebenfalls so. Und er wollte dich nicht mal angreifen, was das Verständnis des Algorithmus angeht. NVIDIA hat da halt eins, zwei Generationen Vorsprung und das merkt man nun mal. Der Algorithmus kann die Gewichtung einzelner Variablen verschieben, was bei AMD nicht der Fall zu sein scheint. Nutzt du nicht das Wattman tool, den Wattman und MSI AB? Sind 2-3 Werkzeuge... Jetzt chill also mal und fühl dich nicht so angegriffen. Man muss ein Produkt nicht besitzen um zu beurteilen wie rund es ist. Wozu auch? :rolleyes:

Ex3cut3r
2017-12-23, 17:31:14
Ist schon nicht schlecht was Dargo da veranstaltet, nur wie Stabil ist das ganze???

Wurde mich nicht wundern wenn man das erst später feststellt.

dargo
2017-12-23, 17:32:33
Nutzt du nicht das Wattman tool, den Wattman und MSI AB? Sind 2-3 Werkzeuge...
Du hast schon besser getrollt. :rolleyes:

Hättest du alles gelesen wüsstest du, dass der Wattman nicht nötig ist. Und den AB habe ich schon immer genutzt fürs OSD. Für UV ist der überhaupt nicht notwendig. Dient nur zur Kontrolle, ich habe gerne wichtige Daten immer im Blick. Genau so gut kann ich das Overlay von AMD verwenden was Nvidia nicht mal hat. :P

Ist schon nicht schlecht was Dargo da veranstaltet, nur wie Stabil ist das ganze???

Wurde mich nicht wundern wenn man das erst später feststellt.
Ihr zerbrecht euch zu sehr den Kopf darüber. Es ist soweit stabil, dass keins meiner Games bisher gefreezed ist. Grafikfehler gibts bei Vega bei zu wenig Spannung nicht. Die Grenzen meiner Karte bei X-Spannung und Y-Takt kenne ich bereits. Wo das passiert ist reichten 10Mhz weniger als Richtwert für einen stabilen Betrieb aus. Selbst 20-30Mhz weniger machen sich praktisch Null bei den Frames bemerkbar. Lass es 0,5-1% weniger Leistung sein. Wollen wir wirklich darüber jetzt diskutieren?

btw.
Ein Forza Horizon 3 begnügt sich aktuell mit 130W ASIC im Schnitt (~170W ganze Karte). ;D

https://abload.de/img/forza3_5ucscj.jpg


Und wem "nur" 72fps dauerhaft reichen wirds richtig albern (im Schnitt 95W ASIC.) :crazy:

https://abload.de/img/forza3_6dcsiz.jpg

Ex3cut3r
2017-12-23, 18:11:54
Ne, will gar nicht diskutieren, muss jetzt eh los, muss noch einkaufen....fuck wird in HH City jetzt sicherlich ein Spaß. :freak:

Bis dann.

dargo
2017-12-23, 18:34:15
Jetzt noch einkaufen? Mein Beileid. :tongue:

|MatMan|
2017-12-23, 18:42:22
Für mich ist das sogar ein sehr rundes Produkt. Aber schön, dass du mir erzählen willst wie unrund Vega ist wo ich eine habe. :rolleyes: Hast du überhaupt eine? Und keine Sorge... ich verstehe durchaus wie das UV funktioniert. Ich poste nicht jeden Pups hier. 2-3 Tools? Ich brauche nur eins. :P
Du postest ständig neue Erkenntnisse zum UV (das ist sehr positiv), da kann man nicht jedes Detail mitlesen. Nicht umsonst hat Igor nach einer UV-Zusammenfassung gefragt. Ich war der Meinung du hättest neben OverdriveNTool noch ein weiteres Tool (Wattman?) gebraucht - ok, dann nehm ich das zurück.
Ich finde es unheimlich schwierig aus den P-States nachzuvollziehen (bzw. vorauszusagen), welche Spannung bei welchem Takt anliegt und wieviel Leistung dann verbraucht wird. Da bin ich vom Curve Editor bei Pascal einfach verwöhnt.


Erzähle mir weitere Märchen. Komisch... ich kann den Verbrauch bei gleicher Hashrate mehr als halbieren. :rolleyes:

Ist jetzt natürlich mit dem Gaming-/ und nicht Blockchaintreiber bei dem die Hashrate bei >2.000 H/s liegt. Das ganze bei nur ~150W für die ganze Karte ist durchaus ansprechend.
Ursprünglich ging es um Ethereum (Titan V <-> Vega Diskussion), zu Cryptonight habe ich nichts geschrieben.
Es macht generell leider nicht viel Sinn den Gaming Treiber zu verwenden, wenn der Blockchain Treiber deutlich schneller ist - nur geht dann kein UV mehr (nach User-Aussage) :tongue: Für mich als Käufer ist das unrund. Beim Mitbewerber geht es einfach so.

Allgemein komm mal bitte etwas runter und versuche dich in andere Anwender hineinzuversetzen. Ich habe schon geschrieben, dass es gut ist, dass du zufrieden bist. Nur ist dein Nutzungsprofil eben nicht allgemeingültig.
Nein, ich habe keine Vega, aber ich würde gern eine kaufen. Allerdings nicht den nicht den Referenz-Air-Schrott und zu einem vernünftigen Preispunkt ohne tage-/wochenlang auf der Lauer liegen zu müssen. Und ich möchte keine Nerd-Frickel-Lösung. Beim UV nach jedem Kaltstart irgendwas klicken zu müssen und Windows nochmal starten zu müssen - nein danke. Ja, es wird irgendwann gefixt, sicherlich... hoffentlich... -> unrund.
Das meine ich mit warten. Es ist ein halbes Jahr rum, von einem typischen Lebenszyklus einer GPU von 1-2 Jahren und es passiert einfach zu wenig, sowohl bei der Liefersituation, Customs und der Software.

dargo
2017-12-23, 19:13:02
Ursprünglich ging es um Ethereum (Titan V <-> Vega Diskussion), zu Cryptonight habe ich nichts geschrieben.
Es macht generell leider nicht viel Sinn den Gaming Treiber zu verwenden, wenn der Blockchain Treiber deutlich schneller ist - nur geht dann kein UV mehr (nach User-Aussage) :tongue:

Ich habe jetzt nicht wirklich Lust wieder den Blockchaintreiber drauf zu machen. Aber rein von der Logik her macht diese Aussage vom User X (ja welcher denn eigentlich?) keinen Sinn. Denn wenn ich keinen Wattman brauche und ich auf OverdriveNTool zurückgreife warum sollte das nicht gehen? Imho überholte Erfahrungen.


Und ich möchte keine Nerd-Frickel-Lösung. Beim UV nach jedem Kaltstart irgendwas klicken zu müssen und Windows nochmal starten zu müssen - nein danke.
Du musst mal richtig lesen. Das ist nur nötig wenn du diese fehlenden 5% Leistung unbedingt brauchst. UV funktioniert weiterhin, auch ohne diesen Schritt nach dem Kaltstart. Dann holst du aber eben nicht das Maximum raus. Du hast 5% weniger Leistung, der Verbrauch sinkt allerdings trotzdem noch etwas im Vergleich zu +5% Leistung weil eben der Takt auch etwas sinkt.

btw.
Finde den Fehler. :D
Und ich möchte keine Nerd-Frickel-Lösung.
Da bin ich vom Curve Editor bei Pascal einfach verwöhnt.

Hübie
2017-12-23, 19:49:31
Du hast schon besser getrollt. :rolleyes:

Hättest du alles gelesen wüsstest du, dass der Wattman nicht nötig ist. Und den AB habe ich schon immer genutzt fürs OSD. Für UV ist der überhaupt nicht notwendig. Dient nur zur Kontrolle, ich habe gerne wichtige Daten immer im Blick. Genau so gut kann ich das Overlay von AMD verwenden was Nvidia nicht mal hat. :P

Was hat das mit Tr0lling zu tun? :confused: Kannst du mal aufhören ständig das Niveau zu senken? Ich meinte das völlig ohne Wertung und schon gar nicht mit deiner blöden AMD vs. NV Story.
Ich selber nutze MSI AB, Inspector, GPU-Z, GFE und das CP. Und jetzt? Kannst mir sagen ich nutze 4-5 Tools, dann sag ich: "JA!". Dein Fanboytism kannst du dir also stecken. :P

ps: Das AMD Overlay kann iirc nur 1x pro Sekunde aktualisieren. Schon allein das wäre für mich disqualifizierend. Egal welches Tool.

akuji13
2017-12-23, 19:55:07
@Weihnachtsessen

Wir fahren zu MC doof. :D

Einmal im Jahr kann man diesen Müll auch mal essen und wir haben keine Arbeit.
Und da ist auch fast keiner. :wink:

@UV

Ich gehe bald am Stock deswegen.

Wenn ich nach dem Rechnerstart TW3 starte freezt das je nach PT entweder sofort nach dem Laden des Spielstandes oder nach einigen Minuten.

Gut könnte man meinem die Spannung wäre zu gering.
Eine Erhöhung selbst auf 1.2 für P6/7 ändert aber nichts.

Wenn ich nun die exakt gleichen settings als Profil speichere, lade und anwende läuft TW3 stundenlang durch...

Sobald ich die PT "untenrum" ändere tritt es auf.

|MatMan|
2017-12-23, 19:58:03
Ich habe jetzt nicht wirklich Lust wieder den Blockchaintreiber drauf zu machen. Aber rein von der Logik her macht diese Aussage vom User X (ja welcher denn eigentlich?) keinen Sinn. Denn wenn ich keinen Wattman brauche und ich auf OverdriveNTool zurückgreife warum sollte das nicht gehen? Imho überholte Erfahrungen.
Ich sage ja gar nicht, dass du den Blockchain Treiber installieren sollst. Ich finde es ohnehin sinnlos, dass es den extra gibt. Für andere Nutzer ist Mining eben relevant und daher sollte halt auch da alles funktionieren. Die Aussage ist von Daredeveil:
UV ist mit dem Blockchain Treiber ja eh broken.


Du musst mal richtig lesen. Das ist nur nötig wenn du diese fehlenden 5% Leistung unbedingt brauchst. UV funktioniert weiterhin, auch ohne diesen Schritt nach dem Kaltstart. Dann holst du aber eben nicht das Maximum raus. Du hast 5% weniger Leistung, der Verbrauch sinkt allerdings trotzdem noch etwas im Vergleich zu +5% Leistung weil eben der Takt auch etwas sinkt.

Ich habe mitbekommen, dass es um 5% geht. Ich finde 5% schon relativ viel und es würde mich nerven die bewusst einfach so zu verschenken.


btw.
Finde den Fehler. :D
Haha, der war gut. Es dauert nur wenige Minuten die Kurve anzupassen, es reicht eigentlich zu testen bei welcher Spannung z.B. 2 GHz stabil sind. Ab da ist es "fire and forget" mit dem AB im Autostart.

dargo
2017-12-23, 20:03:14
Sobald ich die PT "untenrum" ändere tritt es auf.
Du sollst auch am PT nicht drehen. ;)

Dein Fanboytism kannst du dir also stecken. :P

Das sagt der richtige. ;D


Gut könnte man meinem die Spannung wäre zu gering.
Eine Erhöhung selbst auf 1.2 für P6/7 ändert aber nichts.

Was tust du denn da? Aua... ;D

Ich glaube ich muss die Anleitung schneller schreiben als mir lieb ist, wegen der Feiertage. X-D


Haha, der war gut. Es dauert nur wenige Minuten die Kurve anzupassen, es reicht eigentlich zu testen bei welcher Spannung z.B. 2 GHz stabil sind. Ab da ist es "fire and forget" mit dem AB im Autostart.
Geht bei Vega in wenigen Sekunden wenn man weiß was man tut. ;) Da mir aber ein Szenario nicht reicht (ich teste alles von max. Effizienz über gleiche Leistung bei deutlich geringeren Verbrauch bis hin zu max. Leistung) dauerts halt etwas länger.

Edit:
Ich habe mal ein kleines Video von Forza Horizon 3 @60fps Limit aufgenommen damit man einen kleinen Überblick über die Asicpower in Bewegung bekommt.
yvYjVbuZAbA

Man kriegt wenn man will auch eine fette Vega auf ~100 Wattchen runter. :biggrin: Youtube macht aber wieder einen Brei daraus... aua. ;( Standbild und langsame Bewegung geht noch, aber schnelle Bewegung nur noch Brei.

PS: nicht über das gelegentliche Stuttering wundern. Ingame ist alles sauber. Ich befürchte langsam ReLive ist bei Vega noch buggy.

Ex3cut3r
2017-12-23, 20:59:01
Jetzt noch einkaufen? Mein Beileid. :tongue:

Ja bin wieder da, puhhh, manchmal habe ich das Gefühl aus 1,7 Millionen Einwohner sind 4 Millionen geworden. :biggrin:

Geschäfte haben teilweise bis 24 Uhr hier auf, das ist nice.

Sry für OT.

Fröhliche Weihnachten!

Hasenpfote
2017-12-23, 22:56:49
Womit hast du geräuchert und was benutzt du zum Sous Vide garen?
Mich reizt die Methode auch.Vorhin gelesen:
Spülmaschine, 50C, 90min
https://www.eater.com/2016/12/9/13904146/cook-steak-dishwasher-sous-vide

Sorry for OT, aber Vega ist langweilig :biggrin:

|MatMan|
2017-12-23, 23:10:37
Geht bei Vega in wenigen Sekunden wenn man weiß was man tut. ;) Da mir aber ein Szenario nicht reicht (ich teste alles von max. Effizienz über gleiche Leistung bei deutlich geringeren Verbrauch bis hin zu max. Leistung) dauerts halt etwas länger.
In Sekunden hast du auch Stabilität getestet? Bis vor kurzem bist du nicht mal unter 1V gekommen.
Ich suche eher weniger max. Leistung, noch max. Effizienz, eher den "Vernunfts-Sweetspot". Bei Pascal sind das etwa 2 GHz mit so wenig Spannung wie nötig.
Bei Vega bin ich noch unsicher wo das in etwa ist.
Erklär doch mal bitte wie das in Sekunden geht: Was geht denn bei Vega noch an Takt bei z.B. 1V und wie finde ich das am besten raus? Wie kann ich den Takt schrittweise erhöhen, möglichst während die Anwendung läuft (z.B. ein Miner)? Wie muss ich für den gefunden Takt (bei 1V) dann die restlichen Taktstufen (oder P-States) setzen?

horn 12
2017-12-23, 23:43:13
@Dargo

Da müssen wir , Löschzwerg und ich wohl auch mal ran mit unserer Air Vega 64
Sind eh die einzigen mit ner 64-er Air und Neue gibt es so gut wie keine mehr :-)

aufkrawall
2017-12-23, 23:47:46
Ich sehe nicht, warum Forza besonders interessant für Verbrauchsbetrachtungen wäre. Wenn ich die HW-Parameter einer Karte konfiguriere, nehm ich natürlich einen Worstcase was den Stromverbrauch angeht.

akuji13
2017-12-24, 00:04:05
Du sollst auch am PT nicht drehen. ;)

Mein Fehler, ich meinte mit PT die power table und nicht das power target.
Das wurde nicht angetastet.

Was tust du denn da? Aua... ;D

Ich glaube ich muss die Anleitung schneller schreiben als mir lieb ist, wegen der Feiertage. X-D

Nö, hier ist alles klar. :wink:
Ob ich nun 1.2V oder 1200mV schreibe ist doch Wurst.

Wollte damit nur zum Ausdruck bringen das das Problem hier selbst mit der stock Vcore auftritt und zwar immer sobald etwas unter P6 verändert wird.

horn 12
2017-12-24, 00:19:49
Meine Ziel wäre bei Vega 2100 U/min
1450 Mhz Takt
Untervolting bei 0,875 bis 0,915 Volt
und stabiler Takt bei oben geschriebenen 1450 bis 1500 Mhz

dargo
2017-12-24, 00:32:06
Ich habe fertick. :D
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11585042#post11585042

dargo
2017-12-24, 01:58:49
Ich sehe nicht, warum Forza besonders interessant für Verbrauchsbetrachtungen wäre. Wenn ich die HW-Parameter einer Karte konfiguriere, nehm ich natürlich einen Worstcase was den Stromverbrauch angeht.
Ach aufkrawall... eigentlich wollte ich mit dem Video was ganz anderes ausdrücken. Aber da du eh wieder was zu kacken hast hier extra für dich was gpu-intensiveres @60fps und 1440p.

n3oA2u3Kvi0

aufkrawall
2017-12-24, 02:19:02
Bei dem 60fps Lock verglüht die GPU sicherlich. Congrats zu deiner eigenen Definition von GPU-intensiv aus der Welt der alternativen Fakten. :up:

Hübie
2017-12-24, 02:20:36
Mit 60 fps ist das doch nicht fordernd. :|

Edit: Zu langsam ;D

hmmm
2017-12-24, 06:35:59
Ich sehe nicht, warum Forza besonders interessant für Verbrauchsbetrachtungen wäre. Wenn ich die HW-Parameter einer Karte konfiguriere, nehm ich natürlich einen Worstcase was den Stromverbrauch angeht.
Als Usere finde ich doch gerade den Verbrauch einer typichen game session interessant und 1080p @ 60Hz wird wohl typich sein.

Viel schlimmer, er spielt die deutsche Cut, die Hitler Szene später ist total verstümmelt in der Version.
Genau! Und natürlich macht er dann davon ein Video und läd es hoch 1 11 11 :)

dargo
2017-12-24, 09:43:20
Bei dem 60fps Lock verglüht die GPU sicherlich. Congrats zu deiner eigenen Definition von GPU-intensiv aus der Welt der alternativen Fakten. :up:
Oh man... :facepalm:

akuji13
2017-12-24, 09:55:50
Recht hat er, 60 fps sind nicht fordernd.

Meine 56 drehte z. B. in Doom BFG bei 60 fps nicht über ~1200, sonst mit 2400 U/Min.
In TW3 habe ich jetzt mit der LC zwischen 60 fps lock und unlocked (=72 fps) über 30 Watt Unterschied (~172 zu ~207).

Zumal selbst bei 60 fps@144Hz die Bewegtschärfe deines Monitors nicht optimal ist.

Thunder99
2017-12-24, 10:06:47
Und wenn die Karte in der Szene nicht mehr wie 60fps schafft, da es fordernd ist?

akuji13
2017-12-24, 10:16:42
Auch wenn es schon ein paar Tage her ist bin ich mir sicher das die Karte dort deutlich mehr als 60 fps erreicht. :wink:

Im UV thread hat er dort z. B. mal eben 144 fps.

dargo
2017-12-24, 10:26:45
Und wenn die Karte in der Szene nicht mehr wie 60fps schafft, da es fordernd ist?
Meine Kernaussage war...

Man kriegt wenn man will auch eine fette Vega auf ~100 Wattchen runter.

Ist aber offensichtlich nicht angekommen.

Hier mal die gleiche Szene ohne Limits. Mal sehen was aufkrawall hier wieder zu nörgeln hat. Lange wirds bestimmt nicht dauern. :tongue:

zBSMex3JOWk

PS: nicht über die Ruckler wundern, die kommen von ReLive. Richtig flüssig wirds bei asynchronen Aufnahme eh nicht, aber ReLive fügt da einige Ruckler hinzu. Auf Vega noch Baustelle.

Als Usere finde ich doch gerade den Verbrauch einer typichen game session interessant und 1080p @ 60Hz wird wohl typich sein.

Um genau zu sein war es 1440p @60Hz. :) Bei 1080p @60Hz wird der Verbrauch entsprechend noch geringer.

Schlammsau
2017-12-24, 10:57:34
Vor einem Monat die V64 Red Devil bei Mindfactory vorbestellt, vor 2 Wochen eine bezahlbare V64 LC und bisher absolut kein Lebenszeichen ....

Langsam nervts mich wirklich tierisch an! Warum nicht einfach zu einer 1080 oder 1080 Ti greifen! :P

Zergra
2017-12-24, 11:08:17
Langsam nervts mich wirklich tierisch an! Warum nicht einfach zu einer 1080 oder 1080 Ti greifen! :P
Bei den Preisen würde ich das sogar machen, außer halt FreeSync...

Hübie
2017-12-24, 15:44:02
Auf Vega ist noch Baustelle.

Ftfy!

Um genau zu sein war es 1440p @60Hz. :) Bei 1080p @60Hz wird der Verbrauch entsprechend noch geringer.

Ja noch unrealistischer. Vega hat immer noch eine Perf/W die naher an Maxwell als Pascal liegt. Ich kann die Szene mit meiner angestaubten Maxwell auch gerne mal mit 60 fps lock testen, statt der 128 fps. Wo siehst du eigentlich 100 Watt? :rolleyes: Aber warum will ich Fluppdizität verlieren? :confused: Für dich sind grundsätzlich Konter mit Fakten ja tr0lling. Also erspare uns die Antwort :D

dargo
2017-12-24, 15:50:48
Wo siehst du eigentlich 100 Watt?
Junge, Junge... du bist echt nicht mehr zu retten. Schaue dir das Video mit Forza nochmal an, notiere die Asicpower jede Sekunde dann hast du den Durchschnitt. Multipliziere das mit 130% dann hast du die ganze Karte. Das gleiche kannst du mit dem Video @60fps von Wolf 2 machen, kommst du halt etwas drüber. Und wenn dir langweilig ist nehme auch das Video von Wolf 2 ohne Limits. Null Ahnung von Vega aber Hauptsache überall mitreden. :rolleyes:

Und dein Maxwell interessiert hier keine Sau. Das Thema ist immer noch Vega!

dildo4u
2017-12-24, 15:56:25
Die Performance schwankt immer noch massiv in den Video von 85 zu 144 fps,wobei es nicht nach eine Auslastungs Problem aussieht weil sie bei den Drops über 150Watt für den Core zieht.

dargo
2017-12-24, 16:00:01
Was für eine neue Erkenntnis... Performance schwankt im Spiel XY. Oh man... :facepalm:

Hübie
2017-12-24, 16:05:33
Junge, Junge... du bist echt nicht mehr zu retten. Schaue dir das Video mit Forza nochmal an, notiere die Asicpower jede Sekunde dann hast du den Durchschnitt. Multipliziere das mit 130% dann hast du die ganze Karte. Das gleiche kannst du mit dem Video @60fps von Wolf 2 machen, kommst du halt etwas drüber. Und wenn dir langweilig ist nehme auch das Video von Wolf 2 ohne Limits. Null Ahnung von Vega aber Hauptsache überall mitreden. :rolleyes:

Und dein Maxwell interessiert hier keine Sau. Das Thema ist immer noch Vega!

Hast Recht. Ist mir nicht aufgefallen dass die bei <100 Watt ist - mea culpa. Das du auf eine normale Frage gleich so abgehst konnte ich nicht ahnen.
Maxwell interessiert insofern, als das Vega eine potenzielle Aufrüstmöglichkeit darstellt. ;) Deine Art zu diskutieren lässt natürlich mal wieder zu wünschen übrig. Man könnte meinen du seist so ein typischer Choleriker. Null Ahnung von Vega ist da natürlich wieder dein Versuch mich zu denunzieren. Traurig. Hast ja offensichtlich den Umbau auf Liquid metal verdrängt und die damit verbundenen Erkenntnisse aus der Performance-Metrik.

=Floi=
2017-12-24, 16:52:44
Warum nicht einfach zu einer 1080 oder 1080 Ti greifen! :P

weil es bei den preisen keinen sinn mehr macht, wenn die neue gen vor der tür steht. Es wird sicherlich nur detailverbesserungen geben, aber vor allem dort wo jetzt die schwächen sind. Im compute bereich dürfte man wohl auch eine schippe drauflegen.
Die nachfolge karte der 1080er kommt in unter 6 monaten. Das lohnt sich einfach nicht.

Bei vega macht es auch kleinen sinn zu kaufen, weil die LC version viel zu teuer ist. Bei der verfügbarkeit/verbreitung wird man den treibersupport auch schnell verringern und solange nicht weiter klar ist, wie es bei Vega überhaupt weitergeht würde ich mittlerweile die finger davon lassen.
Es gab absolut keinen grund die FE zu verramschen, außer man will die lager leeren...
Dort schenkt man über 800€ an marge her! :ugly:

ich hatte 750€ im kopf.
https://geizhals.de/?phist=1646318

Hübie
2017-12-24, 17:10:42
800€ Marge ist maßlos übertrieben. Die Kosten dürften bei 300+ US$ liegen. Verkauft wurde die hier zulande iirc für 1200 €. Davon 19% Mast weg. Shipping weg. Marge der Händler und Distributoren weg. Was bleibt? Vielleicht (600 - Gesamtkosten der Herstellung) * Umrechnungskurs. Davon ziehst du jetzt noch die erhöhten Kosten für Treiber und Zertifikate ab. Das umverteilt ergibt vielleicht 200 $ Marge. Vielleicht auch weniger, aber keine 800.

dargo
2017-12-24, 19:32:36
Hast Recht. Ist mir nicht aufgefallen dass die bei <100 Watt ist - mea culpa. Das du auf eine normale Frage gleich so abgehst konnte ich nicht ahnen.
Maxwell interessiert insofern, als das Vega eine potenzielle Aufrüstmöglichkeit darstellt. ;) Deine Art zu diskutieren lässt natürlich mal wieder zu wünschen übrig. Man könnte meinen du seist so ein typischer Choleriker. Null Ahnung von Vega ist da natürlich wieder dein Versuch mich zu denunzieren. Traurig. Hast ja offensichtlich den Umbau auf Liquid metal verdrängt und die damit verbundenen Erkenntnisse aus der Performance-Metrik.
Sorry, aber manche bringen mich hier echt auf die Palme. Wenn dann einer wie du um die Ecke kommt summiert sich einiges und dann explodiere ich schnell. Ich versuche mich zu bessern. :) Mich regt nur immer diese Schwarzmalerei einiger hier auf und alles was nicht Nvidia oder Intel ist, ist sowieso scheiße. Dann kauft verdammt noch mal nichts von AMD und hört auf zu jammern! Aber wundert euch in paar Jahren über Monopole und dessen Folgen nicht! Jetzt nicht speziell auf dich bezogen sondern allgemein gesprochen. Am liebsten sind mir dann die Leute die keine Vega haben, aber meinen schon alles über Vega zu wissen. Man erfährt sicherlich paar Sachen aus diversen Reviews, keine Frage. Die Feinheiten erfährt man aber erst wenn man die Hardware selbst hat, einiges probiert und nicht nur den 08/15 Kram der Reviews abspult.

Ich habe fertick.

Hübie
2017-12-24, 20:10:07
Ich habe bei meinem Bro Vega erlebt und es gab so einige Fragezeichen bzgl. des Verhaltens von Vega. Versuche das in Zukunft NICHT einfach nur auf ein AMD vs NV herunter zu brechen, denn ich würde sofort AMD kaufen, wenn die Performance stimmen würde. Von meiner Karte aus gesehen ist dies aber nicht der Fall und auch bei der Effizienz wäre der Gewinn zu gering. Mir ist es scheiß egal welcher Hersteller auf dem Karton prangt: Das Gesamtpaket soll stimmig sein. Und da ist es doch schwer zu widersprechen dass eine Vega hier insgesamt weniger positiv abschneidet als eine 1080 Ti (gleiche Preislage), oder? :|

dargo
2017-12-24, 20:18:35
Nenne die Probleme beim Namen. Wenn ich die Games habe kann ich es mir vielleicht anschauen. Ansonsten sind solche Informationen wertlos.

scully1234
2017-12-24, 20:24:42
Leute es ist Weihnachten vertragt euch,oder es gibt nix in den Strumpf :P

Frohes Fest allen!

Hübie
2017-12-24, 20:25:00
Deine Konfig ist anders. Er hat einen UWQHD mit einem 1800X und Gigabyte K7. Da hatte er bspw einen eingebrannten Bildschirm als Wasserzeichen. Einige Stunden vom Strom weg dann ging es. Merkwürdige Verhalten beim benutzen vom Wattman und ne Hotspot-Temp von 94°C. Sicher ist es aber nicht mehr alles aktuell. Hier im Thread sollte die Zusammenfassung sein.

Edit: Danke, dir auch scully1234. Meiner Meinung nach sollte es eine Lebenseinstellung sein, respektvoll mit einander umzugehen, nicht nur in der Weihnachtszeit. :D

dargo
2017-12-24, 20:42:34
Leute es ist Weihnachten vertragt euch,oder es gibt nix in den Strumpf :P

Frohes Fest allen!
Wir sind doch ganz lieb? :D

Auch frohe Weihnachten zurück.

btw.
Ich war mal so unvernünftig. ;D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11585554&postcount=1341
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11585560&postcount=1343

Deine Konfig ist anders. Er hat einen UWQHD mit einem 1800X und Gigabyte K7. Da hatte er bspw einen eingebrannten Bildschirm als Wasserzeichen. Einige Stunden vom Strom weg dann ging es. Merkwürdige Verhalten beim benutzen vom Wattman und ne Hotspot-Temp von 94°C. Sicher ist es aber nicht mehr alles aktuell. Hier im Thread sollte die Zusammenfassung sein.

Siehst du? Das sind so Sachen die mich aufregen. Hättest du keine Details genannt würden wieder einige davon ausgehen Vega wäre allgemein problematisch. Und das ist einfach nicht wahr. Es wird immer mal paar Sonderfälle mit Problemen geben. Deswegen kann man es aber noch lange nicht verallgemeinern.


Edit: Danke, dir auch scully1234. Meiner Meinung nach sollte es eine Lebenseinstellung sein, respektvoll mit einander umzugehen, nicht nur in der Weihnachtszeit. :D
Da bin ich voll bei dir. Nur müsste man kräftig im 3DC durchwischen und einige Trolle entsorgen.

Hübie
2017-12-24, 21:02:10
Bezogen auf die Produktlinie Vega muss man aber immer wieder feststellen, dass es ne Baustelle ist. Mal mehr, mal weniger groß. Siehst du ja beim Video aufnehmen. Manche Spiele skalieren auch noch ziemlich mies (iirc war FF XV so ein Fall). Dann Bugs mit Wattman (die vielleicht schon behoben sind). Das sind ja keine Einzelfälle. Mit der FE läuft's auch alles nicht so rund. Da kann Igor sicher mehr zu erzählen (wie ich ihn kenne wird er nachher angeheitert hier rein platzen :D). Das hat ja nichts mit tr0lling zu. Im Gegenteil. Es frustet mich, dass AMD so wichtige, potenzielle cash cows immer wieder vergehen lässt. Schau mal was NVIDIA über Jahre mit 'unserem' Geld alles querfinanzieren konnte...

dargo
2017-12-24, 21:06:53
Die FE ist doch überhaupt kein Thema hier. Was soll das? Oder willst du hier gleich über die Mi25 diskutieren nur weil dort eine Vega verbaut ist? Das mit dem Wattman zieht bei mir nicht. Solche Probleme (sollten welche auftreten) bekommst du bei Nvidia gar nicht erst weil NV es schlicht und ergreifend überhaupt nicht anbietet. Treibermäßig ist NV echt noch in den 90-ern.

Hübie
2017-12-24, 21:35:34
Die FE ist eben ein Bindeglied und der Thread hat nicht den Titel "Dargo's Vega LC mit seinen verwendeten Tools". AMD hat doch selbst das Szenario vorgespielt: Ein Artist erstellt in Maya & Co ein Modell und importiert dies bspw in die Unreal Engine (PUBG z.B.). Wieso kommst du jetzt und klammerst dieses Produkt ohne ersichtlichen Grund aus? :| Aber selbstverständlich könnten wir auch über die Mi25 diskutieren. Hat auch einen Vega64-Chip drauf. Korrigiere mich wenn ich irre. Nur sehe ich hier kein praktisches Beispiel von Usern, die darüber ihren Unmut kund tun.

dargo
2017-12-24, 21:43:05
Ganz einfach... weil AMD fürs Gaming RX Vega und keine Vega FE empfiehlt. Und sich auch keiner der nicht auf den Kopf gefallen ist eine Vega FE fürs Gaming holt. Raff nehme ich da raus, der ist nur auf die 16GB HBM2 geil, die sowieso in Games keinen Vorteil bringen.

Hübie
2017-12-24, 21:47:35
Ziemlich einseitige Ansicht, aber gut. Raff ist mit garantierter Sicherheit nicht der einzige Mensch, der bei dem Preis von unter 800 zugeschlagen hat. Aber okay, wenn du das alles ausblendest, zeigst du im Prinzip nur, dass du den Markt nicht kennst oder verstehst (das meine ich nicht mal abwertend).

dargo
2017-12-24, 21:50:45
Ich kenne vielleicht den Markt nicht, aber das Forum. Hier ist deine Spielwiese zu Vega FE.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581883

Hübie
2017-12-24, 22:46:41
Dann sage dass doch bitte allen die hier bisher die FE erwähnten. So sehr vertiefen wollte ich das sicherlich nicht, wie du am Text erkennen solltest. ;)

Screemer
2017-12-24, 22:51:25
Reicht's langsam?

=Floi=
2017-12-25, 02:38:56
Ich kenne vielleicht den Markt nicht, aber das Forum. Hier ist deine Spielwiese zu Vega FE.
www.dargokindergarten.de


langsam drehst echt am rad. Mit dir kann man nicht mehr sachlich diskutieren. Es gibt für die FE gaming treiber und die karte wurde als content creator karte beworben.
Es ist so gut wie nichts anders am chip, bis auf den doppelten Vram.

Die liquid FE gab es für 750€. Wer wirklich eine kaufen will, dürfte mit dem kleinen preisaufschlag auch besser gefahren sein.

Raff
2017-12-25, 10:39:49
Ganz einfach... weil AMD fürs Gaming RX Vega und keine Vega FE empfiehlt. Und sich auch keiner der nicht auf den Kopf gefallen ist eine Vega FE fürs Gaming holt. Raff nehme ich da raus, der ist nur auf die 16GB HBM2 geil, die sowieso in Games keinen Vorteil bringen.

Das ist so nicht ganz korrekt. ;) Need for Speed Payback, Call of Duty WW2 und Mordor: Schatten des Krieges profitieren allesamt von mehr als 8 GiB, wenn man die Detaileinstellungen maximiert. Wenn man, wie ich, dann auch noch in "real 4K" spielt, ergibt eine 8-GiB-Karte einfach keinen Sinn mehr. Sicher, wirklich geil läuft das Zeug dann nicht, aber die Datenbelastung wird 2018 gewiss nicht wieder abnehmen. Ich kaufe nach Möglichkeit immer mit Puffer für Extremspielchen und interessante Messungen ein paar Jahre später. :)

MfG,
Raff

dargo
2017-12-25, 10:43:23
Verzeihung... ich hätte dabei schreiben sollen, dass es nur für mich gilt da ich nicht auf "Diashows" stehe. Mal ganz davon ab... du hast doch diesbezüglich noch gar keine Daten zu einer RX Vega 8GB mit HBCC On geliefert. Genau für solche Szenarios ist HBCC gedacht.

Edit:
Gibts noch andere Beispiele? Die drei genannten Games habe ich nämlich nicht. Ich würde mir das dann mit HBCC selbst anschauen. Allerdings habe ich aktuell 16GB Speicher. Weiß jetzt nicht ob HBCC hier viel Sinn macht. Eventuell erst mit 24-32GB? Wobei... wenn ich 4GB "abzwacke" bleiben 12GB über, sollte noch keine Probleme geben.

TwoBeers
2017-12-25, 11:43:19
Leute es ist Weihnachten vertragt euch,oder es gibt nix in den Strumpf :P

Frohes Fest allen!

Fröhliche Weihnachten wünsch ich euch auch. :)

Is eigentlich mal an der Custom Front irgendwas passiert? Außer den paar, die per Aktenkoffer importiert wurden, ist nichts mehr gekommen, oder?

Echt schade, Vega wäre echt konkurrenzfähig, wenn die alle 100,- Euro günstiger und lieferbar wären.:rolleyes:

Taigatrommel
2017-12-25, 19:37:29
Fröhliche Weihnachten wünsch ich euch auch. :)

Is eigentlich mal an der Custom Front irgendwas passiert? Außer den paar, die per Aktenkoffer importiert wurden, ist nichts mehr gekommen, oder?

Echt schade, Vega wäre echt konkurrenzfähig, wenn die alle 100,- Euro günstiger und lieferbar wären.:rolleyes:

Nein bislang sieht es leider sehr schlecht aus. Angeblich sollen ja eine Hand von Nitros noch zwischen den Jahren verfügbar werden, doch ich glaube kaum, dass es sich dabei um größere Mengen handeln wird. Die Strix war vor Weihnachten mal kurzzeitig in winzigen Stückzahlen bei wenigen Händlern verfügbar und war quasi umgehend vergriffen. Da haben einige Modelle wohl auch für 800+ Euro den Besitzer gewechselt.
Von der Red Devil hört man bislang rein gar nichts mehr.

BeetleatWar1977
2017-12-25, 20:31:38
Nein bislang sieht es leider sehr schlecht aus. Angeblich sollen ja eine Hand von Nitros noch zwischen den Jahren verfügbar werden, doch ich glaube kaum, dass es sich dabei um größere Mengen handeln wird. Die Strix war vor Weihnachten mal kurzzeitig in winzigen Stückzahlen bei wenigen Händlern verfügbar und war quasi umgehend vergriffen. Da haben einige Modelle wohl auch für 800+ Euro den Besitzer gewechselt.
Von der Red Devil hört man bislang rein gar nichts mehr.
Selbst die Referenz Vega 56 läuft bei Ebay teilweise bei über 700€ durch......

Schaffe89
2017-12-26, 03:24:17
Mal ganz davon ab... du hast doch diesbezüglich noch gar keine Daten zu einer RX Vega 8GB mit HBCC On geliefert. Genau für solche Szenarios ist HBCC gedacht.

Ich denke der "Stutter"-HBCC ist eher für professionelle Belange gedacht, denn bei Games funktioniert er schlichtweg nicht oder eben nur bedingt.
Ich hätte mir die FE Vega LC fast für 750 Euro bestellt, wenn ich da nicht so große Bedenken wegen des Treibers hätte, die 16GB sind durchaus sexy und sogar mehr als bei der Titan V.

horn 12
2017-12-26, 09:44:15
Wo bitte außer bei Dir, sind die wenigen geblieben
Italien bekam kaum welche ab, also bleibst nur Du übrig.

nairune
2017-12-26, 11:12:14
Du hattest doch noch vor Kurzem gesagt, wir sollten nicht (nur) die Miner verteufeln :P
So eine Nitro+ in einem Mining-Rack ist doch Perlen vor die Säue.
Aber Stückzahlen könnten sicherlich trotzdem besser sein... Immerhin verdienen die Partner bisschen Kohle.

Igor TH
2017-12-26, 11:50:44
Ich meine nicht die Nitro+.

Wenn AMD den AIB eine alberne Zahl an X Packages zuteilt, um damit eine Custom-Welle zu simulieren, dann macht es noch incht einmal Sinn, dafür die Logistik-Maschine anzufahren und leere Container zu verfrachten.

Im Ernst ist es aber leider so, dass man die fertigen Karten ab Werk im Stück verkauft, weil sich der ganze normale Distributionsweg einfach nicht lohnt. :D

Trotzdem ist es schade. Würde MxGPU bei AMD besser funktionieren - ein echtes Eyefinity mit sechs Montoren ohne Splitter oder Adapter ist schon irgendwie geil.

Schlammsau
2017-12-26, 11:53:43
Ist ja nix neues irgendwie aber woran liegt es? Verkackt es hier AMD so richtig oder woran liegt es? Ich meine wie lange ist Launch jetzt her? 4 Monate ???

Das ist an Lächerlichleit ja kaum zu unterbieten. Zum einen gibt es ja Bedarf durch Miner, im Gamingsegment sehe ich Vega als gescheitert, aber man schafft es nicht nur annähernd ausreichende Stückzahlen an Packages an die AIBs zu verteilen. Was für ein Mist muss hier den im Hintergrund ablaufen?

dargo
2017-12-26, 11:55:40
Ist ja nix neues irgendwie aber woran liegt es? Verkackt es hier AMD so richtig oder woran liegt es? Ich meine wie lange ist Launch jetzt her? 4 Monate ???
AMD hat sich was von Nvidia abgeguckt. Man hält die Produktion von Vega schön klein wie bei der Titan und schon wird ein Premiumprodukt daraus. :devil: Sieht man auch an den (Gebraucht)Preisen. :D

Igor TH
2017-12-26, 11:56:20
@Schlammsau:
Es kommen erst gar keine Packages in nennenswerten Zahlen bei den AIB an. Die Stückzahlen lasse ich mal woanders raus, hier nicht. Das mit den eingestampften Referenzkarten ist eine Farce sondergleichen.