PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum geht bei Vega die TDP durch die Decke?


=Floi=
2017-08-20, 17:27:05
Hi

warum steigt bei vega mit steigendem takt (!) der verbraucht bei "offenem" powertarget so exorbitant an. Takt floss doch immer linear in den verbrauch ein. Stellt da der chip über den boost selbst eine höhere spannung ein oder wird hier wirklich der chip so viel durchlässiger gegenüber leckströmen?
Eigentlich kann es ja nur eine höhere spannung über den boost sein und die ausgelesenen 1,2 volt liegen nur bei solchen extremszenarios an.

1400 --> 1700 mhz sind 17% mehr
250 --> 300 watt (gerundet und nur geschätzt)

Wie kommen dann hier die 400 watt zustande?

Daredevil
2017-08-20, 17:33:03
Mehr Takt für die Karte bedeutet mehr Strom.
Mehr Strom bedeutet mehr Hitze.
Mehr Hitze bedeutet mehr Leckströme.
Mehr Leckströme bedeuten mehr Saft zwecks Stabilität.
Die Spirale dreht sich weiter nach unten.

Zudem weiß man ja auch noch nicht genau, wo Vega ihre Performance lässt.
Kann doch genauso sein, dass die Komponenten, die in dem Moment keine Performance bringen, ebenso mehr Saft ziehen unnötiger weise.

Takt ist aber, soweit ich weiß, nicht immer linear zum Verbrauch wegen den Leckströmen und der Störanfälligkeit.

( Berichtigt mich, wenn ich quatsch erzähle :< )

StefanV
2017-08-20, 18:08:26
Und Spannung geht quadratisch in die Leistungsaufnahme ein.

Doppelte Spannung = doppelter Strom = 4fache Leistungsaufnahme.

Ultron
2017-08-20, 20:01:56
Bei Takt steigt die Leistungsaufnahme absolut linear.

Und ja bei mehr Hitze steigt der Verbrauch auch expotentiell an, wie laufen die Karten unter Wasser?

Strom steigt Linear zur Spannung an, dadurch wächst der Verbrauch im Quadrat. Daher kommt es denke ich. AMD gibt viel zuviel Saft drauf dass es 200% stabil läuft.

=Floi=
2017-08-20, 20:38:49
http://www.tomshardware.de/vega64-wasserkuhlung-benchmarks-temperaturen-ubertaktung,testberichte-242383.html

an der temperatur liegt es nicht, siehe link und offiziell dreht man nur am takt und an der spannung ändert sich nichts. 1.2volt stock.

also stimmt das ausgelesene wohl nicht und die karte gibt intern ordentlich spannung dazu?!

iuno
2017-08-20, 21:39:03
Zwischen 1400 und 1700 MHz liegen ziemlich sicher 2+ DPM states, ergo ist die Spannung auch deutlich hoeher.

Jasch
2017-08-21, 09:12:29
Laut info sollen am 23. die Eks kommen, sollte meinen also bis zum We haben.
Dann schauen wir mal was rauskommt, baue meine auch eher nicht ein, der ref. Kühler geht garnicht.

dargo
2017-08-21, 10:58:49
Stellt da der chip über den boost selbst eine höhere spannung ein oder wird hier wirklich der chip so viel durchlässiger gegenüber leckströmen?

Das ist schon lange Zeit der Fall, nicht nur bei AMD. Taktraten sind immer an eigene Spannungen gebunden.

cat
2017-08-21, 13:28:13
Bei Standard Bios und PWR-Safe Setting liegt der Verbrauch bei ca. 214W in Games.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/29.html

Dabei behält die RX Vega 64 ca. 97% der Performance bei.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/31.html

hier eine Grafik nach Games getestet bei TechPowerUp, es wird die noch verfügbare Performance gegenüber Ballanced-Setting in Prozent gezeigt.
http://img.techpowerup.org/170821/rxvega64-pwr-savings-vs-standard.png

Gast
2017-08-22, 12:33:15
Bei Standard Bios und PWR-Safe Setting liegt der Verbrauch bei ca. 214W in Games.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/29.html

Dabei behält die RX Vega 64 ca. 97% der Performance bei.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/31.html

hier eine Grafik nach Games getestet bei TechPowerUp, es wird die noch verfügbare Performance gegenüber Ballanced-Setting in Prozent gezeigt.
http://img.techpowerup.org/170821/rxvega64-pwr-savings-vs-standard.png
Das ist ja dann nur noch auf 1070 OC Custom Niveau, wer gibt denn 609-649-699 für so eine Karte aus? Da ist doch völliger Blödsinn. Auf mindfactory geben die Preise für Pascalkarten auch wieder nach. Gute OC Karten der 1070 liegen bei 500 und Referenz Custom bei 469. Vega ist viel zu teuer. Die UVPs sind einfach nur Platzhalter, damit es für AMD so aussieht als hätten sie Karten für solche Preise im Angebot. Kurz nach Launch der Karten kam dann heraus diese UVPs sind extrem begrenzt. 60 Karten durfte mindfactory davon als Sonderangebot über Mindstar verkaufen, für ganz Deutschland wohlgemerkt. Die weiteren Launchpartnershops wie Caseking und Alternate durften die Karten so überhaupt nicht anbieten.

Eine reisen Sauerei ist sowas von AMD....:facepalm:

Der Kühler der Vega64/LE ist völlig überfordert mit der Hardware, dass sind noch schlimmere Hawaiis!

Man kann auch nicht davon ausgehen das Daus ständig an ihren Karten schalten oder jemals irgendwelche Treiberprofile laden, dabei massiv undervolten oder eben nicht laden. Zu aller erst hat AMD mal eine vernüftige und funktionierende Basis zu liefern, dass scheitert ja schon bei deren Treiber, der in irgendeinem Fijimode läuft.

HBCC kann nur funktionieren wenn die Entwickler den Zugriff auf das softwareabhängige Speichermanagement erlauben und wahrscheinlich verstösst AMD dedizierter Treiberhack dabei sogar noch gegen das DX-12 Protokoll, da den Spieleengines dann jegliche Kontrolle über die Speicherverwaltung entzogen wird. Ansonsten läuft der HBC nur in einem Exclusive Cache Mode ohne jegliche Funktion oder Beschleunigung zu liefern. Im Inclusive Cache Mode übernimmt der Treiber und HBC die Kontrolle, was klar unter DX-12 so nicht sein sollte. Die AMD Rasterization verarbeitet größere Tiles als es bei nV der Fall ist, was auch weniger Bandbreitenersparnis mit sich bringt, zudem derzeit völlig inaktiv und vom Treiber bisher nicht unterstützt wird.

Das ganze Gelaber im Vorfeld verpufft doch wieder in einer riesigen Seifenblase.

AMDs Blackchain Compute Optimization Treiberveröffentlichung kurz nach Lanuch von Vega deutet doch darauf hin, für was die Vega auf den Markt gebracht haben, Mining mehr nicht. In Claymore 9.8 DAG 199 wurde die Performance in MHash um 30% gesteigert. Mir kann keiner erzählen, dass das nicht pure Absicht von AMD ist. Wo wir auch wieder beim Thema sind.

Die zum Teil ausgefeilten Undervoltmöglichkeiten deuten klar darauf hin für was AMD Vega entwickelte wurde und der Stromverbrauch ist beim Mining sowas von Banane. Vega ist reine Mininghardware die man auch als Gamerkarte missbrauchen kann, in erster Linie waren für AMD die Eigenschaften fürs Gaming aber nicht wichtig. Im Vorfeld hat Hook dann noch mehr von diesem Blödsinn von sich gegeben, als er behauptete, der Vegalaunch hat sich nur deshalb verzögert weil man ausreichend Lagerbestände aufbauen wollte, damit Gamer auch noch eine Karte abbekommen.

AMD und Koduri sollte man zum Teufel jagen für diesen ganzen Vorabhype den man um Vega veranstaltet hat und jetzt versucht die Gamercommunity abzuzocken, denn wieder erwarten interessieren sich die Miner für Vega kein Stück.

Vega ist der grösste Flopp in der Geschichte von AMD und ihr braucht jetzt hier nicht eure Testergebnisse schönreden.:facepalm:

Das AMD unter 14nm LPP GF bei Vega eine Art dielektrikum Schicht eingespart haben soll (Fiji und Pascal 13) habe ich auch schon irgendwo gelesen.

][immy
2017-08-22, 14:25:09
müssen durch das 2x fp16 nicht auch doppelt so viele entsprechende Ausführungeinheiten mitgebracht werden. Die werden doch bestimmt nicht extra abgeschaltet wenn nicht genutzt.
Aber abgesehen davon, schon bei polaris war das mit dem verbrauch schon nicht so schön. Und polaris war quasi nur halb so groß.

Iruwen
2017-08-22, 15:38:29
Wundert mich, dass noch keiner wegen der "TDP" im Titel gemeckert hat :cool:

HOT
2017-08-22, 16:32:01
Ich würd mal drauf tippen, dass man Vega eher mit der Gießkanne Massetransistoren verpasst haben könnte anstatt gezielt zu optimieren. Das ist aber nur ne Vermutung.

AMD-Gast
2017-08-23, 01:37:28
Power Save:
Powertarget -25%, die Karte hängt zuerst im Powerlimit, wenig später auch im Temperatur Limit mit durchschnittlich GPU 1200 und HBM 800. 292 Watt aus der Steckdose maximum. Mit angepasster Lüftersteuerung nur noch im Powerlimit.

Balanced:
Powertarget Standard, im Powerlimit und wenig später im Temp Limit, pendelt sich bei 1400 GPU, 945 HBM ein. 364W max

Turbo:
Powertarget +15%, paar Ausreißer nach oben aber sonst keine Veränderung da weiterhin Temperaturlimit, 405W max

Turbo mit Lüfter entfesselt:
bis zu 1545 GPU und 945 HBM aber pendelt, der Lüfter wird deutlich lauter, hängt im Powerlimit. 444W max

Benutzerdefiniert mit Powertarget +50%:
schwankt zwischen 1545 und 1630 GPU, 945 HBM, Lautstärke jenseits von gut und böse, Temperaturlimit, aus der Steckdose bis zu 590W Maximalwert

Im offenen Testaufbau mit Powertarget +50%:
Stabil 1630 GPU und 945 HBM. Dauerlast ca. 540 Watt. Firestrike: http://imgur.com/1C56pPG
Ich denke mal Du sprichst jeweils vom Systemgesamtverbrauch? Hast Du mal versucht manuell über Watttool oder Wattman ein eigenes Undervoltsetup zu finden, denn daß bringt bei AMD oft mehr, wobei man den Takt sogar noch leicht erhöhen kann.

Das der Standardkühler in Referenz jetzt eine 295W TBP Karte zum OC befähigt, dass gab es jetzt aber nicht wirklich oder? 30% Taktsteigerung gegenüber Fiji, bei ähnlicher Architektur fordern ihren Tribut. Das muss doch jedem vorher klar gewesen sein?

Auf Vega dürfte das Gleiche zutreffen wie auf alle GCN, Fiji inklusive, desto kühler - desto sparsamer.

Dural
2017-08-23, 10:56:41
Ist das eine ernsthafte Frage?

Jeder Chip ohne Ausnahme wird wenn man in an sein Limit bringt sehr Ineffizienz, es ist auch völlig normal das ein kühlerer Chip weniger verbraucht als ein heiser Chip.
Unterschiede gibt es höchstens beim Takt, manche Chips haben eine Art „Wall“ die man kaum bis gar nicht überwinden kann, andere skalieren sehr schön mit der Spannung und Kühlung.
Aber das hat überhaupt nichts mit AMD für sich zu tun, bei AMD fällt es halt sehr auf weil sie ihre Chips regelmässig über dem sinnvollen Limit Betreiben, weil sie es müssen.

Gast
2017-08-23, 13:53:30
Ich würd mal drauf tippen, dass man Vega eher mit der Gießkanne Massetransistoren verpasst haben könnte anstatt gezielt zu optimieren. Das ist aber nur ne Vermutung.
Mal abgesehen davon, dass unsere Posts nur entfernt was mit dem Thema zu tun haben: Wie kommst Du auf diese "Massetransistoren" und die Gießkanne? Kannst Du mir an Hand eines Schaltplans erläutern, wo in einem CMOS Gatter diese zum Einsatz kommen?

AFAIR hatte Skysnake mal was angedeutet, dass in den Prozessen < 28 nm zur Erreichung hoher Frequenzen gewisse aufwändige Maßnahmen bei der Spannungsversorgung erforderlich sind. Meinst Du das damit? Und Falls ja: Welche Alternativen gibt es?

Ist es tatsächlich so, dass Nvidia größere Teile des Layouts manuell macht? In der FPGA-Welt, wo ich rudimentäre Kenntnisse habe, gibt es diese Möglichkeiten nur sehr begrenzt. Wenn man nicht muss, nutzt man das aber auch nicht...

Matrix316
2017-08-23, 14:03:13
Die Frage ist ja auch nicht unbedingt warum Vega so viel Strom verbraucht, sondern eher warum man seit der 290X keine Fortschritte bei den High End Chips macht. Die letzte Radeon die weniger als das Nvidia Gegenstück war, war die 5870 bzw. 6970 vs Geforce 580. Seit der Geforce 680 ist nVidia eigentlich immer vorne, oder?

Dural
2017-08-23, 15:20:17
Wenn ich mich noch richtig erinnern kann war die 580 Leistung/Verbrauch auch schon gut/gleichwertig zu AMD. Fermi war nie so schlecht wie er immer geredet wird, nur hatte er halt einen sehr schlechten Start / Bug mit der 480.

Der grosse Sprung hat NV aber vor allem gemacht als sie die Hot Clock Shader raus genommen haben.

Und natürlich werden die Chips immer wie besser auf den Herstellungsprozess angepasst. Genau das wird immer wie wichtiger, und da dürfte NV durch ihre Möglichkeiten einfach besser sein.

Edit:
570 und 580 waren sogar effizienter als die 6970:
https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/27/

Gast
2017-08-24, 15:42:30
Jeder Chip ohne Ausnahme wird wenn man in an sein Limit bringt sehr Ineffizienz, es ist auch völlig normal das ein kühlerer Chip weniger verbraucht als ein heiser Chip.
Wenn AMD hier tatsächlich gespart hat, dürfte klar sein warum bei höherer Spannung und Takt die Leistungsaufnahme explodiert. Das ist auch gut zu erkennen, da das wattfressende Bios der Vega64 teilweise nur ein paar Frames mehr ermöglicht (200 MHz genereieren zuweilen nicht mehr als 2-4 Frames mehr), der deutlich höhere Takt aber eigentlich völlig verpufft. Ab 1,5 GHz ist keine signifikante Steigerung bei den fps-Raten mehr feststellbar, es jubelt einfach nur den Takt und damit auch den Verbrauch hoch.

NVidia hat mit TSMC zusammen über eine dreijährige Zusammenarbeit PQV entwickelt, dass es beiden Unternehmen erlaubt das Design und die Fertigung schon weit vor Tape-Out zu optimieren. Dabei spielen HKMG und SiGe Dotierung eine wesentliche Rolle. Das Dielektrikum beim HKMG-Verfahren ermöglicht sehr geringe Leckströme und durch die SiGe-Dotierung stehen mehr bewegliche Elektronen zur Verfügung, was wohl die Leitfähigkeit erhöht. NVidia konnte so bei Maxwell schon bis 35% gegenüber seinen Vorgängern am Energiebedarf einsparen. Wäre schlimm wenn man das bei Vega verwachst hat, weil er nie für so hohe Taktraten gedacht war. Man sieht ja das die Vega56 eigentlich nicht so schlecht daherkommt, der Takt aber deutlich niedriger ausfällt und man Teile des Vollausbaus deaktiviert (oder sie Fehlerhaft sind).

Wenn es dazu Infos im www gab (12-fach vs 13-fach Layout/Entwurf), hat AMD sie entfernen lassen, was auch zu deren Stillschwegen rund um Vega gut passen würde.

Das wäre natürlich ein richtig dickes Selbsttor. Jetzt versucht man mit ausgefeilter Kühlung (Vaporchamber und AiOs) einfach nur rauszuquetschen was geht und lässt die Effizienz einfach aussen vor, eben nur um an der 1080m vorbeizukommen. Um dann später vielleicht noch den Zuwachs bei den moderneren APIs und damit Spiellen mitzunehmen. Vega wird so aber nie was großes, gegen Volta werden die massiv abkacken. "Poor Vega" sollte es daher eher heissen.

Hier waren in der Vergangeheit imo genug Fürsprecher für AMD aktiv, wenn die sowas mal loswerden wollen, ist das nur richtig. Ganz abwegig ist es jedenfalls nicht. Das die AMD Fans jetzt dagegen halten, ist doch ein Indiz dafür? Da wissen bestimmt auch einige mehr dürfen nur nichts sagen. AMD sind solche Sparmassnahmen wegejn dem Wechsel zu GF zuzutrauen, die wahrscheinlich gar nichts anderes fertigen können.

Gast
2017-08-27, 21:05:51
Vega Liquid macht 1800Mhz beim undervolting. Mit Luft wird es schwieriger und mit den Stock wird's bei 100% zu laut. Keine optimale Situation für Vega derzeit, aber die Aussichten sind hervorragend, vor allem im Hinblick, dass Vega jetzt noch sehr frisch ist. Die Customs und manuelle Anpassung holen da noch einiges raus. Interessant sind natürlich noch die Effizienz in extremen Auflösungen, wo HBCC in min fps. die versprochenen Sprünge verspricht. +30% sind ja machbar und das ist ein gewaltiger Unterschied. Je nachdem wie schnell die Software angepasst wird, wird Vega dann ja gegen Volta konkurrieren. Pascal ist ja in Abverkauf für neues bei Nvidia. Technisch verständlich weil DX12 die Archillessehne ist.

Dino-Fossil
2017-08-27, 21:41:05
Vega ist einfach eine Beta. Auf Hard- und Software Ebene.

Aktuell lässt sich nicht abschätzen, was Vega wirklich kann, weil einige wichtige Features nicht oder nur eingeschränkt laufen.
Daher hat man sich (mal wieder) entschieden den Chip so weit wie möglich zu prügeln, um zum Launch ein bestimmtes Minimalziel (hier die 1080) zu erreichen.
Viele haben auf einen Wundertreiber gehofft, weil man einfach nicht davon ausgehen konnte/wollte, dass AMD soweit in der Treiberarbeit zurück liegt.
Den wird es wohl leider nicht geben, aber vermutlich einiges an langsamen, aber stetigen Verbesserungen.

Die Taktbarkeit von Vega ist mMn aber einigermaßen kurios - der Chip kann ja durchaus relativ viel Takt erreichen.
Wenn man die Leistungsaufnahme begrenzen will, sieht man allerdings wiederum nur bescheidene Zuwächse.

Fragman
2017-08-30, 10:07:08
die probleme in der hardware kann man doch nur mit einem refresh korrigieren, oder nicht?
oder wie sollte man die aktuelle hardware per software verbessern koennen, wenn das problem wirklich der chip ansich ist?

das heisst dann, es kann besser werden, aber nicht fuer den derzeitigen chip, es braucht neue hardware? aber dann reden wir ja nicht mehr ueber vega sondern vega 2.0?

Palpatin
2017-08-30, 10:53:35
die probleme in der hardware kann man doch nur mit einem refresh korrigieren, oder nicht?
oder wie sollte man die aktuelle hardware per software verbessern koennen, wenn das problem wirklich der chip ansich ist?

das heisst dann, es kann besser werden, aber nicht fuer den derzeitigen chip, es braucht neue hardware? aber dann reden wir ja nicht mehr ueber vega sondern vega 2.0?
Da liegt wohl sowohl als auch einiges im Argen, sprich es wird vermutlich besser durch die Software und es wäre nochmal einiges drinnen mit ner neuen Revision (am besten mit GDDR6). Bis Navi ist ja eh noch lang hin.

vinacis_vivids
2017-08-30, 13:06:29
Von welchen Problemen der Hardware wird denn hier gesprochen?
Vega wird kein GDDR6 bekommen, sondern weiterhin auf HMB².

=Floi=
2017-08-31, 18:04:53
Lies doch die erste seite!

es geht darum, dass der chip mit steigenerder frequenz überproportional an strom braucht und deswegen in richtung der 400watt geht. angezeigt wurde aber immer ~1,2volt (was wohl nicht stimmt oder der chip extreme leckströme produziert)

Eine spannungserhöhung ist imho noch nicht möglich und war auch nie nötig als kann man so rechnen:
1400 --> 1700 mhz sind 17% mehr
250 --> 300 watt (gerundet und nur geschätzt)

die 300watt bei den 1700mhz wären kein beinbruch und man würde wesentlich besser dastehen. aktuell geht es aber in richtung 400watt und um den grund ging es, warum hier der verbrauch so überproportional ansteigt.

Ein plausibler grunde wurde dann auch von dem "gast" genannt.