PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia Kepler mit dynamischer Übertaktungsfunktion


Leonidas
2012-03-08, 11:48:00
Link zur News:
http://www.3dcenter.org/news/nvidia-kepler-mit-dynamischer-uebertaktungsfunktion

Gast
2012-03-08, 13:32:24
ich glaube die dynamische uebertaktung ist etwas anders implementiert als ihr das vermutet, denn man kann auf GPUs sehr genau abschaetzen, welche workload welchen verbrauch verursachen wird.

wenn man z.B. opencl laufen laesst und dabei kein texture sampling braucht, kein triangle setup, keine rasterizer units, schalten diese units in power safe und dann kann man 5% mehr takt fahren.

andersrum, wenn ein shader z.b. DOF berechnen soll, ist das sampling zu alu ratio im optimalfall 1:2, die shader units liegen in diesem fall viel brach und werden powergated, die texture units bzw ram interface kann hochgetaktet werden.

das weiss man alls im voraus.

Knuddelbearli
2012-03-08, 19:00:17
also ich empfinde das als sehr schlecht ...

wann verbraucht die karte realtiv wenig und hat dadurch reserven? wenn sie nicht so gefordert ist also entweder die cpu limitiert oder man eh schon hohe fps hat ...
wenn dagegen die gpu limitiert dürfte sie in 99% der fälle also eh schon im TDP Limit liegen ...

damit ist diese "dynamische übertaktung" reines blendwerk für die masse ...

Fabian_HT4U
2012-03-08, 19:40:59
also ich empfinde das als sehr schlecht ...

wann verbraucht die karte realtiv wenig und hat dadurch reserven? wenn sie nicht so gefordert ist also entweder die cpu limitiert oder man eh schon hohe fps hat ...
wenn dagegen die gpu limitiert dürfte sie in 99% der fälle also eh schon im TDP Limit liegen ...

damit ist diese "dynamische übertaktung" reines blendwerk für die masse ...
Da übersiehst du aber etwas. Wo ist denn der Unterschied zwischen Crysis bei 2500er Auflösung und wegen mit SGSSAA und FurMark? Letzterer führt immer noch zu einem höheren Verbrauch. Es ergibt sich mit dieser Funktion schlicht, dass man die Taktraten für den Worst-Case so ansetzt, dass man noch unter einem Verbrauch von X Watt liegt und bei allen anderen Szenarien den Takt so weit erhöhen kann bis der Verbrauch X erreicht. Das ist nichts anderes als Turbo CORE bei AMD CPUs, Turbo Boost bei Intel und PowerTune bei AMD (auch wenn AMD das gerne anders vermarktet).

Grüße
Fabian

Knuddelbearli
2012-03-08, 19:53:09
ich glaube du hast mich da zumindest teilweise missverstanden. ich kritisiere nur die ÜBERTAKT Funktion aber nicht die Drosselung ( wobei mich die Drosselung als OCler auch ein wenig ärgert ) und es ging mir nicht um ein spiel an sich sondern um die einzelnen frames.

nehmen wir 3 Beispiel frames aus irgend einem Benchmark

Frame1: ist im CPU Limit niedrige FPS
Frame2. erzeugt die fps die am ende auch im schnitt herauskommen
Frame3: ist pures GPU limit mit sehr niedrigen FPS

Was passiert also beim Turbomodus?

Frame 1: OC wir gestartet hat aber keinerlei Ergebnis außer das mehr Energie vergeudet wird
Frame 2: Turbomode springt ganz leicht an 1-2% mehr FPS
Frame 3: Karte ist voll ausgelastet ( oder irgendwas limitiert extrem was in games aber eher selten der fall ist ) keinerlei Turbo Core

Ich sehe da in games wirklich keinen Vorteil. in GPGPU wo oft einige Bereiche komplett brach liegen während andere zu 100% ausgelastet werden sieht es natürlich ganz anders aus!



EDIT Sinnvoller wäre ein Turbocore wie im CPU Bereich bei Intel. wo eine CPU kurzzeitig über ihre TDP kann, da die Komponenten ja träge reagieren und bei enr kurzen lastspitze der Kühler danach zeit hat die Wärme abzuführen. NV macht aber so wie es aussieht genau das umgekehrt ( wie gesagt nur auf Spiele bezogen ) in weniger fordernde Szenen greift das Auto OC am stärksten ein.

Gipsel
2012-03-08, 20:18:46
Im Optimalfall wird sowohl die Einheitenauslastung als auch der Stromverbrauch berücksichtigt.

Szenario 1:
Ist die Auslastung gering (und der Stromverbrauch dadurch auch mäßig bis gering), weil man z.B. im CPU-Limit oder im Frame-Limiter (den gibt es ja offenbar bereits im Treiber) hängt, taktet sich die Karte (bzw. der entsprechende Bereich, wenn das z.B. für Shader/TMUs/Geometrie/ROPs getrennt erfolgen könnte) etwas herunter, so daß man bei praktisch gleichen fps noch etwas mehr Strom spart.

Szenario 2:
Die Auslastung ist hoch, man hängt nicht im Frame-Limiter und der Stromverbrauch hat noch Reserven zur TDP (aufgrund des Instruktionsmixes oder der Lastverteilung zwischen den einzelnen Teilen der GPU), dann kann der Takt erhöht werden, um die verfügbare Leistung zu erhöhen.

Szenario 3:
Die Auslastung ist hoch, man kommt aber an oder gar über das TDP-Limit. Dann taktet die GPU herunter, um in der TDP zu verbleiben (ähnlich wie Powertune).


Szenario 1 bzw. das Zusammenspiel mit dem Framelimiter wäre neu, Szenario 2 und 3 entsprechen einem anders ausgelegtem (und wenn einzelne Chipbereiche unabhängig reagieren deutlich verfeinertem) Powertune bzw. Powertune mit umgedrehter Vermarktung. Der Maximaltakt heißt jetzt eben Turbotakt. Wie oft der "Turbo" greift, hängt letztendlich nur davon ab, wie aggressiv (niedrig) das TDP-Maximum gesetzt wird. Kommt man in Spielen bis auf wenige Ausnahmen praktisch immer auf den Maximaltakt, wäre es ähnlich AMDs Powertune. Setzt man es aggressiver an, greift die Regelung auch in Spielen häufiger ein, so daß die Vermarktung als "Turbo" zutreffender ist. Das Verhalten kann man z.B. studieren, wenn man bei AMD Powertune mal auf -15% oder gar -20% stellt. Der Stromverbrauch sinkt deutlich, in einigen Spielen die Leistung ebenso, in anderen aber nicht, weil die GPU dort entweder immer noch mit vollem Takt gefahren werden kann oder man sowieso in einem CPU-Limit hängt.

Knuddelbearli
2012-03-08, 21:17:37
hmm glaub da muss ich wirklich nochmal genau drüber nachdenken

wobei recht habe ich scheinbar schon, fps gewinn beschränkt sich nru auf benchmark da sich an den min fps nichts ändert durch den turbo. da die min fps entweder durch cpu oder gpu limit entstehen ( oder nachladeruckler ^^ )

ein schlecht integrierter turbo sorgt eher noch für ein mieseres P/W nicht in benchmarks aber im "echten Leben" da der turbo ( wenn schlecht eingebaut ) im cpu limit zündet

AnarchX
2012-03-08, 21:19:41
Wie teuer könnte denn ein unabhängiger ALU-Takt sein?
Bei Pre-Fermi gab es ja Taktkonstellationen von 1:2 bis 1:2,5 für TMU:ALU.

Wenn Kepler nun die ALUs noch bis zu 25% übertakten könnte, wäre das wohl teilweise recht nützlich.

Gipsel
2012-03-08, 21:33:42
Wie teuer könnte denn ein unabhängiger ALU-Takt sein?
Bei Pre-Fermi gab es ja Taktkonstellationen von 1:2 bis 1:2,5 für TMU:ALU.

Wenn Kepler nun die ALUs noch bis zu 25% übertakten könnte, wäre das wohl teilweise recht nützlich.
1536 ALUs und angeblich 1,4 GHz Hotclock und Du willst mehr ALU-Leistung? Wichtiger dürften da in Spielen meist die TMUs bzw. die ROPs sein.
Für den unabhängigen Takt benötig man ein paar Puffer zwischen den Taktdomains. Der Aufwand ist überschaubar, sorgt aber für eine gewisse zusätzliche Latenz. Bei GPUs dürfte das verschmerzbar sein, da es aus der Sicht der Shader nur den "externen" Datenverkehr von und nach außen betrifft.

AnarchX
2012-03-08, 21:41:14
Die 1,4GHz sind ja eher zweifelhaft.

Knuddelbearli
2012-03-08, 21:47:39
außerdem kann man es dann ja auch umkehren wenn auch weniger als 1:2 ginge ( oder wenn 700 zu 1400 nicht korrekt ist sondern 600 zu 1400 ^^ )also weniger shader power dafür den rest rauf ( zB statt 600:1400 dann 650:1300 )

²Thom
2012-03-09, 09:27:32
Das ist Augenwischerei seitens Nvidia.
Die MinFrames bleiben die Gleichen, die MaxFrames steigen, also kommt im Schnitt etwas mehr an FPS raus, wird sich aber nicht so anfühlen.
Hauptsache in den Benchmarks sieht es nachher gut aus.

AnarchX
2012-03-09, 09:45:37
Möglicherweise weniger Augenwischerei als Taktraten und Leistungsdaten beim AMD-Karten mit PowerTune, die in bestimmten Situationen nicht erreicht werden können.

Spasstiger
2012-03-09, 10:38:06
Die MinFrames bleiben die Gleichen, die MaxFrames steigen, also kommt im Schnitt etwas mehr an FPS raus, wird sich aber nicht so anfühlen.
Die min. fps können auch steigen. Die Framerate sagt nichts darüber aus, wie gut das Powerbudget ausgenutzt wird. Min. fps bedeutet oft auch, dass die Grafikkarte nicht voll ausgelastet wird, so dass der Turbomodus erst recht greift. Wenn man die Pipeline parallel nicht vollbekommt, dann hilft die schnellere serielle Abarbeitung.

²Thom
2012-03-09, 10:49:15
Powertune ist anders angelegt. Es soll die maximale Verlustleistung der Karte beschränken. Hauptsächlich erfunden, damit man aus einer HD6950 keine vollwertige HD6970 machen kann.

Im Extremfall könnte sich das ganz ähnlich verhalten wie eine dynamische Übertaktung, allerdings funktioniert Powertune, soweit ich weiß, über die vom Chip generierte Hitze und das ist nun mal ein langsames Geschäft.
Die dynamische Übertaktung schaut nach den Auslastungen der Enginees. Wenn die nichts zu tun haben, wird hochgetaktet. Das tangiert nur die MaxFrames.

²Thom
2012-03-09, 10:55:19
Die min. fps können auch steigen. Die Framerate sagt nichts darüber aus, wie gut das Powerbudget ausgenutzt wird. Min. fps bedeutet oft auch, dass die Grafikkarte nicht voll ausgelastet wird, so dass der Turbomodus erst recht greift. Wenn man die Pipeline parallel nicht vollbekommt, dann hilft die schnellere serielle Abarbeitung.

Stimmt auch wieder. So weit habe ich nicht gedacht.

AnarchX
2012-03-09, 11:53:15
Auch bei den MinFPS kann ein Flaschenhals vorliegen, bei dem die GPU nicht ihr ganzes PowerBudget ausnutzt.