PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vergleich: Nvidias GPU Boost und AMDs PowerTune


AnarchX
2012-03-24, 09:26:43
Artikel und Tests zu Nvidias GPU Boost:

Techpowerup: +30/-30%, Temperaturabhängigkeit (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/30.html)
Anandtech: +16% vs +100MHz (http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/4)
Computerbase: Turbo im Video (http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/4/#abschnitt_der_turbomodus) und Turbo in versch. Spielen (http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/25/#abschnitt_gpuboost_wie_viel_turbo_kommt_an)
Hardware.fr: Boost=OFF (http://www.hardware.fr/articles/857-23/performances-gpu-boost-overclocking.html)
RealwordTech (http://www.realworldtech.com/page.cfm?ArticleID=RWT032212172023&p=2)


Artikel und Tests zu AMDs PowerTune:

HT4u: PowerTune (http://ht4u.net/reviews/2010/amd_powertune_technology/)
HT4u: PowerTune-Limitierungen auf der HD 7750 in Spielen (http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index18.php)
Dave Baumann, AMD: einige interessante Aussagen zu PowerTune (http://forum.beyond3d.com/showthread.php?t=61390&page=9)
PowerTune mit Boost (http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680/2) auf der HD 7970 GHz Edition




Wer noch weitere Links zum Thema hat, bitte posten!

Hübie
2012-04-10, 04:47:50
Sehr geil ist die Analyse von rwt (http://www.realworldtech.com/page.cfm?ArticleID=RWT032212172023&p=2). Dort steht drin, dass es keine hardware, sondern software-basierte Logik ist, welche den Boost etc reguliert. Mit anderen Worten: es lässt sich leicht aushebeln. Die Platine auf den Boards dient also nur zum Auslesen, oder sehe ich das falsch?
Intels CPUs haben eine PCU, welche etwa die Komplexität eines 386 DX/40 hat. Laut deren Aussage kommt es auch noch zu Latenzen um die 100 ms, was die unregelmäßigen frametimes bei techreport (http://techreport.com/articles.x/22653/9) begründen könnte (Boost reagiert zu langsam??).
http://www.abload.de/img/arkham-nvctja9.gif (http://www.abload.de/image.php?img=arkham-nvctja9.gif)

Alles in allem scheint das nicht so ein Mysterium wie AMDs Powertune zu sein. Ich gehe auch mal davon aus, dass der Boost unter Umständen ein Faktor für Keplers Startverzögerung war. Diese "Bastellösung" mittels Platine sehen wir sicher bald nicht mehr.

Raff
2012-04-18, 19:33:23
Custom-Boards, etwa das von Palit (http://www.pcgameshardware.de/aid,876078/Gainward-Geforce-GTX-680-Phantom-Test/Grafikkarte/Test/), boosten bereits ohne die kleine Hubbel-Platine.

MfG,
Raff

Lambourne
2012-04-26, 08:59:29
Meiner Meinung nach, als Enthusiast, das tue ich nicht viel von jedem Feature auf einem Top-Modell der Karte. Ich bin durchaus in der Lage Übertakten und Testen meiner eigenen Karte, um sie den maximalen stabilen Frequenz zu bestimmen, und ich habe ein Netzteil, das mit sämtlichen GPU-Leistung ziehe ich an ihm werfen können.

Aber das sind kleine gripes im Vergleich zu den Elefanten im Raum: Wenn Sie eine Leistung zielen draw / TDP als primären Performance-Metrik (im Gegensatz zu Taktrate oder etwas anderes entgegengesetzt), desto schwieriger und komplexer ist die Szene zu machen, desto langsamer Ihre Karte wird zu bedienen, ziehen Festlegung von Mindestnormen Frame-Raten, wenn Sie Macht am meisten brauchen.

Ich kann Ihnen sagen, wenn Powertune irgendwie wird auf meiner Karte wieder aktiviert, denn es gibt einige Bereiche und Effekte in meinem Lieblings-Online-Spiele, die absolut hämmern meine 6950, wenn Powertune ist am werden, ist es normal läuft 940MHz, in einigen dieser Szenen, die ich je gesehen habe Powertune schneiden Sie es auf ~ 550MHz!

NVidia würde uns lieben, ihre GPU Boost mit beliebten Turbo-Boost Intels gleichsetzen ... Aber CPUs und GPUs sind grundverschieden Tiere mit unterschiedlichen Rollen Verarbeitung. Intels Turbo Boost erhöht Taktrate für Single-Thread-Leistung, wenn Sie sie am dringendsten benötigen. Es gibt keine solche Sache wie ein Single-Threaded-Grafik-Engine. Also GPU Boost erhöht die Taktrate für geringe Schwierigkeit Rendering-ops und Drosseln Taktrate wieder auf hoch komplexe Rendering-ops, wenn Sie sie am dringendsten benötigen. Facepalm.

Wenn niedrigeren Gesamt-Leistungsaufnahme mit dem bestmöglichen Spielerlebnis kombiniert ist wirklich das Ziel, sollte das Ziel metrischen rohen Bildern pro Sekunde sein, verschlossen bei Ihrem Monitor Bildwiederholrate. Das heißt, wenn Sie ein 120-Hz-Monitor sehen, es gibt keine Notwendigkeit zu machen mehr als 120fps, nichts mehr ist eine Verschwendung von Strom und Wärme erzeugt unnötige. Aber wenn die Karte nicht Rendering 120fps aber pumpen die Spannung und die Uhr, die Sauger auf, auch wenn es die TDP übersteigt für einige Sekunden. Im Durchschnitt wird der Strom-und Wärmeerzeugung durch nicht-Rendering nicht benötigte Bilder gespeichert würden überwiegen bei weitem die wenigen Sekunden zu einer Zeit, die Karte muss alles daran setzen, große Explosionen / schwere Action-Szenen machen würde.

Iruwen
2012-04-26, 12:35:23
Wat. Google Translate?

Gipsel
2012-04-26, 13:46:39
Hier sagt Dave Baumann (http://forum.beyond3d.com/showthread.php?p=1631133#post1631133), daß man Powertune auch anders betreiben kann (ist programmierbar, wahrscheinlich über BIO- oder sogar Treiberupdate), so daß es nicht-deterministisch wird, sich also verschiedene GPUs einer Serie anders verhalten würde. Momentan läßt Powertune ja gewissermaßen etwas Reserve, so daß die Schwankungen zwischen einzelnen GPUs nicht zu unterschiedlichem Verhalten führen (momentan verhält sich z.B. jede HD7970 vollkommen identisch, also jede HD7970 regelt exakt an der gleichen Stelle exakt gleich weit ab, anders als nVidias Boost, wo jede GPU ein etwas anderes Verhalten zeigt).

Alles in allem scheint das nicht so ein Mysterium wie AMDs Powertune zu sein. Ich gehe auch mal davon aus, dass der Boost unter Umständen ein Faktor für Keplers Startverzögerung war. Diese "Bastellösung" mittels Platine sehen wir sicher bald nicht mehr.Ich finde nicht, daß Powertune ein Mysterium ist. :rolleyes:
Das, was nicht offen ist, ist der genaue Algorithmus zur Schätzung des Stromverbrauchs, also das Verlustleistungsmodell (static/ dynamic in Abhängigkeit von Takt und [Nominal-]spannung, ist eigentlich auch reichlich uninteressant, aus welchen -zig PerformanceCountern die das ausrechnen). Was z.B. bekannt ist, ist daß in die Verlustleistungsrechnung die Nominalspannung des Chips eingeht, nicht die tatsächlich anliegende, so daß auch bei erhöhter Spannung nicht früher abgeregelt wird (anders als bei nV). Das prinzipielle System ist kein Geheimnis, wie gesagt nur das Verlustleistungsmodell in Abhängigkeit von Auslastung/Takt ist unbekannt. Und laut Dave Baumann könnte man wohl auch die Werte von den Spannungsreglern einbeziehen (kann bei digitalen ja ohne zusätzliche Messung relativ einfach ausgelesen werden), wenn man das wollte und so bei einem System wie Boost, nur eben in Hardware ankommen, wo sich dann jede GPU außerhalb der garantierten Grenzen etwas anders verhalten würde.

@Lambourne:
You should use English, if you feel more comfortable with that instead of using some online translation service. It is easier to understand that way. ;)

boxleitnerb
2012-05-12, 08:55:24
Glaubt ihr, dass AMD hier etwas ändern und ebenfalls einen Boost einführen wird? Angesichts der niedrigen Taktraten der 7000er wegen Yields wäre das imo eine logische Konsequenz.

Wie schon einmal in einem anderen Thread gesagt fände ich es auch nicht verkehrt, die Boost-Geschichte noch weiterzutreiben und feiner zu gestalten. Nicht GPU-weit, sondern bezogen auf Einheitenblöcke. Es mag anders als bei CPUs kein Singlethreaded vs. Multithreaded geben, aber es kann mir keiner erzählen, dass in jedem erdenklichen praxisnahen Szenario (also Spiele, keine synthetischen Benchmarks) alle Einheiten wie ALUs, TMUs, ROPs gleichmäßig ausgelastet sind.

N0Thing
2012-05-13, 15:13:52
Ein Boost wie in Nvidia eingebaut hat wird sicherlich kommen, immerhin kann man dadurch in Benchmarks ein paar Prozente heraus holen. Für die 7000er Serie würde ich es aber nicht erwarten, aber vielleicht in der 8000er.

Blediator16
2012-05-13, 17:01:55
Ein Boost wie in Nvidia eingebaut hat wird sicherlich kommen, immerhin kann man dadurch in Benchmarks ein paar Prozente heraus holen. Für die 7000er Serie würde ich es aber nicht erwarten, aber vielleicht in der 8000er.

Denke ich auch. Hier und da ein Goldensample an die Redaktionen verschicken und schon sieht die Reviewwelt irritierter aus^^

Peter Gräber
2012-05-14, 13:42:00
Wie wäre es mit dem Artikel?
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index11.php

AnarchX
2012-06-22, 10:07:49
Anandtech mit einer guten Erklärung zu PowerTune mit Boost (http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680/2).

Knuddelbearli
2012-06-22, 10:31:47
prinzipiell finde ich amds besser

dadurch das es keine Temperaturabhängigkeit gibt ( bei NV gibt es die gleich 2 mal einmal die Temperatur selbst und dann noch die Temperatur abhängig zum verbrauch, amd misst ja nicht den verbrauch sondern die Auslastung der Einheiten ) gibt es in benchmark keine Vorteile und alle Karten haben den genau selben Takt.

Einziger Wermutstropfen, 50Mhz sind schon sehr mau 4 Stufen wäre super gewesen. 1Ghz 1,05 1,1 1,15 und für extrem anspruchsloses 1,2

1,2 Käme zwar quasi nie an wäre aber Marketing wirksam ^^

Spasstiger
2012-06-22, 10:53:03
Ganz interessant sind die P-State-Diagramme von TechPowerUp!:

Radeon HD 7970 GHz:
http://www.abload.de/img/clock_vs_voltagetzd8p.jpg
Quelle: http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/32.html

GeForce GTX 680:
http://www.abload.de/img/clock_vs_voltagel7fnr.gif
Quelle: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/30.html

Je dunkler ein Punkt, desto häufiger und länger ist dieser P-State aktiv. Die Nvidia-Implementierung weist deutlich mehr Dynamik auf und sollte damit innerhalb der TDP-Vorgabe die effizientere Lösung sein.

Knuddelbearli
2012-06-22, 11:00:50
klar bei fast ein dutzend zwischenschritte vs nur ein schritt ^^

da braucht man doch keine solche Diagramme dazu ^^

Spasstiger
2012-06-22, 11:13:39
klar bei fast ein dutzend zwischenschritte vs nur ein schritt ^^

da braucht man doch keine solche Diagramme dazu ^^
Wie man am Diagramm sieht, gibts bei der HD 7970 GHz Edition vier Stufen und nicht nur zwei wie überall behauptet. Halte das schon für eine wichtige Erkenntnis. Außerdem gefällt mir die Art der Darstellung und es passt gut in diesen Thread. Hier gehts ja schließlich nicht um die HD 7970 GHz Edition, sondern um GPU Boost und PowerTune.

Knuddelbearli
2012-06-22, 11:46:20
dann aht die 680 aber auch knappe 4 dutzend stufen ^^

denke mal aber bei amd ist das nur ne überschneidung da sich takt und spannung nicht in genau der selben mili sekunde ändert

Triskaine
2012-06-22, 16:59:49
Das P-State-Diagramm für Powertune ist falsch. Es existieren keine öffentlich verfügbaren Tools die die tatsächlichen Taktraten korrekt anzeigen können, da die Regelung bei Powertune wesentlich feinkörniger und schneller als bei GPU-Boost erfolgen kann. Mehr dazu hier (http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680/2).

Gipsel
2012-06-22, 17:28:56
Ja, hardware.fr sagen, daß die Granularität etwa 4MHz beträgt und es insgesamt 256 verschiedene Taktstufen gibt (halt bis ganz nach unten). Und einige Tools zeigen wohl auch mit den HD7970ern diese feinen Taktabstufungen an. Bei HT4U (http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index3.php) sieht man sogar (warum haben die die Taktskale nicht auf den interessanten Bereich gezoomt?), daß es in fordernden Szenarien auch unter 1GHz gehen kann (auf dem Screenshot sieht man das Minimum bei 985 MHz). ;)
Die Stufen sind übrigens seit jeher so klein, auch ohne diese Boost-Geschichte (die eigentlich nur umgedrehtes Marketing ist, der nominell Takt ist 1050Mhz, nur das PT-Limit ist strenger als bei den klassischen Karten, weswegen man da etwas häufiger reinläuft).

Edit:
Und AMD packt sicher nicht umsonst in seine Grafiken zu Powertune sehr feine Stufen rein. ;)

http://www.hardwareluxx.de/images/stories/galleries/reviews/2012/7970-ghzedition/7970-ghzedition-pres-1.png

In den alten Folien zu Powertune (wo der Takt bei Veränderung des Workloads bei einem Beispiel angegeben ist) sieht man sogar gar keine Abstufungen, die Taktänderungen sehen kontinuierlich aus (weil sie so klein sind im Vergleich zur Gesamtskale).

http://images.ht4u.net/reviews/2010/amd_powertune_technology/outlier_apps_3.png

Vielleicht sollte man sich nochmal den im Eingangspost verlinkten Artikel von HT4U zu PT (http://ht4u.net/reviews/2010/amd_powertune_technology/) durchlesen, der erklärt die meisten Sachen eigentlich gut und richtig.

Edit2:

Laut Dave Baumann erfährt das Powertune auch bei bereits vorhandenen Karten ohne jegliches BIOS-Änderung ab dem Cat 12.7 (dem Beta-Treiber, den viele für den Test benutzt haben) ein Update. Es gibt zwar keinen Boost, aber die Drosselung erfolgt im Schnitt etwas später, weil der Algorithmus zur Berechnung der Auslastung erneuert wurde und auf den Stand der GHz-Edition gebracht wird (AMD hat ja immer betont, daß PT über einen eigenen kleinen Prozessor auf dem Die funktioniert, und das Programm/der Algorithmus änderbar ist). Was also dazu kommt, ist eine Temperatur-Abschätzung (die Leakage ist ja bekanntermaßen temperaturabhängig) unter Annahme des Referenzkühlers. Dies führt dazu, daß nach längerfristiger Niedriglast eine Weile später gedrosselt wird (weil die GPU höchstwahrscheinlich noch kalt ist und weniger leakt) und sich erst nach einer Weile Volllast (der Aufwärmperiode) einbremst. Ist der Kühler besser als der Referenzkühler, kann man das bei THG sogar sehen (hellblaue Kurve, der Einbruch nach ~100 Sekunden):

http://media.bestofmicro.com/B/L/342561/original/Heavy%20Load%20Gelid.png

Mit dem Referenzkühler geht es dagegen sehr schnell auf Endtemperatur, weil das Absenken des Taktes nach einer Weile den weiteren Temperaturanstieg verhindert, die Abschätzung klappt also ganz gut (wieder die hellblaue Linie für das Stock-Setting):
http://media.bestofmicro.com/B/K/342560/original/Heavy%20Load%20AMD%20Stock.png

Spasstiger
2012-06-22, 18:16:38
Das P-State-Diagramm für Powertune ist falsch. Es existieren keine öffentlich verfügbaren Tools die die tatsächlichen Taktraten korrekt anzeigen können, da die Regelung bei Powertune wesentlich feinkörniger und schneller als bei GPU-Boost erfolgen kann. Mehr dazu hier (http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680/2).
D.h. die Tools zeigen im Endeffekt nur einen Durchschnittstakt an?

Gipsel
2012-06-22, 18:35:03
D.h. die Tools zeigen im Endeffekt nur einen Durchschnittstakt an?
Nope, den am nächsten liegenden "vollen" P-State (siehe Diagramm in meinem Post oben). Die ganzen 4MHz-Zwischenstufen (noch?) nicht.