PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stromverbrauch: Ingame-FPS-Limiter vs. Treibereinstellung, extremer Unterschied?


Christopher_Blair
2022-10-30, 17:00:29
Hallo,

bei dem Versuch mit dem neuen CoD 60fps möglichst sauber zu bekommen ist mir folgendes aufgefallen:

Bei Verwendeng des Ingame Limiters verbraucht die Grafikkarte deutlich mehr als mit dem eingebauten FPS Limiter im Treiber, bei WoW z.b. doppelt so viel (~100W zu ~200W, natürlich die gleiche Stelle etc.)!
Bzw. der vom Treiber eingebaute FPS Limiter ist viel effizienter.

Ist das bekannt:confused:

NVIDIA 3080 mit 522.25 Treiber, Monitor mit VRR (läuft als GSYNC komp.), Windows 10, Auflösung 3440x1440 mit 144 Hertz, limitiert auf 60fps, "normal" NVIDIA Power Setting.

mospider
2022-10-30, 17:55:58
Ist mir vor einiger Zeit auch bei Age of Empires 4 aufgefallen (RTX3080). Erklären kann ich mir das nicht.

Lyka
2022-10-30, 18:17:52
wenn ich raten sollte, dann kommt das wohl von:

GPU holt sich die FPS-Berechtigung aus dem Treiber (Max)
Berechnet (verbraucht Strom)
bekommt dann vom Programm eine nachträglich künstliche Limitierung

Tobalt
2022-10-30, 18:20:15
Bei dem Radeons war das glaub ich auch vor längerem Mal ein Thema..

Naja der Grund dürfte einfach sein, dass dem Graka Treiber Team viel mehr Scheiße um die Ohren fliegen würde bei einer schlechteren Umsetzung. Bei den
Game Devs hingegen ist das nur ein völlig unbedeutendes Nischenfeature. Da wird niemand ernsthaft erbost wenn das nicht optimal läuft.

aufkrawall
2022-10-30, 18:22:39
Aus unerfindlichen Gründen lässt der Nvidia-Treiber-Limiter mit D3D12 die Karte aggressiver runtertakten als etwa unter Vulkan. Kann man ganz einfach in Strange Brigade nachstellen. Das passiert aber nicht ohne kurze Einbrüche, wenn plötzlich die Last steigt. Das Nvidia-Taktmanagement ist immer noch seltsam steinzeitlicher Gammel.