Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 3. Februar 2021


Leonidas
2021-02-04, 07:53:37
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3-februar-2021

Gast
2021-02-04, 09:40:49
Inwiefern das Feature allerdings überhaupt einen beachtbaren Performance-Effekt ergibt, ist jedoch fraglich, da die Mobile-Prozessoren im Gaming-Einsatz ihre TDP zumeist selber benötigen dürften, ergo das Feature immer nur für Sekundenbruchteile wirken kann.

Nicht wirklich im Grafiklimit ist der Verbrauch der CPUs doch eher gering, und vor allem ist es sinnlos ständig die maximalen Turbotaktraten auszufahren, da diese im Grafiklimit zwar immer noch Strom kosten aber in keinerlei Mehrperformance resultieren.

So neu ist das Ganze auch nicht, es gab schon bisher Notebooks welche unter verschiedenen Lasten die unterschiedlichen TDPs dynamisch regulieren.

Die Unterschiede sind einerseits in der Nomenklatur, es wurden, falls überhaupt angaben vorhanden waren immer die maximalen TDPs von CPU und GPU angegeben, wovon das eine oder andere in den jeweiligen Betriebszuständen verringert werden konnte. Jetzt gibt man auf GPU-Seite eine "Base-TDP" zuzüglich einer "Boost-TDP" an.

Und andererseits war die Regelung natürlich eher grob, da durch die Firmware des Notebooks selbst gesteuert.

Üblich war damit eher mal alle Komponenten mit der max TDP loslegen zu lassen und in bestimmten Betriebszuständen, beispielsweise aufgrund von Temperatur, aber möglicherweise auch aufgrund der Akkuladung bzw. von Netzteilen die gar nicht dauerhaft die nötige Leistung für alle Komponenten liefern können das eine oder andere zurückzuschrauben.

Mit RTX 30 bekommt nun der Grafiktreiber die Steuerung darüber, was deutlich feinfühligere Anpassungen erlauben sollte, da dieser die Regelung aufgrund der tatsächlichen GPU Auslastung deutlich feiner vornehmen können sollte.

Weiters sind auch Steuerungen denkbar, die das Ganze System effizienter werden lassen. Wie schon erwähnt ist es sinnlos die CPU im Grafiklimit mit max. TDP laufen zu lassen, damit wird nur unnötig Strom verbraten ohne sichtbare Mehrleistung, und es sind auch ganz nette Spielereien denkbar, alá lass mein Spiel möglichst dauerhaft mit 60FPS laufen und gib dafür jeder Komponente gerade so viel Strom wie notwendig.

Leonidas
2021-02-04, 09:43:13
Korrekt, im Grafiklimit ist der CPU-Verbrauch geringer. Aber dennoch verbrauchen Desktop-CPUs unter Gaming trotzdem immer noch 50-80 Watt. Das liegt unterhalb der TDP der meisten Mobile-CPUs. Sprich: Normalerweise wird das voll für die CPU gebraucht, da dürfte kaum etwas zum dynamischen Umschichten übrig bleiben.

Natürlich nur eine These. Aber so lange es keine Benchmarks gibt, die dem nachgehen ...

Knuddelbearli
2021-02-04, 09:53:10
Ein weiterer Thread bei Reddit beschäftigt sich mit der Performance von Intels Ice Lake-SP, der Server-Variante der Ice-Lake-Generation. Jene soll dieses Quartal nun endlich (nach längeren Verzögerungen) ausgeliefert werden, womit auch ein erster Benchmark-Wert zu einem Ice-Lake-System mit 2x 36 CPU-Kernen im Geekbench aufgetaucht ist. Verglichen mit einem 64-Kern-System von AMDs Zen-3-Serverausführung "Milan" (welches derzeit ebenfalls auf seine reale Auslieferung wartet) in allerdings SingleSocket-Bauweise kommt Intel auf eine ca. 10% höhere Multithread-Performance, bei allerdings etwas höherer Kernanzahl.

Ähm lag das nicht daran das die Software die da benutzt wird AVX 512 nutzt, was AMD eben nicht kann? Da wäre +10% ja geradezu lächerlich ....

Dazu wurde wohl bewusst bei Intel 2x32 Kerne genutzt und bei AMD 1x64 da beim schnellen lesen so viele 32 Kerne Intel vs 64 Kerne AMD lesen ...

Vor allem wenn dann Intel noch so auf den Folien wirbt:
https://pics.computerbase.de/9/5/8/9/3-31130b6e6b2df705/6-1080.1fb5a482.png

stinki
2021-02-04, 10:30:00
Wenn man sich die ASUS Tabelle mit allen Laptop Modellen anschaut, haben ja alle Karten (3060, 3070, 3080) in ein und dem selben Gerät die gleiche TDP.
Damit kann man ja fast die Wahl welche Karte man nehmen möchte an der Menge des V-RAMs, die man haben möchte, festmachen.
6GB = 3060
8GB = 3070
16GB = 3080 (nicht alle 3080 werden auch mit 16GB ausgeliefert, viele haben nur 8GB)

Gast
2021-02-04, 12:25:18
Korrekt, im Grafiklimit ist der CPU-Verbrauch geringer. Aber dennoch verbrauchen Desktop-CPUs unter Gaming trotzdem immer noch 50-80 Watt.



Viele Desktop-CPUs haben einen quasi Idle-Verbrauch, der höher ist als die TDP vieler mobile CPUs, das kann man nicht unbedingt gut vergleichen.

Es hängt natürlich auch stark von der verwendeten CPU und dem Spiel ab, wie viel Potential da tatsächlich vorhanden ist. Mit einer 15W CPU wird man schwer 25W zur GPU umschichten können. Der zweite Punkt ist, dass Spiele die mehrere Kerne gut auslasten können natürlich auch mehr Verbrauch in der CPU erzeugen, insbesondere bei älteren Spielen die im Wesentlichen nur 1 Kern wirklich stark auslasten kann der CPU Verbrauch aber durchaus sehr gering sein.


Der Sinn des Ganzen ist allerdings nicht unbedingt nur die "natürlichen" Reserven freizuschalten, also beispielsweise bei einer 45W CPU die normalerweise in einem Spiel 25W brauchen würde die restlichen 20W der GPU zur Verfügung zu stellen, sondern ganz bewusst die CPU vielleicht nur mit 15W zu betreiben, und dann weitere 30W für die GPU zur Verfügung zu haben.

Klar verliert man dann etwas Taktrate auf CPU-Seite, aber im Grafiklimit kostet das keine Leistung, sondern man kann eben sogar Leistung gewinnen, da dann die GPU etwas schneller arbeiten kann.

Und GPU-Limit ist beim Spielen nun mal bis auf wenige Ausnahmen quasi der Standard.


Das liegt unterhalb der TDP der meisten Mobile-CPUs. Sprich: Normalerweise wird das voll für die CPU gebraucht, da dürfte kaum etwas zum dynamischen Umschichten übrig bleiben.


Wie erwähnt ist der Hauptzwecke eben nicht nur das umzuschichten was aufgrund geringer CPU-Auslastung eh schon vorhanden ist, sondern aktiv die Leistung auf jene Komponenten umzuschichten die aktuell auf die wahrgenommene Performance den größten Einfluss haben.

Wenn man tatsächlich nur die Leistung welche die CPU gerade eh nicht braucht für die GPU verwenden würde, wäre das Potential wie du erwähnst je nach CPU natürlich eher gering.

Wie viel das Ganze tatsächlich bringen kann hängt natürlich von vielen Faktoren ab, vor allem auch vom Verhältnis der "normal" zugestandenen TDP von GPU und CPU.

Die schnelleren GPUs die eh schon 150W TDP bekommen sollten eigentlich nur wenig profitieren, genauso wie es nur wenig bringen kann wenn man eine GPU mit einem U-Prozessor mit nur 15W TDP kombiniert.
Eine GPU mit nur 100W Base-TDP kombiniert mit einem 45W Prozessor sollte dagegen schon einiges an Potential haben. Je nach Spiel sollte man da mit 10-15W CPU-Verbrauch auskommen ohne das GPU-Limit zu verlassen und hat dann einen richtig schönen Boost für die GPU.


Was bei einer solchen Steuerung natürlich auch zwangsweise eintreten wird, ist wie du geschrieben hast, dass synthetische GPU-Tests in der Regel deutlich mehr davon profitieren werden als echte Spiele, da hier eigentlich immer der maximale zusätzliche Boost zur Verfügung stehen sollte, was bei echten Spielen sicher nicht immer der Fall ist.

Gast
2021-02-04, 13:41:18
Wenn man sich die ASUS Tabelle mit allen Laptop Modellen anschaut, haben ja alle Karten (3060, 3070, 3080) in ein und dem selben Gerät die gleiche TDP.
Damit kann man ja fast die Wahl welche Karte man nehmen möchte an der Menge des V-RAMs, die man haben möchte, festmachen.

Nicht ganz, mehr SMs heißt, dass für die selbe Leistung weniger Taktrate gebraucht wird.
Da die Leistungsaufnahme mit dem Takt annähernd linear steigt, mit der Spannung aber quadratisch, und höhere Taktraten in der Regel auch mehr Spannung benötigen, wird man mit selber TDP mit mehr SMs trotzdem auch mehr Leistung haben.

Bestes Beispiel Geforce 2080Super vs. Geforce 2080Ti, beide haben die selbe TDP, trotzdem liegt die 2080Ti nicht unerheblich vorne.

Lehdro
2021-02-04, 13:49:37
So neu ist das Ganze auch nicht, es gab schon bisher Notebooks welche unter verschiedenen Lasten die unterschiedlichen TDPs dynamisch regulieren.
Bei AMD nennt sich das ganze Smartshift (https://www.amd.com/de/technologies/smartshift), gibt es seit letztem Jahr auch schon in Notebooks. Damals war das Dell G5 15 SE (https://www.notebookcheck.com/Alles-auf-AMD-Test-Dell-G5-15-Special-Edition-Radeon-RX-5600M-Laptop.477591.0.html) das einzige was es wirklich auf den Markt geschafft hat.

Da ich Besitzer eines solchen NBs bin, kann ich folgende Beobachtungen feststellen:

Am effizientesten arbeitet das Feature logischerweise wie erwähnt mit einem FPS Limiter (Radeon Chill zb). Der Grad des Performanceboosts richtet sich stark nach der Szene und dem Spiel. In WoT schafft die RX5600M sogar ihren maximalen Boosttakt von knapp über 1.7 GHz dauerhaft zu halten, während die CPU bei um die 2.5 GHz rumeiert - da genehmigt sich dann die GPU über 80W, während die CPU nur am TDP Limit nuckelt. Spiele die viel Wert auf (viele) hochtaktende CPU-Threads legen, kommen eher nicht mit Smartshift klar, da wird ständig wild von GPU zu CPU geschoben und pendelt direkt wieder in die andere Richtung. Da werden dann die Frametimes auch leicht unsauber - deswegen bei so etwas Settings auswählen die FPS oberhalb des FPS Limits zulassen, das glättet das ganze dann enorm.
Ansonsten kann das Feature auch dafür sorgen dass einzelne Komponenten je nach Kühlungsprofil immer ganz kurzzeitig in die Drosselung wegen der Temperatur wandern - was das ganze natürlich ad absurdum führt. Das ist ironischerweise am häufigsten bei Ladebildschirmen zu sehen, bei denen die CPU dann mal eben auf 100W TDP und °C zusteuert und sofort von STAPM (https://www.ryzencontroller.com/#config) eingebremst wird. Ich muss aber sagen dass seit den neueren BIOS und Firmwareversionen die Negativ auffälligen "Übersteuerungen" deutlich weniger aggressiv waren.

JVC
2021-02-04, 16:39:52
Vor allem wenn dann Intel noch so auf den Folien wirbt:
https://pics.computerbase.de/9/5/8/9/3-31130b6e6b2df705/6-1080.1fb5a482.png
Tatsächlich, auf der Folie stellt man echt 32Intel Kerne gegen 64AMD Kerne...

Darf man das überhaupt? Ist doch eindeutig eine Falschaussage laut der Folie...

M.f.G. JVC

Eldoran
2021-02-04, 17:05:06
AMDs Milan ist zwar noch nicht offiziell released, aber es wird bereits seit Monaten Hardware ausgeliefert.

https://www.servethehome.com/intel-ice-lake-xeon-now-in-production/
https://www.servethehome.com/amd-epyc-7003-milan-update-at-ces-2021/

Leonidas
2021-02-05, 00:27:48
Der Sinn des Ganzen ist allerdings nicht unbedingt nur die "natürlichen" Reserven freizuschalten, also beispielsweise bei einer 45W CPU die normalerweise in einem Spiel 25W brauchen würde die restlichen 20W der GPU zur Verfügung zu stellen, sondern ganz bewusst die CPU vielleicht nur mit 15W zu betreiben, und dann weitere 30W für die GPU zur Verfügung zu haben.


Die Frage ist nur, ob das wirklich was bringt, selbst wenn man es forciert. Eine ähnliche Desktop-CPU geht das Spiel mit 50-80 Watt an. Wenn man dasss herunterdrückt, geht normalerweise Leistung verloren.

Gast
2021-02-08, 16:28:58
Die Frage ist nur, ob das wirklich was bringt, selbst wenn man es forciert. Eine ähnliche Desktop-CPU geht das Spiel mit 50-80 Watt an. Wenn man dasss herunterdrückt, geht normalerweise Leistung verloren.

Hängt wie gesagt von den verbauten Komponenten ab.

Bei einer 15W CPU mit 150W GPU wird sich kaum was tun.

MIt einer 45W CPU kombiniert mit einer 60W GPU könnte sich da schon einiges tun, wenn man sagen wir mal kombiniert auf unter 100W bleiben wollen.