PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3090 hoher Idle-Verbrauch?


woodsdog
2020-11-08, 12:24:19
moin!

bei meiner MSI 3090 ist mir der vergleichsweise hohe Idle Verbrauch aufgefallen. Ohne LED und mit Lüftern Off

1x 1440p@120 = ~28W
2x 1440p@120 = ~37W

Takt ist jeweils 210MHz GPU und 50Mhz RAM. Testweise umschalten auf 60Hz brachte keine Veränderung. Laut GPU-Z süffelt die GPU davon aber gerade mal ~8Watt von daher wirds wohl der Speicher sein und wenig Potenzial zu Verbesserung geben, richtig?

Daredevil
2020-11-08, 12:29:50
+1

Der Speicher saugt unheimlich viel bzw. das drumherum. Der Chip selbst ist nicht derjenige, der der Säufer ist.

PatkIllA
2020-11-08, 12:34:02
Klappt das eigentlich mittlerweile bei Multimonitor, dass sich der Speicher auch bei unterschiedlichen Monitoren runtertaktet?

woodsdog
2020-11-08, 12:38:38
Scheinbar ja. Macht alles keinen Unterschied.

Ich betreibe einen LG 32GK850G und einen Dell S2716DG an meiner 3090.

beide @ 1440p120 = 210/50MHz
dell mit 1080p60 und den LG mit 1440p120 = 210/50MHz
Mit Langeweile kann ja jemand mal exotischere Kombinationen testen (75 Hz, 160Hz etc)

aufkrawall
2020-11-08, 13:07:06
Na ja, trotzdem hast du oben 9W zusätzlich mit MM. Die angezeigten Taktraten erzählen also nicht die ganze Wahrheit.

woodsdog
2020-11-08, 13:44:35
Na ja, trotzdem hast du oben 9W zusätzlich mit MM. Die angezeigten Taktraten erzählen also nicht die ganze Wahrheit.

Die Frage war ob sich der Takt ändert. Die habe ich beantwortet.

BlacKi
2020-11-08, 13:52:53
Der Speicher saugt unheimlich viel bzw. das drumherum. Der Chip selbst ist nicht derjenige, der der Säufer ist.


war das nicht so, das man das SI nun getrennt vom chip ausließt und vorher nicht?


mich würde mal gpu z werte von 3090/3080/3070 auf einem blick interessieren, um dann aufzudröseln was wieviel braucht.

Troyan
2020-11-08, 14:13:31
Die 3090 hat 24GB und deutlich aufwendigere Platinen. Den Tod muss man in Kauf nehmen.

Ansonsten hat Ampere einen "Low-Power" Modus für den Chip. Wenn die GPU kaum was neues rendern muss, geht der Chip auf 2W runter. Mein Verbrauch in 4K@120Hz sinkt dann von 30W auf 20W.

Daredevil
2020-11-08, 14:14:27
Eine 2080ti bekomme ich bei 1Ghz @ 0.7v auf ~110w Verbrauch.
Eine 3090 bekomme ich bei 1Ghz @ 0.7v auf ~175w verbrauch.
Irgendwo müssen ja auch noch 12nm>8nm gelandet sein und klar, ist letzterer Chip fetter, aber du kannst die 3090 halt nicht richtig Effizient betreiben.

Dass der Chip selbst nicht der krasse Lutscher ist sieht man auch daran, dass man 300-400-450w durchjagt, die Temperatur aber noch "im Rahmen" bleibt.
Ampere ist ein starker Rückschritt von Tu102 von der DIE Größe her, hier müssten die Temps eigentlich deutlich höher ausfallen.

Guck dir mal an, was bei ETH Mining passiert, wo der Speicher tatsächlich stark beansprucht wird.
1,1Ghz und 0.7v ! ( Speicher stark übertaktet )
52°C für 56w Abwärme? Nope, der Speicher ist krass am heizen.
https://abload.de/img/unbenannthdjbs.png
( Insofern das stimmt, was GPUz da angibt, der Gesamtverbrauch ist es auf jeden Fall, weil Strommessgerät im Blick )

aufkrawall
2020-11-08, 14:23:02
Wie ist das eigentlich mit der Taktanpassung bei Ampere? Bleibt der immer noch häufig einige Sekunden im Boost-State, auch wenn schon gar keine Last mehr anliegt?

Troyan
2020-11-08, 14:28:48
Bei mir besser als bei Turing. Immerhin springt die Karte nicht mehr dauernd in den 3D Takt in 4K@120Hz, wenn man auf Seiten surft...

aufkrawall
2020-11-08, 14:40:52
Und das Scrolling in Firefox Webrender ist auf interaktiven Seiten weitestgehend ruckelfrei?
Mit einer 1660S in 4k 60Hz war das noch völliger Murks. Zwar sparsamer als Pascal, aber auch viel ruckeliger. Mit Navi/Vega sparsam und ruckelfrei gleichzeitig (das eklige HW Cursor-Problem bei Navi nicht mitgezählt).

Gast
2020-11-08, 14:45:06
Eine 2080ti bekomme ich bei 1Ghz @ 0.7v auf ~110w Verbrauch.
Eine 3090 bekomme ich bei 1Ghz @ 0.7v auf ~175w verbrauch.
Irgendwo müssen ja auch noch 12nm>8nm gelandet sein und klar, ist letzterer Chip fetter, aber du kannst die 3090 halt nicht richtig Effizient betreiben.


Der einzige Grund warum neuere Fertigungen weniger Verbrauchen ist, dass man damit weniger Spannung für die gleichen Taktraten braucht. Dass bei gleicher Spanung und Taktrate nicht weniger verbraucht wird, bzw. bei einem deutlich größeren Chip sogar mehr ist zu erwarten.


52°C für 56w Abwärme? Nope, der Speicher ist krass am heizen.


Das ist nicht der Speicher, das ist der Speichercontroller, und der sitzt in der GPU.

Daredevil
2020-11-08, 14:45:16
Vega I als auch II habe ich in guter Erinnerung, wenn es um Browser Performance geht, während man Numbers crunshed. Imho hatte ich bislang nie eine Karte, wo browsen als auch Youtube Geschichten so fluffig von der Hand gehen bei ETH Mining.
Pascal/Turing/Ampere und NaviI kommen da nicht an und die Vega Kärtchen waren dazu ja auch noch recht sparsam im Idle.

Rolsch
2020-11-09, 07:39:48
Vega I als auch II habe ich in guter Erinnerung, wenn es um Browser Performance geht, während man Numbers crunshed. Imho hatte ich bislang nie eine Karte, wo browsen als auch Youtube Geschichten so fluffig von der Hand gehen bei ETH Mining.
Pascal/Turing/Ampere und NaviI kommen da nicht an und die Vega Kärtchen waren dazu ja auch noch recht sparsam im Idle.
Kann ich so nicht bestätigen. Beim Eth-minen hat Polaris am wenigsten Windows ausgebremst, Vega am meisten und Navi1 war wieder besser. Aber man kann die Ethereum-Intensität ja im Miner drosseln. (zumindest beim Claymore: Parameter ethi)

woodsdog
2020-11-09, 07:56:17
Wie ist das eigentlich mit der Taktanpassung bei Ampere? Bleibt der immer noch häufig einige Sekunden im Boost-State, auch wenn schon gar keine Last mehr anliegt?

Ich bin von Pascal auf Ampere umgestiegen. Die Boost-States gehen jetzt deutlich flotter nach unten.
Wenn ich in Chrome ne große Seite wie z.B. heise.de aufrufe und schnell hoch/runter scrolle passiert wernig. vielleicht mal 210 -> 250 MHz das aber nur selten und geht ganz schnell wieder auf 210.

woodsdog
2020-11-09, 08:01:33
moin!


1x 1440p@120 = ~28W
2x 1440p@120 = ~37W



Um das mal zu ergänzen, es hängt offenbar auch ziemlich von der Temp der Karte ab.
Heute morgen hatte ich nach dem Boot 30°C auf der GPU, dabei war der Idle verbrauch bei 2x 1440p@120 lediglich 27W. Das ganze ist dann linear mit der GPU temp auf die üblichen 37-38W gestiegen (GPU ~55°C)

Wie kann es sein dass z.B. Igor gerade mal 16W Idle gemessen hat (ich meine bei der FE)? Bessere Bestückung bei der Stromversorgung?

Gast
2020-11-09, 18:13:44
[QUOTE=woodsdog;12492188
Wie kann es sein dass z.B. Igor gerade mal 16W Idle gemessen hat (ich meine bei der FE)? Bessere Bestückung bei der Stromversorgung?[/QUOTE]

Ist deine übertaktet?
Die Anzahl der Booststeps ist fix, und wenn du am oberen Ende mehr davon hast, geht das in der Regel auf die Kosten der niedrigsten Booststeps.

Deine Karte kann dann also nicht so weit runtertakten wie eine FE.

Evil Ash
2020-11-09, 18:38:38
Hm, hier mit der 3090 an einem 1440p-Monitor sieht es so aus:

https://i.imgur.com/2DJa2HF.jpg

https://i.imgur.com/PCklLNm.jpg

Spontan fallen mir Treiber oder PCIe 3 oder 4 ein.

Daredevil
2020-11-09, 18:48:15
Zwischen verschiedenen Karten gibt es aber auch große Unterschiede.
Bei meinen vielen 2080ti habe ich alles gesehen von 10w, 18w und auch 33w, je nach Modell.

woodsdog
2020-11-10, 07:23:07
@Gast
betreibe kein OC

Dann relativiert sich das ja alles.

Siehe Anhang, so sieht es bei mir mit einem 1440p Monitor und Kalter karte zur Zeit aus.

CompEx
2020-11-11, 16:34:26
Ich traue den per Tool ausgelesenen Verbrauchswerten nicht ganz.

Meine 2070S schluckt laut Afterburner im Idle mindestens 20 Watt (1440p@90Hz), meine 1070 angeblich nur 10 Watt. An der Steckdose gemessen betrug der Unterschied für den ganzen PC aber maximal 7 Watt (mehrfach nachgemessen).

Auch absolut kommt es mir zu viel vor: Mein PC mit Z490 + i7 10700 + 2070S + 2x16GB RAM + 2 SSDs + Optisches Laufwerk + diverse USB-Geräte (Maus, Tastatur, Webcam, DAC) verbraucht an der Steckdose gemessen Idle nur 33 Watt, davon laut Afterburner allein 20-21 für die Graka... Passt für mich nicht.

Vlt. also einfach ein zu hoher Wert, der da bei manchen Karten ausgelesen wird. Es gibt ja auch Testseiten, die haben noch nie für eine Graka so hohe Idle-Werte gemssen.

LG
CompEx