PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Stromverbrauchs-Überblick für DirectX 11/12 Grafikkarten


Leonidas
2021-07-04, 08:11:08
Link zum Artikel:
https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten


Update-Historie:
Update vom 18. Juli 2021: Verbrauchs-Werte der Radeon RX 6900 XT LC hinzugetragen.
Update vom 29. August 2021: Verbrauchs-Werte der Radeon RX 6600 XT hinzugetragen, Stromverbrauchs-Werte zu Radeon RX 6700 XT, GeForce RTX 3060, 3060 Ti & 3070 aktualisiert.

VfBFan
2021-07-04, 09:46:03
"Schön" zu sehen wie der Verbrauch bei mir höher wurde, bezogen auf Gaming. 80, 100, 160 und 170 Watt. Mehr als 200 wird es bei mir aber nicht geben, kein Bock auf so Heizplatten im Rechner.

PS: 5770, 7850, 970, 5700.

Aroas
2021-07-04, 10:07:43
Vielen Dank für diese sehr aufschlussreiche Übersicht.

Schon interessant, dass ich beim Wechsel von RX 580 auf GTX 1070 und später GTX 1080 bei deutlich mehr Leistung sogar etwas Verbrauch eingespart habe.

Gast Ritis
2021-07-04, 11:27:05
jetzt noch ne graphische Darstellung mit x in Jahreszahl bzw. Monat des Launchtermin und y Watt Gaming Verbrauch mit GPU Kürzel am Datenpunkt. ;)

Gaststätten
2021-07-04, 11:39:04
wccftech hat was ähnliches?
https://wccftech.com/amd-nvidia-gpu-silicon-performance-efficiency-cost-progress-from-the-last-10-years-visualized/

Nicht der eine Gast
2021-07-04, 12:24:25
Die Amd rx 560 müsste den polaris 21 und nicht polaris 11 haben. Wobei die Unterschiede nicht gross sein dürften. Ich habe meine rx 460 auf 560 gefasht (samt freigeschaltete Reserve).

Bei solchen Messungen gilt das gleiche wie bei den Mainboards. Es kommt immer auf die Ausführung an. Der niedrige Idle Stromverbrauch bei den amd Karten trifft vor allem auf die Referenzkarten zu (laut Messung von Igor). Die anderen Hersteller haben mit ähnlichen Karten höheren Verbrauch. Und dann kommt noch die extra Beleuchtung und Belüftung hinzu.
Eine solche Tabelle kann nur als grobe Orientierung bieten.
Wie sind die unterschiedlichen Presets eigentlich eingebaut? Bei den Vega Grafikkarten gab es ja mehrere Presets (Schalter und Treiberoption) mit unterschiedlichen Stromverbrauch.Wobei meist ja nur der Preset mit der höchsten Leistung und Aufnahme verwendet wurde, während in der Praxis andere Presets oder UV vorherrscht.

Platos
2021-07-04, 12:29:12
Naja von einer 580 zu Pascal ist das ja auch kein Wunder.

@ Topic: Die Ampere Generation hat ja ziemlich hohe Idleverbräuche (anscheinend?). Vor allem gegen oben raus unterscheiden sich die Karten fast um 100%.

Übrigens: Die Links für die Idleverbräuche führen alle nur zur Hauptseite der jeweiligen Seite und nicht zum Test.

Lyka
2021-07-04, 12:33:48
bei den Werten der 6700 XT frage ich mich, ob die von AMD "gemessenen Werte" z.B. in der Radeon-Software stimmen. Auch zeigte mir z.B. der Gravity-Benchmark irgendwas mit 150W an bei 98% Auslastung :|

Thunder99
2021-07-04, 13:02:32
Danke Leo für die Übersicht. Zeigt sehr schön, wie in den letzten Jahren der Stromverbrauch nur eine Richtung kennt, nach oben :(

Auch bei mir bleibt es bei 200W - 250W, mehr nicht! Die 1080Ti ist da echt die absolute Grenze (wird auch bis auf Ausnahmen nicht übertaktet.)

Troyan
2021-07-04, 13:09:07
bei den Werten der 6700 XT frage ich mich, ob die von AMD "gemessenen Werte" z.B. in der Radeon-Software stimmen. Auch zeigte mir z.B. der Gravity-Benchmark irgendwas mit 150W an bei 98% Auslastung :|

AMD zeigt die nur die GPU an und nicht den Verbrauch der Karte.

Lyka
2021-07-04, 13:10:50
ah, danke (y)

necro1970
2021-07-04, 13:33:53
Coole Übersicht, und wie man sieht ist die Leistungsaufnahme stets ähnlich.
Mal sehen, ob die >500W der R9 295X2 von 2014 noch einmal geknackt werden.

Wenn ich zurückdenke wie damals die Radeon HD 4870 beim Zocken bei konstanten 80°C vor sich hinglühte...oh mein Gott.

Und mit der RTX690 und einem i5 2500k war ich grob in derselben Region, wo ich jetzt mit mit einer RTX3090 und einem R7 5800X bin.
Nur mit 3x soviel Shader, 12x soviel VRAM und 4x soviel Speicherbandbreite - von der CPU ganz zu schweigen.
Und mit einem weit besseren 1200W Netzteil, welche das im Gegensatz (zu den teils rachitischen Netzteildesigns von früher) ganz locker&safe betreibt....

Geldmann3
2021-07-04, 13:52:25
Die stromhungrigste Grafikkarte aller Zeiten war nach dieser Liste die R9 295 X2 mit im Schnitt 538 Watt unter Last. Danach kommen bereits die RTX 3090 (359W) und die RTX 3080 Ti (350W), man beachte, dass diese mehr Strom verbrauchen, als alle anderen Multi-GPU Karten, wie die GTX 590 (338W), die HD 7990 (336W) oder die HD 6990 (315W).

Selbstverständlich ist diese Liste nicht vollständig und es gab durchaus noch ein paar andere Nischen-Multi-GPU Karten, denen ich mehr Stromverbrauch zutraue. Doch das ist schon ein Statement.

Gast
2021-07-04, 15:14:20
Zeigt konzentriert, dass es schon früher Karten mit Bedarf an weit mehr als 200-250W gab.

Und es keinen Grund gibt, warum Spitzenmodelle nicht über 350W steigen können oder sollten.
Sie werden dafür nicht abgestraft. Das passiert nur in Bereichen darunter, wenn die Performance nicht entsprechend ist.
Bei CPUs regt sich kaum wer über Kühlerlüfter auf. In Slot1-Office-PCs gab es nur NT-Lüfter. Niemand will in die Richtung zurück, wenn dafür die Performance deutlich sinkt.

Schnoesel
2021-07-04, 15:45:27
Für mich ist die Genze erreicht. Die 359 Watt der 3090 beziehen sich auch nur auf die Referenzdesigns, von irgendwelchen Customlösungen mit 400Watt+ Verbrauch gar nicht zu reden. Das ist für mich völliger Irrsinn und auch nicht mehr so ohne weiteres zu kühlen, leise schon gar nicht. Hab mir extra nochmal einen 360er Radiator inklusive 3 Lüfter verbaut zu der bereits vorhanden 720er Radiatorfläche um wieder Ruhe zu haben. Auch die Anforderungen an das NT sind nicht ohne. Nicht weniges hatte bei 3080 und darüber hinaus blackscreens. Ich hoffe das sehr, dass wir hier keine! weitern Höchststände sehen werden.

GerryB
2021-07-04, 16:25:24
Die aktuellen 6900 lassen sich extrem sparsam betreiben, wenn man sich mal als Ziel "nur" den Score der stromfressenden 3080 setzt.
(im Prinzip ist A von der Architektur+Fertigung her ein Griff ins Klo, wenn man bedenkt das RDNA2 immer noch nur 7nm ist)

Leonidas
2021-07-04, 16:41:15
Die Amd rx 560 müsste den polaris 21 und nicht polaris 11 haben. Wobei die Unterschiede nicht gross sein dürften. Ich habe meine rx 460 auf 560 gefasht (samt freigeschaltete Reserve).

Polaris 11 zu 21 waren dann wirklich nur noch Umbenennungen, damit es schöner klingt. So weit ich dass noch im Kopf habe.



Übrigens: Die Links für die Idleverbräuche führen alle nur zur Hauptseite der jeweiligen Seite und nicht zum Test.

Du meinste die allererste Tabelle? Das ist so korrekt. Ich habe dort nicht auf einen speziellen Test verlinkt, weil die Angaben üblicherweise für jeden Test dieser Webseiten zutreffen.

ChaosTM
2021-07-04, 16:48:47
Erschreckend eigentlich wie wenig in den letzten 4 Jahren weitergegangen ist.
Die 3090er ist gerade mal 2x schneller als die 1080ti und braucht dabei aber fast 40% mehr Saft. Die "Wand" rückt immer näher.

GerryB
2021-07-04, 17:00:45
Erschreckend eigentlich wie wenig in den letzten 4 Jahren weitergegangen ist.
Die 3090er ist gerade mal 2x schneller als die 1080ti und braucht dabei aber fast 40% mehr Saft. Die "Wand" rückt immer näher.

oder Anders

vgl über 3 Jahre
ne 3070ti ist ggü ner 2080ti ne einzige Katastrophe
liegt u.A. am Verzicht auf INT+FP16-Optimierungen, die Turing schonmal hatte

Vermutlich wäre ein Shrink von ner 2080Ti immer noch sehr gut!
(liesse sich problemlos mit 295W betreiben und 200-300MHz höher takten, von 11GB ganz zu schweigen
und Da ging ja auch schon schnellerer Vram ohne unsinnigen Mehrverbrauch)

ChaosTM
2021-07-04, 18:27:44
Es ging halt auch sehr viel Silizium durch die Tensor und RT Kerne "verloren", dadurch ist die Sache etwas verfälscht.

davidzo
2021-07-04, 23:01:57
Sehr schöne Übersicht. Nur mitsamt grafik wäre noch schöner. Am besten als D3.js Javascript grafik mit gruppenweise ein/ausblendbaren Grafikkartenfamilien :biggrin:
man wird doch träjumen dürfen :rolleyes:;)

Leonidas
2021-07-05, 05:50:29
Naja, man kann Grafiken darauf basierend erstellen. Das ganze ist allerdings nur als Datenbasis gedacht.

So was mit JS kann ich allerdings nicht.

Gast
2021-07-05, 08:32:53
Wenn man sich mal die alten Karten anschaut, dann fällt auf, dass die beim Gamen locker 30% unter ihrer TDP waren. Inzwischen ist man da entweder exakt auf der TPD oder sogar leicht drüber.
Auch faszinierend, dass AMD teilweise früher auch die ein oder andere effiziente Karte hatte, z.B. die R9 Nano, die eigentlich gut gegen eine 980 gepasst hat (bis auf den zu hohen Preis). Oder auch die 5600 XT, die in Sachen Effizienz durchaus mit Turing mithalten konnte. Inzwischen sind sie ja endlich wieder konkurrenzfähig. Ich hoffe das gilt dann auch für die kommenden Generationen, damit wir Kunden da auch einen Kampf erleben und bessere Produkte zu einem günstigen Preis bekommen (wenn mal das Lieferproblem durch neue Fertigungskapazitäten weg ist).

Eine schöne Übersicht, danke für die Mühe!

Gast
2021-07-05, 18:00:17
Es ging halt auch sehr viel Silizium durch die Tensor und RT Kerne "verloren", dadurch ist die Sache etwas verfälscht.

Gerade mal geschätzte 10%.

seba86
2021-07-09, 22:56:05
Wow, eine sehr nützliche Übersicht, welche man als Referenz verwenden kann.

Ich möchte einen Vergleichwert hinzufügen: Ryzen 3500U Vega8 (mit vermutlich 15W TDP)
Alle Werte der komplette Laptop mit Akku aber ohne Bildschirm (da externer Monitor).
Die CPU ist auf 1400Mhz gelockt (Energiesparmodus: "maximal 1%). So lassen sich die Spiele viel besser spielen, weil a) die GPU nun den Großteil der Energie bekommt und b) die Spiele gleichmäßig ablaufen. Wenn er normal oder Höchstleistung arbeitet läuft das Spiel alle paar Sekunden für einige Sekunden extrem ruckelig (200 Mhz GPU-Takt zwecks Abkühlung).

Im Idle unter 6W.
Bei Vollauslastung während des Zockens nimmt er sich konstant 34-35 Watt in den ersten 5min, danach bleibt er dauerhaft auf 25-26W.
Allerdings verbrät der komplette Laptop auch 35Watt bzw. 25-26Watt, wenn ich das Spiel im Hintergrund lasse, dann nimmt es sich nur die CPU.

Assassins Creed Origins ist gerade so noch spielbar in hohen Details unter 1280x960 mit 15-20fps. Wird trotz der 25W recht warm der Laptop.