PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Stromverbrauchs-Überblick für DirectX 11/12 Grafikkarten


Leonidas
2021-07-04, 08:11:08
Link zum Artikel:
https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten


Update-Historie:
Update vom 18. Juli 2021: Radeon RX 6900 XT LC hinzugetragen.
Update vom 29. August 2021: Radeon RX 6600 XT hinzugetragen, Radeon RX 6700 XT, GeForce RTX 3060, 3060 Ti & 3070 aktualisiert.
Update vom 31. Oktober 2021: Tom's Hardware als 11. Quelle notiert.
Update vom 31. Oktober 2021: Radeon RX 6600 hinzugetragen, Radeon RX 6600 XT & 6700 XT, GeForce RTX 3060, 3060 Ti & 3070 aktualisiert.
Update vom 1. November 2021: Radeon RX 6800, 6800 XT & 6900 XT, GeForce RTX 3070 Ti, 3080, 3080 Ti & 3090 aktualisiert.
Update vom 27. Dezember 2021: GeForce RTX 2060 12GB hinzugetragen.
Update vom 15. Februar 2022: Radeon RX 6500 XT & GeForce RTX 3050 hinzugetragen.
Update vom 13. Mai 2022: GeForce RTX 3090 Ti hinzugetragen.
Update vom 19. Mai 2022: GeForce RTX 3080 12GB sowie Radeon RX 6400, 6650 XT, 6750 XT & 6950 XT hinzugetragen.
Update vom 27. Dezember 2022: Arc A380, A750 & A770 "LE", GeForce GTX 1630, GeForce RTX 3050 (GA107), 3060 8GB, 4080 & 4090, Radeon RX 6700, 7900 XT & 7900 XTX hinzugetragen.
Update vom 29. Januar 2023: GeForce RTX 4070 Ti hinzugetragen, Zahlendreher bei A750 & A770 gefixt.
Update vom 18. April 2023: GeForce RTX 4070 Ti aktualisiert, GeForce RTX 4070 hinzugetragen.
Update vom 20. April 2023: GeForce RTX 3060 Ti GDDR6X hinzugetragen.
Update vom 16. Juli 2023: Arc A750 & A770 "LE" aktualisiert, Radeon RX 7600, GeForce RTX 4060 & 4060 Ti 8GB hinzugetragen.
Update vom 30. Juli 2023: Radeon RX 7900 GRE hinzugetragen.
Update vom 3. August 2023: GeForce RTX 4060 Ti 16GB hinzugetragen.
Update vom 12. August 2023: Radeon RX 7900 GRE aktualisiert.
Update vom 20. August 2023: Arc A770 8GB hinzugetragen.
Update vom 13. September 2023: Radeon RX 7700 XT & 7800 XT hinzugetragen.
Update vom 20. Oktober 2023: Arc A580 hinzugetragen.
Update vom 7. November 2023: Artikel enthält nunmehr auch die Spanne der Einzelergebnisse beim Spiele-Verbrauch im Schema "niedrigstes zu größtes Einzelergebnis".
Update vom 20. Februar 2024: GeForce RTX 3050 6GB, 4070 Super, 4070 Ti Super & 4080 Super hinzugetragen.
Update vom 17. März 2024: Radeon RX 7900 GRE aktualisiert.
Update vom 18. März 2024: Radeon RX 7600 XT hinzugetragen.
Update vom 2. April 2024: Radeon RX 6500 XT 8GB hinzugetragen.

VfBFan
2021-07-04, 09:46:03
"Schön" zu sehen wie der Verbrauch bei mir höher wurde, bezogen auf Gaming. 80, 100, 160 und 170 Watt. Mehr als 200 wird es bei mir aber nicht geben, kein Bock auf so Heizplatten im Rechner.

PS: 5770, 7850, 970, 5700.

Aroas
2021-07-04, 10:07:43
Vielen Dank für diese sehr aufschlussreiche Übersicht.

Schon interessant, dass ich beim Wechsel von RX 580 auf GTX 1070 und später GTX 1080 bei deutlich mehr Leistung sogar etwas Verbrauch eingespart habe.

Gast Ritis
2021-07-04, 11:27:05
jetzt noch ne graphische Darstellung mit x in Jahreszahl bzw. Monat des Launchtermin und y Watt Gaming Verbrauch mit GPU Kürzel am Datenpunkt. ;)

Gaststätten
2021-07-04, 11:39:04
wccftech hat was ähnliches?
https://wccftech.com/amd-nvidia-gpu-silicon-performance-efficiency-cost-progress-from-the-last-10-years-visualized/

Nicht der eine Gast
2021-07-04, 12:24:25
Die Amd rx 560 müsste den polaris 21 und nicht polaris 11 haben. Wobei die Unterschiede nicht gross sein dürften. Ich habe meine rx 460 auf 560 gefasht (samt freigeschaltete Reserve).

Bei solchen Messungen gilt das gleiche wie bei den Mainboards. Es kommt immer auf die Ausführung an. Der niedrige Idle Stromverbrauch bei den amd Karten trifft vor allem auf die Referenzkarten zu (laut Messung von Igor). Die anderen Hersteller haben mit ähnlichen Karten höheren Verbrauch. Und dann kommt noch die extra Beleuchtung und Belüftung hinzu.
Eine solche Tabelle kann nur als grobe Orientierung bieten.
Wie sind die unterschiedlichen Presets eigentlich eingebaut? Bei den Vega Grafikkarten gab es ja mehrere Presets (Schalter und Treiberoption) mit unterschiedlichen Stromverbrauch.Wobei meist ja nur der Preset mit der höchsten Leistung und Aufnahme verwendet wurde, während in der Praxis andere Presets oder UV vorherrscht.

Platos
2021-07-04, 12:29:12
Naja von einer 580 zu Pascal ist das ja auch kein Wunder.

@ Topic: Die Ampere Generation hat ja ziemlich hohe Idleverbräuche (anscheinend?). Vor allem gegen oben raus unterscheiden sich die Karten fast um 100%.

Übrigens: Die Links für die Idleverbräuche führen alle nur zur Hauptseite der jeweiligen Seite und nicht zum Test.

Lyka
2021-07-04, 12:33:48
bei den Werten der 6700 XT frage ich mich, ob die von AMD "gemessenen Werte" z.B. in der Radeon-Software stimmen. Auch zeigte mir z.B. der Gravity-Benchmark irgendwas mit 150W an bei 98% Auslastung :|

Thunder99
2021-07-04, 13:02:32
Danke Leo für die Übersicht. Zeigt sehr schön, wie in den letzten Jahren der Stromverbrauch nur eine Richtung kennt, nach oben :(

Auch bei mir bleibt es bei 200W - 250W, mehr nicht! Die 1080Ti ist da echt die absolute Grenze (wird auch bis auf Ausnahmen nicht übertaktet.)

Troyan
2021-07-04, 13:09:07
bei den Werten der 6700 XT frage ich mich, ob die von AMD "gemessenen Werte" z.B. in der Radeon-Software stimmen. Auch zeigte mir z.B. der Gravity-Benchmark irgendwas mit 150W an bei 98% Auslastung :|

AMD zeigt die nur die GPU an und nicht den Verbrauch der Karte.

Lyka
2021-07-04, 13:10:50
ah, danke (y)

necro1970
2021-07-04, 13:33:53
Coole Übersicht, und wie man sieht ist die Leistungsaufnahme stets ähnlich.
Mal sehen, ob die >500W der R9 295X2 von 2014 noch einmal geknackt werden.

Wenn ich zurückdenke wie damals die Radeon HD 4870 beim Zocken bei konstanten 80°C vor sich hinglühte...oh mein Gott.

Und mit der RTX690 und einem i5 2500k war ich grob in derselben Region, wo ich jetzt mit mit einer RTX3090 und einem R7 5800X bin.
Nur mit 3x soviel Shader, 12x soviel VRAM und 4x soviel Speicherbandbreite - von der CPU ganz zu schweigen.
Und mit einem weit besseren 1200W Netzteil, welche das im Gegensatz (zu den teils rachitischen Netzteildesigns von früher) ganz locker&safe betreibt....

Geldmann3
2021-07-04, 13:52:25
Die stromhungrigste Grafikkarte aller Zeiten war nach dieser Liste die R9 295 X2 mit im Schnitt 538 Watt unter Last. Danach kommen bereits die RTX 3090 (359W) und die RTX 3080 Ti (350W), man beachte, dass diese mehr Strom verbrauchen, als alle anderen Multi-GPU Karten, wie die GTX 590 (338W), die HD 7990 (336W) oder die HD 6990 (315W).

Selbstverständlich ist diese Liste nicht vollständig und es gab durchaus noch ein paar andere Nischen-Multi-GPU Karten, denen ich mehr Stromverbrauch zutraue. Doch das ist schon ein Statement.

Gast
2021-07-04, 15:14:20
Zeigt konzentriert, dass es schon früher Karten mit Bedarf an weit mehr als 200-250W gab.

Und es keinen Grund gibt, warum Spitzenmodelle nicht über 350W steigen können oder sollten.
Sie werden dafür nicht abgestraft. Das passiert nur in Bereichen darunter, wenn die Performance nicht entsprechend ist.
Bei CPUs regt sich kaum wer über Kühlerlüfter auf. In Slot1-Office-PCs gab es nur NT-Lüfter. Niemand will in die Richtung zurück, wenn dafür die Performance deutlich sinkt.

Schnoesel
2021-07-04, 15:45:27
Für mich ist die Genze erreicht. Die 359 Watt der 3090 beziehen sich auch nur auf die Referenzdesigns, von irgendwelchen Customlösungen mit 400Watt+ Verbrauch gar nicht zu reden. Das ist für mich völliger Irrsinn und auch nicht mehr so ohne weiteres zu kühlen, leise schon gar nicht. Hab mir extra nochmal einen 360er Radiator inklusive 3 Lüfter verbaut zu der bereits vorhanden 720er Radiatorfläche um wieder Ruhe zu haben. Auch die Anforderungen an das NT sind nicht ohne. Nicht weniges hatte bei 3080 und darüber hinaus blackscreens. Ich hoffe das sehr, dass wir hier keine! weitern Höchststände sehen werden.

GerryB
2021-07-04, 16:25:24
Die aktuellen 6900 lassen sich extrem sparsam betreiben, wenn man sich mal als Ziel "nur" den Score der stromfressenden 3080 setzt.
(im Prinzip ist A von der Architektur+Fertigung her ein Griff ins Klo, wenn man bedenkt das RDNA2 immer noch nur 7nm ist)

Leonidas
2021-07-04, 16:41:15
Die Amd rx 560 müsste den polaris 21 und nicht polaris 11 haben. Wobei die Unterschiede nicht gross sein dürften. Ich habe meine rx 460 auf 560 gefasht (samt freigeschaltete Reserve).

Polaris 11 zu 21 waren dann wirklich nur noch Umbenennungen, damit es schöner klingt. So weit ich dass noch im Kopf habe.



Übrigens: Die Links für die Idleverbräuche führen alle nur zur Hauptseite der jeweiligen Seite und nicht zum Test.

Du meinste die allererste Tabelle? Das ist so korrekt. Ich habe dort nicht auf einen speziellen Test verlinkt, weil die Angaben üblicherweise für jeden Test dieser Webseiten zutreffen.

ChaosTM
2021-07-04, 16:48:47
Erschreckend eigentlich wie wenig in den letzten 4 Jahren weitergegangen ist.
Die 3090er ist gerade mal 2x schneller als die 1080ti und braucht dabei aber fast 40% mehr Saft. Die "Wand" rückt immer näher.

GerryB
2021-07-04, 17:00:45
Erschreckend eigentlich wie wenig in den letzten 4 Jahren weitergegangen ist.
Die 3090er ist gerade mal 2x schneller als die 1080ti und braucht dabei aber fast 40% mehr Saft. Die "Wand" rückt immer näher.

oder Anders

vgl über 3 Jahre
ne 3070ti ist ggü ner 2080ti ne einzige Katastrophe
liegt u.A. am Verzicht auf INT+FP16-Optimierungen, die Turing schonmal hatte

Vermutlich wäre ein Shrink von ner 2080Ti immer noch sehr gut!
(liesse sich problemlos mit 295W betreiben und 200-300MHz höher takten, von 11GB ganz zu schweigen
und Da ging ja auch schon schnellerer Vram ohne unsinnigen Mehrverbrauch)

ChaosTM
2021-07-04, 18:27:44
Es ging halt auch sehr viel Silizium durch die Tensor und RT Kerne "verloren", dadurch ist die Sache etwas verfälscht.

davidzo
2021-07-04, 23:01:57
Sehr schöne Übersicht. Nur mitsamt grafik wäre noch schöner. Am besten als D3.js Javascript grafik mit gruppenweise ein/ausblendbaren Grafikkartenfamilien :biggrin:
man wird doch träjumen dürfen :rolleyes:;)

Leonidas
2021-07-05, 05:50:29
Naja, man kann Grafiken darauf basierend erstellen. Das ganze ist allerdings nur als Datenbasis gedacht.

So was mit JS kann ich allerdings nicht.

Gast
2021-07-05, 08:32:53
Wenn man sich mal die alten Karten anschaut, dann fällt auf, dass die beim Gamen locker 30% unter ihrer TDP waren. Inzwischen ist man da entweder exakt auf der TPD oder sogar leicht drüber.
Auch faszinierend, dass AMD teilweise früher auch die ein oder andere effiziente Karte hatte, z.B. die R9 Nano, die eigentlich gut gegen eine 980 gepasst hat (bis auf den zu hohen Preis). Oder auch die 5600 XT, die in Sachen Effizienz durchaus mit Turing mithalten konnte. Inzwischen sind sie ja endlich wieder konkurrenzfähig. Ich hoffe das gilt dann auch für die kommenden Generationen, damit wir Kunden da auch einen Kampf erleben und bessere Produkte zu einem günstigen Preis bekommen (wenn mal das Lieferproblem durch neue Fertigungskapazitäten weg ist).

Eine schöne Übersicht, danke für die Mühe!

Gast
2021-07-05, 18:00:17
Es ging halt auch sehr viel Silizium durch die Tensor und RT Kerne "verloren", dadurch ist die Sache etwas verfälscht.

Gerade mal geschätzte 10%.

seba86
2021-07-09, 22:56:05
Wow, eine sehr nützliche Übersicht, welche man als Referenz verwenden kann.

Ich möchte einen Vergleichwert hinzufügen: Ryzen 3500U Vega8 (mit vermutlich 15W TDP)
Alle Werte der komplette Laptop mit Akku aber ohne Bildschirm (da externer Monitor).
Die CPU ist auf 1400Mhz gelockt (Energiesparmodus: "maximal 1%). So lassen sich die Spiele viel besser spielen, weil a) die GPU nun den Großteil der Energie bekommt und b) die Spiele gleichmäßig ablaufen. Wenn er normal oder Höchstleistung arbeitet läuft das Spiel alle paar Sekunden für einige Sekunden extrem ruckelig (200 Mhz GPU-Takt zwecks Abkühlung).

Im Idle unter 6W.
Bei Vollauslastung während des Zockens nimmt er sich konstant 34-35 Watt in den ersten 5min, danach bleibt er dauerhaft auf 25-26W.
Allerdings verbrät der komplette Laptop auch 35Watt bzw. 25-26Watt, wenn ich das Spiel im Hintergrund lasse, dann nimmt es sich nur die CPU.

Assassins Creed Origins ist gerade so noch spielbar in hohen Details unter 1280x960 mit 15-20fps. Wird trotz der 25W recht warm der Laptop.

Gast
2022-02-17, 08:59:26
Hallo zusammen,

stimmen denn die Links zu den Launch-Analyse? Ich habe den Eindruck, dass da die Verlinkungen nicht immer passen.

Z.B. bei der GeForce RTX 3050 geht der Link zur Launch-Analyse AMD Radeon RX 6500 XT (Seite 2) - wo die 3050 nicht auftaucht.

Leonidas
2022-12-27, 13:40:48
Im Normalfall stimmen die Verlinkungen. In diesem Fall war es ein Fehler. Korrigiert, der richtige Link ist:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3050/launch-analyse-nvidia-geforce-rtx-3050-seite-3

PS:
Arc A380, A750 & A770 "LE", GeForce GTX 1630, GeForce RTX 3050 (GA107), 3060 8GB, 4080 & 4090, Radeon RX 6700, 7900 XT & 7900 XTX hinzugetragen.

ryan
2022-12-27, 14:43:22
Die Arc Karten kann man mit ASPM L1 im Bios auf unter 10W im Idle drücken, meine A380 liegt bei 7 Watt im Vergleich ohne dGPU. Die muss nicht zwangsläufig so viel im Idle schlucken, um das mal anzumerken.

Leonidas
2022-12-28, 05:04:16
Oh okay, da ist der Wert natürlich vom Launch-Zeitpunkt. Wird korrigiert, sobald die Karte mal neu getestet wird. Ich muß jegliche dort eingetragene Werte natürlich belegen bzw. referenzieren können.

ryan
2022-12-28, 18:09:40
Oh okay, da ist der Wert natürlich vom Launch-Zeitpunkt. Wird korrigiert, sobald die Karte mal neu getestet wird. Ich muß jegliche dort eingetragene Werte natürlich belegen bzw. referenzieren können.


Das wird immer noch so aussehen. Es sei denn, die Boardhersteller machen ASPM L1 zum default und Microsoft die maximale PCIe Energieoption zum default, man muss schon noch selber was umstellen. Wenn man es einmal so eingestellt hat, ist man dafür nicht mehr vom Treiber abhängig.

Leonidas
2023-11-07, 14:29:16
Inhaltliches Update:
Artikel enthält nunmehr auch die Spanne der Einzelergebnisse beim Spiele-Verbrauch im Schema "niedrigstes zu größtes Einzelergebnis".