PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Leistungsaufnahme aller möglichen Grafikkarten


MadManniMan
2008-12-05, 10:56:29
Moin miteinander!

Ein fein interessantes Thema für uns alle ist ja auch immer wieder die Leistungsaufnahme (und -Abgabe ;) ) unserer liebsten Spielzeuge. So sind vor allem auch die Xbit-Labs stets eine zuverlässige Adresse für das Ermitteln dieser gewesen - doch der "früheste" Artikel, den ich auf die Schnelle zu finden schlau genug war, datiert auf den Juli 2004. (http://www.xbitlabs.com/articles/video/display/ati-powercons.html)

Andere Grafikkarten - vor allem auch ältere - wären für mich und vielleicht auch für euch jedoch gewiss ebenfalls von Interesse. Vielleicht sollten wir die Gelegenheit nutzen, soetwas wie eine Übersicht zu erstellen.

Aber vorher möchte ich euch noch fragen, ob ihr ganz konkret wisst, was eine GeForce3 Ti200 und eine Radeon 9500 Pro verbrauchten - da bin ich nämlich leider nicht fündig geworden.

Wenn hinter den Kartennamen keine Ergänzung in Klammern steht, handelt es sich um die Ergebnisse von regulären (nicht übertaktet u.ä.) Karten bei den Xbit-labs - soweit ich das erkennen kann.

ATi
Grafikkarte idle peak 2D peak 3D

Radeon HD 4870 X2 78,90 86,50 263,90
Radeon HD 4870 X2 (w/Overdrive @Technic3D) 72,80 256,00
Radeon HD 4870 X2 (Technic3D) 108,00 109,30 253,70
Radeon HD 4870 X2 (THG) 113,70 268,60
Radeon HD 4870 65,20 80,40 130,00
Radeon HD 4870 (780/1090 @Technic3D) 74,30 164,10
Radeon HD 4870 (Technic3D) 70,70 72,00 148,20
Radeon HD 4870 (THG) 68,40 151,60
Radeon HD 4850 40,70 61,20 109,90
Radeon HD 4850 (THG) 47,80 109,60
Radeon HD 4830 32,60 47,70 85,00
Radeon HD 4670 8,70 22,50 47,10
Radeon HD 4670 (THG) 14,00 56,90
Radeon HD 4550 8,10 14,90 18,50
Radeon HD 4550 (THG) 14,00 25,50

Radeon HD 3870 X2 58,00 65,60 171,00
Radeon HD 3870 X2 (Technic3D) 42,10 43,30 159,60
Radeon HD 3870 X2 (THG) 56,00 202,70
Radeon HD 3870 18,70 25,20 81,10
Radeon HD 3870 (THG) 25,50 81,10
Radeon HD 3850 13,50 20,10 63,10
Radeon HD 3850 (THG) 19,80 72,50
Radeon HD 3650 (leicht übertaktet!) 11,90 30,70 41,70
Radeon HD 3650 (THG) 20,60 51,90
Radeon HD 3470 (THG) 21,40 29,70
Radeon HD 3450 (THG) 17,30 23,10

Radeon HD 2900 XT 71,70 75,80 161,10
Radeon HD 2900 XT (THG) 64,30 169,70
Radeon HD 2900 Pro 70,70 74,00 133,40
Radeon HD 2600 XT GDDR4 20,70 28,20 48,60
Radeon HD 2600 XT 512 (THG) 18,10 54,40
Radeon HD 2600 XT 512 (THG) 26,40 56,00
Radeon HD 2600 Pro 15,60 21,70 30,70
Radeon HD 2600 Pro (THG) 14,80 38,70
Radeon HD 2400 XT 7,20 14,60 19,00
Radeon HD 2400 XT (THG) 14,80 28,00
Radeon HD 2400 Pro (THG) 14,00 21,40

Radeon X1950 XTX 33,00 53,60 124,70
Radeon X1950 XTX (THG) 31,30 110,40
Radeon X1950 XT (THG) 33,80 123,60
Radeon X1900 XTX 29,50 50,10 120,70
Radeon X1900 XT 27,60 45,80 108,70
Radeon X1900 XT 512 (THG) 35,40 130,20
Radeon X1900 XT 256 (THG) 30,50 106,30
Radeon X1800 XT (o/c-ed ASUS!) 26,30 47,50 110,50
Radeon X1800 XT 30,24 52,03 103,10
Radeon X1800 XT 512 (THG) 39,60 88,20
Radeon X1800 XT 256 (THG) 37,10 91,50
Radeon X1950 Pro 23,60 36,00 65,70
Radeon X1950 Pro (THG) 31,30 77,50
Radeon X1900 GT 24,90 44,60 75,00
Radeon X1900 GT (THG) 34,60 83,20
Radeon X1950 GT (THG) 29,70 69,20
Radeon X1800 XL 26,78 41,71 57,10
Radeon X1800 XL (THG) 33,80 57,70
Radeon X1800 GTO 24,90 35,40 48,20
Radeon X1800 GTO (THG) 29,70 48,60
Radeon X1650 XT 23,00 41,50 55,20
Radeon X1650 XT (THG) 29,70 58,50
Radeon X1650 Pro (THG) 23,10 44,50
Radeon X1600 XT 23,60 37,60 41,60
Radeon X1600 XT (THG) 23,10 42,80
Radeon X1600 Pro 24,10 30,40 41,10
Radeon X1600 Pro (THG) 23,90 29,70
Radeon X1300 Pro 18,27 25,63 30,60
Radeon X1300 Pro (THG) 19,80 29,70
Radeon X1300 (THG) 18,10 26,40

Radeon X850 XT PE 71,60
Radeon X800 XT PE 17,62 63,23
Radeon X850 XT 26,69 45,04 68,60
Radeon X800 XT 17,62 63,23
Radeon X800 XT (THG) 23,90 64,30
Radeon X800 XL 18,15 36,28 49,40
Radeon X800 Pro 15,10 48,20
Radeon X800 GTO 18,78 31,07 48,55
Radeon X800 GT 20,98 30,65 39,72
Radeon X700 Pro 16,21 29,94 33,02

Radeon 9800 XT 38,22 60,27
Radeon 9800 Pro 30,51 47,25
Radeon 9600 XT 9,07 22,72
Radeon 9600 Pro 8,69 18,38


nVidia
Grafikkarte idle peak 2D peak 3D

GeForce GTX 280 50,20 78,90 178,00
GeForce GTX 280 (THG) 43,70 204,40
GeForce GTX 260 (216 SP Zotac Amp!² @Technic3D) 30,30 47,80 170,70
GeForce GTX 260 (Zotac Amp! @Technic3D) 30,50 52,60 180,50
GeForce GTX 260 44,80 65,40 136,10
GeForce GTX 260 (THG) 38,70 191,20

GeForce 9800 GX2 69,10 82,90 181,80
GeForce 9800 GX2 (THG) 89,80 217,50
GeForce 9800 GTX+ (55nm) 29,80 33,30 80,20
GeForce 9800 GTX+ (65nm) 46,70 89,10 114,00
GeForce 9800 GTX+ (THG) 45,30 126,10
GeForce 9800 GTX 45,30 54,20 108,10
GeForce 9800 GTX (THG) 51,10 131,80
GeForce 9800 GT 23,41 40,60 83,20
GeForce 9600 GT (o/c-ed!) 29,50 31,30 83,10
GeForce 9600 GT 27,20 33,80 60,80
GeForce 9600 GT 1024 (THG) 31,30 68,40
GeForce 9600 GT 512 (THG) 34,60 85,70
GeForce 9400 GT (Technic3D) 10,30 12,40 24,00

GeForce 8800 Ultra (THG) 74,20 172,20
GeForce 8800 GTX (XFX XXX @Technic3D) 63,70 67,50 162,50
GeForce 8800 GTX 70,00 83,30 131,50
GeForce 8800 GTX (THG) 67,60 158,20
GeForce 8800 GTS 512 37,80 57,50 99,00
GeForce 8800 GTS 512 (o/c-ed!) (THG) 51,90 142,60
GeForce 8800 GTS 512 (THG) 51,10 136,00
GeForce 8800 GT 34,60 39,40 78,30
GeForce 8800 GT 1024 (THG) 32,10 77,50
GeForce 8800 GT 512 (THG) 42,00 111,20
GeForce 8800 GTS 640 57,50 71,10 105,70
GeForce 8800 GTS 640 (THG) 61,00 125,20
GeForce 8800 GTS 320 55,60 69,00 102,60
GeForce 8800 GTS 320 (THG) 51,90 112,10
GeForce 8600 GTS 21,40 30,70 47,00
GeForce 8600 GTS 512 (THG) 28,00 61,00
GeForce 8600 GTS 256 (THG) 23,90 56,00
GeForce 8600 GT (THG) 20,60 46,10
GeForce 8500 GT 14,20 19,10 27,40
GeForce 8500 GT (THG) 17,30 29,70
GeForce 8400 GS (THG) 15,70 26,40

GeForce 7950 GX2 110,00
GeForce 7950 GX2 (THG) 46,10 110,40
GeForce 7900 GTX 31,20 51,50 84,20
GeForce 7900 GTX (THG) 33,80 84,00
GeForce 7900 GTO (THG) 33,00 80,80
GeForce 7800 GTX 512 (THG) 33,80 107,90
GeForce 7950 GT 25,80 37,30 61,10
GeForce 7950 GT (THG) 28,80 65,10
GeForce 7900 GT 22,60 32,40 48,40
GeForce 7900 GT (THG) 23,90 48,60
GeForce 7800 GTX 28,62 51,94 80,70
GeForce 7800 GTX 256 (THG) 33,80 85,70
GeForce 7900 GS 18,90 28,00 45,10
GeForce 7900 GS (THG) 25,50 49,40
GeForce 7800 GT 20,15 39,44 56,70
GeForce 7800 GT (THG) 25,50 65,10
GeForce 7600 GT 14,60 22,50 35,80
GeForce 7600 GT (THG) 19,80 39,60
GeForce 7600 GS (u/c-ed 7600 GT) 13,70 19,80 27,40
GeForce 7600 GS (THG) 16,50 27,20
GeForce 7300 GT (THG) 16,50 23,90
GeForce 7300 GS 8,70 10,30 16,10
GeForce 7300 GS (THG) 14,80 23,10

GeForce 6800 Ultra 29,28 72,09
GeForce 6800 Ultra (THG) 47,80 80,80
GeForce 6800 GT 23,41 55,39
GeForce 6800 GT (THG) 42,80 66,70
GeForce 6800 GS 20,29 40,51 54,60
GeForce 6800 14,71 31,24 38,80
GeForce 6600 GT 18,50 39,41 47,90
GeForce 6600 GT (THG) 21,40 47,00
GeForce 6600 GDDR2 12,30 24,13 27,60

GeForce FX 5950 Ultra 20,43 73,54
GeForce FX 5900 Ultra 27,10 59,17
GeForce FX 5700 Ultra 24,21 46,40
GeForce FX 5700 10,16 24,61


S3

Grafikkarte idle peak 2D peak 3D

Chrome S27 14,18 21,15 23,75




Grafikkarte idle peak 3D

Radeon HD 3870 X2 55,00 130,00
Radeon HD 3870 62,00 92,00
Radeon HD 3850 53,00 82,00
Radeon HD 3650 17,00 32,00
Radeon HD 2900 XT 67,00 104,00

GeForce 9800 GX2 90,00 179,00
GeForce 9800 GTX 79,00 116,00
GeForce 9600 GT 49,00 107,00
GeForce 8800 Ultra 100,00 186,00
GeForce 8800 GT 64,00 115,00



Quellen:
1 (http://www.tomshardware.com/de/Grafikkarte-Leistungsbedarf-Strombedarf-Netzteil-Auswahl,testberichte-240205-6.html) 2 (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_10.html#sect0) 3 (http://www.xbitlabs.com/articles/video/display/radeon-hd4830_4.html#sect0) 4 (http://www.xbitlabs.com/articles/video/display/radeon-hd4870-crossfire_6.html#sect0) 5 (http://www.xbitlabs.com/articles/video/display/msi-hd3650_4.html#sect0) 6 (http://www.xbitlabs.com/articles/video/display/gigabyte-radeonhd3870-3850_5.html#sect0) 7 (http://www.xbitlabs.com/articles/video/display/radeon-hd2600xt-gddr4_5.html#sect0) 8 (http://www.xbitlabs.com/articles/video/display/powercolor-hd2600pro_4.html#sect0) 9 (http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html#sect0) 10 (http://www.xbitlabs.com/articles/video/display/geforce7950gt_3.html#sect0) 11 (http://www.xbitlabs.com/articles/video/display/msi-hd3650_4.html#sect0) 12 (http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0) 13 (http://www.xbitlabs.com/articles/video/display/radeon-hd2900pro_4.html#sect0) 14 (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_4.html#sect0) 15 (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_5.html) 16 (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_6.html) 17 (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_7.html) 18 (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_8.html) 19 (http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html#sect0) 20 (http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0) 21 (http://www.xbitlabs.com/articles/video/display/power-noise_3.html#sect1) 22 (http://www.xbitlabs.com/articles/video/display/power-noise_4.html#sect1) 23 (http://www.xbitlabs.com/articles/video/display/power-noise_5.html#sect1) 24 (http://www.xbitlabs.com/articles/video/display/power-noise_6.html#sect1) 25 (http://www.xbitlabs.com/articles/video/display/power-noise_7.html#sect1) 26 (http://www.anandtech.com/casecoolingpsus/showdoc.aspx?i=3413&p=1) 27 (http://www.technic3d.com/article-723,9-gecube-hd4870-crossfire-geballte-ladung.htm) 28 (http://www.technic3d.com/article-761,8-zotac-geforce-gtx260-amp-edition-gegen-gtx260-amp-216-shader.htm) 29 (http://www.technic3d.com/article-735,9-zotac-nvidia-9400gt-zone-edition-passiv-zum-erfolg.htm) 30 (http://www.technic3d.com/article-734,9-amd-radeon-hd4870x2-crossfirex-quad-power.htm) 31 (http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4550_4.html)

Jeff
2008-12-05, 13:41:32
Also ich finde die Idee gut.

Die Xbit-Labs haben in letzter Zeit immer bei Karten-Reviews die Energieverbräuche der getesteten Karten mit ein paar anderen drum herum verglichen. Siehe dazu auch in den aktuellen 3D-Center-News vom 4.12.2008.

Man könnte ja eine Auflistung machen:

Link auf Xbit-Labs (Karte X, Y, Z)

Gast
2008-12-05, 14:02:05
wäre wirklich ganz interessant zu wissen, nur hat sich vor der GeforceFX-serie eigentlich niemand für den stromverbrauch interessiert, deshalb denke ich kaum, dass wir sowas finden werden.

Gast
2008-12-05, 14:03:01
Aber vorher möchte ich euch noch fragen, ob ihr ganz konkret wisst, was eine GeForce3 Ti200 und eine Radeon 9500 Pro verbrauchten - da bin ich nämlich leider nicht fündig geworden.

zumindest unter 45W, mehr gibt der AGP-slot nicht her.

da man wohl auch nicht an die grenze geht denke real maximal 30W.

MadManniMan
2008-12-05, 14:52:06
wäre wirklich ganz interessant zu wissen, nur hat sich vor der GeforceFX-serie eigentlich niemand für den stromverbrauch interessiert, deshalb denke ich kaum, dass wir sowas finden werden.

Vielleicht gibt's ja irgendwo sowas wie nen ... äh ... Retrotest! Wer suchet, der findet ;)


zumindest unter 45W, mehr gibt der AGP-slot nicht her.

da man wohl auch nicht an die grenze geht denke real maximal 30W.

Nuja, die 9500 Pro hatte einen Floppy-Molex - also eine TDP von durchaus mehr als 45 Watt. In der Praxis vermute ich unübertaktet unter 50.

Gast
2008-12-05, 16:01:30
Nuja, die 9500 Pro hatte einen Floppy-Molex - also eine TDP von durchaus mehr als 45 Watt. In der Praxis vermute ich unübertaktet unter 50.

sorry mein fehler, hatte eigentlich die GF3TI gemeint ;)

die 9500pro wird da wohl mehr verbrauchen.

Gast
2008-12-05, 18:26:56
http://www.xbitlabs.com/articles/video/display/radeon-hd4830_4.html#sect0

.....oder einfach mal die Newsseite lesen.

Gast
2008-12-05, 18:39:10
im nachhinein gesehen war der stromverbrauch der FX-serie garnicht mal so schlimm ;)
vor allem im idle sieht es ja richtig gut aus.

Hvoralek
2008-12-05, 19:42:46
http://www.xbitlabs.com/articles/video/display/radeon-hd4830_4.html#sect0

.....oder einfach mal die Newsseite lesen.Es geht hier gerade um ältere Karten. Soweit XBit diese Messungen durchgeführt hat, hat MMM die ja schon genannt.

Quaker
2008-12-08, 11:08:34
Ah, gute Sache, möchte schon lange mal meine GF6 im Barebone ersetzen.
Jetzt habe ich endlich einen guten Vergleich, da die neue den Verbrauch meiner alten Karte ja nicht überschreiten sollte - denn die CPU will ich noch durch nen Opteron ersetzen. :)
In dem Fall gibts ne 4670 oder GF8600GTS, mal schauen.

Schwarzmetaller
2008-12-08, 20:22:44
Feine Sache....da lohnt sich die HD4850 doppelt..ersetzt nämlich (mit einer GF6600GT als Zwischenschritt) eine HD2900XT:biggrin:...30W im Idle und 50W unter Last

MadManniMan
2008-12-08, 22:21:57
Freut mich, dass meine Recherche auf Gegenliebe stößt! Wenn ihr mich irgendwie ergänzen könnt (vor allem mit anderen Seiten!), dann immer her damit!

Zumal ich ja auch immernoch keine genauen Infos zur GF3 oder 9500 Pro finden konnte ;(

deekey777
2008-12-08, 23:51:40
http://www.anandtech.com/casecoolingpsus/showdoc.aspx?i=3413

Zum Teil ganz andere Zahlen.

MadManniMan
2008-12-09, 06:29:37
Zum Teil ganz andere Zahlen.

Besten Dank - unheimlich interessanter Artikel! Lesepflicht! :eek:


/Edit:
Ich tu mich mit den Zahlen von AnandTech sehr schwer.
Einerseits sind sie in sich zumindest unter Last recht konsistent, andererseits werden beispielweise die idle (eigentlich) erwiesenermaßen genügsamen RV670 mit Verbräuchen angegeben, die mal eben in völlig anderen Größenordnungen schwimmen.
Klar: ein nur minimal anderes Testsystem schmeißt von Natur aus mit anderen Werten um sich, aber dennoch riecht das nach spezieller "Review-Hardware" und Netzteilen, die komplett differente Wirkungsgrade aufweisen.

Wenn jemand einen Hinweis auf den Ursprung dieser Unterschiede hätte, könnte man das vielleicht analysieren!

C.D.B.
2008-12-09, 07:00:05
Meine gute alte X1900XT zieht im Idle nur 27W?!? Vielleicht sollte ich mir das mit dem Upgraden noch mal überlegen ... :biggrin:

MadManniMan
2008-12-09, 08:57:15
Aye, das erscheint inzwischen tatsächlich gar nicht mehr so monströs - aber mehr als 100W unter Last sind hingegen keine Freude ;)

Im Grunde ist die HD 4670 momentan die einzige brauchbare Karte, die Leistungsaufnahmen im gutheißbaren Rahmen aufweist. IMHO.

AnarchX
2008-12-09, 09:20:36
Im Grunde ist die HD 4670 momentan die einzige brauchbare Karte, die Leistungsaufnahmen im gutheißbaren Rahmen aufweist. IMHO.
Interessant wäre hier auch, wenn AMD eigentlich verbrauchsneutralen GDDR5 einsetzen würde, womit die Pro-Watt-Leistung sicherlich nochmal um einiges steigen sollte.

Aber auch interessant geworden ist ja mittlerweile die 55nm 9800 GTX+, sofern die Werte von Xbit-Labs stimmen.

MadManniMan
2008-12-09, 09:34:33
Interessant wäre hier auch, wenn AMD eigentlich verbrauchsneutralen GDDR5 einsetzen würde, womit die Pro-Watt-Leistung sicherlich nochmal um einiges steigen sollte.

Deutsch? :D
Du meinst bestimmt "endlich", oder? Zieht GDDR5 soviel weniger?


Aber auch interessant geworden ist ja mittlerweile die 55nm 9800 GTX+, sofern die Werte von Xbit-Labs stimmen.

Aye, da hast Du Recht! Selbst die 4830 verbraucht mehr.
Dummerweise ist die GTX+ preislich nicht gerade "überlegen" positioniert - und wie unterscheidet der geneiget Käufer zwischen der 55er und der 65er?

Armaq
2008-12-09, 09:37:31
Deutsch? :D
Du meinst bestimmt "endlich", oder? Zieht GDDR5 soviel weniger?




Aye, da hast Du Recht! Selbst die 4830 verbraucht mehr.
Dummerweise ist die GTX+ preislich nicht gerade "überlegen" positioniert - und wie unterscheidet der geneiget Käufer zwischen der 55er und der 65er?
Alle neueren Karten sollten 55nm sein. Allein aufgrund des Herstellungspreises.

AnarchX
2008-12-09, 09:39:03
Deutsch? :D
Du meinst bestimmt "endlich", oder? Zieht GDDR5 soviel weniger?
Nein, meine schon "eigentlich", da bei der 4870 der hohe GDDR5-Takt offenbar den MC etwas zum "glühen" bringt im Idle, aber wenn AMD hier auf 300MHz senkt sollte es kein Problem sein.

Immerhin benötigt GDDR5 nur 1.5V für 2.5GHz und bald kommt Hynix wohl mit 1.35V Speicher, der 1GHz GDDR3 dürfte wohl 1.8V benötigen.



Aye, da hast Du Recht! Selbst die 4830 verbraucht mehr.
Dummerweise ist die GTX+ preislich nicht gerade "überlegen" positioniert - und wie unterscheidet der geneiget Käufer zwischen der 55er und der 65er?
Mittlerweile sollte auf den meisten GTX+ ein 55nm Die sein, aber mit dem niedrigen Verbrauch scheint wohl nur auf die aktuellsten Karten zuzutreffen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=437417

MadManniMan
2008-12-09, 09:45:41
Nein, meine schon "eigentlich", da bei der 4870 der hohe GDDR5-Takt offenbar den MC etwas zum "glühen" bringt im Idle, aber wenn AMD hier auf 300MHz senkt sollte es kein Problem sein.

Die ganzen schönen effizienten Speicher sind leider so arg teuer ;( Aber aye, nun versteh ich auch Dein deutsch ;)


Mittlerweile sollte auf den meisten GTX+ ein 55nm Die sein, aber mit dem niedrigen Verbrauch scheint wohl nur auf die aktuellsten Karten zuzutreffen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=437417

Es braucht wohl neben dem G92b auch unbedingt ein neues BIOS, wie es scheint.

Gast
2008-12-09, 14:51:14
und wie unterscheidet der geneiget Käufer zwischen der 55er und der 65er?

ich glaube kaum dass der unterschied durch die 55nm-GPUs direkt zustandekommt, vielmehr experimentieren wohl einige hersteller mit niedrigeren spannungen.

MadManniMan
2008-12-09, 16:23:37
ich glaube kaum dass der unterschied durch die 55nm-GPUs direkt zustandekommt, vielmehr experimentieren wohl einige hersteller mit niedrigeren spannungen.

Die Wahrheit liegt... nein, halt, falsches Sprichwort. Egal.

Ich denke, die Kombination machts letztendlich.
Als Half-Node bringt 55nm gegenüber 65nm gewiss keine Quantensprünge, aber allein durch geringere Spannungen wird das nicht zu machen sein, sonst wären die GTX+ nicht so gut taktbar.

Sk_Antilles
2008-12-10, 10:33:14
Welche Angaben sind denn - sagen wir mal - "glaubhafter"? Die von X-bit oder von AnandTech. Ich meine einen Unterschied zwischen 18,7W (X-bit) und 62W (Anand) sind schon gewaltig. Das spielt auch eine Rolle, wenn jemand auf ein leises System bedacht ist. Ob man 62W oder 19W kühlen muss ist schon ein Unterschied. Und auch beim Aufrüsten sieht dann die Sache ganz anders aus, da es "lohnt" (zumindest bringt es keine Nachteile laut Anand) es sich als HD3870er Besitzer eine HD4850 oder HD4870 zu kaufen, da der (Idle-)Verbrauch den Kohl nicht fettig macht (sofern man ein weiteres Argument neben der Mehrleistung braucht) ;).

MadManniMan
2008-12-10, 10:47:32
Wir müssen uns da wohl oder übel selbst festlegen ;( Ich bin eher geneigt, den Xbit-Labs meinen Glauben zu schenken, da sich diese mit den Ergebnissen recht gut abgleichen lassen, die andere Seiten auch festzustellen meinten.

Wenn ich Zeit hab, schreib ich die Labs und Anand mal an, vielleicht kommt ja ne Antwort...

Wechselbalg
2008-12-10, 10:53:36
Also ich kann eigentlich eher an die Angaben der X-Bitlabs glauben. Ich habe hier einen Rechner bestehend aus einem X2 4850e, einer Radeon 3850 mit 512 MB und einem 780G µATX Mainboard und das verbraucht alles zusammen laut Voltcraft-3000 im Idle knapp 70 Watt. Ganz genau mag das sicherlich nicht sein, aber die Idlewerte kommen mir bei Anand insbesondere für die RV670 Chips um einiges zu hoch vor.

MadManniMan
2008-12-10, 13:29:00
Also ich kann eigentlich eher an die Angaben der X-Bitlabs glauben. Ich habe hier einen Rechner bestehend aus einem X2 4850e, einer Radeon 3850 mit 512 MB und einem 780G µATX Mainboard und das verbraucht alles zusammen laut Voltcraft-3000 im Idle knapp 70 Watt. Ganz genau mag das sicherlich nicht sein, aber die Idlewerte kommen mir bei Anand insbesondere für die RV670 Chips um einiges zu hoch vor.

Woran genau es liegen mag, werden wir wohl nie erfahren, aber bei den RV670s sieht es nach Samples aus, die mit dem Endprodukt nix zu tun haben - einen fehlenden Idle-Modus vielleicht inbegriffen!

Jedenfalls, was ich bisher übersah: vor vier Tagen griff Leo das Thema in seinem Blog auf (http://www.3dcenter.org/blog/leonidas/leistungsaufnahme-aelterer-und-neuer-grafikkarten) - wir ergänzen uns bestimmt ganz gut, ich schau mal nach, was mir noch fehlt!

E.T.
2008-12-10, 18:43:39
Wir messen die Leistungsaufnahme von Grafikkarten mittlerweile auch

Bisher getestet:

HD4870x2 (http://www.technic3d.com/article-734,9-amd-radeon-hd4870x2-crossfirex-quad-power.htm)
HD4870 (http://www.technic3d.com/article-723,9-gecube-hd4870-crossfire-geballte-ladung.htm)
Zotac GTX260 AMP! (http://www.technic3d.com/article-761,8-zotac-geforce-gtx260-amp-edition-gegen-gtx260-amp-216-shader.htm)
GF9400GT (http://www.technic3d.com/article-735,9-zotac-nvidia-9400gt-zone-edition-passiv-zum-erfolg.htm)
XFX 8800 GTX XXX
HD3870 X2

Die Werte variieren je nach Benchmark sehr stark!

AnarchX
2008-12-10, 19:04:54
@ E.T. :up:
Wirklich interessante Werte, bei der 216SPs AMP² hat wohl Zotac auch die Spannung gesenkt, sodass trotz höherer Einheitenzahl unter 192SPs AMP! liegt.

Leonidas
2008-12-11, 06:41:41
Alle neueren Karten sollten 55nm sein. Allein aufgrund des Herstellungspreises.


Soweit ich weiss, sollten alle GTX+ ab Launch weg in 55nm sein. Allerdings war bei den Launchkarten kein Verlustleistungsgewinn messbar - entweder waren die Launchkarten wieder der nVidia-Angaben doch in 65nm oder nVidia/TSMC hatte seinerzeit den Dreh noch nicht raus. Jedenfalls ist es so, daß der Verlustleistungsgewinn bei der GTX+ erst mit den jetzt gekauften Modellen eintritt, der Test der X-bit Labs ist ja erst ein paar Tage alt.

Spannender wäre eher die Frage, wieviele 9800GT + 9600GSO derzeit schon mit dem G92b unterwegs sind, respektive wieviele 9600GT mit dem G94b.



Wir messen die Leistungsaufnahme von Grafikkarten mittlerweile auch


Sehr interessant! Muß ich nochmal ansprechen.


PS: So sehr ich es schätze, daß auch AnandTech zur Klärung dieser schwierigen Fragen beiträgt, einige der dort gemessenen Werte sind nonsens, da noch überhalb der offiziellen TDP-Angaben. Die TDP-Angaben dienen aber der Maximum-Ermittlung, sprich zur Dimensionierung von Kühlsystem und Stromversorgung. Der normale Verbrauch kann niemals die TDP überschreiten.

Armaq
2008-12-11, 08:20:45
Soweit ich weiss, sollten alle GTX+ ab Launch weg in 55nm sein. Allerdings war bei den Launchkarten kein Verlustleistungsgewinn messbar - entweder waren die Launchkarten wieder der nVidia-Angaben doch in 65nm oder nVidia/TSMC hatte seinerzeit den Dreh noch nicht raus. Jedenfalls ist es so, daß der Verlustleistungsgewinn bei der GTX+ erst mit den jetzt gekauften Modellen eintritt, der Test der X-bit Labs ist ja erst ein paar Tage alt.

Kann sein. Wie kann ich (ohne Ausbau) herausfinden wieviel meine Karte frisst (55/65)? Weil sie halt einfach mal nicht über 65°C bei jedweder Anwendung hinausgeht. Das spricht für das neuere Modell.

MadManniMan
2008-12-11, 09:24:42
Wir messen die Leistungsaufnahme von Grafikkarten mittlerweile auch...

...ein Hoch auf Euch und ein Hoch auf den Furmark! :up:



PS: So sehr ich es schätze, daß auch AnandTech zur Klärung dieser schwierigen Fragen beiträgt, einige der dort gemessenen Werte sind nonsens, da noch überhalb der offiziellen TDP-Angaben. Die TDP-Angaben dienen aber der Maximum-Ermittlung, sprich zur Dimensionierung von Kühlsystem und Stromversorgung. Der normale Verbrauch kann niemals die TDP überschreiten.

Ich vermute, dass AnandTech bei den Messungen eventuell ein Board im Betrieb hatte, das die 12V-Schiene zum Mainboard irgendwie zusätzlich belastet hat... ;) Nein, zumindest wäre das eine weitere Theorie, die die Minima und Maxima der RV670 erklären würde. Die Überschreitung der TDP würde andererseits durch irgendwelche speziellen Review-Samples erklärbar. Die "richtigen" Stromfresser-Radeons hingegen ziehen meines Erachtens viel zu wenig - man vergleiche mit den Xbit-Werten. Die 3650 hingegen kommt zumindest unter Last in glaubhafte Regionen.
Bei den GeForces haben wir dann durchgängig(!) zu hohe Idle-Werte und auch die Last-Angaben zur 9600 GT und 8800 GT scheinen überzogen.

Was ist hier nur passiert?

Wechselbalg
2008-12-11, 09:55:53
Es mag zwar das Grafikkartenforum sein, aber auch die anderen Messung von Anand finde ich etwas merkwürdig. Waren die Athlon X2s nicht schon oftmals mit Cool&Quiet eher im Bereich von 5-10 Watt gemessen worden? Auch die Chipsatzangaben finde ich etwas hoch, wenn man betrachtet, dass da viele passiv gekühlt werden. Mir scheint da irgendwo generell etwas zu haken und nicht nur bei einem einzelnen Bereich.

Gast
2008-12-11, 11:02:14
Die TDP-Angaben dienen aber der Maximum-Ermittlung, sprich zur Dimensionierung von Kühlsystem und Stromversorgung.

sag das mal ATI ;)

zumindest mit furmark kommen da schon einige karten über ihre eigentliche TDP ;)

MadManniMan
2008-12-11, 12:59:25
Es mag zwar das Grafikkartenforum sein, aber auch die anderen Messung von Anand finde ich etwas merkwürdig. Waren die Athlon X2s nicht schon oftmals mit Cool&Quiet eher im Bereich von 5-10 Watt gemessen worden? Auch die Chipsatzangaben finde ich etwas hoch, wenn man betrachtet, dass da viele passiv gekühlt werden. Mir scheint da irgendwo generell etwas zu haken und nicht nur bei einem einzelnen Bereich.

Stimmt schon - mir passt das auch nicht so wirklich.
Ich setze die AnandTech-Werte mal in einen Spoiler, die passen einfach überhaupt nicht :(


zumindest mit furmark kommen da schon einige karten über ihre eigentliche TDP ;)

Haja, ich hab jetzt nicht die Zahlen im Kopf, glaube Dir aber per se - könntest Du bitte trotzdem nochmal die TDP und Furmark-Werte posten oder verlinken?

Gast
2008-12-11, 14:05:38
Die c't ermittelt regelmäßig - bei ati und nvidia - peaks oberhalb der TDP.

Leonidas
2008-12-15, 04:43:52
Jein. Die ct misst IMO nicht die einzelnen Komponenten, sondern das Gesamtsystem. Und in einem Gesamtsystem kann der Verbrauch nach Einbau einer gfx schon einmal überhalb der TDP der gfx liegen. Dann zieht aber nicht die gfx den Saft oberhalb der TDP, sondern das Netzteil/Mainboard. Erstens kann man das kaum der gfx anlasten und zweitens ist es für die TDP-Angabe unwichtig. Die ist zur Dimensionierung von Kühlsystem und Spannungsversorgung, ergo ist da wirklich nur der Stromverbrauch rein der Karte relevant.

MadManniMan
2008-12-15, 11:04:37
Schnell stößt man mit weniger sparsamen Grafikkarten in Regionen vor, bei denen das Netzteil plötzlich weniger effizient arbeitet - simpel die dann entstehende Differenz zwischen einer kleineren und einer größeren Karte als Maßstab zu nehmen, funktioniert so einfach nicht.

Fallacy
2008-12-15, 14:39:15
Wir werden Anfang Januar mit einem Artikel zur Leistungsaufnahme von Grafikkarten aufschlagen. Dort wird es auch einige Erklärungen dazu geben, warum es hier teilweise relativ große Unterschiede zwischen den verschiedenen Resultaten verschiedener Magazine gibt. Der häufigste Fehler ist wohl einfach, dass viele nur die rein ohmsche Last berücksichtigen, das über einen Shunt gemessen wird. Die X-Bit-Labs hatten früher (ich weiß es nicht, ob sie es heute auch noch so machen) über 4 Parallel geschaltete 10-Watt-Widerstände gemessen. Da hat jeder einzelne Widerstand schon eine Toleranz von 10%.

Und hat sich jmd. eigentlich mal durchgelesen wie bei Technik3D gemessen wird?


Problem: Wie misst man nun die elektrische Leistungsaufnahme einer Grafikkarte?
Der über die zusätzlichen Anschlüsse zugeführte Strom (und damit die Leistung) lässt sich relativ einfach messen, da direkt in das Kabel ein Messwiderstand (Shunt) eingesetzt werden kann oder der Strom sogar auch induktiv (berührungslos, via Magnetfeld) gemessen werden könnte. Problematischer wird es mit dem Strom, der über das Mainboard bzw. den Steckplatz bezogen wird. Glücklicherweise benötigen aktuelle Mainboards bzw. Chipsätze selbst so gut wie keine 12V-Versorgung. Weshalb praktisch der ganze Strom, der über die 12V-Leitung des ATX-Steckers und (bei SLI-Mainboards) über den Hilfs-Molexstecker bezogen wird in die Versorgung der Grafikkarten fließt. Man muss also lediglich diesen Strom ebenfalls messen.


Es darf sich jeder seinen Teil denken. Aber es wird definitv schonmal die komplette 3,3V-Versorgung vernachlässigt.

@Leo: Die c´t ermittelt mittlerweile den einzelnen Verbrauch der Grafikkarten. Allerdings auch über eine Widerstandsmessung.

Gast
2008-12-15, 15:51:07
Und hat sich jmd. eigentlich mal durchgelesen wie bei Technik3D gemessen wird?


Jo, aber das hier ist Quatsch:


Glücklicherweise benötigen aktuelle Mainboards bzw. Chipsätze selbst so gut wie keine 12V-Versorgung. Weshalb praktisch der ganze Strom, der über die 12V-Leitung des ATX-Steckers und (bei SLI-Mainboards) über den Hilfs-Molexstecker bezogen wird in die Versorgung der Grafikkarten fließt.



Oder wo soll die CPU denn ihre Leistung her beziehen?

Gast
2008-12-15, 15:53:13
Die c't ermittelt regelmäßig - bei ati und nvidia - peaks oberhalb der TDP.


Die TDP brauch ja auch nicht auf die Peaks ausgelegt zu sein, weil diese nur sehr kurzfristig anliegen und daher zu keiner Temperaturerhoehung des Chips beitragen.
Die Spannungsversorgung auf der Karte muss aber auf die Peaks ausgelegt werden.

Fusion_Power
2008-12-15, 23:03:25
Äußerst interessant. So ne Übersicht suchte ich gerad, ich plane eine neue Grafikkarte...und nen neuen PC gleich drumherum :D
Ich liebäugle mit einer bescheidenen GeForce 9800 GT weil sie einen noch recht vertretbaren Stromverbrauch hat und trotzdem noch ordentliche Leistung bringt, für meinen Bedarf jedenfalls. Ne GTX wollte ich mir erst nicht gönnen, laut Alternate-Daten verbraten die gleich 175 Watt unter Vollast, was diese Tabellen hier aber nicht bestätigen.

Ja wenn ich wüßte, welche GeForce 9800 GTX+ nun wirklich in 55nm gefertigt ist, dann könnte ich mir doch eine etwas besser performende Graka gönnen, ohne gleich herzrasen beim Anblick der Stromrechnung zu bekommen...die 55nm GTX (+) haben aber sicher immer noch 2 Stromanschlüsse oder? Und welche "neuen" dieser Serie haben nun definitiv den kleineren Fertigungsprozess und daraus resultierend den geringeren Strombedarf? (Asus-Karte anyone? )

mike49
2008-12-15, 23:58:52
Jo, aber das hier ist Quatsch:


Glücklicherweise benötigen aktuelle Mainboards bzw. Chipsätze selbst so gut wie keine 12V-Versorgung. Weshalb praktisch der ganze Strom, der über die 12V-Leitung des ATX-Steckers und (bei SLI-Mainboards) über den Hilfs-Molexstecker bezogen wird in die Versorgung der Grafikkarten fließt.



Oder wo soll die CPU denn ihre Leistung her beziehen?
Und ich habe mich schon über teils irrsinnigen Werte bei Technic3d gewundert. Aber so erklärt sich das natürlich... :|

MadManniMan
2008-12-16, 07:04:07
Fusion_Power,

vielleicht steht in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=437417) was, was Dir hilft :)


Und ich habe mich schon über teils irrsinnigen Werte bei Technic3d gewundert. Aber so erklärt sich das natürlich... :|

Hm, da "fehlen" im Vergleich zu den Labs desöfteren mal ~10 Watt - ist es das, was Du meinst?

(del)
2008-12-16, 19:34:07
Hier (http://www.tomshardware.com/de/Grafikkarte-Leistungsbedarf-Strombedarf-Netzteil-Auswahl,testberichte-240205-6.html) gibt es auch Informationen über die Leistungsaufnahme.

mike49
2008-12-16, 23:12:23
Hm, da "fehlen" im Vergleich zu den Labs desöfteren mal ~10 Watt - ist es das, was Du meinst?
Nein, mich hat besonders diese Grafik irritiert:

http://www.abload.de/img/x2d3xq.png (http://www.abload.de/image.php?img=x2d3xq.png)

Da verbraucht eine 4870X2 mal locker runde 230W mehr als eine 9600GT, die lt. deren Messungen ja selber schon ~ 85W verbraucht. Macht ergo 315W für eine einzelne 4870X2.

Einzige Erklärung: Da wird erst 'hinter' dem NT gemessen, also wieviel das NT brutto zieht -> Unbrauchbar IMHO...

Fusion_Power
2008-12-17, 22:22:30
Fusion_Power,

vielleicht steht in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=437417) was, was Dir hilft :)


Naja, da weiß ich nun aber auch nicht direkt, ob diese Grafikkarte:
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Gainward/GF9800GTX+/290076/?articleId=290076
...in der Praxis nicht viel mehr verbraucht als z.B. diese Grafikkarte:
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Asus/EN9800GT_HB-HTDI/281637/?
;)

EDIT: wow, jetzt hab ich aber recherchiert. Also wenn ich richtig gelesen hab so unterstützen die 55nm GPU's der 9800er Serie offiziell Hybrid Power...und siehe Da, es gibt 2 beinahe Identische Asus 9800gt Grafikkarten wobei nur eine das "Hybrid Power" im Namen trägt...somit hab ich dann wohl meine 55nm Graka gefunden. :)

MadManniMan
2008-12-18, 23:47:48
Hier (http://www.tomshardware.com/de/Grafikkarte-Leistungsbedarf-Strombedarf-Netzteil-Auswahl,testberichte-240205-6.html) gibt es auch Informationen über die Leistungsaufnahme.

Wow, das ist viel! Mal sehen, ob ich im Urlaub Zeit dafür finde ;)


Nein, mich hat besonders diese Grafik irritiert:

*snip*

Da verbraucht eine 4870X2 mal locker runde 230W mehr als eine 9600GT, die lt. deren Messungen ja selber schon ~ 85W verbraucht. Macht ergo 315W für eine einzelne 4870X2.

Einzige Erklärung: Da wird erst 'hinter' dem NT gemessen, also wieviel das NT brutto zieht -> Unbrauchbar IMHO...

Hm, das würde der Eläuterung widersprechen, die im Artikel angegeben wurde... ob derjenige nochmal was dazu sagen kann? Fragen wir ihn doch nochmal! :)


EDIT: wow, jetzt hab ich aber recherchiert. Also wenn ich richtig gelesen hab so unterstützen die 55nm GPU's der 9800er Serie offiziell Hybrid Power...und siehe Da, es gibt 2 beinahe Identische Asus 9800gt Grafikkarten wobei nur eine das "Hybrid Power" im Namen trägt...somit hab ich dann wohl meine 55nm Graka gefunden. :)

Na herzlichen Glückwunsch :up: Erzähl mal von ihr, wenn Du sie hast =)

Gast
2008-12-19, 00:09:16
Naja, da weiß ich nun aber auch nicht direkt, ob diese Grafikkarte:
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Gainward/GF9800GTX+/290076/?articleId=290076
...in der Praxis nicht viel mehr verbraucht als z.B. diese Grafikkarte:
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Asus/EN9800GT_HB-HTDI/281637/?
;)

EDIT: wow, jetzt hab ich aber recherchiert. Also wenn ich richtig gelesen hab so unterstützen die 55nm GPU's der 9800er Serie offiziell Hybrid Power...und siehe Da, es gibt 2 beinahe Identische Asus 9800gt Grafikkarten wobei nur eine das "Hybrid Power" im Namen trägt...somit hab ich dann wohl meine 55nm Graka gefunden. :)

55nm => G92b
allle verfügbaren HybridPower-Kareten:
http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=hybridpower&v=e&pixonoff=off&filter=+Liste+aktualisieren+&bl1_id=100&xf=132_512%7E891_GeForce+9800
Auch wenn die 9800 immer als 8800 hoingestellt wird, so unterscheidet den G92b vom -b gerade etwas wenige Watt (so ca. 10W)
und die Option einen Chip dazu zu löten der HybridPower erst möglich macht.
Deswegen gibt es G92b ohne und mit Hybridpower ;)
Ich würde die 1GB-Variante nehmen, bei dem geringen Mehrpreis!

http://global.msi.com.tw/uploads/5_pictures/five_pictures2_5484f203dd84dea48bf616568ac40ada.jpg
Wie ein Schiff wie ein Viermaster - sieht das nicht einfach klasse aus? =)

Fusion_Power
2008-12-19, 13:18:12
Na herzlichen Glückwunsch :up: Erzähl mal von ihr, wenn Du sie hast =)
Yo, aber das "Hybrid Power" kann ich dann leider nicht nutzen, weil das auf nem Intel P45 Board eben nicht geht. Soweit ich weiß geht das nicht mal mit den neuen NForce Boards für Intel Prozessoren, bzw wird nicht unterstützt...is schon lustig. :D
Egal, ich möchte die Asus weil ich auch das P5Q Board von Asus haben werde, ich fühl mich bei gleichem Hersteller für Peripherie wohler (und angeblich kann das Board mit Asus Karten mehr Strom sparen). Leider sind die Asus Karten nicht die billigsten, die 1024MB Version der 9800GT kostet bei Alternate noch flockige 160€, da wart ich lieber bis nächstes Jahr, irgend wann muß es ja billiger werden.

...Stromsparen ist halt nicht einfach. ^^

Giraffengustav75
2008-12-19, 21:00:38
...

E.T.
2008-12-28, 13:12:27
Jo, aber das hier ist Quatsch:

Glücklicherweise benötigen aktuelle Mainboards bzw. Chipsätze selbst so gut wie keine 12V-Versorgung. Weshalb praktisch der ganze Strom, der über die 12V-Leitung des ATX-Steckers und (bei SLI-Mainboards) über den Hilfs-Molexstecker bezogen wird in die Versorgung der Grafikkarten fließt.


Oder wo soll die CPU denn ihre Leistung her beziehen?

Die CPU wird über einen eigenen Stecker versorgt und wir beim Messen der Grafikkarte selbstverständlich nicht mitgemessen

Die Leistungsaufnahme über die anderen 12V-Stecker (ATX und AUX-Stecker) wurde einmal im Betrieb ohne Grafikkarte gemessen und betrug <3W, wovon ein Teil auf den Chipsatzlüfter abfiel.

Der Chipsatzlüfter wurde darauf hin extern gespeist und der verbleibende Rest in der Berechnung der Leistungsaufnahme der Grafikkarte jeweils abgezogen. Da ohne Grafikkarte keine Messung unter Last möglich war, ist dies zwar keine sehr elegante Lösung, aber angesichts des geringen Wertes (1-2W) wäre auch ein 50 oder 100% höherer Wert unter Last vernachlässigbar für die Aussage, wie viel Leistung eine High-End Grafikkarte verbraucht.
Bei sehr sparsamen Grafikkarten könnte es ins Gewicht fallen.

Jemand hat noch den Einwand gebracht, dass Grafikkarten einen Teil der Leistung auch über 3.3V und 5V beziehen würde.
Das war zu AGP Zeiten der Fall, bei PCI-Express ist mir davon nichts bekannt und die ermittelten Werte, wenn man nur 12V misst, passen meines Erachtens sehr gut.

Sollte aber jemand über Zugang zu den Dokumenten der PCI-SIG verfügen und da genaueres wissen, wäre ich sehr dankbar.

Noch was: Bitte den Artikel genau lesen und nicht über die Werte stolpern, wo das Gesamtsystem vor dem Netzteil gemessen wird. Vollständigkeitshalber und zur besseren Vergleichbarkeit mit älteren Artikeln führen wir beide Messungen durch!

mike49
2008-12-28, 13:38:36
Danke für die Erläuterungen!


Noch was: Bitte den Artikel genau lesen und nicht über die Werte stolpern, wo das Gesamtsystem vor dem Netzteil gemessen wird. Vollständigkeitshalber und zur besseren Vergleichbarkeit mit älteren Artikeln führen wir beide Messungen durch!

Wenn ihr schon ein so exaktes Messverfahren habt solltet ihr aufpassen, diese Werte nicht durch ein weiteres, deutlich ungenaueres Messverfahren gleich wieder in Frage zu stellen ;)

-xenonite-
2008-12-29, 04:26:54
super, danke fuer die schoene Uebersicht!

Gruesse

AnarchX
2008-12-29, 10:08:28
Xbit-Labs nun auch mit der HD4550:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4550_4.html#sect0

Niedriger als 8W Idle scheint wohl mit vertretbaren Aufwand nicht möglich zu sein bei den HD4000.

Desti
2008-12-29, 15:42:47
Die CPU wird über einen eigenen Stecker versorgt und wir beim Messen der Grafikkarte selbstverständlich nicht mitgemessen

Die Leistungsaufnahme über die anderen 12V-Stecker (ATX und AUX-Stecker) wurde einmal im Betrieb ohne Grafikkarte gemessen und betrug <3W, wovon ein Teil auf den Chipsatzlüfter abfiel.

Der Chipsatzlüfter wurde darauf hin extern gespeist und der verbleibende Rest in der Berechnung der Leistungsaufnahme der Grafikkarte jeweils abgezogen. Da ohne Grafikkarte keine Messung unter Last möglich war, ist dies zwar keine sehr elegante Lösung, aber angesichts des geringen Wertes (1-2W) wäre auch ein 50 oder 100% höherer Wert unter Last vernachlässigbar für die Aussage, wie viel Leistung eine High-End Grafikkarte verbraucht.

Bei sehr sparsamen Grafikkarten könnte es ins Gewicht fallen.

Jemand hat noch den Einwand gebracht, dass Grafikkarten einen Teil der Leistung auch über 3.3V und 5V beziehen würde.
Das war zu AGP Zeiten der Fall, bei PCI-Express ist mir davon nichts bekannt und die ermittelten Werte, wenn man nur 12V misst, passen meines Erachtens sehr gut.

Sollte aber jemand über Zugang zu den Dokumenten der PCI-SIG verfügen und da genaueres wissen, wäre ich sehr dankbar.

Noch was: Bitte den Artikel genau lesen und nicht über die Werte stolpern, wo das Gesamtsystem vor dem Netzteil gemessen wird. Vollständigkeitshalber und zur besseren Vergleichbarkeit mit älteren Artikeln führen wir beide Messungen durch!

http://www.interfacebus.com/Design_PCI_Express_16x_PinOut.html

Captain Future
2008-12-30, 09:41:03
Jemand hat noch den Einwand gebracht, dass Grafikkarten einen Teil der Leistung auch über 3.3V und 5V beziehen würde.
Das war zu AGP Zeiten der Fall, bei PCI-Express ist mir davon nichts bekannt und die ermittelten Werte, wenn man nur 12V misst, passen meines Erachtens sehr gut.

Schlimmer noch: Er ist sogar unterschiedlich:
http://www.xbitlabs.com/misc/picture/?src=/images/video/geforce9800gtx-voltmodding/9800oc_power_full.png&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/radeon-hd3870-voltmod/voltmod_power_full.png&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/gainward-bliss9600gt-512gs/9600gt_power_full.gif&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/his-hd4870x2/his_power_full.png&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/geforce-gtx200-theory/gtx200_power_full.png&1=1

E.T.
2008-12-30, 16:03:50
Schlimmer noch: Er ist sogar unterschiedlich:
http://www.xbitlabs.com/misc/picture/?src=/images/video/geforce9800gtx-voltmodding/9800oc_power_full.png&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/radeon-hd3870-voltmod/voltmod_power_full.png&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/gainward-bliss9600gt-512gs/9600gt_power_full.gif&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/his-hd4870x2/his_power_full.png&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/geforce-gtx200-theory/gtx200_power_full.png&1=1

Interessant

Auffällig ist, dass bei den verlinkten Karten nur die X2-Versionen eine nennenswerte Leistungsaufnahme auf 3.3V haben (allerdings immer noch <10W). Gerade bei diesen Kalibern fallen aber die paar Watt kaum ins gewicht.

Trotzdem wäre es gut, wenn man ein Board präparieren könnte, um die 3.3V, die in den PEG-Slot gelangen, auch noch zu messen. Ist halt kostspielig, vor allem wenn man davon ausgeht, dass nicht der erste Versuch glückt... ;)

MadManniMan
2009-01-06, 12:00:11
super, danke fuer die schoene Uebersicht!

Hab Dank für Deinen Dank! Gern geschehen :up:


Niedriger als 8W Idle scheint wohl mit vertretbaren Aufwand nicht möglich zu sein bei den HD4000.

Und danke auch für den Link =) Ich vermute die 8W-Schwelle jedoch eher als Ergebnis des Testsystems - siehe THG, wo nix unter 14 Watt kam.

MadManniMan
2009-01-10, 21:14:07
Wenn irgendjemand was zu den neuen GTXen erhascht, poste er es bitte!

Verbindlichsten Dank =)

AnarchX
2009-01-10, 21:21:35
Technics3D hat die GTX 295 getestet und auch die Leistungsaufnahme gemessen:
http://www.technic3d.com/article-803,10-zotac-nvidia-gtx295-double-impact.htm

LovesuckZ
2009-01-10, 21:26:39
Werden die Werte dort erraten? Die GTX295 soll also alleine 40 Watt weniger benötigen als die 4870x2, jedoch im System soll sich das auf 10 Watt zusammenschrumpfen?

AnarchX
2009-01-10, 21:38:09
Gemessen wird mit einem handelsüblichen Energiemessgerät PM 230 mit einer Genauigkeit +/- 10W des gemessenen Wertes. Zu beachten ist, dass hierbei das Gesamtsystem gemessen wird und nicht die Grafikkarte alleine. Als Richtwert reicht dies locker aus. Das System muss hierbei alle typischen Benchmarks durchlaufen und der höchste Wert wird dabei eingetragen.
Also wohl Vantage, wo sie nur knapp unter der 4870X2 liegt.

LovesuckZ
2009-01-10, 21:40:05
Nein, ich meine den IDLE Wert. Da wird auch keine Abweichung von 10 Watt geben.

AnarchX
2009-01-10, 21:43:29
Nein, ich meine den IDLE Wert. Da wird auch keine Abweichung von 10 Watt geben.
Da hat man wohl im Gesamtsystem mit Overdrive getestet:
http://www.technic3d.com/article-734,9-amd-radeon-hd4870x2-crossfirex-quad-power.htm

AnarchX
2009-01-20, 08:32:18
Bei Hardspell hat man 53 verschiedene DX10 und DX9 Karten im Bezug auf ihre Leistungsaufnahme getestet:
http://en.hardspell.com/doc/showcont.asp?news_id=4810&pageid=3605

Coda
2009-01-20, 15:18:03
Wie messen die genau? Der ganze Test ist wertlos, wenn das nicht genau angegeben ist.

Dann doch lieber X-bit. Da finde ich das auch alles wenn man es braucht.

AnarchX
2009-01-21, 15:40:38
Monströser Artikel bei THG mit allen möglichen Verbrauchswerten:
How Much Power Does Your Graphics Card Need? : 3D Performance Requires The Most Electricity (http://www.tomshardware.com/reviews/geforce-radeon-power,2122.html)

deekey777
2009-01-22, 02:33:08
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx260-216-55nm_5.html#sect0

http://www.abload.de/img/evga260_powere1ls.png

HD-Ronny
2009-01-22, 11:52:24
55nm macht sich deutlich im geringeren Verbrauch, top !

AnarchX
2009-01-26, 08:07:49
http://img134.imageshack.us/img134/8299/gtx295power3594114cx6.png (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx295_7.html#sect0

Etwas sonderbare 285 Werte, vor allem Idle.:|

reunion
2009-01-26, 08:14:02
Warum?

san.salvador
2009-01-26, 08:17:06
Weil sie im Idle 10 Watt mehr als die 280 braucht - klingt für mich auch nicht ganz schlüssig.

AnarchX
2009-01-26, 08:18:11
Warum?
Weil die meisten Test die GTX 285 beim Idle gute 10W niedriger als die GTX 280 sahen. Oder spielt hier der Peak2D-Verbrauch eine größere Rolle?

AnarchX
2009-01-29, 22:26:22
HT4u: Reale Leistungsaufnahme aktueller Grafikkarten (http://ht4u.net/reviews/2009/leistungsaufnahme_graka/)

Dank FurMark sprengen die Lastwerte alle Register... Aber insgesamt ein sehr interessanter Artikel, mit allerhand Infos und neuen Erkenntnissen.

Die massiven Einsparungen die Xbit-Labs bei der 9800GTX+ gemessen hat, scheint HT4u auch zu bestätigen.

Gast
2009-01-29, 22:42:29
Nennt mich einen Spammer, aber ht4u.net rockt einfach, soll heißen es ist eine außerordentlich glaubwürdige Seite, deren kompetente Tester stets ein offenes Ohr für Nachfragen und Community-Input haben. Ich bin froh, dass sie jetzt auch noch bei Grafikkarten aufwendige Messungen betreiben. :up:

PCGH_Carsten
2009-01-29, 22:54:28
Sehr schöner Test, den die HT4U-Kollegen da hingelegt haben. Respekt!

mictasm
2009-01-29, 23:18:59
Ich hätte ja gern noch ein Bild vom Anschluss ihrer Stromschlaufen. Und eine Aussage, ob die Leitungen bei Vollast einer der X2 Grafikkarten warm werden.

Leisetreter
2009-01-30, 00:01:46
Ich finde am bedenklichsten was man da zu den Temperaturen der 4870er Wandler liest.

...und ich dache mein Nachbar hätte nur fehlerhafte Messfehler des Rivatuners als er mir von den Werten seiner Karte berichtete. :|
Furmark ist und bleibt einfach absolute Spitze, wenn's um last-tests geht. - Da kann man die Heizung gleich abschalten! ;D

Spasstiger
2009-01-30, 00:31:36
Schöner Test bei ht4u, aber noch interessanter wäre es gewesen, wenn man Leistungskurven bei realen Spielen aufgenommen hätte. Man kauft ja keine Grafikkarte, um damit vorwiegend Furmark laufen zu lassen. Die Praxisrelevanz einer Furmark-Messung kann also angezweifelt werden, auch wenn sie noch so interessant sein mag für das maximale Heizpotential einer Graka.

Gast
2009-01-30, 00:36:32
Schöner Test bei ht4u, aber noch interessanter wäre es gewesen, wenn man Leistungskurven bei realen Spielen aufgenommen hätte.
Peak 2D von xbitlabs ist auch nicht uninteressant und ein Knüller wäre FPS/Watt über ein paar ausgewählte Spielszenen gewesen, mal sehen ob die HD4670 dann immer noch so geregelt hätte. Der Aufwand wäre natürlich enorm gewesen, immerhin hat man nun eine weitere Seite mit Grafikkarten-Verbrauchsmessungen, halt "nur" Idle und Furmark.

AffenJack
2009-01-30, 00:42:31
Sehe es wie spasstiger, leider furmark, da bleib ich doch lieber bei xbitlabs. Deren Werte dürften wohl näher am typischen verbrauch sein, wobei ich mir da auch mal spiele wünsche, so schwer kann das doch nicht sein. Auch der argument von ht4u, dass der stromverbrauch dabei nicht konstant ist kann ich nicht gelten lassen, man kann doch über ne gewisse zeitlang nen spiel messen und aus dem gesamtverbrauch dann den normalen verbrauch berechnen.

Spasstiger
2009-01-30, 00:45:40
Peak 2D von xbitlabs ist auch nicht uninteressant und ein Knüller wäre FPS/Watt über ein paar ausgewählte Spielszenen gewesen
Das Problem dabei ist, dass auch die CPU einen Einfluss hat und schnellere Karten durch CPU-Limits benachteiligt werden. Man müsste also die Grafikeinstellungen so extrem und die CPU so flott wählen, dass wirklich nur die Grafikkarte für die Frameraten verantwortlich ist. Dann gibt es aber wieder Lästermäuler, die die Praxisrelevanz von solchen Settings anzweifelt. ;)

AnarchX
2009-01-30, 07:36:38
http://img134.imageshack.us/img134/8299/gtx295power3594114cx6.png
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx295_7.html#sect0

Etwas sonderbare 285 Werte, vor allem Idle.:|
Offenbar eine OC-GTX 285, die Xbit-Labs hier im oberen Diagramm angab:
http://img502.imageshack.us/img502/3973/evga285powerwn9.png
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx285ssc_5.html#sect0

Wenn es natürlich zur extremen Shaderlast kommt - FurMark, dann liegen GTX 280 und 285 wohl wieder näher zusammen, wie HT4u es zeigt.

Seltsam jedoch sind die hohen Unterschiede beim Idle zwischen XL und HT4u, letzere messen ja fast nur die Hälfte(29W) bei der GTX 285. Bei anderen Karten kommen sie hingegen auf sehr ähnliche Werte.

reunion
2009-01-30, 08:37:51
Kann Ht4U überhaupt die Leistung über den Slot messen?

AnarchX
2009-01-30, 08:45:56
Laut der Erläuterung ihres Testaufbaus schon:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index5.php

Im Anhang findet sich ja auch eine Aufgliederung nach den einzelnen
Meßpunkten wie bei Xbit-Labs.

Beim PEG kommen sie auf sehr ähnliche Werte bei der 285:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index18.php
http://www.xbitlabs.com/misc/picture/?src=/images/video/evga-geforce-gtx285ssc/evga285_power_full.png&1=1

GeneralHanno
2009-01-30, 09:43:16
sowohl HWt4u als auch xbitLabs messen doch den 3D PEAK. also den absoluten spitzenverbrauch? ist das richtig?

viel aussagekräftiger wäre IMO ein zeit-verbrauchs diagramm, bei dem man die peaks (die oft im ms bereich liegen) vom durchschnittsverbrauch trennen kann ... vll kann H4T4u da noch eine messreihe nachliefern ...+

schließlich bezieht sich TDP auch die dimensionierung einer kühlanlage und thermische systeme sind relativ träge und können leistungs-peaks daher gut schlucken. gefährlich wirds, wenn die leistungsaufname im MITTEL über der TDP liegt!

Sonyfreak
2009-01-30, 13:54:58
HT4u: Reale Leistungsaufnahme aktueller Grafikkarten (http://ht4u.net/reviews/2009/leistungsaufnahme_graka/)

Dank FurMark sprengen die Lastwerte alle Register... Aber insgesamt ein sehr interessanter Artikel, mit allerhand Infos und neuen Erkenntnissen.Wow, wirklich ein toller und zudem sehr aufschlussreicher Artikel. Danke fürs verlinken des Tests. :)

mfg.

Sonyfreak

Gast
2009-01-30, 16:45:00
sowohl HWt4u als auch xbitLabs messen doch den 3D PEAK.

Xbit Labs nicht, die messen den gemittelten Verbrauch.

AffenJack
2009-01-30, 16:50:22
ht4u mehr oder weniger auch nicht, im artikel steht, dass furmark gleichmäßigen verbrauch erzeugt. Da gibts keine großen peaks.

Sorkalm
2009-01-30, 19:03:27
ht4u mehr oder weniger auch nicht, im artikel steht, dass furmark gleichmäßigen verbrauch erzeugt. Da gibts keine großen peaks.

Weswegen aber es auch schlecht für die Abschätzung der realen Leistungsaufnahme geeignet ist. Denn manche Karten haben höhere Differenzen zwischen 3D Peak und Normalzustand als andere.

looking glass
2009-01-30, 22:15:21
Ich will jetzt nicht mosern, aber ist der Verbrauch unter Last wirklich der interessantere Wert von allen angegebenen - würde doch wohl meinen, das es der Idle-Wert ist, immerhin wird die Graka in einem "wird benutzt für alles" PC die meiste Zeit in genau diesem Zustand verbringen.

Meine Meinung, ich hab mir die geführte Liste im Thread und den neuen HT4U Artikel einzig und allein so angesehen, wie den die Idlewerte ausschauen, vor allem interessant, wen gleiche Typenbezeichnungen in einer anderen Fertigungsgröße kommen (siehe momentan 65 zu 55nm)...

LovesuckZ
2009-01-30, 22:43:44
Für den IDLE Wert muss man jedoch nicht das Netzteil abstimmen - außerdem kann man dank Hybrid-Power heutzutage auch einen IDLE-verbrauch von ca. 2 Watt erzeugen.

Gast
2009-01-30, 22:45:50
außerdem kann man dank Hybrid-Power heutzutage auch einen IDLE-verbrauch von ca. 2 Watt erzeugen.
Gestern und heutzutage, morgen nicht mehr, denn Hybrid Power ist erst mal tot. Betrachte als Zielgruppe für solche Messungen einfach die paar Hanseln, die kein aktuelles Board mit Nvidia-Chipsatz nebst Hybrid-Power fähiger Grafikkarte haben. :)

LovesuckZ
2009-01-30, 22:58:45
Gestern und heutzutage, morgen nicht mehr, denn Hybrid Power ist erst mal tot. Betrachte als Zielgruppe für solche Messungen einfach die paar Hanseln, die kein aktuelles Board mit Nvidia-Chipsatz nebst Hybrid-Power fähiger Grafikkarte haben. :)

Den Idle-Verbrauch kann man doch auf jeder Seite nachlesen. Und wer soviel idlelt, dass ihn zwischen 30-100 Watt geldmäßig beeinträchtigt, der kommt nunmal um Hybrid-Power nicht herum.

looking glass
2009-01-30, 23:40:58
Kann man ja? mir fallen bis auf die hier genannten/verlinkten, nur noch die c't ein, wo man Verbrauchsangaben genannt bekommt.

Und wie der Gast schon sagte, Hybrid Power ist tot, die 285 und 295 können das schon nicht mehr - das System an sich ist interessant gewesen, war und ist aber schon am Herstellerlimit gescheitert, mal davon ab, das Vista ja nicht mal mehr mehrere Grakas unterschiedlicher Hersteller verträgt (also selbst wen man Hybrid power Herstellerunabhängig machen wollte, ginge es nicht). Und so unproblematisch war es nun auch nicht.

Gast
2009-01-31, 01:10:08
Und wie der Gast schon sagte, Hybrid Power ist tot, die 285 und 295 können das schon nicht mehr - das System an sich ist interessant gewesen, war und ist aber schon am Herstellerlimit gescheitert,

das problem an hybrid-power war einfach, dass es für 90% der potentiellen kunden nie erhältlich war.

gisbern
2009-02-03, 16:35:52
ich finde es erschreckend, dass es so vielen egal ist, dass ihre Grakaboliden so hohe Verluste beim idlen erzeugen. Wenn mein Rechner am Tag 8 h läuft und ich ne Graka mit 50 W idle Leistung habe, dann sind das im Jahr fast 30 € Mehrkosten. Da hört der Spaß für mich auf. Das sich HybridPower nicht durchgesetzt hat finde ich jammerschade, so eine tolle Idee mit so viel Potential. Die Grakahersteller sollten sich wirklich schämen. Viele in Eigenregie, von kreativen schlauen Köpfen, programmierte Tools zeigen doch, wie es geht. Ich kann mir nicht vorstellen, dass es ein unüberwindbarer Klotz ist, Grakas in 2d total runterzuvolten und runterzutakten.

Fallacy
2009-02-03, 16:43:45
An dieser Stelle einmal Dankeschön für das viele positive Feedback :).

Ich hätte ja gern noch ein Bild vom Anschluss ihrer Stromschlaufen. Und eine Aussage, ob die Leitungen bei Vollast einer der X2 Grafikkarten warm werden.

Was ich mich hier schon öfters gefragt habe - warum stellt man solche Fragen nicht im zugehörigen Forum zum Artikel? Reiner Zufall, dass ich hier drübergestolpert bin.

Der Spannungsabfall an den Messleitungen liegt im Bereich der Messtoleranzen. Dementsprechend klein ist also der Widerstand, und dementsprechend bleiben die Kabel auch kalt ;). Davon abgesehen beansprucht die 4870 X2 den PEG-Slot gar nicht so stark mit ~5,3A (12V). Dieser Wert verteilt sich dann natürlich noch auf mehrere Pins. Es fließen hier also gar kein allzu großen Ströme.


Seltsam jedoch sind die hohen Unterschiede beim Idle zwischen XL und HT4u, letzere messen ja fast nur die Hälfte(29W) bei der GTX 285. Bei anderen Karten kommen sie hingegen auf sehr ähnliche Werte.

Das habe ich sogar extra noch einmal nachgemessen und bestätigt. Solch hohe Werte wie die von XBit-Labs erreiche ich lediglich _vor_ der Treibereinbindung. Vielleicht ein Unterschied der durch verschiedene Treiber bedingt ist - das ist aber reine Vermutung meinerseits.

Coda
2009-02-03, 17:43:13
Ich kann mir nicht vorstellen, dass es ein unüberwindbarer Klotz ist, Grakas in 2d total runterzuvolten und runterzutakten.
Das Problem ist, dass die Streuung bei Halbleitern sehr groß ist. Man bleibt da lieber im sicheren Bereich, vor allem da es die meisten Leute eh nicht groß kümmert.

looking glass
2009-02-03, 17:51:21
Aber auch nur, weil das Thema relativ unangetastet ist, ich denke, das Themeninteresse zum Idle-Verbrauch wird sich in den nächsten 2 Jahren deutlich steigern.

Leonidas
2009-02-03, 18:21:18
Bleibt zu hoffen. Bleibt aber auch abzuwarten.

SimonX
2009-02-03, 18:47:09
Die Werte für die Nvidia 6800GT und die 7900GT glaube ich nicht so wirklich.

Ich musste letztens die 7800GS (welche ja eine 7900GT mit AGP ist) durch meine alte 6800GT ersetzen. Mein Rechner verbraucht nun ganze 90 Watt weniger (ob Idle oder 3D Volllast) (von 290Watt auf 200 Watt (3D volllast) und 220 auf 130 (Idle))

Ich glaube eigentlich, das mein Messgerät nicht so vom Echtwert entfehrt sein kann.

AnarchX
2009-02-03, 19:30:22
Bei 90W Unterschied im Idle, da dürfte ja die 7800GS allein laut dir im Idle bei >100W liegen;D, würde ich doch das Meßgerät anzweifeln.;)

Eine 7800GS ist übrigens in der Originalfassung keine 7900GT, sondern G70@16PP@375MHz und war durch diesen niedrigen Takt und den Fertigungsvorteil (110nm vs 130nm bei NV40), doch ein ganzes Stück sparsamer:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_point_view_geforce_7800_gs_agp/22/#abschnitt_stromverbrauch

Und selbst wenn es eine 7800GS+ von Gainward mit mehr Pipes oder gar später G71, sollte kaum mehr verbrauch als eine 6800GT bzw. eher weniger.

AnarchX
2009-02-06, 13:51:00
Werte der GTX 285 von Technic3D:
http://www.technic3d.com/article-805,10-zotac-gtx285-amp-edition-kleiner,-schneller-am-schnellsten.htm
... sie ermitteln wie auch HT4u unter 30W Idle.

AnarchX
2009-02-11, 10:09:05
HT4u - Leistungsaufnahme HD4670: Referenz- oder Eigendesign? (http://ht4u.net/reviews/2009/leistungsaufnahme_hd4670/)

Da benötigt das Powercolor-Design im Idle ca. 5W mehr, was aber wohl daran liegt, dass die Taktraten und Spannung kaum gesenkt werden.

AnarchX
2009-02-19, 21:41:00
PCGH hat sich nun auch passendes Equipment zur Einzelmessung der GraKa besorgt:
http://www.pcgameshardware.de/aid,676238/Reale-Leistungsaufnahme-von-10-Grafikkarten/Grafikkarte/Test/?page=1
Mit Crysis Warhead auch mal eine interessante Realanwendung dabei.

looking glass
2009-05-06, 14:55:51
Neuer Test bei ht4u, diesmal die 250 und 285 von Nvidia und die 4850 und 4890 von ATI in einem Realsetting des Tests:

http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/

Was mich wirklich erstaunt sind die Idlewerte der Nvidia, die sind wirklich schon sehr viel besser (250 mit 18,4W/285 mit 29W), ATI kotzt dagegen einfach nur noch ab (4850 mit 42,6W/4890 mit 57,6W).

Mit einer neuen Fertigungsgröße könnte ich mir fast vorstellen, könnte die 285 auf 20W kommen die 250 gar auf 12W (was für mich schon fast perfekt wäre).

BlackArchon
2009-05-07, 13:49:36
Radeon HD 4890: 43,7 53,3 120,3 Watt (Link (http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0))
Radeon HD 4850 X2: 59,1 72,3 225,1 Watt (Link (http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0))
Radeon HD 4670: 17,4 22 49,5 Watt (Link (http://www.xbitlabs.com/articles/video/display/radeon-hd4770_5.html#sect0))

GeForce GTX 295: 76,3 79,8 214,1 Watt (Link (http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx295_7.html#sect0))
GeForce GTX 285: 59,9 64,9 149,8 Watt (Link (http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0))
GeForce GTX 260 (55 nm): 44,7 47,6 104,9 Watt (Link (http://www.xbitlabs.com/articles/video/display/radeon-hd4890_6.html#sect0))
GeForce GTS 250: 26,2 28,6 81,3 Watt (Link (http://www.xbitlabs.com/articles/video/display/radeon-hd4770_5.html#sect0))

MadManniMan
2009-05-07, 14:20:00
Danke AX, LG & BA :)

Ich werd die Tage mal bei ner gemütlichen Kippe aktualisieren :)

dildo4u
2009-05-21, 12:04:15
Leistungsaufnahme Grafikkarten: 56 Modelle im Spieletest mit GRID

http://www.pcgameshardware.de/aid,684995/Leistungsaufnahme-Grafikkarten-56-Modelle-im-Spieletest-mit-GRID/Grafikkarte/Test/

Micha80
2009-05-29, 17:01:53
http://ht4u.net/reviews/2009/einsteiger_grafik_roundup/

Radeon HD 4350/4550/4650
GF 9500GT/9400GT/8400GS

INDEX75
2009-10-17, 22:24:43
Danke AX, LG & BA :)

Ich werd die Tage mal bei ner gemütlichen Kippe aktualisieren :)
MadManniMan... Sry für's "ausgraben", aber eine Aktualisierung wäre klasse. Ich würde den Thread ziemlich nützlich finden. :wink:

MadManniMan
2009-10-18, 10:58:28
Uff, Du hast natürlich recht ;( Aber ehrlich gesagt wächst mir die ganze Listenmacherei momentan mächtig gewaltig über den Kopf - war ja auch schon bei den o/c-ing-Listen so...

Also wenn irgendjemand hier weitermachen möchte - die Community würde es ihm danken!

AnarchX
2010-01-05, 09:33:26
Xbit-Labs hat nun einen neuen Messtand und gibt in Form eines Linien-Diagramms die Belastung der einzelnen Messpunkte über die ganze Messung hinweg an:
http://www.xbitlabs.com/articles/video/display/gf-gt240-1gb_4.html#sect0

Weiterhin gibt es nun auch neue Messszenarien:
* CyberLink PowerDVD 9: FullScreen, hardware acceleration enabled
* Crysis Warhead: 1600x1200, FSAA 4x, DirectX 10/Enthusiast, "frost" map
* OCCT Perestroika GPU: 1600x1200, FullScreen, Shader Complexity 8

AnarchX
2010-02-26, 07:41:44
Hardware.fr mit ganzen 73 Karten im Verbrauchstest:
http://translate.google.ca/translate?hl=en&sl=fr&u=http://www.hardware.fr/articles/781-1/dossier-vraie-consommation-73-cartes-graphiques.html&ei=ssyGS8PROYTysgO9t8CTBw&sa=X&oi=translate&ct=result&resnum=1&ved=0CAcQ7gEwAA&prev=/search%3Fq%3Dhttp://www.hardware.fr/articles/781-1/dossier-vraie-consommation-73-cartes-graphiques.html%26hl%3Den%26sa%3DG

Marty98
2010-03-03, 03:14:20
Ich hab bemerkt dass meine Radeon 4670 deutlich mehr im Idle verbraucht seit dem ich einen zweiten Monitor angeschlossen hab.

Gibt es irgendwo Tabellen die den Verbrauch in Dual-Monitor Betrieb zeigen?

Gast
2010-03-03, 09:44:49
http://ht4u.net/reviews/2010/amd_ati_radeon_hd_5830/index10.php

Gast
2010-03-04, 02:43:10
Welche HD5000 liegt bei ungefähr 80W bis 90W bei 3D Last und ist ohne AF/AA merkbar schneller als eine 3870?

Gast
2010-04-04, 14:09:35
Endlich mal. 5770, trotz den aufgelisteten 108 W.

Stechpalme
2010-04-04, 14:13:13
Schade das man die Liste nicht irgendwie sortieren kann, so das man innerhalb der Klassen/Reihen vom geringsten Idle Verbrauch zum höchsten listet. Wäre etwas übersichtlicher.

Aber trotzdem, schöne Liste.

AnarchX
2010-11-11, 09:16:20
Leistungsaufnahme von Intels GMA HD:
http://ht4u.net/reviews/2010/leistungsaufnahme_intel_core_i_cpus/index7.php

Auch in Sachen Leistung-Pro-Watt steht die "GMA HD" gar nicht so schlecht dar. So erreicht sie beispielsweise in dem STALKER-Benchmark einen Wert von 2,14 FpS/Watt, während eine Radeon HD 5870 weniger als 2 FpS/Watt erreicht.

Eine HD 5450 sollte wohl auf ~2,6 FPS/Watt kommen:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/28.html

MadManniMan
2010-11-11, 10:01:23
Ist die Bildqualität überhaupt vergleichbar?

AnarchX
2010-11-11, 10:07:24
Solang man ohne AF testet sollte der GMA HD eigentlich ein gleichwertiges Bild erzeugen.

MadManniMan
2010-11-11, 10:26:24
Ist das tatsächlich so? Ich erinnere mich an regelrechte Verbrechen, die der GMA965 im Schleppi meiner Freundin bei TM:Nations veranstaltet hat.

AnarchX
2011-01-17, 17:00:25
93 aktuelle und ältere GPUs im Vergleich: http://www.hardware.fr/articles/817-1/consommation-93-cartes-graphiques.html

Coda
2011-01-17, 17:56:28
Ist das tatsächlich so?
Solange die Treiber keine Bugs haben, ja.

Raff
2011-01-17, 18:16:23
Die Frage ist, ob der Treiber das Texture LOD auch befummelt, wenn kein AF an ist. Mit AF sorgt alles abseits von "Balanced" ja für +/-1.

MfG,
Raff

Coda
2011-01-17, 19:21:57
Tut es wohl, aber man lässt es ja auch auf balanced. Und wenn nicht kann man sich nicht beschweren.

MadManniMan
2011-01-17, 19:32:11
Solange die Treiber keine Bugs haben, ja.

Wieder nur Bauchgefühl: das war aber nicht immer so?