PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Verlustleistung von Grakas


Savini
2003-08-24, 17:55:12
Eine Tabelle mit den Verlustleistungen von AMD CPUs habe ich. Jetzt suche ich noch eine mit den Verlustleistungen von Grakas, insbesondere im Vergleich Geforce 3 zu Geforce FX und Radeons.

Keel
2003-08-24, 18:28:26
Gibt meines Wissens keine (offizielle) Liste. Ich kann dir nur mit diesen mehr oder weniger vagen Angaben dienen:

http://www.computerbase.de/article.php?id=227

3D Verbrauch:
R 9800 Pro: 73 Watt
FX 5900 Ultra: 69 Watt
FX 5900: 59 Watt
GF 4 Ti4600: 50 Watt
GF 3 Ti200: 19 Watt
(Quelle: tut mir leid, weiß ich nicht mehr)

NV30 @ 400 MHZ = 65W
NV30 @ 500 MHZ = 74W
NV35 @ 450 MHZ = 56W
(Quelle: www.seijin.de)

Hängt auch immer davon ab, was man unter Volllast versteht. Eigentlich mindestens 1024x768 (oder besser noch höher), 4xAA und max.(tri-AF), dann muss noch ein möglichst anspruchsvolles Programm her (Codecreatures Bench, UT2k3...), wo noch möglichst Bumpmapping und Shader-Ops etc. durchgeführt werden. Auch die Messmethoden können für Abweichungen Schuld sein.

Savini
2003-08-24, 19:14:52
Original geschrieben von Keel
Gibt meines Wissens keine (offizielle) Liste. Ich kann dir nur mit diesen mehr oder weniger vagen Angaben dienen:

http://www.computerbase.de/article.php?id=227

3D Verbrauch:
R 9800 Pro: 73 Watt
FX 5900 Ultra: 69 Watt
FX 5900: 59 Watt
GF 4 Ti4600: 50 Watt
GF 3 Ti200: 19 Watt
(Quelle: tut mir leid, weiß ich nicht mehr)

NV30 @ 400 MHZ = 65W
NV30 @ 500 MHZ = 74W
NV35 @ 450 MHZ = 56W
(Quelle: www.seijin.de)





Thanx! Hab aber noch ein paar Fragen:

1) Stimmt es, dass man über den AGP Slot max. 25 Watt ziehen kann? Falls ja, müßte ja bereits eine GF4 Ti4600 einen zusätzlichen Stromanschluss haben. Ist das so?

2) Die Werte erschrecken mich ziemlich, da meine alte Karte eine Ti 200 ist und ich nun auf eine FX 5600 Ultra umgestiegen bin... Da hab ich ja gleich 40 Watt mehr. Unfaßbar!

3) Welche FX Karten haben den NV30 und welche den NV35? Der 35er scheint ja weniger Verluste zu haben.

4) Irgendwo hab ich gelesen, dass die FX Karten im Vergleich zu entsprechend leistungsstarken Radeon Karten 30 Watt mehr Verlustleistung haben. Sieht nach Deiner Tabelle aber so aus, als wären im Hinblick auf die Verlustleistung die Radeon Karten nicht empfehlenswerter.

Keel
2003-08-24, 20:04:04
Original geschrieben von Savini
Thanx! Hab aber noch ein paar Fragen:

1) Stimmt es, dass man über den AGP Slot max. 25 Watt ziehen kann? Falls ja, müßte ja bereits eine GF4 Ti4600 einen zusätzlichen Stromanschluss haben. Ist das so?

2) Die Werte erschrecken mich ziemlich, da meine alte Karte eine Ti 200 ist und ich nun auf eine FX 5600 Ultra umgestiegen bin... Da hab ich ja gleich 40 Watt mehr. Unfaßbar!

3) Welche FX Karten haben den NV30 und welche den NV35? Der 35er scheint ja weniger Verluste zu haben.

4) Irgendwo hab ich gelesen, dass die FX Karten im Vergleich zu entsprechend leistungsstarken Radeon Karten 30 Watt mehr Verlustleistung haben. Sieht nach Deiner Tabelle aber so aus, als wären im Hinblick auf die Verlustleistung die Radeon Karten nicht empfehlenswerter.

1) Nein, das ist falsch. AFAIK sind max. 42 oder 52 Watt möglich (ich merk mir das nie - aber nach den obigen Angaben sollten es 52 W sein). Jedenfalls hat keine GF4 einen zusätzlichen Stromanschluss.

2) Tjo, so ist das halt. Aber wo hast du das mit den 40 W her? Nach den Angaben unter Last (UT2k3 Flyby) beträgt der Unterschied zwischen GF3 Classic und FX5600 U "nur" 20 W .

3) Ja, der NV35 wurde bzgl. seines Stromverbrauchs (und auch anderer Sachen) optimiert, im Vergleich zu seinem Vorgänger (dem NV30) benötigt er relativ deutlich weniger Saft.
NV30 = FX5800 (U)
NV35 = FX5900 (U)

4) Eigentlich schlucken die 9800er Radeons etwas mehr als die 5900er FXen.
Aber die Verlustleistung könnte tatsächlich etwas höher als bei den Radeons sein, aber pass auf, damit ist die Abwärme gemeint! (wobei das beim NV35 gar nicht mehr stimmen dürfte, so heiß werden die gar nicht mehr - zumal eh eher die RAMs die meiste Abwärme produzieren)

Savini
2003-08-24, 20:49:21
Original geschrieben von Keel
1) Nein, das ist falsch. AFAIK sind max. 42 oder 52 Watt möglich (ich merk mir das nie - aber nach den obigen Angaben sollten es 52 W sein). Jedenfalls hat keine GF4 einen zusätzlichen Stromanschluss.

2) Tjo, so ist das halt. Aber wo hast du das mit den 40 W her? Nach den Angaben unter Last (UT2k3 Flyby) beträgt der Unterschied zwischen GF3 Classic und FX5600 U "nur" 20 W .

4) Eigentlich schlucken die 9800er Radeons etwas mehr als die 5900er FXen.
Aber die Verlustleistung könnte tatsächlich etwas höher als bei den Radeons sein, aber pass auf, damit ist die Abwärme gemeint! (wobei das beim NV35 gar nicht mehr stimmen dürfte, so heiß werden die gar nicht mehr - zumal eh eher die RAMs die meiste Abwärme produzieren)


1)Es sind um die 42W. Steht in Deinem Link, den ich zuerst nicht besuchte und nur Deine Angaben durchlas.

2) Geht man nach dem Link ist der Unterschied tatsächlich nur 20W. Gehe ich aber von Deiner Angabe 19 Watt bei GF3 Ti 200 aus, kommt man da schon auf größere Differenzen.

4) Was soll Verlustleistung anderes sein als die Abwärme? Die aufgenommene Energie wird schließlich letztendlich in Wärme umgewandelt.


Es wundert einen aber, wieso die FX5600 OHNE und die FX5600 Ultra MIT zusätzlichem Stromanschluss geliefert wird. Laut Link sind da ja kaum Leistungsunterschiede zu bemerken.

Naja, ich benutze CPU Cool, was mir beim Surfen 20W spart und hab zudem einen TFT, welcher im Vergleich zu meinem alten CRT nochmal an die 50W spart. Dennoch: Die Verlustleistungen aktueller CPUs und GPUs sind eigentlich indiskutabel. Hier muss was passieren. Es kann nicht sein, dass man sparsame Küchengeräte etc. baut und dann mit seinem Rechner gleich mal 140W verbrät. Davon hat man allenfalls im Winter etwas.

Keel
2003-08-24, 21:40:11
Original geschrieben von Savini
1)Es sind um die 42W. Steht in Deinem Link, den ich zuerst nicht besuchte und nur Deine Angaben durchlas.

2) Geht man nach dem Link ist der Unterschied tatsächlich nur 20W. Gehe ich aber von Deiner Angabe 19 Watt bei GF3 Ti 200 aus, kommt man da schon auf größere Differenzen.

4) Was soll Verlustleistung anderes sein als die Abwärme? Die aufgenommene Energie wird schließlich letztendlich in Wärme umgewandelt.


Es wundert einen aber, wieso die FX5600 OHNE und die FX5600 Ultra MIT zusätzlichem Stromanschluss geliefert wird. Laut Link sind da ja kaum Leistungsunterschiede zu bemerken.

Naja, ich benutze CPU Cool, was mir beim Surfen 20W spart und hab zudem einen TFT, welcher im Vergleich zu meinem alten CRT nochmal an die 50W spart. Dennoch: Die Verlustleistungen aktueller CPUs und GPUs sind eigentlich indiskutabel. Hier muss was passieren. Es kann nicht sein, dass man sparsame Küchengeräte etc. baut und dann mit seinem Rechner gleich mal 140W verbrät. Davon hat man allenfalls im Winter etwas.

1) Ich versuch mir das mit den 42 W jetzt einzuhämmern.:banghead:

2) Wie gesagt variieren die (wenigen) Angaben, die mir bekannt sind. Das hat eben verschiedene Gründe.

4) Also der NV30 dürfte tatsächlich eine etwas höhere Verlustleistung als der R350 haben, aber die 30 W halte ich für übertrieben. Die Radeon 9800 Pro dürfte da atm Spitzenreiter sein, die FX5800 U könnte durch die heißen RAMs noch etwas mehr haben.

Wie man am Bsp. von NV30 => NV35 sehen kann, wird diesbzgl. ja bereits (durchaus erfolgreich) optimiert. Allerdings wird der Stromverbrauch insgesamt wohl trotzdem weitersteigen. Das mit dem zusätzlichen Stromkabel wird aber mit PCI-Express erstmal entfallen.
Und in der Tat: Mein Rechner trägt im Winter doch recht effektiv zur Erwärmung meines Zimmers bei. :D