PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stromspar Frage


Poris Pecker
2005-03-19, 18:25:00
Moin, kann mer eigentlich Strom sparen wenn die Grfikkarte statt mit 32 Bit Farbe nur mit 16 Bit betrieben wird? Dann müssten die restlichen 16 Bit ja net arbeiten, sollte eigentlich funzen, oda?

-error-
2005-03-19, 18:37:27
Sehr witzig, natürlich nicht.

Poris Pecker
2005-03-19, 18:51:32
Warum net?

PatkIllA
2005-03-19, 19:04:53
das bisschen was du durch das Einlesen der paar Bytes sparst dürfte nichtmal messbar sein(jedenfalls nicht am Netzteil). Ausserdem arbeiten die ganzen Karten eh intern mit mindestens 32Bit. Das wird dann eher langsamer mit weniger Bit, da noch mehr konvertiert werden muss.

nennenswert Stromsparen geht nur mit Runtertakten und gleichzeitiger Spannungssenkung.

Poris Pecker
2005-03-19, 21:46:33
Hats schon mal jemand ausprobiert? Wenn ich nen Energiemonitor hätte würd ichs ja selber machen.

Heiner Trollinger
2005-03-20, 13:32:08
Also ich glaub schon dass er mit 16Bit weniger Strom verbraucht.

WEGA
2005-03-20, 13:56:16
Also ich glaub schon dass er mit 16Bit weniger Strom verbraucht.

ich nicht :P

Oiner geht noch
2005-03-20, 14:27:47
Und mit 8 Bit, hats schon mal jemand mit 8 Bit gemessen?

Thanatos
2005-03-20, 15:53:24
Nein, auch da würde es nix bringen, ausser das natürlich alles komplett scheisse aussieht.

Takte deine graka lieber in 2d runter, dass bringt um einiges mehr.

Fruli-Tier
2005-03-20, 16:02:00
Die Farbtiefe hat nichts mit irgendwelchen Funktionseinheiten auf dem Chip zu tun, die bei Nicht-Gebrauchen abgeschalten werden. Du kannst demnach so weit runterstellen wie du willst, es sieht danach nur kotzig aus und der Chip rechnet ein bisschen schneller, weil weniger zu tun ist, aber Stromsparen is damit nicht möglich.

*Stevo*
2005-03-20, 17:55:30
Ich sag nur dont feed the troll :)

PS: Wenn man den Rechner auslässt spart man am meisten Strom!

Donauwelle
2005-03-21, 10:24:01
Also ich denke es braucht schon weniger Volt. Vielleicht net viel weniger aber sicher messbar.

alpha-centauri
2005-03-21, 11:42:06
Moin, kann mer eigentlich Strom sparen wenn die Grfikkarte statt mit 32 Bit Farbe nur mit 16 Bit betrieben wird? Dann müssten die restlichen 16 Bit ja net arbeiten, sollte eigentlich funzen, oda?

stell lieber die monitor Hz auf 60 hz runter. dass spart mehr strom und du hast dann auch mehr leistung in spielen.

nö. das bringt garnix, was du vor hsat.

Fruli-Tier
2005-03-21, 12:07:27
Also ich denke es braucht schon weniger Volt. Vielleicht net viel weniger aber sicher messbar.

Was soll die Farbtiefe mit den am Chip anliegenden Volt zu tun haben?

Ansonsten siehe mein Posting weiter oben.

Fruli-Tier
2005-03-21, 12:08:35
stell lieber die monitor Hz auf 60 hz runter. dass spart mehr strom und du hast dann auch mehr leistung in spielen.

nö. das bringt garnix, was du vor hsat.

Am meisten Strom sparste mit nem TFT :D und der hat dann eh von Haus aus 60 Hz :)

Heiner Trollinger
2005-03-21, 13:09:52
Meiner hat 75Hz.

Fruli-Tier
2005-03-21, 18:31:16
schafft meiner auch, aber nur mit D-Sub Anschluss. DVI liefert meines Wissens nach generell nur 60Hz. Und ein richtiger TFT wird doch per DVI angeschlossen :wink:

PatkIllA
2005-03-21, 19:16:40
DVI kann alle möglichen Wiederholraten (Solange die Datenrate nicht zu gross wird). In Sachen flimmerfreiheit bringt es halt nichts.

Heiner Trollinger
2005-03-21, 19:37:26
Hat eigentlich schon mal jemand gemessen ob die GraKa weniger Strom verbraucht wenn man den Monitor am VGA- statt an DVI-Ausgang angeschlossen hat?

86318
2005-03-21, 23:15:11
Hat eigentlich schon mal jemand gemessen ob die GraKa weniger Strom verbraucht wenn man den Monitor am VGA- statt an DVI-Ausgang angeschlossen hat?

Natürlich nicht. Es ist genau anders herum!
Am DVI-Anschluss sparst du dir nämlich die Digital-Analog-Umwandlung. Außerdem braucht auch der Bildschirm weniger Strom, weil die Rüchumwandlung Analog->Digital wegfällt.

Außerdem muss ich davor warnen, aufgrund falscher Sparsamkeit bzw. Umweltbewusstsein mit 16bit zu spielen. Auch das braucht nicht weniger Strom, sondern eventuell sogar mehr. Der Grund liegt auf der Hand: Falls bei Spielen die Grafikkarte am Bandbreitenlimit arbeitet, kann der Grafikchip nicht voll ausgelastet werden und braucht somit weniger Strom. Spielt man nun mit 16bit sinkt die Anforderung an die Bandbreite, der Chip wird besser ausgelastet und der Stromverbrauch und die Wärmeentwicklung steigen ins Unermessliche (Ja, auch ein Hardwaredefekt durch Überhitzung aufgrund dessen ist durchaus nicht auszuschließen!).

Schlussfolgerung: Der umweltbewusste Gamer spielt mit einer mittels DVI mit dem Bildschirm verbundenen Grafikkarte in hohen Auflösungen mit 32bit Farbtiefe, möglichst mit HDR und AA, aber ohne AF.

(Wieviele Atomkraftwerke stillgelegt werden könnten wenn das jeder so machen würde ist mir leider nicht bekannt.)

OCPerformance
2005-03-21, 23:25:07
wenn mit deine graka strom sparen willst dann Takte sie per Bios runter und setz die GPU spannung um 0,1 oder 0,2 runter wenn de denkst da bringt was
zwar läuft dann nur noch so schnell wie im 2D modus aber das musst du ja denn entscheiden ;)

Fruli-Tier
2005-03-22, 11:57:25
DVI kann alle möglichen Wiederholraten (Solange die Datenrate nicht zu gross wird). In Sachen flimmerfreiheit bringt es halt nichts.

Mein TFT lässt bei DVI nicht mehr als 60 Hz zu und ich kenn auch keinen anderen TFT der mehr hergibt. Zeig mir mal einen CRT mit DVI, dann wiederufe ich meine Behauptung :)

Fruli-Tier
2005-03-22, 11:59:16
Natürlich nicht. Es ist genau anders herum!
Am DVI-Anschluss sparst du dir nämlich die Digital-Analog-Umwandlung. Außerdem braucht auch der Bildschirm weniger Strom, weil die Rüchumwandlung Analog->Digital wegfällt.

Außerdem muss ich davor warnen, aufgrund falscher Sparsamkeit bzw. Umweltbewusstsein mit 16bit zu spielen. Auch das braucht nicht weniger Strom, sondern eventuell sogar mehr. Der Grund liegt auf der Hand: Falls bei Spielen die Grafikkarte am Bandbreitenlimit arbeitet, kann der Grafikchip nicht voll ausgelastet werden und braucht somit weniger Strom. Spielt man nun mit 16bit sinkt die Anforderung an die Bandbreite, der Chip wird besser ausgelastet und der Stromverbrauch und die Wärmeentwicklung steigen ins Unermessliche (Ja, auch ein Hardwaredefekt durch Überhitzung aufgrund dessen ist durchaus nicht auszuschließen!).

Schlussfolgerung: Der umweltbewusste Gamer spielt mit einer mittels DVI mit dem Bildschirm verbundenen Grafikkarte in hohen Auflösungen mit 32bit Farbtiefe, möglichst mit HDR und AA, aber ohne AF.

(Wieviele Atomkraftwerke stillgelegt werden könnten wenn das jeder so machen würde ist mir leider nicht bekannt.)

War das Ironie oder versteh ich das nicht? Wenn ja, dann ist es meiner Meinung nach leicht Wiedersprüchlich ausgedrückt.

Rotarmist
2005-03-22, 12:47:06
Ich kann meinem VisionMagic T19DS (Samsung Clone) über DVI auch mit 75Hz fahren und geht.

Fruli-Tier
2005-03-22, 13:02:03
Ich kann meinem VisionMagic T19DS (Samsung Clone) über DVI auch mit 75Hz fahren und geht.

Echt? Na gut, wieder was gelernt :)

Trotzdem bleib ihc dabei, dass man durch Farbtiefenreduzierung keinen Strom spart!

alpha-centauri
2005-03-22, 13:34:25
Außerdem muss ich davor warnen, aufgrund falscher Sparsamkeit bzw. Umweltbewusstsein mit 16bit zu spielen. Auch das braucht nicht weniger Strom, sondern eventuell sogar mehr. Der Grund liegt auf der Hand: Falls bei Spielen die Grafikkarte am Bandbreitenlimit arbeitet, kann der Grafikchip nicht voll ausgelastet werden und braucht somit weniger Strom. Spielt man nun mit 16bit sinkt die Anforderung an die Bandbreite, der Chip wird besser ausgelastet und der Stromverbrauch und die Wärmeentwicklung steigen ins Unermessliche (Ja, auch ein Hardwaredefekt durch Überhitzung aufgrund dessen ist durchaus nicht auszuschließen!).


das hast du so realistisch formuliert, dass ich es fast glauben würde.

Scose
2005-03-22, 13:43:58
Mein TFT lässt bei DVI nicht mehr als 60 Hz zu und ich kenn auch keinen anderen TFT der mehr hergibt. Zeig mir mal einen CRT mit DVI, dann wiederufe ich meine Behauptung :)

Mein TFT, Samsung Syncmaster 193T, macht 75Mhz via DVI klaglos mit.

Grüne Welle
2005-03-22, 13:46:16
Mein TFT, Samsung Syncmaster 193T, macht 75Mhz via DVI klaglos mit.

Nein, ganz bestimmt nicht.

PatkIllA
2005-03-22, 13:53:16
Wieso nicht
mein Beamer kann auch 75Hz per DVI. genauso wie er auch niedrigere kann (48 und 50 z.B.)

Gast
2005-03-22, 13:58:22
Er schrob Mhz. Nur so um den Faktor 10 hoch 6 daneben :)

PatkIllA
2005-03-22, 14:02:06
kann man ja auch als Pixeltakt ansehen und dann geht das schon wieder...

Scose
2005-03-22, 14:34:22
genau :wink:

zugegeben da sollte Hz stehen :redface: