PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX570 - 2D Stromverbrauch bei 2 Monitoren = +60Watt!!


Giant
2011-01-31, 10:14:52
Hallo zusammen,

Mit der Suche habe ich bereits ein ähnliches Thema gefunden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=452609&highlight=multi+monitor
Aufgrund des alters allerdings beschlossen, doch nochmal einen eigenen Thread aufzumachen!

Es geht um folgendes:
Ich habe einen 22er TFT sowie einen 39er Fernseher an meiner neuen GTX570 angeschlossen. Nun bin ich über Computerbase darauf aufmerksam geworden, das die Grafikkarte bei 2 Verschiedenen Auflösungen der 2 Monitore einen "Power 2D Modus" (bei mir auch wenn die Auflösung die selbe ist) nutzt!

Das Problem: Braucht mein Rechner mit EINEM Monitor im IDLE nur 160 Watt, sind es im MULTI-MONITOR Modus ganze 220 Watt! Das sind satte 60Watt Aufschlag. Dabei ist egal ob der 2. Monitor aus oder angeschalten ist! Die 60 Watt mehr hab ich dadurch immer!

Jetzt meine Frage an euch: Wie bekomme ich dieses Problem in den Griff? Am liebsten wäre mir die 2D Taktraten inkl. Voltage zu drücken - Welche Möglichkeiten habe ich da mit meiner Gainward GTX570 GS? (Hat ein custom Board Layout)

Alternativ wäre ich auch über ein Tray-Tool ala "Extend Desktop Now" bzw. "Disable Multi Monitor" etc...was einfaches um von einem auf 2 Bildschirme umzuschalten, denn den 2. Monitor verwende ich nur zum Filme schauen und brauche Ihn wesentlich seltener als der Rechner läuft.

Ich hoffe ihr könnt mir helfen denn erstens finde ich 60Watt Mehrverbrauch auf Dauer unnötig bzw. vermeidbar, noch bleibt mein PC im IDLE natürlich wesentlich Kühler!

Gruß und Danke für eure Hilfe!

Fatality
2011-01-31, 10:16:33
bei ati besteht mometan das selbe problem.
einzige abhilfe ist das zweite display im treiber immer nur bei bedarf zu aktivieren.

TheBrother
2011-01-31, 10:31:31
Oder halt von Hand mit Hilfe des InvidiaInspectors die Karte in einen kleinen P-State einsperren:

klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8518178#post8518178)

So mache ich das im Moment. Das Display flackert halt wenn man in den kleinsten P-State wechselt. Das will Nvidia den Kunden nicht zumuten

Gast
2011-01-31, 10:53:50
Könnte man das Problem durch eine 2. Grafikkarte für den weiteren Monitor (oder Onboard) lösen?

Giant
2011-01-31, 11:01:18
Könnte man das Problem durch eine 2. Grafikkarte für den weiteren Monitor (oder Onboard) lösen?

Mit Sicherheit, nur das was Du an Leistung für die 2. Graka verballerst dürfte die 60Watt locker knacken :) Wies bei Onboard aussieht bzw. wie diese mit dem nvidia Treiber zusammenarbeitet weiß ich nicht.

TheBrother
2011-01-31, 11:03:22
Davor hatte ich ne gt 240 als 2t Karte drinnen. die hat auch recht wenig Strom gezogen.
@Gaint probiers mal mit dem Herrn Inspector. Falls das dir nicht passt kannst du ja immernoch ne 2t Karte dir besorgen. Die Gt 240 habe ich im Moment quasi "übrig" *g* *ZaunPfahlWink*

Giant
2011-01-31, 11:28:20
Sooo, also der Tipp zum nVidiaInspector war Gold Wert, der macht schonmal vieles einfacher.
Ich habe jetzt 2 Verknüpfungen erstellt:

Für den Sparsamen 2D Modus (Läuft super, kein flackern, kein nichts!):
nvidiaInspector.exe -setPStateLimit:0,8

Und einmal um den Default wiederherzustellen:
nvidiaInspector.exe -setPStateLimit:0,0

Ein Problem habe ich jetzt noch:
Setze ich meinen "sparsamen" Performance Mode, ist es mir nichtmehr möglich, z.B. mit dem MSI-Afterburner meine OC Profile für die Graka zu wählen.
In den 3D Modus geht er natürlich auch erst wieder wenn ich das Default Performance Profil aktiviere!
Habt Ihr da noch einen TIPP wie ich das Umschalten per Verknüfpung automatisieren kann? Könnte natürlich vor jedes Game die "Default Performance" Verknüpfung per batch hängen aber das ist doch etwas aufwändig :) Ich bräuchte etwas das das "Power2D Profil" sperrt, aber alle anderen zulässt!

Tausend dank, Ihr habt mir sehr geholfen bissher!

Gruß

TheBrother
2011-01-31, 12:47:51
Was zum Profil umschalten suche ich auch noch, habe bis jetzt leider nichts gefunden.

z3ck3
2011-02-10, 17:00:27
Warum nötigt nicht irgend jemand NV und ATI einfach mal im Treiber eine Option hinzuzufügen "Im Multi-Monitor Betrieb immer den 2D-Stromsparmodus nutzen (kann zu fehlerhafter Darstellung und Flimmern führen)"?

Ich persöhnlich finde das ganze eine absolute Zumutung. 5W mehr ok, aber 60 Watt ist ein absolutes Nogo, da ist jede Lowend Grafikkarte als Zweitkarte sparsamer. In die 60 Watt passt ja sogar teilweise eine zweite Performancekarte... Ich denke 2x GTX560 @singlemonitor verbrauchen weniger als 1x GTX560 @multimonitor...

Thunder99
2011-02-10, 20:38:33
Warum nötigt nicht irgend jemand NV und ATI einfach mal im Treiber eine Option hinzuzufügen "Im Multi-Monitor Betrieb immer den 2D-Stromsparmodus nutzen (kann zu fehlerhafter Darstellung und Flimmern führen)"?

Ich persöhnlich finde das ganze eine absolute Zumutung. 5W mehr ok, aber 60 Watt ist ein absolutes Nogo, da ist jede Lowend Grafikkarte als Zweitkarte sparsamer. In die 60 Watt passt ja sogar teilweise eine zweite Performancekarte... Ich denke 2x GTX560 @singlemonitor verbrauchen weniger als 1x GTX560 @multimonitor...
Falsch!

Bei der GT560 Ti hat sich nvidia des Problems angenommen. Bei Multi-Moni verbrauchen sie genau so viel wie single Moni

Gast
2011-02-10, 21:32:12
Nur wenn die beiden Monitore exakt die gleiche Auflösung und Frequenz fahren. Genaueres bei HT4U (http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index16.php): "Übersetzt heißt dies für Anwender, welche mit zwei Monitoren arbeiten, dass im Falle von zwei Geräten, welche mit gleicher Auflösung betrieben werden und zudem die gleichen Timings verwenden, eine solche GTX-500-GPU (aber auch GTX 460) in den typischen Idle-State wechseln. Trifft dies nicht zu, greift der Multi-Monitoring Power-State, was sich dann so auswirkt, wie in unserer vorstehenden Messung zur Leistungsaufnahme." .

darkcrawler
2011-02-10, 21:49:26
mmh hab auch die glotze dran und dat selbe (gtx 460)
bios-mod per fermi-bios-editor des p-state sollte helfen?
wollt mich auch schon ranmachen, aber er kommt mit meiner bios-version nich klar :(

yardi
2011-02-11, 07:55:03
Monitor via Software deaktivieren hilft übrigens nicht (zumondest bei mir). Nur wenn ich das Kabel des zweiten Monitors an der Karte abziehe taktet sich meine GTX 470 zurück.

Razor
2011-02-11, 07:59:25
Giant hat doch schon die Lösung präsentiert, oder?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8540457#post8540457

Bei der GT560 Ti hat sich nvidia des Problems angenommen. Bei Multi-Moni verbrauchen sie genau so viel wie single Moni
Auch bei den GTX460 funktioniert das genauso...
Das Problem ist nur: wer hat schon 2 gleiche Ausgäbe-Geräte... und wozu?

Ich habe hier einen 28" (16:10 MVA-TFT) als Hauptbildschirm, einen 19" (5:4 MVA-TFT) als "Neben"-Bildschirm und eben den 42"-WoZi-TV via HDMI. Die beiden TFT's sind eigentlich IMMER aktiv (auf dem 2. Moni laufen diverse Gadgets, meistens ein TV-Fenster (MTV & Co. ;-) und bei Bedarf eben auch diverse Monitoring-Programme (Popobrenner-Monitoring, Everest, Task-Manager, Ressource-Monitor).

Ist halt bequem, den Hauptbildschirm für den aktuellen Focus zu nutzen und trotzdem auch alles andere (ohne jede visuelle Einschränkung!) im Blick zu haben... bei Bedarf. Und wenn ich das eine oder andere Movie (DVD, BlueRay, HD-DVD oder sonstige Videos) auf den WoZi-TV beamen möchte, wird der 2. (kleine) Bildschirm mit diesem getauscht.

Egal...

Der nVidia-Inspektor wäre in der Tat auch eine Alternative gewesen, wenn er denn seinerzeit schon diese Funktion gehabt hätte. So habe ich mein Bios angepaßt, dass alle Stufen... P0 bis P8... auf derselben Takt/Voltage-Basis laufen... und schon ist ruhe im Karton und der PC spart 30% Strom im Desktop-Betrieb... welcher im übrigen 90% der Nutzung bei mir ausmacht. Ganz zu schweigen von der geringern Hitzeentwicklung im Gehäuse, denn so sind es gerade mal 30° im Desktop-Betrieb.

Brauche ich die Leistung (eigentlich ausschließlich für Spiele!), setze ich für P0 den gewünschten Takt und die korrespondierende Voltage und schon geht es los.

Nur eine Anmerkung noch: der Haupt-Stromfresser ist der RAM, nicht die GPU!
Und "flackern" tut bei mir rein GAR NICHTS, wenn die Takte "switchen"...

Razor

z3ck3
2011-02-11, 14:56:40
Falsch!

Bei der GT560 Ti hat sich nvidia des Problems angenommen. Bei Multi-Moni verbrauchen sie genau so viel wie single Moni

Ich habe sowohl auf der Arbeit als auch privat 2 Bildschirme, aber jeweils zwei unterschiedliche. Es macht keinen Sinn sich zwei 16:9 Monitore auf den Tisch zu stellen, wenn ein 4:3 als Zusatzschirm wegen der geringeren Breite (zuhause steht er sogar um 90° gedreht daneben) viel praktischer ist. Und das ist bei mir seit Jahren schon so der Fall. Großer Hauptbildschirm und kleiner Zweitschirm. (in diesem Büro sitzen übrigens noch zwei Kollegen, die es genau so handghaben)

Und genau darum ist meine Aussagen nicht falsch, und ich hätte mich nicht so direkt geäußert, wenn mich das Thema nicht schon eine ganze Weile beschäftigt hätte.


Achja und GENAU darum weil es auch über Umwege irgendwie machbar ist wie Razor es beschreibt, ist es DRINGEND nötig das AMD und NV an dieser Stelle ernsthaft handeln und nicht mit solchen "kauf dir gefälligst gleiche Monitore"-Verarschungslösungen kommen. Es trifft ja auf beide zu!

][immy
2011-02-11, 16:41:23
Monitor via Software deaktivieren hilft übrigens nicht (zumondest bei mir). Nur wenn ich das Kabel des zweiten Monitors an der Karte abziehe taktet sich meine GTX 470 zurück.

du musst auch den "multi-display-modus" in den 3d-settings auf "Einzel-Display-Leistungs-Modus" stellen, sonst bleibt der bei den höheren frequenzen.

bin auch kurz davor mir ne zweit-karte zu holen, aber irgendwie sind mir die dinger zu teuer nur damit das auch mal richtig klappt. dann soll die zweit-karte schließlich auch vernüpftig physx beschleunigen können :)

z3ck3
2011-02-11, 18:00:26
Gäbe es eine Brauchbare PCI-e 8 Grafikkarte mit entsprechender Performance für PhysX währe das auch bei mir eine alternative zum SATA6G Controller für den mein letzter Freier Slot im Privatrechner reserviert ist. Dann hätte sich das auch mit dem Verbrauch.

Ich glaub ich organisiere mir mal ein Messgerät um den Stromverbrauch zu messen und dann wird ne weile gefrickelt bis es so läuft wie es eigentlich von Werk aus laufen sollte. Mich stören ja eigentlich 20/30 Watt mehr nicht, allerdings will ich dafür auch einen Mehrwert haben, aber den sehe ich nicht in diesem Zusammenhang. Und diese Krankheit hat meine GTX260 ja auch schon....


Ist es nicht eigentlich auch möglich mit einer Software zu überwachen ob die Grafikkarte wirklich gefordert werden soll, also z.b. ein Spiel gestartet wird, und die Taktraten entsprechend angepasst werden, unabhängig davon was der Hersteller vorgesehen hat? So eine Art RMClock für Grafikkarten quasi.

yardi
2011-02-11, 19:12:42
[immy;8562423']du musst auch den "multi-display-modus" in den 3d-settings auf "Einzel-Display-Leistungs-Modus" stellen, sonst bleibt der bei den höheren frequenzen.


Das mache ich schon seit Jahren so. Hilft aber nicht bei dem Problem.

Razor
2011-02-11, 19:54:52
Das mache ich schon seit Jahren so. Hilft aber nicht bei dem Problem.
Zumindest hilfts bei OpenGL-Apps, wenn man DualMon am Laufen hat ;)

Razor

mFuSE
2011-02-13, 15:41:49
Hi,


das Thema intressiert ja doch par Leute, vll könnte man mal einen Sticky Thread machen, mit verweisen auf par Diskussionen (z.b. die hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8529245#post8529245 ) und Lösungsöglichkeiten, wie z.b. nvidiaInspector in Verbindung mit powerstrip der nvidiaInspector als externe app ausführt sobald in nen 3D Modus geschaltet werden soll?

Gast
2011-12-10, 23:33:16
Hallo zusammen,

ich habe ein ähnliches Problem, aber nur einen Monitor angeschlossen!
Der läuft allerdings auf 120 Hz. Setze ich ihn manuell auf 60 Hz, taktet die meine GTX570 von alleine in den Idle.
Vor dem 290.36 Treiber konnte ich mir mit 110 Hz helfen, da hat die Graka noch selbst runtergetaktet.

Gibt es mittlerweile eine Lösung?
Wird das von Nvidia gefixt?
Hat AMD das gleiche Problem?
Warum erscheint sowas nicht in den Reviews? Wird nur bei 60 Hz Monitoren getestet?

Das manuelle Umstellen finde es echt nervig und 60W mehr im Idle unaktzeptabel.
Danke im voraus für Eure Antworten.

Gast
2011-12-13, 20:01:23
Gibt es mittlerweile eine Lösung?

Nein.


Wird das von Nvidia gefixt?

Nein, das Verhalten ist so gewollt. Der Treiber ändert die Taktraten beim Blanking, also in der kurzen Zeit, in welcher keine Daten zum Monitor übertragen werden. Wenn du 2 Monitore angeschlossen hast kann es sein, dass dieser Blank-Zustand nicht bei beiden gleichzeitig ist. Wenn dann die Taktrate gewechselt würde, gäbe es zumindest auf einem Monitor ein kurzes Flimmern bzw. ein paar falsche Zeilen.

Nvidia (und auch ATI) will das aber nicht, und verändert deshalb im Zweifelsfall die Taktraten nicht.

Wenn beide Monitore die gleiche vertikale Auflösung haben und die gleiche Bildwiederholfrequenz haben können sie gleichzeitig im Blank-Zustand sein und damit das Runtertakten wieder funktionieren.


Hat AMD das gleiche Problem?

Prinzipiell ja.


Warum erscheint sowas nicht in den Reviews? Wird nur bei 60 Hz Monitoren getestet?

Das erscheint durchaus in Reviews, und hat wie gesagt primär nichts mit den 120Hz zu tun, sondern damit, dass die Monitore unterschiedliche Frequenzen verwenden.

Zergra
2011-12-13, 20:19:22
Hab bei meiner 5850 das gleich problem :D
idleverbrauch (2) 210Watt :O
idleverbrauch (1) 120 Watt
das kann doch nicht sein das das so ein großer unterschie ist oder ? :P
naja wenn ich den zweiten bildschirm ausmache geht der um 30Watt runter.....
wenn ich den zweiten ausmache weil ich ihn gerade nicht verwende:
um jetzt auf die 120 zum kommen muss man mit der "Windows Taste + P" die einstellung auf den gewünschten Schirm stellen.... danach geht der verbrauch auf 120 Watt (Monitor 1 schon dabei) runter

soweit ich weiß ist das auch bei 60Hz der fall

Gast
2011-12-14, 16:32:21
Hallo,

vielen Dank für die Antworten.
Bei zwei Monitoren kann ich das ja durchaus verstehen, dass es so gewollt ist.
Warum muss der Takt auch für einen Singlemonitor bei 120 Hz erhöht werden?

Nico1976
2011-12-15, 17:23:33
was ich net kapiere wieso manche leute so probleme in sachen strom verbrauchen haben, habe 2 monitore dran mit unterschiedlichen auflösungen, und habe nen IDLE verbrauch von 150 watt

dies hier meine hardware

CPU: Core 2 Quad Q6600 - Stepping: G0 - default
Mainboard: GIGABYTE - P35-DS4 - Rev 2.0 *Bios Version F6*
Grafikkarte: Asus NVIDIA ENGTX560 Ti DCII/2DI/1GD5 mit 1024MB V-Ram
Aeneon 4*1024MB CL5 (DDR2-800)
Netzteil: Enermax Liberty 400 Watt
CPU Kühlung: Scythe Mine Rev. B
Monitor 1: (per DVI) Acer V243HQ - 24Zoll 16:9
Monitor 2: (per DVI) LG FLATRON W2452T - 24Zoll 16:10

Monitor 1 hat auflösung 1920*1080 , Monitor 2 hat auflösung 1920*1200

mfg nico

Gast
2011-12-16, 15:29:12
hallo Nico1976,

vielleicht kann diese Aussage deinen Stromverbrauch erklären.

Bei der GT560 Ti hat sich nvidia des Problems angenommen. Bei Multi-Moni verbrauchen sie genau so viel wie single Moni

Bei meiner GTX460 hatte ich dieses Problem auch nicht, mit einem 120 Hz Singlemonitor.
In den Reviews zur GTX570 war leider immer nur von Multimonitoring die Rede...

Gast
2011-12-16, 15:47:15
Bei zwei Monitoren kann ich das ja durchaus verstehen, dass es so gewollt ist.
Warum muss der Takt auch für einen Singlemonitor bei 120 Hz erhöht werden?


Muss es auch nicht, mit einem 120Hz-Monitor taktet die Karte problemlos herunter, wie auch mit einem 60Hz-Monitor, nur bei beiden gleichzeitig bleibt es beim hohen 3D-Takt.

Gast
2011-12-17, 12:18:18
Meine Gigabyte GTX570 OC taktet nicht herunter wenn 120 Hz am Samsung Syncmaster 2233RZ eingestellt ist. Mein Kumpel hat hat das gleiche Problem mit einer MSI N570GTX TF III und gleichem Monitor. Ich habe die Karte seit dem 285.38 und bei keinem Treiber seit dem funktioniert das IDLE-Takten auf 120 Hz.

Liegt es an der OC-version, oder an Treibereinstellungen?
Welche Karte und Monitor hast du denn, wo es funktioniert?