PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800 GTS - Strom sparen / warum bekommt Nvidia das nicht hin?!


MGeee
2007-08-23, 13:11:17
Hallo Allerseits,

habe hier ein Verbrauchsmeßgerät und mal eben bisserl rumprobiert.
System siehe Signatur :smile: .

Als OS kommt Vista 64bit zum Einsatz.
Da ich meine CPU immer mit 100% Vollast betreibe (Folding@Home Distributed Computing Client), solltet Ihr Euch nicht über den etwas höhere 2D Verbrauch wundern. Mir geht es hier um die Leistungsdifferenz beim runtertakten.

Im Office Betrieb takte ich mit dem Tool nTune die GPU und den VRam der 8800GTS 640MB immer runter.

Habe demnach folgende Settings:

2D Betrieb - runtergetaktet
GPU Takt: 128 Mhz
VRAM Takt: 198 Mhz
Verlustleistung des kompletten PCs: 220 Watt

2D Betrieb - Standard Taktung
GPU Takt: 513 Mhz
VRAM Takt: 792 Mhz
Verlustleistung des kompletten PCs: 243 Watt


Differenz ist also 23 Watt !!!

Die VCore für GPU und VRAM ist dabei gleich geblieben. Sicherlich ließen sich weitere 20 Watt rausholen, wenn ich via Software die Spannungen noch absenken könnte. Demnach dürfte die Karte problemlos mit 40 Watt weniger Energieverbrauch im 2D-Office Betrieb auskommen!!!

Nun meine Frage:
Warum baut NVidia diese runtertakten im Office Betrieb nicht gleich in die Hardware oder in den Treiber ein?
Was ich mit eine Ssoftware Tool schaffe, kann doch nicht so schwer über den Treiber zu erreichen sein, oder?
Wenn man mal überlegt, wieviel Strom so unnötig verblasen wird, müsste man NVidia eigentlich als großen Umweltsünder darstellen.

Des weiteren erwärmt die Graka im 2D-Betrieb ja auch den Rest des Systems, was auch wieder eine größer dimensionierte Gehäusebelüftung, bzw. durch schneller drehende Gehäuselüfter zur Folge hat.

EDIT:
Achso, beim zocken verbraucht der komplette PC satte 300 Watt. Hatte zuvor eine E6600 DualCore drin. Da waren es immerhin noch 270 Watt.

MartinRiggs
2007-08-23, 13:32:16
Sorry aber dafür fehlt mir das Verständnis.
Sich wegen der Graka aufregen aber so einen Mist wie Folding@Home ständig laufen lassen damit die 4 Kerne Strom saufen.:rolleyes:
Zumal ein Q6600 ja nicht wirklich sparsam ist egal ob B3 oder G0-Stepping.
Wenn ein PC 24/7 läuft muss die Kühlung sowieso dementsprechend dimensioniert sein.

MGeee
2007-08-23, 13:38:37
Sorry aber dafür fehlt mir das Verständnis.
Sich wegen der Graka aufregen aber so einen Mist wie Folding@Home ständig laufen lassen damit die 4 Kerne Strom saufen.:rolleyes:
Zumal ein Q6600 ja nicht wirklich sparsam ist egal ob B3 oder G0-Stepping.
Wenn ein PC 24/7 läuft muss die Kühlung sowieso dementsprechend dimensioniert sein.

Danke, Du hast mir wieder gezeigt, dass ernsthafte Diskussionen im 3dcenter.de Forum NICHT machbar sind.
Werde das Thema in einem andere Forum nochmal starten, wo ich mir sicher bin, dass darüber ernsthaft diskutiert wird.

MartinRiggs
2007-08-23, 14:00:10
Wenn du das so siehst, ich finde es halt albern sich über die Graka aufzuregen und dann 4 CPU-Kerne unter vollast laufen zu lassen.
In irgendeinen Thread stand mal das NV wohl Probleme hatte die Spannung und gleichzeitig den Takt zu ändern, daher haben sie es ganz gelassen(Glaub die Shaderdomain war schuld???)
Klar sind 20W nur durch Taktabsenkung auch strom aber das scheint nv nicht für wichtig zu halten.

Super Grobi
2007-08-23, 14:07:31
Danke, Du hast mir wieder gezeigt, dass ernsthafte Diskussionen im 3dcenter.de Forum NICHT machbar sind.
Werde das Thema in einem andere Forum nochmal starten, wo ich mir sicher bin, dass darüber ernsthaft diskutiert wird.

Ja mach das. Am besten im Giga-Forum. Dort findest du bestimmt Leute, die nicht bemerken wie unlogisch das ganze ist.

Mal davon ab, das über dieses Thema schon oft diskutiert wurde und NV das nicht hinbekommt, weil 1. NV das nicht hinbekommen will und 2. nicht vorgesehen ist.

SG

MGeee
2007-08-23, 14:14:05
Wenn du das so siehst, ich finde es halt albern sich über die Graka aufzuregen und dann 4 CPU-Kerne unter vollast laufen zu lassen.
In irgendeinen Thread stand mal das NV wohl Probleme hatte die Spannung und gleichzeitig den Takt zu ändern, daher haben sie es ganz gelassen(Glaub die Shaderdomain war schuld???)
Klar sind 20W nur durch Taktabsenkung auch strom aber das scheint nv nicht für wichtig zu halten.

Mir geht es hier nicht darum, Strom-Geld wg. meiner Graka zu sparen. Mir geht es darum, dass NVidia nicht das schafft, was ich jedesmal nach dem booten machen muss...Taktung runterstellen. Warum nicht gleich per default mit dem Treiber oder in Hardware?

Das Thema CPU, F@H, Stromverbrauch ist hier völlig fehl am Platz!


Die erste Seite des Threads ist schon fast voll und auf das eigentliche Thema wird einfach nicht eingegangen. Stattdessen wird sich einer aufgegeilt, dass ich nebenher Distributed Computing rechne.

RaumKraehe
2007-08-23, 14:17:03
Mal davon ab, das über dieses Thema schon oft diskutiert wurde und NV das nicht hinbekommt, weil 1. NV das nicht hinbekommen will und 2. nicht vorgesehen ist.

SG

Mit der 6600 GT (AGP) klappte das aber schon wunderbar. ;)

Ich konnte den Profilen im Treiber wunderbar unterschiedliche Frequenzen für den Speicher und den Kern zuordnen.

Warum Nvidia das bei neueren Modellen nicht mehr macht ist mir auch mehr als schleiherhaft.

Super Grobi
2007-08-23, 14:17:57
Mir geht es darum, dass NVidia nicht das schafft, was ich jedesmal nach dem booten machen muss...Taktung runterstellen.

Wieso MUSS du das? Das würde mich jetzt aber mal interessieren.

SG

Mills
2007-08-23, 14:18:24
Hallo Allerseits,

habe hier ein Verbrauchsmeßgerät und mal eben bisserl rumprobiert.
System siehe Signatur :smile: .

Als OS kommt Vista 64bit zum Einsatz.
Da ich meine CPU immer mit 100% Vollast betreibe (Folding@Home Distributed Computing Client), solltet Ihr Euch nicht über den etwas höhere 2D Verbrauch wundern. Mir geht es hier um die Leistungsdifferenz beim runtertakten.

Im Office Betrieb takte ich mit dem Tool nTune die GPU und den VRam der 8800GTS 640MB immer runter.

Habe demnach folgende Settings:

2D Betrieb - runtergetaktet
GPU Takt: 128 Mhz
VRAM Takt: 198 Mhz
Verlustleistung des kompletten PCs: 220 Watt

2D Betrieb - Standard Taktung
GPU Takt: 513 Mhz
VRAM Takt: 792 Mhz
Verlustleistung des kompletten PCs: 243 Watt


Differenz ist also 23 Watt !!!

Die VCore für GPU und VRAM ist dabei gleich geblieben. Sicherlich ließen sich weitere 20 Watt rausholen, wenn ich via Software die Spannungen noch absenken könnte. Demnach dürfte die Karte problemlos mit 40 Watt weniger Energieverbrauch im 2D-Office Betrieb auskommen!!!

Nun meine Frage:
Warum baut NVidia diese runtertakten im Office Betrieb nicht gleich in die Hardware oder in den Treiber ein?
Was ich mit eine Ssoftware Tool schaffe, kann doch nicht so schwer über den Treiber zu erreichen sein, oder?Wenn man mal überlegt, wieviel Strom so unnötig verblasen wird, müsste man NVidia eigentlich als großen Umweltsünder darstellen.

Des weiteren erwärmt die Graka im 2D-Betrieb ja auch den Rest des Systems, was auch wieder eine größer dimensionierte Gehäusebelüftung, bzw. durch schneller drehende Gehäuselüfter zur Folge hat.

EDIT:
Achso, beim zocken verbraucht der komplette PC satte 300 Watt. Hatte zuvor eine E6600 DualCore drin. Da waren es immerhin noch 270 Watt.
Nvidia? DICH!:rolleyes:

AnarchX
2007-08-23, 14:19:24
Mir geht es hier nicht darum, Strom-Geld wg. meiner Graka zu sparen. Mir geht es darum, dass NVidia nicht das schafft, was ich jedesmal nach dem booten machen muss...Taktung runterstellen. Warum nicht gleich per default mit dem Treiber oder in Hardware?


Weil es hier technischen Umstände gibt, die es nicht erlauben, dass man diese bei der Serienfertigung auch gemacht hat.
Das es bei einigen läuft, heißt noch lange nicht, dass es den Qualitätsansprüchen von NV genügt.

Und mit Hybrid-SLI:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095
... geht man dann am Ende des Jahres den sinnvollsten Schritt, HighEnd-GPU unter 2D komplett aus und nur noch ein sparsamer IGP für die Bildausgabe und kleinere 3D-Berechnungen verantwortlich.

MGeee
2007-08-23, 14:30:41
Weil es hier technischen Umstände gibt, die es nicht erlauben, dass man diese bei der Serienfertigung auch gemacht hat.
Das es bei einigen läuft, heißt noch lange nicht, dass es den Qualitätsansprüchen von NV genügt.

Und mit Hybrid-SLI:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095
... geht man dann am Ende des Jahres den sinnvollsten Schritt, HighEnd-GPU unter 2D komplett aus und nur noch ein sparsamer IGP für die Bildausgabe und kleinere 3D-Berechnungen verantwortlich.

Wenn die 3D-Power stimmt, vielleicht ein Grund, meine 8800GTS zu tauschen.

AnarchX
2007-08-23, 14:43:28
Wenn die 3D-Power stimmt, vielleicht ein Grund, meine 8800GTS zu tauschen.

Die musst du ja gar nicht tauschen, sondern nur das Board. ;)

RaumKraehe
2007-08-23, 14:54:34
Nvidia? DICH!:rolleyes:

Könnt ihr nichtmal aufhöhren hier wie bekloppt rumzutollen. Wenn du nichts zu sagen hast dann lass es doch einfach. Es nervt nur noch.

BK-Morpheus
2007-08-23, 14:57:31
Nvidia? DICH!:rolleyes:
Gelbe Karte, ich hoffe nicht, dass du jetzt ne erklärung höern willst, was du denn böses verzapft hast.


Ja mach das. Am besten im Giga-Forum. Dort findest du bestimmt Leute, die nicht bemerken wie unlogisch das ganze ist.

Mal davon ab, das über dieses Thema schon oft diskutiert wurde und NV das nicht hinbekommt, weil 1. NV das nicht hinbekommen will und 2. nicht vorgesehen ist.

SG

Klar, kommt das merkwürdig rüber, wenn einer mit F@H im Dauerbetrieb sich über die verschwendeten 20W seiner Graka ärgert, dennoch ist die Frage berechtigt und solch zynische Antworten (Giga Forum *g*) bitte unterlassen. (war nur ne Warnung, also keine Karte)

MGeee
2007-08-23, 15:12:45
Die musst du ja gar nicht tauschen, sondern nur das Board. ;)

Also müsste ich ein Mobo mit onBoard VGA haben? Hmm, mein Gigabyte P35-DS4 ist mir doch gerade erst ans Herz gewachsen :) .
funktioniert das evtl. auch mit einer weiteren PCI-E Graka?

...oder habe ich das jetzt komplett falsch verstanden.

AnarchX
2007-08-23, 15:14:30
Lies einfach mal das 1. Posting, im verlinkten Thread, da sind eigentlich alle relevanten Infos vorhanden.;)

MGeee
2007-08-23, 15:21:39
Lies einfach mal das 1. Posting, im verlinkten Thread, da sind eigentlich alle relevanten Infos vorhanden.;)

Demnach braucht man also definitiv ein passendes Mobo mit NVidia Chipsatz...interessanter Marketingansatz seitens NVidia. :smile: . Wobei die Idee eigentlich nicht schlecht ist, da man sich keinerlei Gedanken machen muss, wie man die GPU/VRAM unter 2D einbremst. Bei den CPUs gibt es ja beim Beispiel Core2Duo/Quad unzählige Energiespar-Optionen. Das wäre bei der NVidia-Variante gar nicht erst notwendig.

dargo
2007-08-23, 16:09:37
Weil es hier technischen Umstände gibt, die es nicht erlauben, dass man diese bei der Serienfertigung auch gemacht hat.
Das es bei einigen läuft, heißt noch lange nicht, dass es den Qualitätsansprüchen von NV genügt.

Und mit Hybrid-SLI:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095
... geht man dann am Ende des Jahres den sinnvollsten Schritt, HighEnd-GPU unter 2D komplett aus und nur noch ein sparsamer IGP für die Bildausgabe und kleinere 3D-Berechnungen verantwortlich.
Oder weil genau das von Anfang an der Plan von NV war um Hybrid-SLI besser verkaufen zu können. :devil:

Mr.Magic
2007-08-23, 16:53:42
Ich weiß wirklich nicht was der Threadstarter für Probleme hat. Meine 8800GTX taktet im 2D-Betrieb runter UND senkt die Spannung.
Alles was dazu nötig war ist ein BIOS-Flash.

blackbox
2007-08-23, 17:04:33
Sollte da nicht mal ein Treiber kommen, der den Strombedarf senken sollte?

Gast
2007-08-23, 17:17:02
Hallo Allerseits,

habe hier ein Verbrauchsmeßgerät und mal eben bisserl rumprobiert.
System siehe Signatur :smile: .

Als OS kommt Vista 64bit zum Einsatz.
Da ich meine CPU immer mit 100% Vollast betreibe (Folding@Home Distributed Computing Client), solltet Ihr Euch nicht über den etwas höhere 2D Verbrauch wundern. Mir geht es hier um die Leistungsdifferenz beim runtertakten.

Im Office Betrieb takte ich mit dem Tool nTune die GPU und den VRam der 8800GTS 640MB immer runter.

Habe demnach folgende Settings:

2D Betrieb - runtergetaktet
GPU Takt: 128 Mhz
VRAM Takt: 198 Mhz
Verlustleistung des kompletten PCs: 220 Watt

2D Betrieb - Standard Taktung
GPU Takt: 513 Mhz
VRAM Takt: 792 Mhz
Verlustleistung des kompletten PCs: 243 Watt


Differenz ist also 23 Watt !!!

Die VCore für GPU und VRAM ist dabei gleich geblieben. Sicherlich ließen sich weitere 20 Watt rausholen, wenn ich via Software die Spannungen noch absenken könnte. Demnach dürfte die Karte problemlos mit 40 Watt weniger Energieverbrauch im 2D-Office Betrieb auskommen!!!

Nun meine Frage:
Warum baut NVidia diese runtertakten im Office Betrieb nicht gleich in die Hardware oder in den Treiber ein?
Was ich mit eine Ssoftware Tool schaffe, kann doch nicht so schwer über den Treiber zu erreichen sein, oder?
Wenn man mal überlegt, wieviel Strom so unnötig verblasen wird, müsste man NVidia eigentlich als großen Umweltsünder darstellen.

Des weiteren erwärmt die Graka im 2D-Betrieb ja auch den Rest des Systems, was auch wieder eine größer dimensionierte Gehäusebelüftung, bzw. durch schneller drehende Gehäuselüfter zur Folge hat.

EDIT:
Achso, beim zocken verbraucht der komplette PC satte 300 Watt. Hatte zuvor eine E6600 DualCore drin. Da waren es immerhin noch 270 Watt.
Vielleicht klappt die 3D Erkennung nicht richtig? Selbst mit dem Rivatuner wird nur 3D bzw. Hardware Acceleration bei DX9 und Opengl Anwendungen erkannt. Bei älteren Games tut sich nix.
Man kann zwar auch die nV-Acceleration auswählen, dann wird aber schon in den 3D Mode umgeschaltet, wenn man z.B. nur den Windows Media Player startet. Desweiteren gibt es bei den extrem niedrigen Taktraten Probleme, wenn man beide DVI Ausgänge gleichzeitig nutzt. Alternative wäre ntune mit den Profilen zu nutzen - ist aber mehr als umständlich.

MGeee
2007-08-23, 17:19:34
Sollte da nicht mal ein Treiber kommen, der den Strombedarf senken sollte?

Dachte ich eigentlich auch mal, habe aber mittlerweile die Hoffnung fast aufgegeben.

labecula
2007-08-23, 18:21:23
Sorry aber dafür fehlt mir das Verständnis.
Sich wegen der Graka aufregen aber so einen Mist wie Folding@Home ständig laufen lassen damit die 4 Kerne Strom saufen.:rolleyes:
Zumal ein Q6600 ja nicht wirklich sparsam ist egal ob B3 oder G0-Stepping.
Wenn ein PC 24/7 läuft muss die Kühlung sowieso dementsprechend dimensioniert sein.

Ja, lol, ich muss echt lachen. Regt sich wegen 20 Watt auf und lässt den Rechner permanent unetr Vollast laufen. Sowas von Schizo habe ich selten gelesen... völlig Panne!

boxleitnerb
2007-08-23, 18:35:24
Ja, versteh ich auch nicht. Aber immer meckern, gell? Kann ja auch meinen Porsche in der Garage laufen lassen und mich dann aufregen, dass er da zuviel verbraucht :)

Maschbauer
2007-08-23, 18:45:30
Oh Mann...

Folding @ home - verbratene Leistung hat einen Sinn! :smile:

Graka im 2d-Modus - verbratene Leistung macht nix ausser warm... :mad:

Jeder Post der anfängt mit: "warum regst du dich so auf wenn du eh soviel verbrätst für bla bla..." ist genauso, als wenn man nem LKW-Fahrer fragt, warum er sich über das Loch im Tank aufregt, seine Karre verbraucht doch eh zuviel Sprit...

Über Sinn und Unsinn von Folding @ home oder LKW-Transporte kann man sich gerne (nicht hier) streiten, aber das nen Loch im Tank (gleich "Höchstleistung" im 2D Betrieb) sinnfrei ist sollte jedem einleuchten.

Ich persönlich nehme mal an, dass erst bei entsprechender Konkurrenz Ressourcen von Nvidia in solche Dinge gesteckt werden. Im Moment verkaufen sich die 8800er in ihrem Segment auch ohne Energiesparmaßnahmen wie warme Semmeln :rolleyes:.

mfg, Maschbauer

MGeee
2007-08-23, 19:19:52
@Maschbauer

gebe Dir recht. Warum posten die üblicher Spammer und Trolle einfach hier rein, wenn Sie zum Thema nichts beizutragen haben (außen den Spam natürlich, den keiner lesen will außer sie selbst).
Zu NVidia: hier gab es seitens AMD/Ati einfach viel zu lange (9 Monate bis zum erscheinen der aktuellen Grakas) einfach keine Konkurrenz für NVidia und ich vermute einfach mal, dass beim es erscheinen der 8800er Grakas letzten Winter einfach schnell gehen musste (mit der Markteinführung). Stromsparfunktionen waren da erstmal zweitrangig und sollten wohl via Treiberupdate nachgeliefert werden. Zumindest diverse News im März 2007 deuten darauf hin, das NVidia das wirklich vorhatte.
Mittlerweile sind die aktuellen AMD-Grakas draußen und NVidia kümmert sich wohl (wieder einmal) zuerst um die kommende Graka-Generation.
Ich für meinen Teil bin mit der 3D-Leistung und den damaligen Preis meiner 8800GTS-640MB jedenfalls zufrieden, wenn dass Ding wenigstens unter 2D auf Stromspar-Modus gehen würde. Jeder aktuelle Prozessor geht auf Idle und verbraucht nur noch einen Bruchteil im Office-Betrieb, nur die 8800 leider nicht :mad: .

ZipKaffee
2007-08-23, 19:50:38
Tja vielleicht schafft es nvidia bei der neuen Graka wieder...

Aber die stecken soviel Entwicklungskosten rein und dann schaffen die das nicht mal...da sieht man doch dass das keine Priorität bei nvidia hat. :mad:

hyperterminal
2007-08-23, 20:31:59
edel-grafikkarten.de (http://www.edel-grafikkarten.de/index.php?cat=c21_8600-Series.html) bieten 8600 GTs mit per BIOS reduziertem 2D Takt an. Mit den richtigen Tools wird man sich so etwas auch selber machen können und hat dann dauerhaft die gewünschten Taktraten im 2D Modus.

][immy
2007-08-23, 21:14:36
Ich weiß wirklich nicht was der Threadstarter für Probleme hat. Meine 8800GTX taktet im 2D-Betrieb runter UND senkt die Spannung.
Alles was dazu nötig war ist ein BIOS-Flash.

nun, aber knapp 20 Watt bei einer grafikkarte die schon relativ locker an über 100 Watt kommt ist schon echt wenig. besonders wenn man bedenkt wie weit er die karte runtergetaktet hat.

aber das ist leider bei normalen PC komponenten meistens so. sie verkaufen die strom-spar features fürs marketing mit, aber die die stromsparfunktionen von laptops kommen sie noch lange nicht dran.

finde es auch relativ lächerlich wie "weit" sich meine x1800 XT runtertaktet im 2D betrieb. dummerweise schmiert das system häufiger ab wenn ich das über ein profil regeln will, von daher lasse ich es

Angiesan
2007-08-23, 21:44:15
Bei meinem ersten und mit Abstand am längsten verwendetem Treiber für meine
8800 GTX den FW 9689 ging zwar auch kein Runtertakten per Automatik,
aber er hatte dafür noch die voll OC Eigenschaften auch bei den 8800er Karten.

Wenn ich nun per Treiber übertaktet habe, blieb die Karte im Idle Betrieb auf den standard Taktraten und erst beim Starten einer 3D Anwendung wurden die
OC Taktraten von der Karte gefahren.
Hat man diese beendet ging die Karte wieder auf die standard Taktung zurück. Konnte man gut per Everest verfolgen.

Also funktionieren scheint das schon, zumindest nach oben.

Ich kann mir vorstellen das nicht alle 8800er der ersten Stunde ein undervolting und absenken der Taktraten mitmachen werden da wie bei allen
GPU Produktionen die Qualität erst im Laufe der Fertigung besser wird.

Auch kann NV nicht einfach jetzt ein anderes Bios auf neuere Karten ziehen und sagen :P Käufer der ersten Stunde, selbst Schuld, willst Du Strom sparen und abartige Leistung dann kauf gefälligst wieder eine Neue.
Ne der Aufschrei unter den Kunden währe zu Recht gewaltig.

Also was würde bleiben, per Biosupdate auf gut Glück auch die älteren Karten bedienen, eine Option im Treiber "Energiesparen" bitte prüfen ob es mit Ihrer
HW auch geht:D
Oder eben nichts machen und ein paar Schläge einstecken, aber mit dem Wissen
der Mitbewerber kann es ja auch nicht besser;(

Rein aus Marketing und Imagegesichtspunkten ist die Lösung nichts zu tun
dann immer noch die Beste, oder?

Aber das ist wie so oft höchst spekulativ und natürlich nicht auf fundierten
Fakten und Daten aufgebaut, sondern wieder mal meinem kranken Geist
entsprungen.:D

Grüße

Fetza
2007-08-23, 22:07:32
Ich weiß wirklich nicht was der Threadstarter für Probleme hat. Meine 8800GTX taktet im 2D-Betrieb runter UND senkt die Spannung.
Alles was dazu nötig war ist ein BIOS-Flash.

Wie hast du das gemacht? Ich wollte erst mit nibitor auch einen 2d takt samt niedriger v-spannung einstellen. Nur habe ich mich nicht getraut, weil ich nicht wusste, ob die karte dafür ausgelegt ist. Hast du es so gemacht, oder irgendwie anders?

Mr.Magic
2007-08-23, 22:45:28
Wie hast du das gemacht? Ich wollte erst mit nibitor auch einen 2d takt samt niedriger v-spannung einstellen. Nur habe ich mich nicht getraut, weil ich nicht wusste, ob die karte dafür ausgelegt ist. Hast du es so gemacht, oder irgendwie anders?

Natürlich habe ich Nibitor verwendet. Zusätzlich stammte das BIOS von einer Ultra. Bei meinem Originalen gab es nur einen Eintrag in der Spannungstabelle (1.2V). Nun dürften bei 3D 1.2V anliegen, und bei 2D geht sie runter auf 1.1V.
Ob es funktioniert hat merkt man an den Temperaturen. Im Idle müssen diese niedriger werden; Beides gesenkt (45°C) <Takt gesenkt (52°C) <Original (55°C). Bei schlechterer Kühlung dürfte es sogar noch deutlicher sein. Die Taktfrequenzen könnte man auch noch im RivaTuner nachprüfen.

MGeee
2007-08-24, 13:16:02
Natürlich habe ich Nibitor verwendet. Zusätzlich stammte das BIOS von einer Ultra. Bei meinem Originalen gab es nur einen Eintrag in der Spannungstabelle (1.2V). Nun dürften bei 3D 1.2V anliegen, und bei 2D geht sie runter auf 1.1V.
Ob es funktioniert hat merkt man an den Temperaturen. Im Idle müssen diese niedriger werden; Beides gesenkt (45°C) <Takt gesenkt (52°C) <Original (55°C). Bei schlechterer Kühlung dürfte es sogar noch deutlicher sein. Die Taktfrequenzen könnte man auch noch im RivaTuner nachprüfen.

Zu diesem Lösungsansatz sollte vielleicht noch gesagt werden, dass man auf alle Fälle eine zweite PCi-E Graka griffbereit haben sollte um die GeForce notfalls nach mißglücktem Bios-Flash zurückzuflashen.
Habe mich bisher fürs Bios-Flashen noch nicht so recht erwärmen können, da es ja schließlich auch mit einem gewissen Risiko verbunden ist und zusätzlich auch noch die Garantie dabei erlischt. Gerade bei der 8800 ist eine Garantie von 2 Jahren sicherlich nicht ganz unwichtig. Deswegen wäre es ideal, wenn man die spannungen per Software senken könnte.

Gast
2007-08-24, 13:36:45
Mal 'ne andere Frage: Man kann die Shader von der Karte auch für F@H verwenden? Wenn Dir der Gesamtverbrauch egal ist, dann mach aus der Schwäche eine Tugend und laß die Grafikkarte auch noch mit Volllast mitrechnen. :)

AnarchX
2007-08-24, 13:40:13
F@H @GPU gibt momentan leider nur für ATI-Karten. Für GF8 gibt es keinen Client, obwohl diese sicherlich ordentlich etwas leisten könnten. ;)

MGeee
2007-08-24, 13:44:23
F@H @GPU gibt momentan leider nur für ATI-Karten. Für GF8 gibt es keinen Client, obwohl diese sicherlich ordentlich etwas leisten könnten. ;)

Was soweit ich gelesen habe am "unsauber" programmierten NVidia-Treiber liegt und NVidia scheint keine Ressourcen für die Entwicklung eines passenden Treibers bereitstellen zu wollen...genausowenig wie NVidia wohl auch keine Ressourcen für die Stromsparfunktion bereitstellen wollte/will.

AnarchX
2007-08-24, 13:47:07
Man verkauft halt seine Produkte auch so. ;)

Aber mit CUDA sollte eigentlich ein F@H Client für GF8 ziemlich schnell stehen, aber da will wohl Stanford nicht ran.

MGeee
2007-08-24, 14:04:41
Man verkauft halt seine Produkte auch so. ;)

Aber mit CUDA sollte eigentlich ein F@H Client für GF8 ziemlich schnell stehen, aber da will wohl Stanford nicht ran.

Noch ist der F@H GPU Client ja generell Beta und im offiziellen F@H Forum wird das Thema NVidiaClient immer noch diskutiert, doch wenn da was in Entwicklung wäre, würde es sicherlich als News bereits mitgeteilt werden. Habe von daher wenig Hoffnung, dass da war daraus wird.

Habe den Thread mal rausgekramt:
http://forum.folding-community.org/ftopic16684-180.html

There is no client for the NV cards yet, so we don't know exactly how well NV cards would perform. Basic test programs run on both NV and ATI cards put that estimate of NV folding performance on par with their ATI counterparts. As this long thread indicates, we are still waiting for NV to provide working drivers that can run the fah client.

Gast
2007-08-25, 08:36:44
Natürlich habe ich Nibitor verwendet. Zusätzlich stammte das BIOS von einer Ultra. Bei meinem Originalen gab es nur einen Eintrag in der Spannungstabelle (1.2V). Nun dürften bei 3D 1.2V anliegen, und bei 2D geht sie runter auf 1.1V.
Ob es funktioniert hat merkt man an den Temperaturen. Im Idle müssen diese niedriger werden; Beides gesenkt (45°C) <Takt gesenkt (52°C) <Original (55°C). Bei schlechterer Kühlung dürfte es sogar noch deutlicher sein. Die Taktfrequenzen könnte man auch noch im RivaTuner nachprüfen.
Das habe ich auch versucht, hat allerdings nicht geholfen bei mir. Die Spannung habe ich natürlich mit einem VM gemessen.

Könntest du dein BIOS mit gesenkter Spannung vielleicht mal hier posten? Das wäre famos!

Gast
2007-08-25, 12:26:12
Mir geht es darum, dass NVidia nicht das schafft, was ich jedesmal nach dem booten machen muss...Taktung runterstellen.


warum musst du das jedes mal machen? das kann der treiber eh automatisch (beim chiptakt, und der speichertakt trägt fast nix zur ersparnis bei)


Warum nicht gleich per default mit dem Treiber oder in Hardware?


weil nvidia wohl noch nicht so viel langzeiterfahrung mit dermaßen unterschiedlichen clockdomains hatte und man keine instabilitäten aufgrund der sich ändernden takte riskieren wollte.

Gast
2007-08-25, 12:29:19
[immy;5780370']nun, aber knapp 20 Watt bei einer grafikkarte die schon relativ locker an über 100 Watt kommt ist schon echt wenig. besonders wenn man bedenkt wie weit er die karte runtergetaktet hat.


es sind 20W im ruhezustand nicht unter last, nur da braucht die 8800GTS 100W.

im idle braucht die karte ~50-60W und da ist man mit 20W weniger schon fast auf dem idle-niveau der highend-karten der vorgängergeneration.

MGeee
2007-08-25, 12:29:23
warum musst du das jedes mal machen? das kann der treiber eh automatisch (beim chiptakt, und der speichertakt trägt fast nix zur ersparnis bei)


Doch, satte 23 Watt weniger Stromverbrauch, was vor allem auch eine kühlere Hardware zur Folge hat. Weniger Abwärme = leiseres System. Hättest Du mal mein Start-Posting gelesen, wüsstest Du von den 23 Watt...

Gast
2007-08-25, 12:35:32
Hättest Du mal mein Start-Posting gelesen, wüsstest Du von den 23 Watt...

hättest du mein posting ordentlich gelesen wüsstest du, dass ich dir dabei nicht widersprochen habe.

nur gehen von den 23W wahrscheinlich ~20W auf die kappe der GPU und nur 3W auf jene des speichers. jeder G80-treiber kann ohne probleme unter 2D und 3D automatisch verschiedene taktraten fahren, standardmäßig ist lediglich bei beiden der gleiche wert eingestellt.

wenn man auch den speicher automatisch untertakten will muss man rivatuner bemühen, aber möglich ist es auch.

MGeee
2007-08-25, 13:36:39
hättest du mein posting ordentlich gelesen wüsstest du, dass ich dir dabei nicht widersprochen habe.

nur gehen von den 23W wahrscheinlich ~20W auf die kappe der GPU und nur 3W auf jene des speichers. jeder G80-treiber kann ohne probleme unter 2D und 3D automatisch verschiedene taktraten fahren, standardmäßig ist lediglich bei beiden der gleiche wert eingestellt.

wenn man auch den speicher automatisch untertakten will muss man rivatuner bemühen, aber möglich ist es auch.

Habe ich jetzt nicht nachgemessen, wieiviel Einsparung die GPU und der VRAM einzeln bringen. Werde ich noch nachholen und ins erste Posting dieses Threads mit aufnehmen.

The_Invisible
2007-08-25, 15:22:40
Natürlich habe ich Nibitor verwendet. Zusätzlich stammte das BIOS von einer Ultra. Bei meinem Originalen gab es nur einen Eintrag in der Spannungstabelle (1.2V). Nun dürften bei 3D 1.2V anliegen, und bei 2D geht sie runter auf 1.1V.
Ob es funktioniert hat merkt man an den Temperaturen. Im Idle müssen diese niedriger werden; Beides gesenkt (45°C) <Takt gesenkt (52°C) <Original (55°C). Bei schlechterer Kühlung dürfte es sogar noch deutlicher sein. Die Taktfrequenzen könnte man auch noch im RivaTuner nachprüfen.

also wenn das wirklich geht wär das sehr schön, hab mir nämlich auch so ein kärtchen bestellt :D

mfg