PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GEFORCE 8800 GTX schaltet nicht in den 2D Modus im idle zustand !!


Alkan
2007-01-30, 02:54:55
Hallo allesamt,

habe eine Frage, hab mir letzte woche nen pc zusammengebaut mit 2x 8800 GTX im SLI VErbund, Enermax Galaxy 1000 Watt Netzteil, damit ja auch alles mit genügend Strom versorgt wird.
Alles schön und gut kiste läuft, nur musste ich mit erschrecken feststellen, das die karte oder karten im Windows Betrieb um die 82 grad heiss werden. Die müsste sich doch einfach in den 2d betrieb umschalten und auf jeden fall unter 70 grad bleiben. BITTE wenn jemand ne Antwort weiss wäre ich ihm sehr verbunden.
Habe auch schon probiert den takt zu verändern ( runterzutakten ), aber das geht auch nicht, die Karte bleibt bei ihren 80-82 Grad.
Wenn ich im Treiber den lüfter auf 100% stelle geht die Temp runter auf 74 grad, aber dann stört der lüfter.
Im 3D Betrieb wird die Karte bis zu 95 grad heiss IST DAS NORMAL !????

Danke im voraus für die mühen !

dargo
2007-01-30, 06:17:22
Dass der G80 in Idle viel Strom frisst ist schon lange bekannt. Hättest du dich vor dem Kauf nur informiert. Hier im Forum wurde genug drüber diskuttiert.

James Ryan
2007-01-30, 08:40:58
Die Gf 8800er Karten haben gar keinen 2D-Modus, ist aber schon seit Monaten bekannt.

MfG :cool:

Gast
2007-01-30, 09:21:57
Willkommen in der gegenwart, ist schon seit 3 Monaten bekannt, aber hauptsache 2x 8800GTX und 1000W ;)

The_Invisible
2007-01-30, 09:35:19
naja, wer sich solche pc komponenten kauft dürfte über die höheren stromkosten eh nur müde lächeln

mfg

Gaestle
2007-01-30, 10:00:52
Mein Gott, da schreibt einer sein erstes Posting hier im Forum (BTW: Herzlich Willkommen!) und wird nur klugscheißerisch zugeschwallt.

Dass es bei der 8800er Serie bislang keinen 2D-idle Modus zu geben scheint, hätte man ihm auch freundlicher sagen können. Und vielleicht noch als zusätzliche Info, dass noch nicht abschließend geklärt scheint, ob's ein Treiber- oder Hardwareproblem ist.
Abschließend hätte man noch auf die Bemerkung eingehen können, ob der Temp-Sprung auf 95°C unter Last normal ist. Dazu hätte man ja dem Neuling mal diesen Thread raussuchen können: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=333339&highlight=Temperatur+8800

Oder auf die Ergebnisse einer Forensuche hinweisen: http://www.forum-3dcenter.org/vbulletin/search.php?searchid=71501

Und anschließend hätte man ihn darauf hinweisen können, das 95°C NICHT normal sind, und er mal seine Gehäuse-Lüftung checken sollte.

Aber neee, da wird erstmal rumgepflaumt.

James Ryan
2007-01-30, 11:20:35
Und vielleicht noch als zusätzliche Info, dass noch nicht abschließend geklärt scheint, ob's ein Treiber- oder Hardwareproblem ist.


Wer glaubt noch wirklich an ein Treiberproblem? ;D
Aber eigentlich hast du Recht. Nur wer sich 2*Gf 8800 GTX samt 1000 Watt Enermax Galaxy kauft, sollte eigentlich schon in der Lage sein sich vernünftig über die gekauften Produkte zu informieren.

MfG :cool:

jürgen123456
2007-01-30, 11:32:51
Willkommen Leidensgenosse…..ich hatte auch 2 8800GTS im System. Konnte die Karten nicht vernünftig „leise“ kühlen, habe darum eine weiter verkauft, auch weil das mehr an Leistung ca. 15% bei meinem System für den Stromverbrauch nicht i.o. waren.

Deathcrush
2007-01-30, 11:35:03
Mit dem Rivatuner kann man ja die Karte runtertakten in 2D Modus, sollte ein bisl was bringen.

Gast
2007-01-30, 13:32:08
wenn du einen 2D-modus willst musst du rivatuner und den alternate-startup-daemon verwenden, funktioniert wunderbar.

dass die temperatur immer bei ~80° bleibt ist kein wunder, da die temperatursteuerung der lüfter versucht die temperatur auf 80° zu halten, tiefer geht es nur wenn selbst die minimale lüfterdehzahl, die die steuerung wählt (~1400U/min bzw. 60%) ausreicht um die temperatur unter 80° zu bringen.

da du aber gleich 2 derartige karten verbaut hast (und vermutlich sonst auch nicht gerade ein sparsames system) ist es aber recht wahrscheinlich dass die minimale drehzahl eben nicht ausreicht, daher steuert die automatik den lüfter so dass die temperatur bei ~80°C bleibt.

Gast2
2007-01-30, 14:49:31
Ist halt NVIDIA Schrott :down: Hab meine 88GTX auch wieder verkauft, muss ich nicht haben. Und er die ersten DX10 Spiele kommen vegeht wieso noch einen ganze weile. Hab sie ja nur gekauft wegen Crysis, aber konnt ja keiner Wissen das es wieder verschoben wird.

tombman
2007-01-30, 15:06:28
Ist halt NVIDIA Schrott :down: .
Was besseres als Nvidias 8800GTX gibts derzeit gar ned. Der G80 hat keine Schwachstellen, was man von Gästen ned behaupten kann ;)

dargo
2007-01-30, 15:15:20
Der G80 hat keine Schwachstellen, was man von Gästen ned behaupten kann ;)
Oh doch das hat er. Wäre das Problem mit dem Stromverbrauch in Idle nicht könnte man von nahezu perfekter Hardware sprechen. :)

Deathcrush
2007-01-30, 15:16:03
Jo mit der 8800er ist NVIDIA seit langem mal wieder ein guter Wurf gelungen ^^. Bis auf 1-2 Spiele lüppt alles wunderbar :) Und selbst mit nur einer 8800gts bekommt man Leistung satt. Da kann keine ATI gegen anstinken.

MartinRiggs
2007-01-30, 15:17:11
Allein der fehlende 2D-Modus und der Stromverbrauch sind Schwachstellen, allerdings ist noch nicht klar ob die Konkurrenz das besser macht.
Obwohl ich es megaschwach von NV finde das die Karte es nicht schafft sich runterzutakten ohne das man was machen muss.

James Ryan
2007-01-30, 15:20:22
Ist halt NVIDIA Schrott :down: Hab meine 88GTX auch wieder verkauft, muss ich nicht haben. Und er die ersten DX10 Spiele kommen vegeht wieso noch einen ganze weile. Hab sie ja nur gekauft wegen Crysis, aber konnt ja keiner Wissen das es wieder verschoben wird.

Selbst Schuld wenn man sich eine Graka für ein noch nicht erschienendes Spiel kauft. :rolleyes:
@topic
Ich bin mir recht sicher dass der G81 bzw. G80 Refresh wieder einen funktionierenden 2D-Modus hat, so lange warte ich persönlich noch.

MfG :cool:

dargo
2007-01-30, 15:20:24
Allein der fehlende 2D-Modus und der Stromverbrauch sind Schwachstellen, allerdings ist noch nicht klar ob die Konkurrenz das besser macht.

Das ist eben das große Fragezeichen. Ich bin echt gespannt wie sich der R600 in Idle schlägt. Könnten eigendlich die 80nm ein Vorteil für den Idle Verbrauch sein oder spielt das keine Rolle?

MartinRiggs
2007-01-30, 15:23:39
Die X1900/1950-Serie beherscht das mit dem Idle runtertakten ja recht gut, daher hoffe ich einfach mal das sie das beim R600 noch besser machen, selbst ne x1900 hat im 2d-Takt noch genug Power, einer meiner Kumpel hatte mit dem ATi-Tool rumgespielt und hatte erst gar nicht gepeilt das die Karte nicht mehr hochtaktet.;D
Ich glaub auch kaum das das vom Prozess abhängt, Takt und Spannung weit genug runter im idle schon bleibt das Monster kühl -> theoretisch......

HisN
2007-01-30, 15:28:49
Wer 1000 Euro für zwei Grafikkarten hat, der lächelt nur müde über die 200 Euro Stromkosten im Jahr.

Rivatuner nehmen, und dann werden die Teile auch kühler im Idle, nen Lüfter oder ne Wakü bauen um die Top-Temps in den Griff zu bekommen. Die Kohle ist ja wohl auch noch drinne :-)

Ich versteh zwar das SLI nicht so wirklich, aber wie man an Tombi sieht gibts halt auch Leute die Auflösungen jenseits von 1280x1024 fahren und die Power brauchen.
Ich find die 88er Serie auch perfekt, endlich kann in in 1600x1200 nativ mit ordentlichen Frameraten zoggen und dabei alle Treiber-Optimierungen abschalten und alles was die Grafikkarte an EYE-Candy bietet aktivieren. Es ist ein Traum keine Aufblurrenden Strassen-Linien mehr bei Rennspielen zu sehen und schön glatte Transparenz-Kanten, keine flimmernden Texturen mehr in der Ferne... Prima Nvidia. Das bissen Strom-Scheisse, daran ziehen sich nur die Leute hoch deren QnC oder EIST genau 2Euro im Jahr an Strom spart. Ich freu mich auf die 98er :-)

MartinRiggs
2007-01-30, 15:30:19
Ich war ja sehr skeptisch, aber ich kann mit der x1900xt auch alles auf 1680x1050 zocken, natürlich nicht mit full AA+AF aber noch echt gut, hätte ich nicht gedacht.

dargo
2007-01-30, 15:49:23
Die X1900/1950-Serie beherscht das mit dem Idle runtertakten ja recht gut ...

Der G7x auch. ;)
Die "alten" Architekturen würde ich nicht mehr als Vergleich heranziehen. Wer weiß ob die R600 Architektur einen Idle-Verbrauch von ~30W überhaupt zulässt. Naja, wir werden es bald erfahren.

James Ryan
2007-01-30, 15:52:52
Die X1900/1950-Serie beherscht das mit dem Idle runtertakten ja recht gut

Naja, 500/594 statt 650/775 MHz ist jetzt nicht so der Riesenunterschied, außerdem hat mich das mit den Diensten tierisch genervt! Bei NVIDIA klappt das auch ohne Dienste einfach perfekt!
Meine Gf 7900 GTO taktet im 2D bspw. nur mit 275/800 MHz und bleibt bei 35°C mit dem Standardkühler.

MfG :cool:

dargo
2007-01-30, 16:59:21
Naja, 500/594 statt 650/775 MHz ist jetzt nicht so der Riesenunterschied ...
Die Taktraten sind auch nicht so wichtig. Die Spannung von 1,2V an der GPU (Idle) und 1,45V (Last) ist ausschlaggebend.

reunion
2007-01-30, 17:21:19
Der G7x auch. ;)
Die "alten" Architekturen würde ich nicht mehr als Vergleich heranziehen. Wer weiß ob die R600 Architektur einen Idle-Verbrauch von ~30W überhaupt zulässt. Naja, wir werden es bald erfahren.

Auch die G7x-Serie ändert nicht die Spannung im 2D-Modus AFAIK. Einzig durch die niedrige Transistorenanzahl, und den dadurch sehr niedrigen stromverbrauch unter Last, ist eine 7900GTX auch unter idle konkurrenzfähig. Das Verhältnis idel/Last war schon bei der letzten Generation bei ATi wesentlich besser. Und da man diesen Vorteil jetzt mit G80 nicht mehr hat, und der Stromverbauch durch die fehlende Spannungsabsenkung nicht stärker abnimmt als bei G7x, hat man jetzt natürlich ein verhältnismäßig hohen idle-Verbrauch.

Naja, 500/594 statt 650/775 MHz ist jetzt nicht so der Riesenunterschied, außerdem hat mich das mit den Diensten tierisch genervt!

MfG :cool:

Mit ATT kann man hier beliebig selbst heruntertakten.

Gast
2007-01-30, 17:59:57
Das ist eben das große Fragezeichen. Ich bin echt gespannt wie sich der R600 in Idle schlägt. Könnten eigendlich die 80nm ein Vorteil für den Idle Verbrauch sein oder spielt das keine Rolle?

unter last könnte es ein vorteil sein, im idle kaum, eher ein nachteil.

dargo
2007-01-30, 18:09:38
unter last könnte es ein vorteil sein, im idle kaum, eher ein nachteil.
Und warum? Ist der 80nm Fertigungsprozess empfindlicher auf schnell wechselnde, starke Lastverhältnisse oder was ist der Grund?

Blaire
2007-01-30, 18:22:26
Wird alles überbewertet mit dem Stromverbrauch. Jemand der sich HighEnd Karten kauft muss wissen was er tut. Für Pfennigfuchser ist das natürlich nix.

MartinRiggs
2007-01-30, 18:34:33
Naja, 500/594 statt 650/775 MHz ist jetzt nicht so der Riesenunterschied, außerdem hat mich das mit den Diensten tierisch genervt! Bei NVIDIA klappt das auch ohne Dienste einfach perfekt!
Meine Gf 7900 GTO taktet im 2D bspw. nur mit 275/800 MHz und bleibt bei 35°C mit dem Standardkühler.

MfG :cool:

was bitte nervt an den Diensten?
Installier den Treiber lass deine Pfoten davon und alles ist im Lot.

dargo
2007-01-30, 18:40:18
Wird alles überbewertet mit dem Stromverbrauch. Jemand der sich HighEnd Karten kauft muss wissen was er tut. Für Pfennigfuchser ist das natürlich nix.
Keine Graka bleibt ewig High-End. ;)
Ich weiß, dann kaufst du dir eh eine neue. :D

Edit:
Oder auch Zwei.

Superheld
2007-01-30, 19:02:59
dargo...und was machst du wenn der Stromverbrauch gleich bleibt,
kaufst dir dir trotzem so ne Karte

Gast
2007-01-30, 19:15:46
mein Gott ändert das Bios,ich hab die Volt sogar im 3D Modus weiter runtergesetzt und die rennt mit 621/1000.

Gast
2007-01-30, 19:38:13
Hallo,

so sehe ich das auch.

Ich habe meine auf 621/1500/1000 laufen.

Habe es so umgestellt im Bios, dass er mit einer 1,25er Spannung in 3D und mit 1,1 V im 2D läuft.

Läuft alles super. Habe 7-8 Grad unter Last weniger....

Gast
2007-01-30, 19:51:58
Und warum? Ist der 80nm Fertigungsprozess empfindlicher auf schnell wechselnde, starke Lastverhältnisse oder was ist der Grund?

kleinere struktur -> dünnere isolationsschicht -> mehr leckströme. im idle besteht der großteil des verbrauches aus leckströmen.

OC_Burner
2007-01-30, 19:59:12
Hallo,

so sehe ich das auch.

Ich habe meine auf 621/1500/1000 laufen.

Habe es so umgestellt im Bios, dass er mit einer 1,25er Spannung in 3D und mit 1,1 V im 2D läuft.

Läuft alles super. Habe 7-8 Grad unter Last weniger....

Funktioniert das endlich mit dem Umstellen der Spannung im Bios? Seid wann denn und hast du zufällig auch ein Link oder so parat? Damals als die Karte herraus kam, habe ich mich gleich ans Bios der G80 geworfen und die Spannungen mithilfe des NibiTor-Biostool gesenkt, ohne Erfolg.

Gast2
2007-01-30, 20:05:07
Selbst Schuld wenn man sich eine Graka für ein noch nicht erschienendes Spiel kauft. :rolleyes:
@topic
Ich bin mir recht sicher dass der G81 bzw. G80 Refresh wieder einen funktionierenden 2D-Modus hat, so lange warte ich persönlich noch.

MfG :cool:Deswegen hab ich sie ja wieder verkauft :)

dargo
2007-01-30, 20:12:11
dargo...und was machst du wenn der Stromverbrauch gleich bleibt,
kaufst dir dir trotzem so ne Karte
Das ist eine gute Frage. Ich weiß es noch nicht. Frage mich das nochmal im März. :tongue:
Die Graka muss auch nicht von selbst einen Idle Modus haben. Mir reicht es auch wenn ich es per Software zb. ATT selbst definieren kann.

mein Gott ändert das Bios,ich hab die Volt sogar im 3D Modus weiter runtergesetzt und die rennt mit 621/1000.
Tja, da traut sich leider nicht jeder ran. Per Software wäre es für viele einfacher. Aber wenn es bei dir geht dann frage ich mich warum die Graka-Hersteller keine entsprechende Biose bei der Auslieferung aufgespielt haben. :|

Alkan
2007-01-30, 20:15:14
Also erstmal danke für die raschen anworten.
Als erstes möchte ich sagen das die ganzen nörgler ihre beiträge auch hätten sparen können, (wahrscheinlich eh nur neid) im übrigen habe ich in keinster weise den stromverbrauch angesprochen sondern die Temparatur, das sich hamster menschen über 100-200 € mehr im jahr oder auch aufregen soll es wirklich geben, aber "mann" lebt nur einmal. im übrigen hatte ich davor ein 7800 gtx SLI gespann und war 1 jahr lang glücklich. Naja egal klugscheisser gibts halt überall. DANKE vor allem GAESTLE für die informative antwort, genau solch hilfreiche beiträge werden eigentlich erwartet oder zumindest erhofft. Ich hatte mich vor dem Kauf informiert jedoch haben mich diese http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/15/#abschnitt_temperatur und diese http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/november/kein_rueckruf_geforce_8800_gtx/ beiträge im internet in die irre geführt, laut diesen beiträgen hat die 8800 einen idle modus, wäre ja auch quatsch nicht wegen der stromrechnung sonder einfach wegen den Temparaturen. aslo seid ihr der meinung da wird noch nachgebessert oder ist dieser 2D idle BUG unkorrigierbar ??

dargo
2007-01-30, 20:17:31
kleinere struktur -> dünnere isolationsschicht -> mehr leckströme. im idle besteht der großteil des verbrauches aus leckströmen.
Das mit den Leckströmen würde ich nicht überbewerten. Der neue C2D Allendale verbraucht in Idle auch nur noch 12W. Ich weiß ist ein etwas schlechter Vergleich wenn man die Transistoranzahl vergleicht.

boxleitnerb
2007-01-30, 20:20:51
Da wird wohl nix mehr nachgebessert.
Ich kann es nicht oft genug sagen: Den meisten Leuten, die über den Stromverbrauch generell meckern, geht es um Kühlung und Lautstärke. Was ist daran so schwer zu verstehen? Manche mag es nicht stören, wenn ihre Karte wärmer als nötig im Idle wird, aber dadurch wird die Lebensdauer negativ beeinflusst und das ist einfach unnötig.
Das hat nix damit zu tun, dass ich auf den letzten Cent schaue, sondern dass sowas implementiert wird, halte ich einfach für selbstverständlich.
Klar kommt man mit einem unlackierten Auto auch von A nach B aber irgendwann fängt es im Regen zu rosten an -> muss nicht sein.

Alkan
2007-01-30, 20:35:52
Das ist auch völlig in ordnung, deswegen und NUR deswegen habe ich dieses Thema angefangen, nicht wegen einer diskussion über stromverbrauch. Also das das klar ist für alle "wer braucht denn so eine oder gar zwei karten" menschen, IIIIICCCCHHHH und ICH und ICH KAPISCHE BRAUCH DIE BESTEN KARTEN AUf DEM MARKT !!!!!
Damit wäre das erledigt.
So im ernst, meint ihr nicht die neuen treiber bringen, zumindest einen Software IDLE modus ? Denn was die Temparatur angeht, wer braucht 81 Grad unter windows?? Hast du schon recht boxleitner, nur von mir aus kann die karte sogar mehr strom verbrauchen wäre mir egal, solange mann die ganze s.... mit ner gescheiten kühlung auf 75-80 grad hält.
Habe mit Rivatuner verucht mal die gpu frequenz zu untertakten, aber irgendwie bringt das nicht wirklich viel, sollte ich auch die spannung absenken ? Geht glaub gar nicht mit dem Riva tuner oder ?

dargo
2007-01-30, 20:43:16
Ich kann es nicht oft genug sagen: Den meisten Leuten, die über den Stromverbrauch generell meckern, geht es um Kühlung und Lautstärke. Was ist daran so schwer zu verstehen?
Endlich mal Einer der mich versteht. :)

boxleitnerb
2007-01-30, 20:52:33
Ist doch so! Das ist immer ein Reizthema, weil es von den Leuten missverstanden wird.
Klar gibt es die absoluten Enthusiasten, denen Temperatur, Lautstärke und die Lebensdauer ihrer Hardware am A... vorbei gehen, aber ich kann mir nicht jedes halbe Jahr einen neuen Rechner leisten und lege auf angemessene Temperaturen bei niedriger Geräuschkulisse Wert.
Schaden tuts jedenfalls nicht und gerade weil es
a) bei der Konkurrenz sowas gibt
b) es bei den Vorgängerkarten sowas gab
c) der G80 in allen anderen Belangen so toll ist
ist es eben eine herbe Enttäuschung und uneinsichtige Entscheidung seiten Nvidias.

LovesuckZ
2007-01-30, 20:56:31
Den meisten Leuten, die über den Stromverbrauch generell meckern, geht es um Kühlung und Lautstärke.

Sie ist leise und sie ist dementsprechend kühl.
Was will der Käufer rmehr?

Was ist daran so schwer zu verstehen? Manche mag es nicht stören, wenn ihre Karte wärmer als nötig im Idle wird, aber dadurch wird die Lebensdauer negativ beeinflusst und das ist einfach unnötig.


Je nach Hersteller hats du zwei oder mehr Jahre Garantie. Nur die wenigsten halten solche Karten länger als zwei Jahre im Rechner.
Ich sehe hier überhaupt kein Problem.

boxleitnerb
2007-01-30, 20:59:16
S.o.
Es ist kein Problem, aber es geht besser, und DAS ist der Punkt! Ingenieur sein heisst nicht: Der Kunde schmeisst nach 2 Jahren seine Karte sowieso weg, ist mir doch egal ob sie 80 oder 60 Grad hat. Optimierung ist angesagt, vor allem, wenn es was so kleines ist, was (imho) kaum Arbeit macht.

Coda
2007-01-30, 21:02:59
Ich weiß, dann kaufst du dir eh eine neue. :D

Zwei ;)

LovesuckZ
2007-01-30, 21:05:12
S.o.
Es ist kein Problem, aber es geht besser, und DAS ist der Punkt! Ingenieur sein heisst nicht: Der Kunde schmeisst nach 2 Jahren seine Karte sowieso weg, ist mir doch egal ob sie 80 oder 60 Grad hat. Optimierung ist angesagt, vor allem, wenn es was so kleines ist, was (imho) kaum Arbeit macht.

"Es geht besser"? Bist du Ingenieur? Schonmal solch eine Grafikkarte entworfen und produziert? Wahrscheinlich nicht.
Mit was vergleichst du die Karte? G71? Der hat nur 1/3 der Transistoren des G80. Klar, dass der kühler bleibt...
r520? Laut Computerbase wird die Karte genauso warm. Und ist dabei noch lauter, also der Kühler.
Zwei Jahre gibt es bei fast jedem Hersteller an Garantie. Bei einigen sogar "lebenslang". Kauf doch bei denen, dann bist du auf der sicheren Seite.
Oder du lästerst einfach weiter. Aber dann wird sich an deinem Problem auch nichts ändern.

reunion
2007-01-30, 21:07:12
Je nach Hersteller hats du zwei oder mehr Jahre Garantie. Nur die wenigsten halten solche Karten länger als zwei Jahre im Rechner.
Ich sehe hier überhaupt kein Problem.

Das viel wichtigere Argument hast du nicht kommentiert. Es ist einfach unnötig, das ist IMHO der Punkt. Es kann doch nicht sein, dass hier ein derartiges Transitorenmonster entwickelt wird, und dann an solchen Kleinigkeiten gespart wird. Natürlich ist das bei der Stromrechnung am Ende fast ein belangloser Betrag, und auch das Argument mit der Lebensdauer ist sicherlich blödsinn, aber trotzdem ist es eben nicht toll hier für ein einfaches 2D-Bild derart viel Leistung in den Sand zu setzen.

dargo
2007-01-30, 21:11:02
"Es geht besser"? Bist du Ingenieur? Schonmal solch eine Grafikkarte entworfen und produziert? Wahrscheinlich nicht.
Mit was vergleichst du die Karte? G71? Der hat nur 1/3 der Transistoren des G80. Klar, dass der kühler bleibt...

Nun mal langsam. Ist der Stromverbrauch einer G8800GTX bei Last auch drei mal so hoch wie bei einer G7900GTX? Nein, vielleicht solltest du mal in diese Richtung auch denken.

reunion
2007-01-30, 21:12:55
Nun mal langsam. Ist der Stromverbrauch einer G8800GTX bei Last auch drei mal so hoch wie bei einer G7900GTX? Nein, vielleicht solltest du mal in diese Richtung auch denken.

Auch der Stromverbauch unter idle ist sicherlich nicht dreimal so hoch, sofern G80 keine ~100W im idle-Mode verbraucht. Das Verhältnis idle/Last ist AFAIk zwischen G71 und G80 weitestgehend ident.

LovesuckZ
2007-01-30, 21:13:20
Das viel wichtigere Argument hast du nicht kommentiert. Es ist einfach unnötig, das ist IMHO der Punkt.

Welcher Punkt? Die Karte ist leise und wird nicht wärmer als ein r580. Punkt.
Wer Angst hat, dass sie innerhalb von 5 Jahren kaputt geht, kann zu einem Hersteller greifen, der "lebenslange" Garantie anbietet. Punkt.
Wem der IDLE - Stromverbrauch stört, der kauft die Karte nicht. Punkt.
Warum ist der r580 eigentlich so warm und laut im 2D Modus? Wohl auch eine Fehlkonstruktion, gell? :rolleyes:

reunion
2007-01-30, 21:19:18
Welcher Punkt?

Du weißt genau, auf was ich mich bezog, und dein restlicher Beitrag ist bestenfalls als Provokation zu werten.

dargo
2007-01-30, 21:19:36
Auch der Stromverbauch unter idle ist sicherlich nicht dreimal so hoch, sofern G80 keine ~100W im idle-Mode verbraucht. Das Verhältnis idle/Last ist AFAIk zwischen G71 und G80 weitestgehend ident.
Nicht ganz - 31/84W vs ~65/145W.

boxleitnerb
2007-01-30, 21:21:34
Ich versuche zumindest, wie ein Ingenieur zu denken, weil ich Elektro- und Informationstechnik studiere.
Okay, das mit der Lebensdauer ist vielleicht wirklich Unsinn, aber genauso ist es Unsinn, mehr zu verpulvern als notwendig ist.
Ich kann natürlich auf andere Produkte zeigen und sagen: Schaut mal wie schlecht das ist im Vergleich zu meinem!
Aber:
Warum frage ich mich als Entwickler nicht: Was kann ich BESSER machen?

Hat man bei den Optimierungen damals gesagt: Der andere ist NOCH schlechter als wir, reicht ja eigentlich!
Nein, mit dem G80 hat man alles verbessert und hat die Latte extrem hoch gelegt. Warum also nicht in allen Belangen?
Und wegen so einem Mist auch nur einen potentiellen Kunden zu vergraulen, ist total bescheuert.
Soweit meine Meinung.

reunion
2007-01-30, 21:23:42
Nicht ganz - 31/84W vs ~65/145W.

Okay, falsch erinnert. Hier fehlt halt noch die Taktabsenkung in 2D, welche G71 AFAIK noch hatte.

LovesuckZ
2007-01-30, 21:23:59
Nicht ganz - 31/84W vs ~65/145W.

Die Werte stammen woher?
Schaue ich mir die Gesamtaufnahmen der System von Computerbase und Techreport.com an, dann kann man erkennen, dass eine 8800GTX unter 2D 33 bzw. 24 Watt und unter 3D 59 bzw 51 Watt mehr verbraucht/zieht.

Reunion, nein, der Punkt ist eben nicht klar. "Unnötig" in welchen Zusammenhang?
Auch die 7900GTX zog im 2D Modus "viel", wenn es mit dem r580 verglichen wird. Hier hat niemand geschriehen.

boxleitnerb
2007-01-30, 21:26:39
Sag mal, LovesuckZ, ist das so schwer?
Wenn ich mit ca. doppeltem Einsatz (was die Wattzahl angeht) das gleiche produziere (ein 2D-Bild), wie eine andere Karte, dann stimmt da was nicht. Da brauchst du dich gar nicht rauszureden oder mit irgendwelchen anderen Dingen zu kommen, das ist so. Punkt.
Der G80 ist eine geniale Karte, aber das wäre das i-Tüpfelchen, was noch fehlt.

LovesuckZ
2007-01-30, 21:35:20
Sag mal, LovesuckZ, ist das so schwer?
Wenn ich mit ca. doppeltem Einsatz (was die Wattzahl angeht) das gleiche produziere (ein 2D-Bild), wie eine andere Karte, dann stimmt da was nicht.

Dieser Logik folgend müsste alles, was über einer Onboard - Einheit angesiedelt ist, eine Fehlkonstruktion sein.

boxleitnerb
2007-01-30, 21:36:47
Tja, ich fände es sowieso besser, die 3D-Karte entweder abzuschalten im Idle oder ihr einen 2D-Teil zu verpassen und alles andere ruhen zu lassen, wenn es nicht gebraucht wird.
Genau aus dem Grund kann ich mich auch mit AeroGlass nicht anfreunden.

reunion
2007-01-30, 21:43:01
Reunion, nein, der Punkt ist eben nicht klar. "Unnötig" in welchen Zusammenhang?
Auch die 7900GTX zog im 2D Modus "viel", wenn es mit dem r580 verglichen wird. Hier hat niemand geschriehen.

Die 7900GTX zog in 2D ziemlich genau gleich viel wie ein R580. Und durch den wesentlich höheren Stromverbrauch von R580 unter Last hat sich hier natürlich niemand aufgeregt.

Dieser Logik folgend müsste alles, was über einer Onboard - Einheit angesiedelt ist, eine Fehlkonstruktion sein.

Man kann solche Kritiken natürlich mit unrealistischen Vergleichen ins lächerliche ziehen. Der Punkt ist einfach, dass man nur mittels Takt- und Spannungsabsenkung im 2D, wo ja wirklich jede aktuelle Grafikkarte mehr als genug Performance liefert, einen deutlich sparsameren Betrieb ermöglichen könnte - und das ist eigentlich schon seit Jahren üblich, und wurde jetzt unverständlicherweise von nV gestrichen. Schön, dass du das toll findest, ich tue das jedenfalls nicht. Man muss nicht aus jeder Mücke einen Elefanten machen, aber (berechtigte) Kritik sollte nV dafür schon erhalten.

LovesuckZ
2007-01-30, 22:02:58
Die 7900GTX zog in 2D ziemlich genau gleich viel wie ein R580. Und durch den wesentlich höheren Stromverbrauch von R580 unter Last hat sich hier natürlich niemand aufgeregt.

Es geht um 2D.

Man kann solche Kritiken natürlich mit unrealistischen Vergleichen ins lächerliche ziehen.

Ich habe Bezug auf boxleitnerb genommen. Und eine Onboard - Einheit zeichnet das gleiche 2D Bild mit deutlich niedrigen Stromverbrauch.
Das hat nichts mit "unrealistischen Vergleichen ins lächerliche ziehen" zu tun, sondern ist nur seine Logik gewesen.

Der Punkt ist einfach, dass man nur mittels Takt- und Spannungsabsenkung im 2D, wo ja wirklich jede aktuelle Grafikkarte mehr als genug Performance liefert, einen deutlich sparsameren Betrieb ermöglichen könnte - und das ist eigentlich schon seit Jahren üblich, und wurde jetzt unverständlicherweise von nV gestrichen.

Der Stromverbrauch der GTX im 2D Modus ist im Vergleich zum r580 auch zu hoch für eine Karte, die deutlich weniger Transistoren hat. Jedoch gab es hier keine Aufreger und Greenpeacedemonstrationen.
Und wem es stört, kann den Takt der 8800GTX selbst regeln.

Schön, dass du das toll findest, ich tue das jedenfalls nicht. Man muss nicht aus jeder Mücke einen Elefanten machen, aber (berechtigte) Kritik sollte nV dafür schon erhalten.

Wir wissen doch, warum wir beide diese Meinung haben.
Ich, weil ich zu nvidia gebunden bin, du, weil du AMD favorisierst.

boxleitnerb
2007-01-30, 22:12:09
Dass eine 2D-Einheit auf dem Mainboard das Optimum am Verbrauch wäre ist so sonnenklar. Das hast du nur erwähnt, um dem Argument auszuweichen.
G80 braucht mehr Energie um ein 2D-Bild zu zeichnen als jeder andere Chip vor ihm. Mehr habe ich nicht gesagt, und um mehr geht es bei dieser spezifischen Kritik nicht.
Und hör doch mit den Vergleichen zu ATI oder G7x auf! Darum geht es überhaupt nicht! Wie vorhin gesagt: Betrachte die absoluten Fakten, die auf den G80 und sonst nix bezogen sind: ca. 60W für den Desktop.

LovesuckZ
2007-01-30, 22:25:00
G80 braucht mehr Energie um ein 2D-Bild zu zeichnen als jeder andere Chip vor ihm. Mehr habe ich nicht gesagt, und um mehr geht es bei dieser spezifischen Kritik nicht.


Es ist kein Problem, aber es geht besser, und DAS ist der Punkt!

Der Chip ist riesig. Er hat dreimal soviele Transistoren wie der G71. Wie soll es da besser gehen?
Andere Karten sind weniger komplex.

Betrachte die absoluten Fakten, die auf den G80 und sonst nix bezogen sind: ca. 60W für den Desktop.

Falscher Weg.
Um etwas als "gut" und "böse" bezeichnen zu können, muss man den Vergleich mit anderen Karten ziehen.
Wenn ich also angucke, dass ich einen Chip mit ca. 700 Millionen Transistoren in 90nm habe, dann sind die 30 Watt mehr noch akzeptabel.
Wer im 2D Modus weniger Strom verbrauchen will, kauft sich auch keine 7900GTX, X1950XTX oder sonstige High - End Karten.

boxleitnerb
2007-01-30, 22:35:03
Ein Vergleich ist gar nicht nötig, denn schon der gesunde Menschenverstand sagt einem, dass die ca. 60W zuviel sind.
Und das mit der Transistorenzahl lasse ich nicht gelten - die kann man abschalten. Selbst den Grossteil des Speichers könnte man abschalten.
Wie es ausserdem besser gehen soll? Wurde doch schon so oft erwähnt! Takt und Spannung runter. So einfach, so simpel.

Warum tut man das nicht? Vorher gings auch, warum nicht jetzt?

Das muss vom Hersteller aus gehen. Für den Kunden ist es eine Zumutung, selbst Hand anlegen zu müssen.

Wie du es drehst oder wendest, es ist ein kleiner Makel. Dass man das nicht zugeben kann, ist mir total unverständlich. Immerhin macht jeder Fehler. Langsam glaube ich, bei deinem Fanboy Seitenhieb gegen reunion darfst du dir selbst an die Nase fassen. Denn Fanboys lassen keinerlei Kritik aufkommen, alles am Produkt ist toll, alles wird mit Zähnen und Klauen verteidigt. Wie wärs mit ein bisschen Objektivität bitte?

Die gelbe Eule
2007-01-30, 22:44:11
Kommt ihr mal wieder runter? Thema ist G80, nicht G70. Es hilft dem Threadersteller herzlich wenig, wenn andere Karten das können, seine aber nicht. Fakt ist, keiner weiß ob es am Treiber liegt oder nicht, naheliegenste Vermutung ist, daß die Karte eh nur für Vista gedacht ist und Aeroglass sich damit nahezu anbietet, was nunmal in 3D stattfindet. Fallbacks auf das Klassikmenue oder ältere Systeme sind zwar da, aber haben nicht Priorität.

LovesuckZ
2007-01-30, 22:45:11
Ich bin ein Fanboy, ich streite es seit langem nicht mehr ab. Das sollten andere auch machen, so diskutiert es sich viel besser.
Objektivität gibt es nur bei Robotern, nicht bei uns. So wie du deine "Objektivität" anhand von "Wunschvorstellungen" darlegst, versuche ich meine Meinung anhand der vorhandene Bedingungen zu erklären.
Du hast Problem, dass du denkst, dass es einfach geht. Ohne das Hintergrundwissen, welches ich auch nicht habe, voreilige Schlüsse zu ziehen ist auch nicht die feine Art.

ShadowXX
2007-01-30, 22:51:27
Kommt ihr mal wieder runter? Thema ist G80, nicht G70. Es hilft dem Threadersteller herzlich wenig, wenn andere Karten das können, seine aber nicht. Fakt ist, keiner weiß ob es am Treiber liegt oder nicht, naheliegenste Vermutung ist, daß die Karte eh nur für Vista gedacht ist und Aeroglass sich damit nahezu anbietet, was nunmal in 3D stattfindet. Fallbacks auf das Klassikmenue oder ältere Systeme sind zwar da, aber haben nicht Priorität.
Das liegt nicht am Treiber.....nV hat schon vor "Urzeiten" gesagt, das das eine Designentscheidung war.

reunion
2007-01-30, 23:01:21
Der Stromverbrauch der GTX im 2D Modus ist im Vergleich zum r580 auch zu hoch für eine Karte, die deutlich weniger Transistoren hat. Jedoch gab es hier keine Aufreger und Greenpeacedemonstrationen.
Und wem es stört, kann den Takt der 8800GTX selbst regeln.


Seltsame Begründung. Nur weil es da auch so war, macht es dies woanders nicht besser. Und warum da niemand geschriehen hatte, liegt auch auf der Hand: G71 war einfach sehr genügsam, was den stromverbrauch betrifft, und deshalb fiel das nicht ins Gewicht.


Wir wissen doch, warum wir beide diese Meinung haben.
Ich, weil ich zu nvidia gebunden bin, du, weil du AMD favorisierst.

Das ist zwar richtig, damit machst du es dir aber IMHO etwas einfach. Man kann auch etwas kritisieren, was man favorisiert.

Fakt ist, keiner weiß ob es am Treiber liegt oder nicht, naheliegenste Vermutung ist, daß die Karte eh nur für Vista gedacht ist und Aeroglass sich damit nahezu anbietet, was nunmal in 3D stattfindet. Fallbacks auf das Klassikmenue oder ältere Systeme sind zwar da, aber haben nicht Priorität.

Auch bei Aeroglass wären wesentlich niedrigere Taktraten mehr als außreichend. Ist ja nicht so, dass hier der Grafikkarte das letzte abverlangt werden würde.

LovesuckZ
2007-01-30, 23:14:11
Man kann auch etwas kritisieren, was man favorisiert.


Warten wir ab.

Die gelbe Eule
2007-01-30, 23:17:03
Auch bei Aeroglass wären wesentlich niedrigere Taktraten mehr als außreichend. Ist ja nicht so, dass hier der Grafikkarte das letzte abverlangt werden würde.

Thema ist aber hier 2D und nicht 3D, als wäre es völlig egal welche Taktraten der G80 unter Aeroglass braucht oder nicht.

dargo
2007-01-31, 06:09:02
Die Werte stammen woher?

http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html
http://www.xbitlabs.com/articles/video/display/gf8800_11.html

Bei der G8800GTX bin ich mir jetzt nicht sicher ob das NV Angabe ist oder Messung seitens xbitlabs. Den 2D Verbrauch einer G8800GTX kenne ich aus diversen Review-Messungen des Gesamtsystems. Daraus errechne ich einen Idle Verbrauch von 65-68W.

Fakt ist, keiner weiß ob es am Treiber liegt oder nicht, naheliegenste Vermutung ist, daß die Karte eh nur für Vista gedacht ist und Aeroglass sich damit nahezu anbietet, was nunmal in 3D stattfindet.
Nee, Aeroglass versetzt die Grafikkarte nicht in den 3D Modus. Es gab mal eine Messung und die Aero-Oberfläche hat ca. 1W mehr gezogen als ohne. Also eher uninteressant.

reunion
2007-01-31, 11:06:50
Thema ist aber hier 2D und nicht 3D, als wäre es völlig egal welche Taktraten der G80 unter Aeroglass braucht oder nicht.

Erzähl' keinen Stuss. Ist es eben nicht, da sich auch hier jede Karte auf die 2D-Taktraten heruntertaktet.

Die gelbe Eule
2007-01-31, 13:24:30
Interessant, eine 3D Applikation läßt sich in 2D darstellen, das wäre mir neu ...
Wie kann die G80 auf 2D Taktraten heruntergehen, wenn sie doch gar keinen 2D Modus hat?

reunion
2007-01-31, 13:37:20
Ein G80 kann das logischerweise nicht, aber der kann es auch unter 2D nicht. Ich habe ja nicht ohne Grund "jede andere Karte" geschrieben. Denn jede andere Karte taktet sich auch mit Aeroglass auf 2D-Taktraten herunter, mit der 3D-Darstellung hat das nicht das geringste zu tun. Daher ist dein Argument, man habe G80 für Aeroglass entwickelt, und da machen niedrigere Desktoptaktraten keine Sinn Stuss.

Gast
2007-01-31, 13:38:00
Und das mit der Transistorenzahl lasse ich nicht gelten - die kann man abschalten. Selbst den Grossteil des Speichers könnte man abschalten.
Wie es ausserdem besser gehen soll? Wurde doch schon so oft erwähnt! Takt und Spannung runter. So einfach, so simpel. Schon mal in Betracht gezogen, dass es beim G80 doch nicht so simpel und einfach ist, wie du es dir vorstellst? Wenn es so einfach wäre, warum hat NV es dann nicht gemacht? Vielleicht hatten sie es ja sogar vor, haben es aber aufgrund irgendwelcher Probleme dann doch gelassen?

Gast
2007-01-31, 13:47:47
Es ist ganz einfach man NUR DAS BIOS anpassen!
Ich hab in 3D>1.27v
Thrtl>1.1v
2D>1.1v
Karten OC Bios>2D>621/900..3D 621/999

und fertig,Euer Gejammer geht mir langsam auf den Keks!

dargo
2007-01-31, 14:59:25
Es ist ganz einfach man NUR DAS BIOS anpassen!
Ich hab in 3D>1.27v
Thrtl>1.1v
2D>1.1v
Karten OC Bios>2D>621/900..3D 621/999

und fertig,Euer Gejammer geht mir langsam auf den Keks!
Hast du es mit einem Strommessgerät auch überprüft, dass die geringere Spannung übernommen wird?

Die gelbe Eule
2007-01-31, 15:05:38
Ein G80 kann das logischerweise nicht, aber der kann es auch unter 2D nicht. Ich habe ja nicht ohne Grund "jede andere Karte" geschrieben. Denn jede andere Karte taktet sich auch mit Aeroglass auf 2D-Taktraten herunter, mit der 3D-Darstellung hat das nicht das geringste zu tun. Daher ist dein Argument, man habe G80 für Aeroglass entwickelt, und da machen niedrigere Desktoptaktraten keine Sinn Stuss.

Der G80 braucht unter Vista gar kein 2D, darauf wollte ich hinaus.

WoDi
2007-01-31, 15:15:36
@dargo
Hast du es mit einem Strommessgerät auch überprüft, dass die geringere Spannung übernommen wird?

Wie kannst Du mit einem Strommeßgerät eine Spannung messen?:wink:

dargo
2007-01-31, 15:16:38
Der G80 braucht unter Vista gar kein 2D, darauf wollte ich hinaus.
Ich glaube du vewechselst hier was. Der 2D Modus der Grafikkarten (außer G80) hat rein gar nichts mit der 2D Darstellung zu tun. Für die paar 3D Fenster unter Vista wird keine Grafikkarte in den 3D Modus versetzt (falls die Graka 2D/3D Modis anbietet). Dafür benötigt die Aero-Oberfläche viel zu wenig Power. Wie gesagt +~1W.

dargo
2007-01-31, 15:17:52
@dargo

Wie kannst Du mit einem Strommeßgerät eine Spannung messen?:wink:
Öhm, die Leistung sollte bei Idle vielleicht geringer sein? :| :rolleyes:

WoDi
2007-01-31, 15:22:44
Ja, sollte ...:smile:

Gast
2007-01-31, 16:22:52
Hast du es mit einem Strommessgerät auch überprüft, dass die geringere Spannung übernommen wird?

da muß ich nix überprüfen oder drannhalten das seh ich an den Temps vor und nach dem flash.

dargo
2007-01-31, 16:40:28
da muß ich nix überprüfen oder drannhalten das seh ich an den Temps vor und nach dem flash.
Ok, so gehts natürlich auch. :tongue:
Um wieviel °C ist die Temp. gefallen? Falls du ein Strommessgerät hast messe bitte den Stromverbrauch vorher und nachher. Mich würde es brennend interessieren wieviel Watt es ausmacht. Aber wenn es bei dir gut funktioniert ist es vielleicht möglich, dass bald eine entsprechende Software (zb. Rivatuner) rauskommt mit der man die Spannungen ändern kann. Wie gesagt, nicht jeder wird sich trauen ein neues Bios zu flashen. Ich würde es wahrscheinlich bei einer ~500€ Graka auch nicht tun.

Gast
2007-01-31, 17:05:20
Du glaubst doch nicht das Unwinder noch was neues bringt....bei den ganzen Pfeifen...die immer nocht nicht gerafft haben das die Karten falsch takten und kein GammaAA geht..oder?

zum Thema
49 Idle max 73 Last und die rennt wie gesagt 612/999 allerdings sind die shader auch angepaßt.

OC_Burner
2007-01-31, 17:33:51
Mit dem neuem NibiTor 3.2 das Bios verändert? Habe gerade mit der Version rumgespielt und die Spannungen gesenkt. Mein Strommessgerät zeigt kein Unterschied.

Wie damals... Link (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=331885&page=5)

dargo
2007-01-31, 17:36:53
zum Thema
49 Idle max 73 Last und die rennt wie gesagt 612/999 allerdings sind die shader auch angepaßt.
Das hört sich sehr gut an. Jetzt müsste nur noch entsprechende Software für Spannungsreduzierung erscheinen dann könnte ich mich mit dem G80 anfreunden. :)

Gast
2007-01-31, 17:41:00
Also ich habe per AtiTool Core/Mem meiner 8800GTX in 2D auf 200/300MHz runtergetaktet und es hat mit gleichzeitigem Anheben des Graka-Lüfters auf dauerhaft 80% knapp 10°C Temperaturabsenkung im Windows-Betrieb gebracht (momentan knapp über 50°C). Ich hatte schon mal noch niedriger getaktet, aber da kam es ab und zu zu Bildfehlern. Im 3D-Betrieb bei meinem harwarehungrigsten Spiel (NWN2) komme ich durch die Anhebung der Lüfterdrehzahl auf um die 78-80°C. Leider gibt es momentan kein AtiTool o.ä. Tool für Vista. Deshalb hört sich das mit dem BIOS-Mod erstmal garnicht schlecht an. Aber das Risiko, ne 600 EUR-Karte zu schrotten ist auch nicht ganz ohne.

Klaus

Gast
2007-01-31, 18:17:29
Mit dem neuem NibiTor 3.2 das Bios verändert? Habe gerade mit der Version rumgespielt und die Spannungen gesenkt. Mein Strommessgerät zeigt kein Unterschied.

Wie damals... Link (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=331885&page=5)

nö der "Vid" muß richtig angepaßt werden und die Taktraten müssen stimmen....da macht schon 1mhz den Unterschied und nix ändert sich....zb. 999>1000....ist auch leider von Karte zu Karte unterschiedlich.

OC_Burner
2007-01-31, 18:47:49
Und woher weißt du das? Würde auch gerne an deinem Wissen teilhaben... hast du zufällig irgendwelche Links oder könntest du dein Bios der Karte irgendwo uploaden? Ich z.B. nutzte eine Karte von Palit.

Kosh
2007-01-31, 23:33:16
Kapier diese Argumente nicht mit :"Wer 2 GTX kauft, dem können die 200 Euro Stromkosten Extra egal sein".

Nur weil ich ein teures Auto fahre, fahre ich nicht unnötigerweise nur im 2ten gang mit 80 durch die Gegend und verblase unnötig Benzin.

Oder ich lasse auch nicht im ganzen Haus alle Lichter an,nur weil ich die Stromkosten bezahlen kann.

Die 88x Karten sind richtig geil, aber dieses fehlende Stromsparfeauture ist erbämlich.

Ich habe zB zwei PCs, einen Internet PC und einen Spiele PC. Eigentlich habe ich meistens beide an.Da stört es mich schon,wenn einer unnötiger Weise Strom verfeuert obwohl ich gerade nichts dran mache.

Da ich meine Hardware des Spiele PCs nach dem aufrüsten in den Internet PC stecke, habe ich mehr als 2 Jahre was davon und bei 2 PCs auch viel Leerlauf.
Da will ich einfach keine Stromverschwender laufen haben.

Da kaufe ich mir lieber im Jahr 4 Spiele mehr,als den Russischen Mafiosis noch mehr Milliarden zukommen zu lassen.

LovesuckZ
2007-01-31, 23:36:27
Ich habe zB zwei PCs, einen Internet PC und einen Spiele PC. Eigentlich habe ich meistens beide an.Da stört es mich schon,wenn einer unnötiger Weise Strom verfeuert obwohl ich gerade nichts dran mache.


Meinst du das ernst?
Aber genau das meine ich: Wer soll bei solchen Argumenten diese Wenigstromverbrauch - Diskussion ernst nehmen?
Du beschwerst dich, dass der G80 im 2D Modus mehr verbraucht, lässt aber gleichzeitig zwei PCs laufen?
Eine Medaille für "WenigStromVerbrauch" bekommst du so nicht...

dargo
2007-02-01, 06:41:26
Meinst du das ernst?

Schon mal dran gedacht, dass er vielleicht auch beide braucht?

LovesuckZ
2007-02-01, 17:39:55
Schon mal dran gedacht, dass er vielleicht auch beide braucht?


Ich habe zB zwei PCs, einen Internet PC und einen Spiele PC. Eigentlich habe ich meistens beide an.Da stört es mich schon,wenn einer unnötiger Weise Strom verfeuert obwohl ich gerade nichts dran mache.

Auch wenn er beide benötigen würde, dann ist die Stromverbrauchsdebatte mit diesem Argument vollkommen sinnlos.
Wer sich den Luxus leisten kann, zwei PCs zu besitzen, der kann auch für beide den Strom bezahlen. Wer weniger Strom verbrauchen will, schaltet einen aus.

joe kongo
2007-02-01, 18:25:17
Ich hab gleich nach dem Kauf der GTX die 12V (beide PCIE Stecker zusammengefasst) mit einer DC Stromzange gemessen. Beim Desktop warens etwa 2,7A (leicht schwankend) und unter 3DMark stark schwankend so um die 6-7A herum.
Was die Karte übern PCI Slot aufnimmt keine Ahnung.

dargo
2007-02-03, 17:43:00
Da sich der G80 anscheinend sehr gut in 2D untertakten lässt könnte bitte von den Usern jemand für mich den Stromverbrauch mit entsprechendem Messgerät (zb. Voltcraft Energy 3000) messen?

Einmal bitte mir standard und einmal mit den kleinsten Taktraten, jeweils in 2D.

Gast
2007-02-03, 20:05:43
Via ATi Tool kann man immernoch seine Grafikkarte unter 2D runtertakten .

Ich hab meine GTX @ 200/200 im IDLE laufen und habe eine Temp. von 42°C - 45°C je nach Zimmertemperatur . Bei 3D Anwendungen taktet sich meine Grafikkarte gleich auf 621/1000 und wird max. 66°C warm, dank RivaTuner . Dort hab ich den Lüfter auf 80% gestellt . Das ist leise und kühlt gut .

Gast
2007-02-03, 20:06:21
Achja, und ich spare mir 24W :) im Idle .

dargo
2007-02-03, 20:58:51
Achja, und ich spare mir 24W :) im Idle .
Danke, endlich mal ein Anhaltspunkt! Das würde also bedeuten, dass die Untertaktung alleine ca. 18-19W Netto (bei 75-80% Effizienz des NTs) weniger bringt. Wären also bei deiner GTX ca. 47-48W Netto. Jetzt müsste man halt die Spannung etwas senken können dann sind wir bei ~30W der Vorgängergeneration. =)

PS: ich gehe immer von standard 66W Netto für die GTX aus.

OC_Burner
2007-02-03, 22:02:12
Ich habe mittlerweile dem Bios meiner Karte ein 2D-Modus mit verringerten Taktraten verpaßt. Die Umschaltung von 2D auf 3D und zurück läuft seit ein paar Tagen bisher ohne Probleme.

Im 2D-Modus läuft sie mit 250MHz GPU und 250MHz Ram. Insgesamt habe ich dadurch eine Ersparnis von gut 16W. Vorher 190W, jetzt 174W.

Leider warte ich immernoch auf die Antwort vom Gast der auch die Spannung per Bios absenken konnte... Schade.:(

Gast
2007-02-03, 23:26:39
Hast du mal einen Link zu dem Bios ?

Kann man eigentlich auch per Bios die Lüftergeschwindigkeit regeln ?

OC_Burner
2007-02-04, 00:19:15
Hier der Link (http://home.arcor.de/christianzirschwitz/2D-Test.rom) meiner Biosversion einer Palit/Xpert 8800GTX die im 2D-Modus @ 250MHz/250MHz läuft. Ich überneheme natürlich keine Haftung für Schäden.

Gast
2007-02-09, 18:50:17
Mich würde es ebenfalls interessieren, inwiefern die Modifikation des BIOS eine Ersparnis gebracht hat bzw. ob die Karte einen niedrigeren Voltwert auch tatsächlich annimmt. Ich schwanke derzeit noch zwischen einer X1950 XT und einer 8800 GTS - bislang war die X1950 mein Favorit, doch bei den stark gefallenen Preisen, wäre die GTS schon eine Überlegung wert. Da ich jedoch mehr im Windows als im Spiel bin, ist mir ein guter Idle-Stromverbrauch nicht ganz unwichtig, weshalb hier bislang die X1950 eindeutig punktet (da man sie ja ebenfalls per Hand noch weiter runtertreten kann und somit auch sie weniger verbraucht als von Werk aus vorgesehen)...

Gast
2007-02-12, 08:13:43
Hier der Link (http://home.arcor.de/christianzirschwitz/2D-Test.rom) meiner Biosversion einer Palit/Xpert 8800GTX die im 2D-Modus @ 250MHz/250MHz läuft. Ich überneheme natürlich keine Haftung für Schäden.


Du solltest auf 255 gehen,dann paßt es>sind dann dann 256,50 im Memory und core clock.

HisN
2007-02-12, 15:02:58
Zu blöd dass das mit der Core-Spannung nicht funktioniert. :-(

Gast
2007-02-12, 15:11:47
natürlich geht es....meine läuft mit 1.1 in 2D und 1.33 in 3D auch der Shadertakt ist geändert man muß nur wissen wie,gelle :D
Aber glaub Du nur :D

HisN
2007-02-12, 15:23:31
Na dann erleuchte uns doch bitte Gast :-)

Gast
2007-02-12, 16:08:54
natürlich geht es....meine läuft mit 1.1 in 2D und 1.33 in 3D auch der Shadertakt ist geändert man muß nur wissen wie,gelle :D
Aber glaub Du nur :D
Hast du auch mal an der Steckdose gemessen, ob das was bringt? Ich habe mal bei mir das mit nem Energy Monitor 3000 überprüft. Da gab es keine Veränderung, obwohl ich die Spannungen verändert habe. Das einzige, was wirklich funktionierte, ist die Taktreduzierung im 2D auf 250. Hat um die 12W Ersparnis gebracht. Die Temperatur sank auch ein bisschen. Bei mir war es also egal, ob neben dem Takt auch die Spannung reduziert wurde. Die Temp und der Verbrauch blieben trotzdem gleich.