PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Ende der Idle-Stromverschwendung?


Undertaker
2007-03-17, 15:55:31
hi

ein klasse meldung die da gerade auf cb zu lesen ist:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/

damit dürfte auch der letzte kritikpunkt an dieser karte gegessen sein, was mich als nutzer natürlich besonders freut :)

mfg undertaker

hans_wurst
2007-03-17, 15:58:30
hi

ein klasse meldung die da gerade auf cb zu lesen ist:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/

damit dürfte auch der letzte kritikpunkt an dieser karte gegessen sein, was mich als nutzer natürlich besonders freut :)

mfg undertaker

Ich liebe nVidiA :biggrin:
Das nenn ich mal Support, TOP

Raff
2007-03-17, 16:03:13
So kann man das natürlich auch sehen. X-D Ich sage eher: Wurde auch mal Zeit! Schön ist, dass es noch beim G80 geschieht und nicht erst bei einem Refresh/Folgechip.

MfG,
Raff

Undertaker
2007-03-17, 16:06:02
nett ist vorallem was alles abgeschaltet werden kann und soll... da kann man bestimmt mit erheblichen verbesserungen rechnen :)

blackbox
2007-03-17, 16:07:22
Ich glaube es erst, wenn der Treiber da ist und auch wirklich funktioniert.

reunion
2007-03-17, 16:09:50
Na da bin ich ja mal gespannt. Bisher hieß es, dass dies durch die hohen Taktunterschiede der clock domains nicht stabil zu bewerkstelligen sei. Auch frage ich mich, warum das mehrer Monate dauert, bis dies per Treiber freigeschaltet werden soll. Wenn man Takt und Spannung per Software ändern kann, und dies auch stabil und zuverlässig läuft, dann stellt sich die Frage, was man da groß herumprogrammieren will. Würde mich nicht wundern, wenn diese Treiber zeitgleich mit G90 erscheint, und leider nicht mit G80 kompatibel ist.

Black-Scorpion
2007-03-17, 16:10:47
Was ist daran Top?
Den Verbrauch wussten die schon bevor das Ding auf den Markt kam.
Und ein halbes Jahr nachdem die Beschwerden über den Idle Verbrauch zu viel werden versucht man einen Treiber zu basteln der den Verbrauch senkt.
Und wie schon da steht, wissen die noch nicht mal selber ob es so einen Treiber jemals gibt.

Wann und ob überhaupt solch ein Treiber erscheinen wird, konnte uns nVidia nicht sagen. Einzig, dass nVidia versucht einen entsprechenden Treiber zu programmieren, kann man als gesichert ansehen.
Quelle: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/

Die News ist also nichts weiter wie hinhalte Taktik.
Hätten sie gar nichts gesagt wären alle genauso schlau wie jetzt.

Mastermind
2007-03-17, 16:12:51
Na da bin ich ja mal gespannt. Bisher hieß es, dass dies durch die hohen Taktunterschiede der clock domains nicht stabil zu bewerkstelligen sei. Auch frage ich mich, warum das mehrer Monate dauert, bis dies per Treiber freigeschaltet werden soll. Wenn man Takt und Spannung per Software ändern kann, und dies auch stabil und zuverlässig läuft, dann frage ich mich, was man da groß herumprogrammieren will.
Hab ich mich auch gefragt. Wird vielleicht eine Art "Hack" sein. :confused:

AnarchX
2007-03-17, 16:16:20
Auch frage ich mich, warum das mehrer Monate dauert, bis dies per Treiber freigeschaltet werden soll.

Die Konkurrenz ist nah und deshalb man beginnt halt seine Karten langsam auszuspielen. ;)

reunion
2007-03-17, 16:16:54
Die News ist also nichts weiter wie hinhalte Taktik.

Eben. Beim defekten Videoprozessor im NV40 hörte man auch alle paar Monate, dass zukünftige Treiber dies ausbügeln würden.

Black-Scorpion
2007-03-17, 16:20:18
Die Konkurrenz ist nah und deshalb man beginnt halt seine Karten langsam auszuspielen. ;)
Die News ist ein Witz und hat mit Karten ausspielen nichts zu tun.
PR Geschwafel der besten Sorte.

reunion
2007-03-17, 16:21:14
Die Konkurrenz ist nah und deshalb man beginnt halt seine Karten langsam auszuspielen. ;)

Ich bin gespannt. Spätestens mit dem R600-Launch gibts keine Ausreden mehr. ;)

Undertaker
2007-03-17, 16:24:08
ich wüsste nicht warum das fake sein sollte... aber all die meckerer haben eh ne ati, euch kann es doch egal sein :D

reunion
2007-03-17, 16:26:06
ich wüsste nicht warum das fake sein sollte...

Ist ja wohl logisch, damit man Kunden bei der Stange hält, die ev. aufgrund des hohe idle-Stromverbauchs von G80 auf R600 warten.

AnarchX
2007-03-17, 16:29:12
Ich bin gespannt. Spätestens mit dem R600-Launch gibts keine Ausreden mehr. ;)

Dass die News mit Vorsicht zu genießen ist klar, aber für mich spricht einiges dafür, dass es möglich sein könnte:
- Shaderclock-Regler für nTune, der noch kommen soll
- mögliche Erkenntnisse von G86-M/G84-M fließen hier ein -> Abschalten von Einheiten
- Zugzwang kommt erst mit der Konkurrenz, auch so verkaufte sich G80 gut

Aber wie schon gesagt, sollte man abwarten, dass man "versucht" den Treiber zu programmieren klingt etwas sonderbar.

Black-Scorpion
2007-03-17, 16:29:59
Dann erzähl doch mal was genau du aus der News ließt?
Da steht nichts, aber auch gar nichts drin.

dargo
2007-03-17, 16:40:02
hi

ein klasse meldung die da gerade auf cb zu lesen ist:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/

damit dürfte auch der letzte kritikpunkt an dieser karte gegessen sein, was mich als nutzer natürlich besonders freut :)

mfg undertaker
Also wenn das NV wirklich schafft und in die normalen Regionen um die ~30W kommt dann ist der G80 so gut wie gekauft. :up:
Erst dann ist der G80 für mich perfekt. =)

Raff
2007-03-17, 16:42:28
[...] aber all die meckerer haben eh ne ati, euch kann es doch egal sein :D

Schon mal daran gedacht, dass das ein Grund dafür sein könnte, keine Nvidia zu haben? ;) Meckern heißt nicht automatisch, dass man von einem Hersteller verblendet ist.

Erst dann ist der G80 für mich perfekt. =)

IMO nicht. Fehlt noch ein Preis um 300€ für 'ne GTX. GTS ist zu lahm, wenn man von unseren Karten ausgeht ... wieder IMO.

MfG,
Raff

dargo
2007-03-17, 16:50:05
IMO nicht. Fehlt noch ein Preis um 300€ für 'ne GTX. GTS ist zu lahm, wenn man von unseren Karten ausgeht ... wieder IMO.

Naja, wir wollen nicht gleich übertreiben. ;)
Mit einer 640MB GTS für 300€ kann ich auch erstmal leben. Die GTS kann man auch gut hochprügeln.

Momentan brauche ich (hätte ich gerne) eigendlich nur mehr Speed in TDU inkl. HDR. Für Call of Juarez würde mehr Speed auch nicht schaden. Und da ich eh auf 1280x1024 begrenzt bin sollte die GTS wieder für ca. 1 Jahr reichen. :)

PS: mit einem Auge auf den R600 guck. :D

Neosix
2007-03-17, 16:56:46
für 300€? kann nicht so recht glauben das die Karte überhaupt in die Regionen kommt oO

Gast
2007-03-17, 16:57:52
Könnte auch einfach unverbindliches PR Geschätz sein. Hauptsache wieder im Gepräch und versuchen, jetzt noch einige Zauderer zum Kauf eines G80 zu bewegen und ihnen mit den angedachten Wundertreiber den Mund wässrig machen. Primitive Taktreduzierungen hätten schon längst im Treiber eingebaut werden können. Besonders fragwürdig ist die angebliche Spannungsreduzierung. Dafür muss das Hardwarelayout ausgelegt sein bzw. eine Logik dafür vorhanden sein. Bis jetzt sind alle, jedenfalls bei mir, manuell versuchte Voltageveränderungen ohne Wirkung geblieben. Das einzige was nachweisbar etwas bringt, ist die manuelle Taktabsenkung. Ich denke aber, dass der Refresh des G80 auf jeden Fall eine für den Idle Modus abgesenkte Voltage bieten wird, gerade jetzt wo das Thema Energieverbrauch in aller Munde ist und auch zu einem Verkaufsargument geworden ist und somit der Druck auf die Hersteller wächst.

(+44)
2007-03-17, 17:02:30
Als G80-Besitzer betrachte ich das leider auch skeptisch - monatelang bekommen wir keine vernünftigen Treiber - und nun sollen die an nem Treiber arbeiten, der auchnoch den Stromverbrauch verbessert?

Wann soll der kommen? Im Frühjahr 2008? ;D

HisN
2007-03-17, 17:07:48
Und vor allem für welches OS :-)

Gast
2007-03-17, 17:13:10
Als G80-Besitzer betrachte ich das leider auch skeptisch - monatelang bekommen wir keine vernünftigen Treiber - und nun sollen die an nem Treiber arbeiten, der auchnoch den Stromverbrauch verbessert?

Wann soll der kommen? Im Frühjahr 2008? ;D
Vernünftige Treiber gibt's eigentlich auch bis jetzt nur für Vista.

Gast
2007-03-17, 17:36:50
Wegen dem hohen Stromverbrauch des G80 auf den R600 warten? Der war gut, ein richtiger Brüller. Wenn ich mir eine Highendkarte kaufe, dann wohl um zu 90% damit zu spielen. Und wenn ich dann sehe, daß der R600 240 Watt unter 3D verbraten soll, dann kann ich die o.g. Aussage nur müde belächeln.

Mitch O'Neil
2007-03-17, 17:38:13
Vernünftige Treiber gibt's eigentlich auch bis jetzt nur für Vista.

Und genau das ist momentan der Hauptgrund für mich keine 8800GTS zu kaufen.

Das Auge
2007-03-17, 17:46:43
Was bin ich froh, daß ich eine 7900GX2 hab für die es ausgereifte Treiber gibt und die immer noch so schnell ist wie eine GTS.
Dem PR-Heini glaub ich btw. kein Wort, ich will Fakten sehen :P

Hoffentlich spendiert ati dem R600 einen idle-Modus...

Undertaker
2007-03-17, 17:54:42
die gx2 veridlet (geiles wort) btw genausoviel ;)

dildo4u
2007-03-17, 17:56:10
Ich schätze der Treiber kommt zusammen mit dem Mobile G80.

http://uk.theinquirer.net/?article=38250

Gast
2007-03-17, 17:58:24
Das glaube ich nvidia nicht ! Wenns vernünftig möglich gewesen währe, hätte man das schon längst umgesetzt, ergo ist das nur billiges und peinliches PR-Geschwafel um die G80 Ladenhüter unters Volk zu bringen. Dieser Idle Stromverbrauch hat übrigens verhindert, das ich einen G80 hole. Das gleiche gilt für den R600, irgendwo muss doch mal ein Schlussstrich gezogen werden, es kann doch nicht sein, das die CPU Hersteller den Energieverbrauch um 50% reduzieren damit die GPU Hersteller diese Ersparnis mit 200% erhöhten Verbrauch wieder zunichte machen. Ganz klar: Die GPU Hersteller haben die Zeichen der Zeit verpennt! Es wird Zeit das die Politik (wie bereits in Diskussion) Vorgaben für PCs erlässt, um diesen Energie-Irrsinn zu stoppen !
Wenn manche Eltern nur wüßten, das ihre Hosenscheisser mit bis zu 0,5 KW und mehr Rechnern rumspielen. So was gehört verboten.
Die Nvidia 7er Serie war in der Energiebilanz gut.

dildo4u
2007-03-17, 18:02:02
Das glaube ich nvidia nicht ! Wenns vernünftig möglich gewesen währe, hätte man das schon längst umgesetzt, ergo ist das nur billiges und peinliches PR-Geschwafel um die G80 Ladenhüter unters Volk zu bringen.
Dazu mal das. ;)

"Abseits der Gerüchte und Spekulationen war zu merken, dass die Stimmung – vor allem auf Seiten von HIS – angespannt war, da man schon seit Weihnachten auf einen Konkurrenz-Chip wartet, der mit der achten GeForce Generation mithalten kann. So kommt es, dass die Verkäufe momentan am Boden liegen, was vor allem für die High-End-Karten gilt, die trotz des günstigen Preises Ladenhüter sind."

http://www.k-hardware.de/news.php?s=c&news_id=6395

Das Auge
2007-03-17, 18:05:59
die gx2 veridlet (geiles wort) btw genausoviel ;)

Nö, etwas weniger laut CB. Aber noch wichtiger ist, daß es für die Karte gute XP-Treiber gibt. Hab den letzten offiziellen jetzt seit über 4 Monaten drauf und alles läuft rund! ;)

Gast
2007-03-17, 18:09:48
Ich bin gespannt. Spätestens mit dem R600-Launch gibts keine Ausreden mehr. ;)
wenn der R600 da ist muss NV den stromverbrauch nicht mehr senken ;)

Black-Scorpion
2007-03-17, 18:14:09
Und das weißt du woher?
Ach stimmt ja, die ominösen 240W die durchs Netz geistern.
Nur das es hier um den Idle Verbrauch geht und da vom R600 nichts bekannt ist und auch nichts durchs Netz geistert.

Gast
2007-03-17, 18:15:00
hi

ein klasse meldung die da gerade auf cb zu lesen ist:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/

damit dürfte auch der letzte kritikpunkt an dieser karte gegessen sein, was mich als nutzer natürlich besonders freut :)

mfg undertaker

Sorry, du hast aber probleme einen einfachen text zu verstehen.
Die idle-strom problematik besteht immer noch und es ist nicht sicher ob das problem behoben werden kann.
Also, warum freust du dich noch mal???

gruss

Undertaker
2007-03-17, 18:20:48
Nö, etwas weniger laut CB. Aber noch wichtiger ist, daß es für die Karte gute XP-Treiber gibt. Hab den letzten offiziellen jetzt seit über 4 Monaten drauf und alles läuft rund! ;)

bei 200w gesammt fällt das schon fast unter messungenauigkeit ;) wenn man treiber im zusammenhang mit einer gx2 sieht sollte man auch immer das sli-problem betrachten, ohne gefrickel ist die leistung da häufiger mal entäuschend

Sorry, du hast aber probleme einen einfachen text zu verstehen.
Die idle-strom problematik besteht immer noch und es ist nicht sicher ob das problem behoben werden kann.
Also, warum freust du dich noch mal???

gruss

weil ich der aussage einer seite wie computerbase mehr glauben schenke als den fanatikern? ;)

technisch sind keine unlösbaren probleme für diese ankündigung zu sehen, vielmehr scheinen sich hier einige angepisst zu fühlen weil ein aktueller kritikpunkt bei der anderen seite wegegefallen ist... sry das ist nicht besonders niveauvoll...

StefanV
2007-03-17, 18:26:38
Die Frage ist aber wirklich, warum hat man dieses Problem nicht gleich von Anfang an beseitigt, so dass es garnicht erst aufgetreten ist??

Vielleicht weils ja doch nicht so einfach ist undnur schwer möglich und man es aus stabilitätsgründen unterlassen hat?
K7 lässt grüßen...

Coda
2007-03-17, 18:36:13
Na da bin ich ja mal gespannt. Bisher hieß es, dass dies durch die hohen Taktunterschiede der clock domains nicht stabil zu bewerkstelligen sei. Auch frage ich mich, warum das mehrer Monate dauert, bis dies per Treiber freigeschaltet werden soll. Wenn man Takt und Spannung per Software ändern kann, und dies auch stabil und zuverlässig läuft, dann stellt sich die Frage, was man da groß herumprogrammieren will. Würde mich nicht wundern, wenn diese Treiber zeitgleich mit G90 erscheint, und leider nicht mit G80 kompatibel ist.
Sag mal reunion, hast du eigentlich wirklich nichts besseres zu tun als alles was positiv nVIDIA ist schlechtzureden?

Nein, das bilde ich mir ganz bestimmt nicht ein.

Black-Scorpion
2007-03-17, 18:38:31
weil ich der aussage einer seite wie computerbase mehr glauben schenke als den fanatikern? ;)

technisch sind keine unlösbaren probleme für diese ankündigung zu sehen, vielmehr scheinen sich hier einige angepisst zu fühlen weil ein aktueller kritikpunkt bei der anderen seite wegegefallen ist... sry das ist nicht besonders niveauvoll...
Sorry wenn das hart klingt, aber du kannst anscheined wirklich nicht lesen.
In der PR News steht nichts, extra für dich nochmal nichts, was einen Jubelschrei auslösen kann.
Vor allem wenn man ließt was da steht das die selber nicht wissen ob so ein Treiber überhaupt kommt.

reunion
2007-03-17, 19:10:07
Sag mal reunion, hast du eigentlich wirklich nichts besseres zu tun als alles was positiv nVIDIA ist schlechtzureden?

Nein, das bilde ich mir ganz bestimmt nicht ein.

Wenn dir meine Beiträge nicht passen, dann ignoriere sie. Ich habe ja dargelegt, warum ich das für seltsam halte.

Super Grobi
2007-03-17, 19:21:54
Ich würde mich SEHR freuen, wenn das klappen würde. ich bin in Games total zufrieden mit meiner GTS. So zufrieden war ich lange nicht mehr mit einer neuen Graka und ich hab in den letzten 24M sehr viel Geld für Grakas verschleudert *ggg*

Allerdings hab ich schon auf die neue Ati Serie geglotzt und war mir schon sicher, eine solche mir zu kaufen, wenn diese einen 2D Modus hat (natürlich nicht die Leistungsstärste, sondern ein Ding zwischen GTS und GTX).

Packt NV das, bleib ich bei der GTS.

Mir würde auch ein extra Tool reichen, mit dem man die Karte manuell zwischen 2d und 3d schalten kann. Das muss noch nichtmal im Treiber drin sein. Ein Trayicon und schön mit einem rechtsklick zwischen die Modi wechseln und fertig.

SG

p.s.
so viel geschrieben, aber vergessen, warum mir das wichtig ist :crazy: Mein PC läuft täglich über 10h idle!

Undertaker
2007-03-17, 19:40:25
Sorry wenn das hart klingt, aber du kannst anscheined wirklich nicht lesen.
In der PR News steht nichts, extra für dich nochmal nichts, was einen Jubelschrei auslösen kann.
Vor allem wenn man ließt was da steht das die selber nicht wissen ob so ein Treiber überhaupt kommt.

es steht drin, dass an einem treiber gearbeitet wird. taktsenkungen im 2d sind überhaupt kein problem (machen die meisten nutzer sogar selbst, spannung senken sollte ebenfalls leicht sein, alles weitere verbessert diese ergebnisse nur. insofern sollte sichergestellt sein, dass man hier etwas verbessern kann. das ein treiber entwickelt, aber nich auf den markt gebracht wird ist praktisch auszuschließen. das kein datum genannt wird ist verständlich - insofern verstehe ich eure kritik nicht

@grobi:

ati-tool in der aktuellsten version kann genau das, sogar unter vista 64bit ;)

zwar nur mit absenkung der taktraten, aber schon das auf 200mhz core sollte den verbrauch um fast die hälfte reduzieren

Gast
2007-03-17, 19:52:37
Bringt nix, hatten wir schon öfters ja im nV Forum gemessen. Rein die Taktrate runterdrehen ohne die Spannung zu senken macht weniger Wärme und vieleicht 5-10Watt, mehr ist da nicht drin. AFAIK kann das ATI Tool auch nicht die Taktdomain der ALUs Steuern oder? Is nur SI und TMU/ROP Taktrate soweit ich das hier zumindest sehen kann.

Aber gut das sie es mit angekündigt haben, das Treiber Team wird seit November sich sicher nur mit Vista Kram rumschlagen, die XP Treiber kommen ja nun auch in der FW100 Version. Das der Release G80 mit Vista UND dem gewöhnungsbedürftigem neuen Control Panel zusammen fällt hätte man mal vermeiden können... Wundert einen ja nicht das das Buggy is ohne Ende, aber mit jeder Beta wirds ja besser.

Gast
2007-03-17, 19:53:36
Das sie Hybrid Modi eingebaut haben war doch ein Zeichen ^^

Gast
2007-03-17, 19:54:48
Die Nvidia 7er Serie war in der Energiebilanz gut.

Wenn man die Gerüchte zum R600 sich mal vor Augen hält is der G80 sogar ein Stromsparer -p

OC_Burner
2007-03-17, 19:58:16
Nö...

Bei mir bringt das absenken eine Verbrauchsreduzierung von ca. 15W. Demnach müsste die Karte laut deiner Ausssage nur 30W verbrauchen. Schön wäre es...

Aber falls es jemandem Interssiert, ich habe hier im Forum in der Nvidiasektion vor einiger Zeit ein Link mit nem 2D-Bios zum Download bereitgestellt. Nutze das Bios nun schon eine ganze Weile ohne Probleme und die Taktraten wechseln völlig automatisch hin und her, ohne irgendein Tool.

Undertaker
2007-03-17, 20:00:33
Bringt nix, hatten wir schon öfters ja im nV Forum gemessen. Rein die Taktrate runterdrehen ohne die Spannung zu senken macht weniger Wärme und vieleicht 5-10Watt, mehr ist da nicht drin.

link? der chip ist der hauptstromfresser und der clock geht nach wie vor linear in den verbrauch ein - eine reduzierung auf 2/5 sollte mehr als 5-10w bringen

Cubitus
2007-03-17, 20:11:25
gut das darüber wenigstens mal nachgedacht wird.
Ich würde das sehr begrüßen.

Nur wann kommt so ein super -Treiber und für welches OS?
Da Nvidia primär für Vista entwickelt, sehe ich für XP User schon mal schwarz.

Das Thema Treiber-Support ist bei Nvidia sowieso die größte Schwäche:rolleyes:

Mein Traum wäre, dass die erste offizielle 100.xx Forceware für XP einen super SLI support beinhaltet,
die meisten Games gefixt werden, der 60 HZ Bug verschwindet und als Kirsche ubendrauf diese Stromsparfunktion integriert hat!

Aber so wie ich Nvidias Lahmärschigkeit in Sachen Treiber-Support mitlerweile kennen gelernt habe :rolleyes: wird so ein super -Treiber wohl erst frühstens im Sommer erscheinen.

Super Grobi
2007-03-17, 20:13:17
Ich lese hier zu dritten mal die Frage, für welches OS der Treiber kommen soll: Vista auf jedenfall, den in der News steht was von Aero und wenn das unter Vista geht, geht das unter XP schon dreimal.

SG

Cubitus
2007-03-17, 20:24:23
Und wie lange hat es jetzt gedauert bis eine 100.xx Version endlich mal für XP erscheint ? zu lange.
zudem ist diese Version ja nicht mal WHQL.

und die jetzige Treiber Version für Vista ist auch crap.
Durch diesen zusammengeschusterten Treiber sah ich mehr Bluescreens an einem Wochenende als im ganzen Jahr mit XP

Bis da ein anständiger Treiber für Vista erscheint dauert es noch ne Weile.
Aber nein, da wird wieder ne neue Idee mit dem Strom sparen ausgepackt und
so die Probleme mit den jetzigen Treibern kaschiert!

Ist mal wieder typisch Branche:rolleyes:

Jedenfalls wird in Puncto Strom sparen
wenn dann imo zuerst Vista an der Reihe sein und dann XP.

und bis XP drann kommt ist das Jahr womöglich schon fast vorbei !

Byteschlumpf
2007-03-17, 20:52:12
Der 2D-Takt wird beim R580 ja auch treiberseitig realisiert, mit Absenkung der GPU-Spannung. Beim G80 sollte das dann natürlich genauso möglich sein.

Leider hat das beim R580+ unter Vista den Nachteil, dass beim Wechsel zu den 3D-Settings das System abstürzt. Mit dem Cat 7.3 soll das angeblich behoben werden.
nVidia wird sich also auch dieses Problems bei Vista annehmen müssen, wenn der "umweltfreundliche Treiber" Realität wird. ;)

Undertaker
2007-03-17, 21:02:21
ich glaube nicht das dies ein problem von vista ist, solche probleme hatte ich mit der x1800xt/x1900xt auch zwischen frühjahr und sommer 06 bei einigen catalyst versionen - denke mal das kann man schnell fixen

Sonyfreak
2007-03-17, 21:09:47
Ich würde mich auch freuen, wenn das tatsächlich klappen würde. Zwar hab ich momentan den 2D Takt mittels ATI-Tool eh schon auf die Hälfte (270Mhz) gesenkt, aber eine Abschaltung von nicht benötigten Teilen im Grafikchip würde den Energieverbrauch sicherlich noch mehr reduzieren.

mfg.

Sonyfreak

Gast
2007-03-18, 12:31:23
... Auch frage ich mich, warum das mehrer Monate dauert, bis dies per Treiber freigeschaltet werden soll. Wenn man Takt und Spannung per Software ändern kann, und dies auch stabil und zuverlässig läuft, dann stellt sich die Frage, was man da groß herumprogrammieren will ...

Genau das habe ich mich auch gefragt. Ich glaube was NV bezüglich der Treiber für die G80 erzählt, ist Quatsch. Genau wie das Abschalten bestimmter Einheiten per Software. Aber wenn das funktionieren sollte und es aber so lange dauert das zu implementieren, möchte ich nicht wissen wie das HW/SW Design aussieht. Aber egal, kochen eh alle nur mit Wasser.

SentinelBorg
2007-03-18, 19:51:09
Bin mal gespannt was da kommt. Könnte mir schon vorstellen, dass da noch einiges geht, das Treiber-Team aber bisher wegen der neuen G80 Architektur und Windows Vista schon dermassen ausgelastet war, dass die Stromsparfeatures bisher auf die lange Bank geschoben wurden.

Sentinel

dargo
2007-03-23, 21:56:38
ati-tool in der aktuellsten version kann genau das, sogar unter vista 64bit ;)

zwar nur mit absenkung der taktraten, aber schon das auf 200mhz core sollte den verbrauch um fast die hälfte reduzieren
Ich habe das mal jetzt getestet:

X1900XT 512MB:
Idle - 117,1W
3DMark06 in 1280x1024 4xAA/16xAF - 250W
3DMark05 in 1280x1024 4xAA/16xAF - 250W

G8800GTS 640MB:
Idle - 137,3W @standard
Idle - 126,2W @200/200Mhz
3DMark06 in 1280x1024 4xAA/16xAF - 233W
3DMark05 in 1280x1024 4xAA/16xAF - 233W

Es sind also nur noch knapp 7W netto (bei 75% Effizienz des NTs) mehr wie bei der X1900XT. Also 35W netto für die G8800GTS 640MB. Original hat die GTS ~43-45W netto.

Undertaker
2007-03-24, 11:39:11
und nur nochmal zur nachfrage: die x1900 lief in ihren default 2d settings? dann ist das zwar immernoch etwas mehr als gedacht (die abluft kam mir eigentlich wärmer vor bei der x1900), aber insgesammt doch recht erträglich

dargo
2007-03-24, 11:48:16
und nur nochmal zur nachfrage: die x1900 lief in ihren default 2d settings? dann ist das zwar immernoch etwas mehr als gedacht (die abluft kam mir eigentlich wärmer vor bei der x1900), aber insgesammt doch recht erträglich
Ja, natürlich. Die X1900XT lief mit 500/600Mhz und 1,2V an der GPU, also standard.

jojo4u
2007-03-25, 17:42:51
link? der chip ist der hauptstromfresser und der clock geht nach wie vor linear in den verbrauch ein - eine reduzierung auf 2/5 sollte mehr als 5-10w bringen

Leckstrom nicht vergessen.

Gast2
2007-03-27, 20:48:51
Egal was sie machen: Die angeblich erhebliche Senkung kann nicht mit der Spannung und den Taktraten zusammenhängen.
Von daher müsste das Design eine vollständige Abschaltung einzelner Teilbereiche zulassen können. Wenn das nicht von Anfang an mit eingeplant war, dann wird das "erheblich" eher mikrig ausfallen.

Ich frage mich sowieso, warum die nicht im neuen Fertigungsverfahren Uralt-2D Chips auf die Karte mitdraufpacken und ein komplettes hoch und runterfahren der 3D-Bereiche einführen. Dazu ein einfaches Relais und das wars. Wenn man sich die neue R600 anguckt, sollte dafür genügend Platz vorhanden sein.

Fakt ist: ATI und Nvidia sind, was die Stromspartechniken angeht, soweit wie der Hummer beim Benzinverbrauch. Also nicht vorhanden. Und kommt mir jetzt bloss nicht mit diesen selten billigen Varianten für Notebooks. Gerade hier müsste man ein ähnliches System wie von mir beschrieben einführen.
Also, Back2theRoots: 3Dfx hat es vorgemacht.

stickedy
2007-03-27, 21:19:26
Ah, seit wann sind Grafikchips von 3dfx fürs stromsparen bekannt? Wär mir neu... Letzlich hat sich da noch kein Hersteller großartig mit Ruhm bekleckert. Weil es einfach schlicht bis jetzt nicht nötig war.

Gast
2007-03-27, 21:33:04
Ah, seit wann sind Grafikchips von 3dfx fürs stromsparen bekannt? Wär mir neu... Letzlich hat sich da noch kein Hersteller großartig mit Ruhm bekleckert. Weil es einfach schlicht bis jetzt nicht nötig war.
Doch, Rage 128, auf die irgendein Vollpfosten 'nen Quirl pappte, gleiches bei der Radeon aka 7200 und 7500.

hyperterminal
2007-03-27, 22:10:20
Gerade 3dfx mit der Voodoo5 5500 und noch extremer der Voodoo5 6000 setzte seinerzeit einen traurigen Rekord was den Verbrauch angeht. Damals war die Konkurrenz noch weit davon entfernt, extra Molex Stecker oder gar eigene Netzteile für die Grafikkarte einzuführen.

Gast
2007-03-27, 22:39:16
Gerade 3dfx mit der Voodoo5 5500 und noch extremer der Voodoo5 6000 setzte seinerzeit einen traurigen Rekord was den Verbrauch angeht.

Gemessen an der Leistung dennoch völlig okay, was sich von heutigen Grafikkarten nicht behaupten lässt.

Gast
2007-03-27, 22:48:17
Gemessen an der Leistung dennoch völlig okay, was sich von heutigen Grafikkarten nicht behaupten lässt.

Natürlich nicht.
Eine 8800GTX ist ja auch nur doppelt so schnell als eine X1950XTX und verbraucht im 3D Modus weniger Strom.
Ja, gemessen an der Leistung ist das klar eine Verschlechterung.

(+44)
2007-03-27, 22:50:10
Gemessen an der Leistung dennoch völlig okay, was sich von heutigen Grafikkarten nicht behaupten lässt.


Och, ich glaub dass alle aktuellen Highend-Karten effizienter sind als ne V5 6000.

Hat Raff mal nen Benchmark/Stromverbrauchs-vergleich zwischen Voodoo 5 6000 und 8800GTX/7900GTX/X1950XTX?

Gast2
2007-03-28, 00:50:01
Ah, seit wann sind Grafikchips von 3dfx fürs stromsparen bekannt? Wär mir neu... Letzlich hat sich da noch kein Hersteller großartig mit Ruhm bekleckert. Weil es einfach schlicht bis jetzt nicht nötig war.

Oh Mann.
Ich meinte damit die Trennung von 2D und 3D bei den Voodoo Karten der ersten Generationen. Natürlich nicht den Stromverbrauch der späteren 2D/3D Karten.
Euch muss man aber auch alles erklären ihr Pfeifen. X-D

Gast
2007-03-28, 01:44:01
Natürlich nicht.
Eine 8800GTX ist ja auch nur doppelt so schnell als eine X1950XTX und verbraucht im 3D Modus weniger Strom.
Ja, gemessen an der Leistung ist das klar eine Verschlechterung.

Dafür das fast zwei Jahre zwischen den Technologien liegen, ist es in der Tat eine Verschlechterung.

Außerdem interessiert der 2D Verbrauch umso mehr, da bei vielen die Karte zum spielen genutzt wird und daher hunderte stunden nur herumidlet.

mapel110
2007-03-28, 02:05:46
30 Watt mehr im idle würde bei 24/7 Betrieb aufs Jahr bei 20 cent Stromkosten je Kilowattstunde ca 52 € ausmachen. Und solche Leute, die sich über 52 € im Jahr mehr beschweren, kaufen sich eine Grafikkarte für über 500 €. :|
Aber das Thema hatten wir schon so oft. Komm lieber mit dem Argument Kühlung an. Das macht mehr Sinn. Auch wenn selbst die Standardkühler des G80 laut so ziemlich allen Reviews eine sehr erträgliche Lautstärke aufweisen.

Gast
2007-03-28, 02:25:44
30 Watt mehr im idle würde bei 24/7 Betrieb aufs Jahr bei 20 cent Stromkosten je Kilowattstunde ca 52 € ausmachen. Und solche Leute, die sich über 52 € im Jahr mehr beschweren, kaufen sich eine Grafikkarte für über 500 €. :|

Das ist nicht richtig. Es gibt genügend normale Gamer, die sehr wohl auf die laufenden Kosten achten. Über 50€ nur für die GraKa, wären bei mir 15% der gesamten Stromkosten im Jahr!. :)

Du musst das etwas klüger sehen: Einmalkosten = egal. Laufende Kosten nicht. Denn die Einmalkosten wiegt man durch den Verkauf größtenteils auf, die laufenden Kosten erstattet dir keiner!

ZipKaffee
2007-03-28, 07:52:58
Und wer hat schon seinen Rechner 24 Stunden am Tag an.

Also das mit den 50€ kann man wieder in die Tonne hauen.

Back to Topic

Ronin2k
2007-03-28, 08:09:03
muss man nicht verstehen oder?jeder hat seine prioritäten wie die jeder setzt macht man für sicher selber aus^^ kauf mir doch auch nen auto, für sagen wir 15k€ und achte darauf das es net 15l durchschnitt verbraucht ;)

und alleine was das thema klimawandel angeht sollte sowas pflicht werden, extra2d chip und co.
in jedem haushalt, meine meinung :wink:





30 Watt mehr im idle würde bei 24/7 Betrieb aufs Jahr bei 20 cent Stromkosten je Kilowattstunde ca 52 € ausmachen. Und solche Leute, die sich über 52 € im Jahr mehr beschweren, kaufen sich eine Grafikkarte für über 500 €. :|
Aber das Thema hatten wir schon so oft. Komm lieber mit dem Argument Kühlung an. Das macht mehr Sinn. Auch wenn selbst die Standardkühler des G80 laut so ziemlich allen Reviews eine sehr erträgliche Lautstärke aufweisen.

Gast
2007-03-28, 08:59:27
Dafür das fast zwei Jahre zwischen den Technologien liegen, ist es in der Tat eine Verschlechterung.

Ein Jahr liegen zwischen dem G80 und dem r520.

Außerdem interessiert der 2D Verbrauch umso mehr, da bei vielen die Karte zum spielen genutzt wird und daher hunderte stunden nur herumidlet.

Als Gegenwert für den hohen 2D Verbrauch habe ich ein deutlich besseres Erlebnis beim Spielen und eine deutlich leisere Kühlung.
Ich erhalte zwar keinen finanziellen Vorteil, aber der Nachteil wird durch die Verbesserung des Erlebnisses wieder ausgeglichen.

Gast
2007-03-28, 09:03:33
Ein Jahr liegen zwischen dem G80 und dem r520.


2007 - 2005 = 2

seahawk
2007-03-28, 09:03:51
Ob das wohl alles nur FUD von NV ist um Leute vor dem R600 noch in den Kauf einer G80 zu locken ?

Gast
2007-03-28, 09:07:41
Oh Mann.
Ich meinte damit die Trennung von 2D und 3D bei den Voodoo Karten der ersten Generationen. Natürlich nicht den Stromverbrauch der späteren 2D/3D Karten.
Euch muss man aber auch alles erklären ihr Pfeifen. X-D
Falsche oder fehlende Argument durch Beleidigungen kaschieren zu wollen, wirft kein gutes Licht auf Gäste.

3dfx hat ja bei erster Gelegenheit den 2D-Teil wieder integriert - vorgemacht wurde da also nur die Stromverschwendung durch zwei separate PCBs, RAM, ASICs etc.

Vertigo
2007-03-28, 09:08:41
2007 - 2005 = 2
R520 erschien Ende 2005, G80-Karten kann man seit November 2006 kaufen. 2006-2005=1. Ist sogar ziemlich genau ein Jahr. Außerdem steht ja auch nicht fest ob und wann tatsächlich ein Treiber kommt, der die idle-VL der G80 senken kann. Abwarten! ;)

Gast
2007-03-28, 09:09:36
R520 erschien Ende 2005, G80-Karten kann man seit November 2006 kaufen. 2006-2005=1. Ist sogar ziemlich genau ein Jahr. Außerdem steht ja auch nicht fest ob und wann tatsächlich ein Treiber kommt, der die idle-VL der G80 senken kann. Abwarten! ;)
Verdammte Axt, Du hast recht - wir haben ja noch gar nicht 2008. X-D

Undertaker
2007-03-28, 10:28:34
muss man nicht verstehen oder?jeder hat seine prioritäten wie die jeder setzt macht man für sicher selber aus^^ kauf mir doch auch nen auto, für sagen wir 15k€ und achte darauf das es net 15l durchschnitt verbraucht ;)

15l verbrauch sind bei ~20.000km im jahr auch >4000€ (dh 2000€ mehr als bei nem sparsamen auto) und nicht 50€ ;)

rechnen wir außerdem mal nur mit 10h idle am tag sowie 17cent/h sind es schon nur noch 18€ im jahr, das ist nun wirklich im verhältnis zum kaufpreis gar nix mehr...

Gast
2007-03-28, 11:29:43
ein extra 2D chip gegen den klimawandel?
die produktion des chips benötigt wohl mehr energie als der 3d chip im idle mehr benötigt

Shaitaana
2007-03-28, 11:33:26
15l verbrauch sind bei ~20.000km im jahr auch >4000€ (dh 2000€ mehr als bei nem sparsamen auto) und nicht 50€ ;)

rechnen wir außerdem mal nur mit 10h idle am tag sowie 17cent/h sind es schon nur noch 18€ im jahr, das ist nun wirklich im verhältnis zum kaufpreis gar nix mehr...

Was rechnest du?

Also 0,17*10*365 = 620,50 Euro bei mir

Das ist wohl ein Verhältnis zum Kaufpreis... :)

Das ist mehr als die GTX kostet ^^

Gast
2007-03-28, 11:37:28
Nur brauch eine GF8 kein kW im Idle. ;)

dargo
2007-03-28, 11:38:14
Was rechnest du?

Also 0,17*10*365 = 620,50 Euro bei mir

Das ist wohl ein Verhältnis zum Kaufpreis... :)

Das ist mehr als die GTX kostet ^^
Undertaker hat sich vertan. Er meint mit 17cent/h eigendlich 17cent/KWh.

Shaitaana
2007-03-28, 11:41:34
Undertaker hat sich vertan. Er meint mit 17cent/h eigendlich 17cent/KWh.

Gut dann nehmen wir einen Stromverbrauch von ca 500W/h (=1/2KW/h) bei ca. 18ct/kwh heute macht einen Verbrauch von 9ct pro Stunde!

0,09*10*365 = 328,50 Euro

--> Da ist deine GTS :)

P.S. eigentlich, nicht eigendlich......au das tut weh im Auge :)

Vertigo
2007-03-28, 11:42:59
Gut dann nehmen wir einen Stromverbrauch von ca 500W/h (=1/2KW/h) bei ca. 18ct/kwh heute macht einen Verbrauch von 9ct pro Stunde!

0,09*10*365 = 328,50 Euro

--> Da ist deine GTS :)

P.S. eigentlich, nicht eigendlich......au das tut weh im Auge :)
"KW/h" tut mir nicht nur im Auge weh ... :rolleyes:

Außerdem: wie kommst Du auf 500W? :|

dargo
2007-03-28, 11:48:33
Gut dann nehmen wir einen Stromverbrauch von ca 500W/h (=1/2KW/h) bei ca. 18ct/kwh heute macht einen Verbrauch von 9ct pro Stunde!

0,09*10*365 = 328,50 Euro

--> Da ist deine GTS :)

P.S. eigentlich, nicht eigendlich......au das tut weh im Auge :)
Sorry, aber ich kann deinen Rechnungen nicht folgen. :ugly:

Meine GTS verbraucht in Idle ~45W netto (die Verlustleistung des NTs macht sich ja auch bei der Stromrechnung bemerkbar).

Also:
45W * 10h * 365Tage / 1000 * 0,18€ = 29,565€ im Jahr

Wenn du jetzt eine sparsamere X1900XT in Idle nimmst:
28W * 10h * 365Tage / 1000 * 0,18€ = 18,396€

Jetzt siehst du selbst, dass der Unterschied was das Geld im Jahr angeht eher ein Witz ist. Ich finde es aber trotzdem sinnlos unnötig Energie in Idle zu verschwenden.


Edit:
Und wenn du es ganz genau haben willst, bitte.

G8800GTS 640MB:
60W * 10h * 365Tage / 1000 * 0,18€ = 39,42€

X1900XT 512MB:
37,4W * 10h * 365Tage / 1000 * 0,18€ = 24,57€

G8800GTS 640MB = 60W an der Steckdose bei 75% Effizienz des NTs
X1900XT 512MB = 37,4W an der Steckdose bei 75% Effizienz des NTs

Und wenn du es noch genauer haben willst, bei kleineren Lasten ist die Effizienz des NTs noch etwas geringer. Also kannst du von ca. 73-74% Wirkungsgrad des NTs für die X1900XT ausgehen. Jetzt ist die Verwirrung perfekt. :D

Undertaker
2007-03-28, 12:53:57
Undertaker hat sich vertan. Er meint mit 17cent/h eigendlich 17cent/KWh.

ganz genau, tut mir leid (aber war eigentlich klar ersichtlich)

bei 30w ist eine kwh nach 33,33h verbraucht, dh:

(10*0,17*365)/33,33 = 18,6€

und 30w differenz sind wie dargo auch geschrieben hat nichteinmal real, da ist es noch ein ganzes stück weniger

Gast2
2007-03-28, 13:44:41
Falsche oder fehlende Argument durch Beleidigungen kaschieren zu wollen, wirft kein gutes Licht auf Gäste.

3dfx hat ja bei erster Gelegenheit den 2D-Teil wieder integriert - vorgemacht wurde da also nur die Stromverschwendung durch zwei separate PCBs, RAM, ASICs etc.

Erstens habe ich niemanden beleidigt (ausser natürlich du bist derart empfindlich) und zweitens: Troll nicht rum.

Super Grobi
2007-03-28, 13:56:51
Ganz toll,
nun wird hier zwei Seiten rumgerechnet und sülz. Hab hier echt jetzt Neuigkeiten zum Thema erwartet.

SG

Gast
2007-03-28, 15:57:45
Und wer hat schon seinen Rechner 24 Stunden am Tag an.

Ich, was soll daran so ungewöhnlich sein?
Ein extra Rechner lohnt auch nicht, weil da wieder der zusätzliche Verschnitt an CPU, RAM, Board, NT, Festplatten etc. anfällt ...

Ganz toll,
nun wird hier zwei Seiten rumgerechnet und sülz. Hab hier echt jetzt Neuigkeiten zum Thema erwartet.

Hör mal, wir sind hier in einem Forum und so hast du dich zu benehmen.

Ein Forum ist da um zu diskutieren. Da es keine Neuigkeiten gibt, wird das Thema nunmal allgemeiner behandelt.

Hör du auf rumzusülzen und trag lieber was zum Thema bei oder halte dich fern. Das ist nämlich Spam!

Gast
2007-03-28, 16:11:26
Ich, was soll daran so ungewöhnlich sein?
Ein extra Rechner lohnt auch nicht, weil da wieder der zusätzliche Verschnitt an CPU, RAM, Board, NT, Festplatten etc. anfällt ...

Jo, dann muss man eben mit den horrenden 50 € Mehrkosten pro Jahr abfinden. btw ich hab die Laststunden noch gar nicht berücksichtigt. Die muss man von den 365 Tagen noch abziehen, wenn man den idle-Verbrauch berechnet.

ZipKaffee
2007-03-28, 16:19:41
Die Grafikkarte wird ja durch diese Maßnahmen auch nicht mehr so heiß im 2D Modus, somit wird auch das ganze System auch leiser und kühler.

Den Punkt finde ich sogar wichtiger als 5€ im Jahr gespart.

Undertaker
2007-03-28, 16:56:00
Die Grafikkarte wird ja durch diese Maßnahmen auch nicht mehr so heiß im 2D Modus, somit wird auch das ganze System auch leiser und kühler.

Den Punkt finde ich sogar wichtiger als 5€ im Jahr gespart.

der g80 pustet seine wärme zum größten teil selbst aus dem gehäuse und dies noch dazu recht geräuscharm - das kann auch die sparsamere konkurrenz nicht besser... für mich ist der einzige punkt diese sinnlose stromverschwendung, dass die endlich behoben werden soll ist begrüßenswert:)

ZipKaffee
2007-03-29, 08:09:37
der g80 pustet seine wärme zum größten teil selbst aus dem gehäuse und dies noch dazu recht geräuscharm - das kann auch die sparsamere konkurrenz nicht besser... für mich ist der einzige punkt diese sinnlose stromverschwendung, dass die endlich behoben werden soll ist begrüßenswert:)

Das ist mir natürlich klar das der die Wärme nach hinten heraus pustet, nur der ganze Kühlblock der Grafikkarte gibt die Wärme auch im Gehäuse ab, darum wird auch die ICH8 so unnötig heiß...etc...

Liszca
2007-04-01, 20:09:44
Eben. Beim defekten Videoprozessor im NV40 hörte man auch alle paar Monate, dass zukünftige Treiber dies ausbügeln würden.

genau so hört sie sich an, und sollte es doch noch mit der g80 gehen zahle ich allen hamburgern die schon ein jahr lang hier im forum geregt sind ein bier, sollte ich verlieren.

Wuge
2007-04-02, 18:21:13
Zählen da auch welche, die nur in HH studieren? ;) Wobei ich auch nicht an eine wesentliche Verbesserung durch einen neuen Treiber glaube.

Gast
2007-04-05, 08:00:14
Treiber kommt wohl erst zum R600 Launch^^

redlock
2007-04-05, 09:19:02
Wenn du jetzt eine sparsamere X1900XT in Idle nimmst:
28W * 10h * 365Tage / 1000 * 0,18€ = 18,396€

X1900XT 512MB:
37,4W * 10h * 365Tage / 1000 * 0,18€ = 24,57€



Wie kommst du darauf das eine x1900xt so wenig im idle-modus verbraucht?
in x-tests und bei mir siehts das aber ganz anders aus.
wenn ich mir mein system anschaue (Gigabyte P965 DS3, E6600, X1950xt, bequiet, ...) so werden im idle-Modus oder im Standby immer noch 117 respektive 108 Watt verbraucht. Hier läst sich, da mein system mit vielen anderen gamer-systems vergleichbar, eindutig erkennen das eine x19xx einfach nur verschwenderisch ist! Schade!

Vertigo
2007-04-05, 09:26:32
Wie kommst du darauf das eine x1900xt so wenig im idle-modus verbraucht?
in x-tests und bei mir siehts das aber ganz anders aus.
wenn ich mir mein system anschaue (Gigabyte P965 DS3, E6600, X1950xt, bequiet, ...) so werden im idle-Modus oder im Standby immer noch 117 respektive 108 Watt verbraucht. Hier läst sich, da mein system mit vielen anderen gamer-systems vergleichbar, eindutig erkennen das eine x19xx einfach nur verschwenderisch ist! Schade!
117 respektive 108 Watt? Wie und wo hast Du das gemessen?

redlock
2007-04-05, 09:31:13
117 respektive 108 Watt? Wie und wo hast Du das gemessen?

ich habe ein strommessgerät direkt zwischen meinen rechner und der steckdose gesteckt. so sehe ich in echtzeit wieviel watt das system und alle anderen komponenten (tft, drucker, soundsystem) ziehen. die von mir genannten werte beziehen sich natürlich dabei nur auf den pc.

Vertigo
2007-04-05, 09:35:57
ich habe ein strommessgerät direkt zwischen meinen rechner und der steckdose gesteckt. so sehe ich in echtzeit wieviel watt das system und alle anderen komponenten (tft, drucker, soundsystem) ziehen. die von mir genannten werte beziehen sich natürlich dabei nur auf den pc.
Auf den ganzen PC, okay. Wenn man jetzt den Wirkungsgrad des Netzteils einrechnet und was Board, CPU, RAM, Laufwerke und andere Steckkarten brauchen, kommen dargos Netto-Verbrauchsangaben nur für die Grafikkarte doch hin. Das Ganze mal 1,2 und man hat einen hinreichend genauen Wert dafür, was tatsächlich von der Grafikkarte aus der Steckdose gezogen wird. Und nur darum geht es doch. Das restliche System wird seinen Verbrauch nicht ändern.

Black-Scorpion
2007-04-05, 09:45:20
Er regt sich über den Verbrauch seine Karte auf und empfiehlt in anderen Threads eine "Stromsparende" 8800 GTS 320.

Soviel zu seiner Objektivität. ;)
GeForce 8800 Stromverbrauch bei CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/27/#abschnitt_stromverbrauch)

dargo
2007-04-05, 10:05:18
Wie kommst du darauf das eine x1900xt so wenig im idle-modus verbraucht?

http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html

redlock
2007-04-05, 10:07:45
Auf den ganzen PC, okay. Wenn man jetzt den Wirkungsgrad des Netzteils einrechnet und was Board, CPU, RAM, Laufwerke und andere Steckkarten brauchen, kommen dargos tatsächliche Verbrauchsangaben nur für die Grafikkarte doch hin. Das Ganze mal 1,2 und man hat einen hinreichend genauen Wert dafür, was tatsächlich von der Grafikkarte aus der Steckdose gezogen wird. Und nur darum geht es doch. Das restliche System wird seinen Verbrauch nicht ändern.

ähm,
ich glaube deine rechnung geht nicht ganz auf.
normalerweise verbraucht ein pc mit meinen komponennten wesentlich weniger ohne diese form von 3d-highent-grafikkarten.

Grundsätzlich unterscheidet man ja in last, idle und standby.
speziell im standby sollte eine grafikkarte weit weniger verbrauchen, weil sie garnicht benutzt wird.

Vertigo
2007-04-05, 10:16:02
ähm,
ich glaube deine rechnung geht nicht ganz auf.
normalerweise verbraucht ein pc mit meinen komponennten wesentlich weniger ohne diese form von 3d-highent-grafikkarten.

Und ob meine Rechnung aufgeht. Was soll daran großartig falsch sein? Dass das System insgesamt mit einer sparsameren Grafikkarte weniger verbraucht, liegt allein am niedrigeren Verbrauch der sparsameren Grafikkarte. Das ist doch ziemlich einleuchtend, oder nicht?


Grundsätzlich unterscheidet man ja in last, idle und standby.
speziell im standby sollte eine grafikkarte weit weniger verbrauchen, weil sie garnicht benutzt wird.
Tut sie doch auch. Folge einfach mal den Links, die dargo und Anonym_001 eben gepostet haben.

redlock
2007-04-05, 10:17:51
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html

ich glaube mittlerweile, das einige tests hier absolut nicht stimmen und wir über falsche ergebnisse statt tatsachen reden.

Test 1
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html
angeblich verbraucht die grafikkarte (x1900) nur 108 Watt unter last
unter idle so gar nur ca. 30 Watt

Test 2
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/27/#abschnitt_stromverbrauch
hier verbrauch ein sparsames sparsamen core 2 duo system unter last 280 watt. Unter idle 108 Watt

vergleich:
last: wo kommen denn bei Test 2 die 172 Watt zusätzlich her?
idle: wiso ergibt sich hier ein unterschied von 78 Watt?

sorry, aber hier stimmt was nicht. einige user sagen hier sie hätten für das ganze system bur 45 Watt im idle, während der ein test sagt 108 Watt.

Vertigo
2007-04-05, 10:20:44
ich glaube mittlerweile, das einige tests hier absolut nicht stimmen und wir über falsche ergebnisse statt tatsachen reden.

Test 1
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html
angeblich verraucht die grafikkarte (x1900) nur 108 Watt unter last

Test 2
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/27/#abschnitt_stromverbrauch
hier verbrauch ein sparsames sparsamen core 2 duo system unter last 280 watt. Unter idle 108 Watt

vergleich:
wo kommen denn bei Test 2 die 172 Watt zusätzlich her?
Test1: Nur die Grafikkarte, DC. Test2: Komplettes System, AC.

Black-Scorpion
2007-04-05, 10:25:55
ich glaube mittlerweile, das einige tests hier absolut nicht stimmen und wir über falsche ergebnisse statt tatsachen reden.
Ganz sicher sind alle Test falsch nur deiner nicht.
Welcher eigentlich?
Der mit einem Meßgerät für 5,- Euro aus dem nächsten Baumarkt?

vergleich:
wo kommen denn bei Test 2 die 172 Watt zusätzlich her?
Die Frage ist aber nicht dein ernst?
Mit Sicherheit nicht allein von der Karte.

'edit'
Außerdem sind das ganz verschiedene Methoden.
1: Ist nur die Karte.
2. Ist das gesamte Sys.

redlock
2007-04-05, 10:26:10
Test1: Nur die Grafikkarte, DC. Test2: Komplettes System, AC.

das ist mir auch klar, deswegen habe ich es ja so aufgeführt.
aber 172 Watt sind definitiv zu viel für die restlichen komponenten.

dargo
2007-04-05, 10:27:54
Test 2
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/27/#abschnitt_stromverbrauch
hier verbrauch ein sparsames sparsamen core 2 duo system unter last 280 watt. Unter idle 108 Watt

vergleich:
last: wo kommen denn bei Test 2 die 172 Watt zusätzlich her?
idle: wiso ergibt sich hier ein unterschied von 78 Watt?

1. Vergiss die Lastwerte von CB. Diese stimmen eh nicht. Das Problem bei CB ist, dass sie das Gesamtsystem messen. Und je nachdem ob ein CPU- oder Graka-Limit vorliegt kommen da eher falsche Werte bei rum.

2. Den Rest hat schon Vertigo erklärt. Ich würde dir erstmal empfehlen sich mit der Verlustleistung vor dem NT und nach dem NT zu befassen. Außerdem, mit der Verlustleistung einzelner Komponenten und nicht des Gesamtsystems. :)

Vertigo
2007-04-05, 10:28:27
das ist mir auch klar, deswegen habe ich es ja so aufgeführt.
aber 172 Watt sind definitiv zu viel für die restlichen komponenten.
Ich habe nicht den Eindruck, dass Dir das so klar ist. Du vergisst offenbar den Wirkungsgrad des Netzteils und dass es sich um unterschiedliche Testsyteme sowie unterschiedliche Tester und Testmethoden handelt. Stichwort: Äpfel und Birnen.

deekey777
2007-04-05, 10:47:25
Wenn es um den Stromverbrauch geht, dann kann man den Messungen von Xbit blind vertrauen. Sie haben spezielles Equipment dazu (als einzige).

Liszca
2007-04-06, 00:07:58
Zählen da auch welche, die nur in HH studieren? ;) Wobei ich auch nicht an eine wesentliche Verbesserung durch einen neuen Treiber glaube.

wenn sie hier im forum schon seit einem jahr sind! klar!

Gast
2007-04-06, 10:35:05
Wenn es um den Stromverbrauch geht, dann kann man den Messungen von Xbit blind vertrauen. Sie haben spezielles Equipment dazu (als einzige).

Ach ja? Was benötigt man denn für ein spezielles Equipment, um den Stromdurchfluß einer einzelnen Leitung zu messen? Ich glaube jeder Elektroniker muss bei dieser Äußerung schmunzeln. Oder sind die anderen wirklich so schlecht?

deekey777
2007-04-06, 10:54:40
Ach ja? Was benötigt man denn für ein spezielles Equipment, um den Stromdurchfluß einer einzelnen Leitung zu messen? Ich glaube jeder Elektroniker muss bei dieser Äußerung schmunzeln. Oder sind die anderen wirklich so schlecht?
Genau das machen sie: Sie messen den Durchfluß jeder einzelnen Leitung, besonders der mit 3,3 V. Wo ist sie denn überhaupt?

dargo
2007-04-06, 11:30:48
Genau das machen sie: Sie messen den Durchfluß jeder einzelnen Leitung, besonders der mit 3,3 V. Wo ist sie denn überhaupt?
Am PCIe Slot. :)
Welche genau kann ich dir allerdings nicht sagen.

Grestorn
2007-04-06, 12:48:40
Ach ja? Was benötigt man denn für ein spezielles Equipment, um den Stromdurchfluß einer einzelnen Leitung zu messen? Ich glaube jeder Elektroniker muss bei dieser Äußerung schmunzeln. Oder sind die anderen wirklich so schlecht?

Klar, es ist ja sooo einfach, die Stromversorgung eines PCIe Slots zu unterbrechen und ein Amperemeter einzuschleifen...

Gast
2007-04-13, 16:06:36
Klar, es ist ja sooo einfach, die Stromversorgung eines PCIe Slots zu unterbrechen und ein Amperemeter einzuschleifen...
Warum unterbrechen? man könnte auch einfach ein Zwischenstück benutzen, quasi wie ne Riserkarte

Grestorn
2007-04-13, 16:44:33
Warum unterbrechen? man könnte auch einfach ein Zwischenstück benutzen, quasi wie ne Riserkarte
Klar kann man das. Aber so einen Zwischenstecker muss man selber bauen, den gibt's nicht zu kaufen...

Und man muss dann noch die externen Stromquellen hinzuzählen.

Unterm Strich ist es trotzdem nicht gerade einfach.

Gast
2007-04-13, 16:57:21
Xbitlabs haben den Stromverbrauch der GTS und GTX gemessen.
Die GTX zieht im 3D Modus nach ihrer Messung nicht mehr als die X1950XTX, ein sehr guter Wert.
Wer im IDLE - Modus weniger verbrauchen will, muss wohl noch eine Weile warten.
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html

DrumDub
2007-04-13, 17:02:09
Die GTX zieht im 3D Modus nach ihrer Messung nicht mehr als die X1950XTX, ein sehr guter Wert. [/url] na ja, immerhin noch 7w mehr. aber für die gebotene leistung natrülich völlig in ordnung.

Gast
2007-04-13, 17:11:54
Xbitlabs haben den Stromverbrauch der GTS und GTX gemessen.
Die GTX zieht im 3D Modus nach ihrer Messung nicht mehr als die X1950XTX, ein sehr guter Wert.
Wer im IDLE - Modus weniger verbrauchen will, muss wohl noch eine Weile warten.
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html
Ich hoffe, Amd konnte beim R600 die Effizienz erheblich steigern. Der R580 Verbrauch unter Last sieht gegen den G80 für die gebotene Performance richtig schlecht aus.

dargo
2007-04-13, 17:24:09
Xbitlabs haben den Stromverbrauch der GTS und GTX gemessen.
Die GTX zieht im 3D Modus nach ihrer Messung nicht mehr als die X1950XTX, ein sehr guter Wert.
Wer im IDLE - Modus weniger verbrauchen will, muss wohl noch eine Weile warten.
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html
Bei dieser Messung wäre ich vorsichtig. Ein Pentium 4 560 @3,6Ghz könnte schon im 3DMark06 in 1600x1200 ohne AA eine GTX limitieren. Dh. hier kann es passieren, dass man nicht die max. Verlustleistung in Games der GTX sieht.

L_ogotech
2007-04-13, 18:08:17
Ich hoffe, Amd konnte beim R600 die Effizienz erheblich steigern. Der R580 Verbrauch unter Last sieht gegen den G80 für die gebotene Performance richtig schlecht aus.
Das glaube ich nicht! Der R600 wird viel mehr Strom verbrauchen als der R580 und wird sicherlich die 110°C Grenze überschreiten;)

Gast
2007-04-13, 19:19:44
Das glaube ich nicht! Der R600 wird viel mehr Strom verbrauchen als der R580 und wird sicherlich die 110°C Grenze überschreiten;)
110 °C überschreiten? Fundierte Quelle oder wildes drauflosspekulieren?
Dass er mehr Strom verbrauchen wird ist eh klar, aber der Wirkungsgrad muss einfach besser werden. Sonst würde er bei doppelter Performance um die 240 W verbrauchen, von der TDP mal ganz zu schweigen. Halte ich für gänzlich unwahrscheinlich, dass Amd so einen Totengräber launchen würde.

Konami
2007-07-02, 14:00:24
*Thread ausgrab*
Xbitlabs haben den Stromverbrauch der GTS und GTX gemessen.
Die GTX zieht im 3D Modus nach ihrer Messung nicht mehr als die X1950XTX, ein sehr guter Wert.
Wer im IDLE - Modus weniger verbrauchen will, muss wohl noch eine Weile warten.
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html
Ist aus der "Weile" jetzt eine Ewigkeit geworden oder wird aus dieser Versprechung nVidias noch irgendwas? :|
Oder hab ich den Release des Wundertreibers nur verpasst?

Gast
2007-07-02, 14:26:33
Es gibt bis jetzt keinen Treiber, der den Idle-Stromverbrauch senkt. Ich denke auch nicht, dass da noch was kommen wird. NV sieht wohl keinen Grund dazu, weil der Mitbewerber eh noch mehr verbraucht und die G80-Karten so ziemlich konkurrenzlos da stehen, also so oder so gekauft werden.

Vertigo
2007-07-02, 14:32:58
*Thread ausgrab*

Ist aus der "Weile" jetzt eine Ewigkeit geworden oder wird aus dieser Versprechung nVidias noch irgendwas? :|
Oder hab ich den Release des Wundertreibers nur verpasst?
So einen Treiber gibt es nicht und es ist auch keiner in Sicht. Dieser könnte ohnehin nicht mehr bewirken, als man selbst mit den bekannten Tools erreichen kann, es wäre nur komfortabler, die Funktionen im Treiber integriert zu haben.

Undertaker
2007-07-02, 14:46:04
klar, er könnte die spannung absenken, was bisher mit tools nicht geht... *still waiting* :(

James Ryan
2007-07-02, 14:51:56
klar, er könnte die spannung absenken, was bisher mit tools nicht geht... *still waiting* :(

Die Spannung lässt sich nicht per Software ändern, das hat NV unterbunden. Darum wird auch kein Treiber kommen der das ermöglichen wird.

MfG :cool:

Gast
2007-07-02, 16:10:19
Die Spannung lässt sich nicht per Software ändern, das hat NV unterbunden.
MfG :cool:
Oder sollte man lieber sagen: das hat nV unterlassen. :biggrin:

Undertaker
2007-07-02, 16:13:16
Die Spannung lässt sich nicht per Software ändern, das hat NV unterbunden. Darum wird auch kein Treiber kommen der das ermöglichen wird.

MfG :cool:

quelle, beweis? wer sagt das? das es kein verfügbares tool kann zeigt leider gar nix

mapel110
2007-07-02, 16:27:32
Kann man das nicht mittlerweile mit Bios-Editoren ändern beim G80?
Ging doch bei früheren Nv-Chips.

AnarchX
2007-07-02, 16:31:49
Dass man die Spannung per BIOS bei NV ändern kann ist aber schon sehr lange her, AFAIK gab es beim NV40 noch wenige Karten die dies unterstützt haben.

Ich könnte mir vorstellen, dass die PCBs der 8800er-Karten vielleicht gar keine Möglichkeit haben eine andere Spannung an die GPU anzulegen.

Gast
2007-07-02, 16:36:18
Geht nur mit Hardware-Mod. Per BIOS geht da garnix und per Treiber schon dreimal ned.

Gast
2007-07-04, 09:30:14
Natürlich geht das!
Man muß es nur richtig einstellen in der Software.

James Ryan
2007-07-04, 09:40:53
Bei der Gf 7800 konnte man noch definitv die Spannung per Bios ändern, ab der 7900er ging das nicht mehr.
Und @Undertaker, ich denke das nach 8 Monaten noch kein Tool rausgekommen ist, um beim G80 die Spannung zu ändern zeigt schon dass das auch nicht per Software/Bios funktionieren wird.

MfG :cool:

Gast
2007-07-04, 10:15:01
Natürlich geht das!
Man muß es nur richtig einstellen in der Software.

Quark.

Gast
2007-07-04, 10:48:05
Dass man die Spannung per BIOS bei NV ändern kann ist aber schon sehr lange her, AFAIK gab es beim NV40 noch wenige Karten die dies unterstützt haben.

Ich könnte mir vorstellen, dass die PCBs der 8800er-Karten vielleicht gar keine Möglichkeit haben eine andere Spannung an die GPU anzulegen.
Höchstwahrscheinlich. Dafür müssen ja platt ausgedrückt mehrer "Pfade" für den Strom vorhanden. Jeder "Pfad" entspricht dann einer anderen Spannung. Und nV hat das bestimmt nicht auf die PCBs gelötet, denn es wird nicht benötigt, da sie einen Stromsparmodus für den G80 zumindest beim Release nicht für nötig gehalten haben. Ich bin felsenfest davon überzeugt, dass es keine Voltänderung per Bios/Software jemals für den G80 geben wird bzw. möglich ist. Da auch der angekündigte "Wundertreiber" für Teilabschaltungen des Chips wohl nur heiße Luft war, bleibt halt nur die manuelle Taktabsenkung, was ja immerhin auch etwas bringt.

Coda
2007-07-04, 11:23:50
Eigentlich muss nur der Voltage-Regulalator einstellbar sein. Das ist nicht soo aufwändig. Ich gehe aber davon aus, dass man Instabilitäten beim Spannungswechsel nicht in den Griff bekommen hat.