Archiv verlassen und diese Seite im Standarddesign anzeigen : Wieviel Watt verbraucht eine Geforce 8800 GTS im 2d Betrieb?
Wieviel Watt verbaucht eine Geforce 8800 GTS mit 320 MB RAM im reinen 2d Betrieb?
2D Betrieb = Also bei einem ganz normalen Windows XP Desktop sowie typische 2d Programme wie Firefox Browser und Co.
Wieviel verbaucht zum Vergleich eine Version mit 640 MB RAM?
Ich vergaß:
Die Frage bezieht sich auf eine PCIe x16 Karte und einer Speicheranbindung von Speicheranbindung 320 Bit.
Welche Stromsparfeatures bietet die Karte?
Taktet sie runter? Wenn ja, auf wieviel MHz von wieviel?
Schaltet sie den 3d Kern ab?
Schaltet sie nicht benötigte Speicherbereiche des Grafikkartenspeichers ab oder ist der ständig im Betrieb?
Noch etwas, falls das jemand beantworten kann:
Funktionieren die Stromsparfeatures auch unter Linux?
Fuktioniert auch die Lüftersteuerung unter Linux?
Und mir ist noch etwas eingefallen:
Wie hoch ist eigentlich der Stromverbrauch im 2d Betrieb von einer ATI Karte im gleichen Preisrahmen?
Und wie sieht es bei beiden Karten im 3d Betrieb aus?
jojo4u
2007-04-16, 13:24:52
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html
Jo...
nVidia 7900GTX und ATI X1950XTX (jeweils 'HighEnder' der beiden großen bei in etwa gleichem Tech-Level) liegen 2D/Desktop-seitig in etwa gleich auf (ca. 30W, was die mit "Peak2D" meinen, ist mir nicht ganz klar ;-). Allerdings unterscheiden sie sich ganz ordentlich, wenn sie unter Last gehen, 125W für ATI und nur 85W für nVidia. Das ist ein Plus von 50% bei der ATI...
Extrem ist hier allerdings die 8800... ja nach Modell zieht sich diese 60-70W (das ist mehr als doppelt so viel!) und unter 3D dann in etwa soviel, wie die ATI der vorherigen Generation. "Stromsparmechanismen"? Sieht nicht danach aus... hängt wohl aber damit zusammen, dass die 8800 offenbar keinen 2D-Modus (in Takt und Voltage) 'kennen', wie das noch vorher bei nVidia und ATI üblich war...
Hoffen wir mal, dass dies bei ATI dann anders ist, wenn dort die neue Generation das Licht der Welt erblickt.
Razor
Laut obigem Link verursacht die G8800 ja fast 50 dBA im idle Betrieb,
das ist ja mordslaut.
Mein Drucker verursacht 36 dBA beim Drucken und der ist mir schon laut genug, aber 50 dBA das ist ja echt ein riesiger Lärm.
Dabei behaupten die meisten die wäre leise, was ich aber bei 50 dBA nicht glauben kann.
Hören die Leute alle nichts mehr oder wie kann das sein, daß man eine Lärmquelle, die 50 dBA (Dezibel) verursacht für leise hält?
dargo
2007-04-16, 19:08:22
Laut obigem Link verursacht die G8800 ja fast 50 dBA im idle Betrieb,
das ist ja mordslaut.
Mein Drucker verursacht 36 dBA beim Drucken und der ist mir schon laut genug, aber 50 dBA das ist ja echt ein riesiger Lärm.
Dabei behaupten die meisten die wäre leise, was ich aber bei 50 dBA nicht glauben kann.
Hören die Leute alle nichts mehr oder wie kann das sein, daß man eine Lärmquelle, die 50 dBA (Dezibel) verursacht für leise hält?
Und du hast bestimmt deinen Drucker auch aus 5cm Entfernung gemessen? :rolleyes:
Verlass dich auf keine dB Messungen sondern User Erfahrungen. Und ich kann dir sagen, dass eine G8800GTS verdammt leise ist, zumindest meine Leadtek. Da aber eh alle den Referenzkühler verwenden ...
lilgefo~
2007-04-16, 19:11:52
Laut obigem Link verursacht die G8800 ja fast 50 dBA im idle Betrieb,
das ist ja mordslaut.
Mein Drucker verursacht 36 dBA beim Drucken und der ist mir schon laut genug, aber 50 dBA das ist ja echt ein riesiger Lärm.
Dabei behaupten die meisten die wäre leise, was ich aber bei 50 dBA nicht glauben kann.
Hören die Leute alle nichts mehr oder wie kann das sein, daß man eine Lärmquelle, die 50 dBA (Dezibel) verursacht für leise hält?
50dba sagt ja nicht soviel aus..kommt drauf an wie/wo gemessen wird und auf welche frequenzen sich das verteilt
Also im Idle hörst du keine 8800GTS, da is bei mir der Netzteillüfter lauter (atm die einzigste Geräuschquelle) im heruntergetakteten Modus (GTS@200/200).
Der Schalldruckpegel muß in 1 m Entfernung zur Geräuschquelle gemessen werden, da sonst die Schalldruckpegelmeßung unzulässig ist.
50 db sind damit also 50 db in 1 m Entfernung und das ist sau laut.
Muß halt der Artikelschreiber daß dazuschreiben, so ist es jedenfalls unzulässig.
Wenn das jeder Computerhändler so macht, dann mißt er seine Lüfter in 10 m Entfernung und sagt dann, die verursachen nur 5 db.
Daß das ne Frechheit ist, ist euch schon klar, oder?
martma
2007-04-17, 09:02:36
Ich finde nicht, dass die 8800GTS "sau leise" ist. Entweder einige Leute hier gehen zu viel in die Disco und sind schon hörgeschädigt, oder die Lüfter sind von der Produktion her unterschiedlich laut.
PCGH_Carsten
2007-04-17, 09:32:56
was die mit "Peak2D" meinen, ist mir nicht ganz klar ;-).
Steht doch im Text.
Muß halt der Artikelschreiber daß dazuschreiben, so ist es jedenfalls unzulässig.
Steht direkt über den Benchmark-Balken.
Sagt mal Jungs - lest ihr denn gar nicht mehr?
AYAlf
2007-04-18, 10:11:31
Und du hast bestimmt deinen Drucker auch aus 5cm Entfernung gemessen? :rolleyes:
Verlass dich auf keine dB Messungen sondern User Erfahrungen. Und ich kann dir sagen, dass eine G8800GTS verdammt leise ist, zumindest meine Leadtek. Da aber eh alle den Referenzkühler verwenden ...
ja, die ist so leise wie ein duesenjet .. ;D
TobiWahnKenobi
2007-04-18, 11:08:59
irgendwie gibt es doch 2D und 3D -takte. zumindest wenn ich meine GTX übertakten möchte, wird der übertakt nur bei 3D-applikationen angewendet.
beispiel: default 575/900MHz - OC auf 621/1000MHz
die 621MHz gibt's nur bei 3D-betrieb - der desktop dümpelt weiterhin bei 575MHz rum. habe das mit dem rivatuner geloggt. takte habe ich dabei mit RT, asus' smartdoctor u. dem klassischen NV-panel eingestellt. 3D app war die hdr-demo (rtlbldafklsjglko) und AM3, 3D06.
ps. man könnte sicherlich die 575MHz auf 300 o.ä. runterstellen u. hätte unter 3D dann trotzdem 621MHz
(..)
mfg
tobi
ps. man könnte sicherlich die 575MHz auf 300 o.ä. runterstellen u. hätte unter 3D dann trotzdem 621MHz
klar, meine karte läuft in 2D auf 130MHz und 3D mit 650MHz.
san.salvador
2007-04-18, 13:32:57
irgendwie gibt es doch 2D und 3D -takte. zumindest wenn ich meine GTX übertakten möchte, wird der übertakt nur bei 3D-applikationen angewendet.
beispiel: default 575/900MHz - OC auf 621/1000MHz
die 621MHz gibt's nur bei 3D-betrieb - der desktop dümpelt weiterhin bei 575MHz rum. habe das mit dem rivatuner geloggt. takte habe ich dabei mit RT, asus' smartdoctor u. dem klassischen NV-panel eingestellt. 3D app war die hdr-demo (rtlbldafklsjglko) und AM3, 3D06.
ps. man könnte sicherlich die 575MHz auf 300 o.ä. runterstellen u. hätte unter 3D dann trotzdem 621MHz
(..)
mfg
tobi
Wie und womit übertaktest du? Hab grad von Ati auf 8800 GTS gewechselt und hab mich da mal mit dem Atitool versucht. OC geht, aber wie bekomm ich eine automatische 2D/3D-Taktung hin? Wäre ein anderes toll besser?
OS ist Vista 32Bit.
TobiWahnKenobi
2007-04-18, 13:40:54
unter vista gar nicht - ich rede von meiner XP-MCE.
takten ist eh mit vorsicht zu geniessen.
The GeForce 8800 series has a sophisticated GPU frequency distribution. The main GPU domain can change its frequency with a variable step of 9, 18 or 27MHz, but the shader processor domain can change its frequency with a step of 54MHz only. The problem is that many overclocking programs can work with the main domain frequency only. In the standard GeForce 8800 GTX the frequency ratio is 1 to ~2.34, but pre-overclocked versions of the card may have a different ratio and their frequencies are going to change in a different way at overclocking. Fortunately, some overclocking tools, e.g. the latest version of RivaTuner, can report the real frequencies of the GPU domains to make the process of overclocking easier.
There is also a simple formula to calculate the frequency of the GeForce 8800’s shader processors during overclocking with a high enough precision:
OC shader clk = Default shader clk / Default core clk * OC core clk,
http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_7.html
(..)
mfg
tobi
kalle1111
2007-04-18, 13:45:49
Schau Dir mal den Clock-Guide an:
http://www.awardfabrik.de/forum/showthread.php?t=850
Damit schaltet meine Karte ganz automatisch in 2D auf 256/400 MHz. Sobald ich eine 3D-Anwendung starte, schaltet sie auf stock (oder jeden beliebigen Takt) um.
san.salvador
2007-04-18, 13:50:07
Schau Dir mal den Clock-Guide an:
http://www.awardfabrik.de/forum/showthread.php?t=850
Damit schaltet meine Karte ganz automatisch in 2D auf 256/400 MHz. Sobald ich eine 3D-Anwendung starte, schaltet sie auf stock (oder jeden beliebigen Takt) um.
Danke, klappt das ganze auch unter Vista?
Xaver Koch
2007-04-18, 14:48:33
Jo...
Extrem ist hier allerdings die 8800... ja nach Modell zieht sich diese 60-70W (das ist mehr als doppelt so viel!) und unter 3D dann in etwa soviel, wie die ATI der vorherigen Generation. "Stromsparmechanismen"? Sieht nicht danach aus... hängt wohl aber damit zusammen, dass die 8800 offenbar keinen 2D-Modus (in Takt und Voltage) 'kennen', wie das noch vorher bei nVidia und ATI üblich war...
Razor
Das ist so nicht ganz richtig: Die 8800 GTS benötigt im Vergleich zur GF 8600GTS, welche eine mit der GF 7950GT vergleichbare Stromaufnahme hat, im Idle 19 % mehr Strom, unter Last 28 %. Da sich die Zahlen auf den Strombedarf des ganzen PC beziehen, ist der Stromhunger der 8800 GTS absolut gesehen natürlich noch größer.
Aber wenn wir von einer Idle-Stromverschwendung sprechen, dann gilt das für alle nVidia-Karten und nicht nur für die 8800er. Anders betrachtet könnte man auch sagen, dass sich die ATI-Karten beim Spielen viel zu viel genehmigen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/39/#abschnitt_stromverbrauch
Xaver Koch
2007-04-18, 14:51:37
Schau Dir mal den Clock-Guide an:
http://www.awardfabrik.de/forum/showthread.php?t=850
Damit schaltet meine Karte ganz automatisch in 2D auf 256/400 MHz. Sobald ich eine 3D-Anwendung starte, schaltet sie auf stock (oder jeden beliebigen Takt) um.
Funktioniert der Riva-Tuner mit den neuen 158er Treibern noch? Mit einem 101.x ging es nicht.
Funktioniert der Riva-Tuner mit den neuen 158er Treibern noch? Mit einem 101.x ging es nicht.
rivatuner funktioniert (unter XP) mit allen neuen treibern, lediglich die versionserkennung funktioniert nicht, da rivatuner nur die letzten 4 stellen der treiberversion betrachtet und damit den 1er wegfallen lässt.
das kann man aber umgehen, indem man rivatuner zwingt die richtige treiberversion zu erkennen.
unter Vista funktioniert der großteil von rivatuner allerdings nicht, im prinzip ist lediglich das freischalten deaktivierter pipelines (sofern es die karte ermöglicht) möglich und das hardware-monitoring (wobei vor allem die VRAM-anzeige teilweise sehr unglaubwürdige werte anzeigt)
Danke, klappt das ganze auch unter Vista?
nein, rivatuner funktioniert unter vista praktisch nicht und da Unwinder (der programmierer) offenbar momentan keine lust hat das tool weiterzuentwickeln wird sich daran leider so schnell nichts ändern.
die einzige möglichkeit momentan vernünftig in vista zu takten bietet das ATI-tool, dieses kennt auch 2D und 3D-takt (bzw. bei notebook-chips auch low-power-takt) und kann auch verschiedene profile anlegen, die dann mit anwendungen verknüpft werden können.
kalle1111
2007-04-18, 15:17:41
@ Xaver + san.salvador
Der Gast hat die Fragen schon richtig beantwortet.
Unter XP funkioniert das wunderbar ;)
Brian_vi
2007-04-19, 23:03:36
Hallo,
ich habe meinen Rechner mal mit dem letzten OFFIZIELLEN Treibern unter Vista 32 vermessen (hatte ich schonmal in nem anderen Forum gepostet).
Die 2D/3D-Erkennung und Umschaltung mit dem ATITool funktioniert bei mir nicht sauber. Einige User sagen, dies funktioniere. Ausserdem ist der Autostart der Tools ATITool und Experttool unter Vista auch nicht ohne (mit UAC). Händisch funkioniert aber alles wunderbar.
HARDWARE:
Intel E6600 (Standard)
Asus P5N-E SLI
2GB RAM
MSI 8800GTS 320MB OC
320GB SATA
Seasonic S12-500
Antec P180
SOFTWARE:
Vista HP 32
Forceware 100.65
ATITool 0.27 beta
Experttool 5 (Gainward)
Everest U 2007
Taktung Graka: ATITool (OHNE Profilumschaltung!)
Lüftersteuerung Graka: Experttool (fixe Drehzahl)
Temp- und Drehzahl: Everest 2007
Verbrauch: Voltcraft EC3000 (Steckdose)
Standardtakte Graka = (D): Chip 575 / Shader 1350 / RAM 1700
Zustand Takte Lüfter Temperatur Verbrauch
(Chip/Ram) (U/min) (GPU Diode) (System in Watt)
IDLE 575/1700 (D) 1615 (60%) 68° 149
3DMark06 575/1700 (D) 1615 (60%) 88° 234
IDLE 200/400 1615 (60%) 62° 137
IDLE 200/400 1265 (50%) 67° 136
3DMark06 200/400 1265 (50%) 74° 174
IDLE 575/1700 (D) 2840 (100%) 62° 151
3DMark06 648/1950 1615 (60%) 94° 249
3DMark06 648/1950 2840 (100%) 79° 250
=> Optimum für NON-GAMING:
Taktabsenkung auf 200/400 + Lüfterdrosselung auf 50%
=> ca. 12 Watt weniger Verbrauch im IDLE
=> Temps nicht höher als bei Graka-Default
=> Lautstärke der Graka absolut SILENT-tauglich
P.S.: Hoffe mal die Formatierungen sind nicht alle verlorengegangen;)
Brian
Razor
2007-04-20, 06:19:32
Steht doch im Text.
Steht direkt über den Benchmark-Balken.
Sagt mal Jungs - lest ihr denn gar nicht mehr?Warum soll ich mir den ganzen Artikel durchlesen, wenn mich das Thema gar nicht interessiert?
Oder geht es hier nicht um "Power" und in dem Artikel um "640MB vs. 320MB"?
:confused:
Also wärest Du bitte so gut, die Seite zu verlinken und evtl. den Text zu quoten?
Danke.
Razor
Razor
2007-04-20, 06:25:56
irgendwie gibt es doch 2D und 3D -takte. zumindest wenn ich meine GTX übertakten möchte, wird der übertakt nur bei 3D-applikationen angewendet.Das "Takten" allene bringts aber nicht wirklich...
...kannst ja mal mit 'nem Voltmeter nachmessen.
Ein 'echter' 2D-Modus geht mit einer Senkung der Voltage und damit 'echten' Sparmaßnahmen einher.
Dies fehlt bei den G80 und das wird hier diskutiert...
Wer also unbedingt am Takt herum schrauben möchte, soll dies tun... auch wenn es nicht wirklich Sinn macht. Erinnert mich irgendwie an die Diskussionen früher, bei denen doch tatsächlich einige der Meinung waren, dass man mit dem untertakten des Speichers einen Effekt erzielt... was erwartungskonform im Sande verlief.
Das reine Heruntertakten von Komponenten hat genau 2 Effekte:
1) das Bauteil wird nicht ganz so warm
2) das Bauteil lebt dadurch vielleicht (!) etwas länger
Effekt 2 kann man aber getrost vergessen, da HighEnd ja sowieso nie länger als vielleicht 6-12 Monate 'bleibt'...
Das ist so nicht ganz richtig: Die 8800 GTS benötigt im Vergleich zur GF 8600GTS, welche eine mit der GF 7950GT vergleichbare Stromaufnahme hat, im Idle 19 % mehr Strom, unter Last 28 %. Da sich die Zahlen auf den Strombedarf des ganzen PC beziehen, ist der Stromhunger der 8800 GTS absolut gesehen natürlich noch größer.
Aber wenn wir von einer Idle-Stromverschwendung sprechen, dann gilt das für alle nVidia-Karten und nicht nur für die 8800er. Anders betrachtet könnte man auch sagen, dass sich die ATI-Karten beim Spielen viel zu viel genehmigen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/39/#abschnitt_stromverbrauchKann es evtl. sein, dass Du den Artikel 'irgendwie' falsch gelesen hast?
:confused:
Die 8800'er verbrauchen sehr viel mehr Strom im idle, als die 'anderen' (inkl. der 8600)!
(hier im Vergleich zur 7950GT/8600GTS)
- 8800 GTS 320 +29W
- 8800 GTS 640 +33W
- 8800 GTX 768 +43W
Aber vielleicht habe ich da ja was in den falschen Hals bekommen?
Im übrigen 'braucht' eine 7950GT in etwa 20W im idle... da nützen die 12W weniger von Brain auch nicht wirklich viel, gell?
;)
P.S.: Hoffe mal die Formatierungen sind nicht alle verlorengegangen;)Benutze die 'code'-Tags...
Standardtakte Graka = (D): Chip 575 / Shader 1350 / RAM 1700
Zustand Takte Lüfter Temperatur Verbrauch
(Chip/Ram) (U/min) (GPU Diode) (System in Watt)
IDLE 575/1700 (D) 1615 (60%) 68° 149
3DMark06 575/1700 (D) 1615 (60%) 88° 234
IDLE 200/400 1615 (60%) 62° 137
IDLE 200/400 1265 (50%) 67° 136
3DMark06 200/400 1265 (50%) 74° 174
IDLE 575/1700 (D) 2840 (100%) 62° 151
3DMark06 648/1950 1615 (60%) 94° 249
3DMark06 648/1950 2840 (100%) 79° 250Der Murks06 ist im übrigen nicht wirklich geeignet, maximale Temps und damit maximalen load zu erreichen...
Razor
Xaver Koch
2007-04-20, 08:00:32
Kann es evtl. sein, dass Du den Artikel 'irgendwie' falsch gelesen hast?
:confused:
Die 8800'er verbrauchen sehr viel mehr Strom im idle, als die 'anderen' (inkl. der 8600)!
(hier im Vergleich zur 7950GT/8600GTS)
- 8800 GTS 320 +29W
- 8800 GTS 640 +33W
- 8800 GTX 768 +43W
Aber vielleicht habe ich da ja was in den falschen Hals bekommen?
Im übrigen 'braucht' eine 7950GT in etwa 20W im idle... da nützen die 12W weniger von Brain auch nicht wirklich viel, gell?
;)
Razor
Ich habe den Artikel schon richtig gelesen und festgestellt, dass die 8800er unter Last relativ gesehen mehr im Vergleich zur 7950 GT als im Idle-Modus verbrauchen (sind ja auch viel größer, die Chips). Finde ich vergleichbar mit einem 4-Zylinder und einem V12. Der V12 wird im Leerlauf auch mehr als der 4-Zylinder verbrauchen, aber wenn man beschleunigt in Realtion zum kleineren Motor deutlich mehr.
Nun ist die Frage, wie man den großen Motor im Verbrauch zügeln kann, zumindest wenn die Leistung nicht benötigt wird (z.B. Abschaltung einiger nicht benötigter Zylinder).
Sicher verbrauchen die 8800er Karten mehr Strom, aber das ist, wie ich das sehe keine baureihenspezifisches Problem, sondern eher ein generelles NVidia-Problem und fällt eben mit den großen 8800er-Karten besonders auf. Dafür ist der Verbrauch bei ATI unter Last (was macht man denn sonst mit diesen Karten, wenn nicht überwiegend spielen) horrend. Nichts desto Trotz sollte nVidia über zusätliches Maßnahmen (Spannung senken, Takt herunter fahren, nicht benötigte Teile abschalten) den Idle-Verbrauch senken, da die generell im Vergleich zu ATI zu hoch sind, was ja keiner bestreitet.
Ich hoffe, nun habe ich mich klarer ausgedrückt.
Öhmm... nein.
Nicht 'klarer'...
Dein Vergleich von V4 vs. V12 ist auch fürn... anus.
Mach da mal lieber V4 vs. V8 draus... wollen ja realistisch bleiben, oder?
;)
Sicher verbrauchen die 8800er Karten mehr Strom, aber das ist, wie ich das sehe keine baureihenspezifisches Problem, sondern eher ein generelles NVidia-Problem und fällt eben mit den großen 8800er-Karten besonders auf.Wus?
:confused:
Die 8600GTS liegen absolut im grünen Bereich, insofern der hohe Verbrauch der G80 wohl durchaus mit dem 'Alpha'-Zustand dieser Chips zu erklären wäre. Ganz im Gegenteil konnten sie - trotz in etwa gleicher Transistor-Anzahl wie beim G71 (knapp 300mio!) - den Stromverbrauch nochmals etwas senken... was natürlich auf den etwas verkleinerten Fertigungprozess zurück zu führen sein dürfte (80nm vs. 90nm).
Würde mich nicht wundern, wenn es bald von nVidia 'vernünftige' High-Ender geben würde, die
a) endlich wieder ein Power-Management mitbringen
b) mit einem besseren Video-Prozessor (VP2, wie bei G84/86?) ausgestattet sind, wenn sie denn überhaupt einen haben
c) HDCP auch wirklich handeln können (DualLink-DVI = no go)
Erinnert mich an die Situation der ersten NV40 und dem defekten VideoProzessor!
:D
Und noch einmal:
Computerbase FiringSqad Neoseeker Neoseeker
idle idle idle load
7950 GT
8600 GTS - 1W (?) -11W -11W - 9W
8800 GTS 320 +29W +37W +43W +69W
8800 GTS 640 +33W
8800 GTX 768 +43WDen Neosseker 'load'-Wert habe ich nur der Vollständigkeit mit angegeben...
Und klar, gemessen an der ca. 90% gesteigerten Performance einer 8800GTS320 ggü. einer 7950GT ist der Zuwachs unter 3D nicht mehr "zu viel", obgleich... 7950GT idle -> load = 46W, 8800GTS320 idle -> load = 72W + 43W höherer idle-Verbrauch = + 110W im Vergleich zum 7970GT. Insofern 'braucht' ein G80 140% mehr Power um gerade mal 90% mehr Performance zu erreichen... nicht gerade eine gute Effizienz-Bilanz, oder?
Razor
Dr.Doom
2007-04-20, 11:36:03
Das reine Heruntertakten von Komponenten hat genau 2 Effekte:
1) das Bauteil wird nicht ganz so warm
2) das Bauteil lebt dadurch vielleicht (!) etwas länger
Effekt 2 kann man aber getrost vergessen, da HighEnd ja sowieso nie länger als vielleicht 6-12 Monate 'bleibt'...Ich behalte meine Hardware länger.
Daher interessiert mich ein Tool, mit dem ich eine GF8800 runtertakten kann! Mit den vorhandenen Möglichkeiten im Treiber (97.94) und mit diesem nTune-Dings funktioniert es leider bei mir nicht: Die Schieberegler lassen sich nicht verschieben und wenn ich "Optimale EInstellungen ermitteln" betätige, startet der PC neu.
Welches Tool zum Runtertakten gibt es?
Hat Brian doch geschrieben... ATI Tool.
Bringt etwa 12W im idle... keine Ahnung, inwieweit sich dann die Lebensdauer Deiner Hardware ändert.
3-5 Jahre sollte die Hardware auch ohne solche Maßnahmen mitmachen.
Und extrem verkürzen tut man die Laufzeit i.d.R. durch OC...
Wie gesagt, wirklich bringen (auch hinsichtlich der 'Lebensdauer') würde es eine Herabsetzung der Voltage...
...aber düs gibbet ja nicht beim G80.
Razor
Vertigo
2007-04-20, 11:45:41
Welches Tool zum Runtertakten gibt es?
Die gleichen, wie zum Übertakten ... :biggrin:
ATI Tool zum Beispiel.
http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/
Xaver Koch
2007-04-20, 12:11:12
Und klar, gemessen an der ca. 90% gesteigerten Performance einer 8800GTS320 ggü. einer 7950GT ist der Zuwachs unter 3D nicht mehr "zu viel", obgleich... 7950GT idle -> load = 46W, 8800GTS320 idle -> load = 72W + 43W höherer idle-Verbrauch = + 110W im Vergleich zum 7970GT. Insofern 'braucht' ein G80 140% mehr Power um gerade mal 90% mehr Performance zu erreichen... nicht gerade eine gute Effizienz-Bilanz, oder?
Razor
Eben, der G80 ist generell nicht besonders sparsam, aber deswegen kann man nicht nur von einem reinen Idle-Problem sprechen. Wie viel Strom würde denn ein in der G7x-Technologie gefertigter Chip mit der gleichen Leistung des G80 benötigen? Dann hätten wir die Antwort, ob der G80 tatsächlich weniger effizient ist.
Moralelastix
2007-04-20, 12:26:52
Eben, der G80 ist generell nicht besonders sparsam, aber deswegen kann man nicht nur von einem reinen Idle-Problem sprechen. Wie viel Strom würde denn ein in der G7x-Technologie gefertigter Chip mit der gleichen Leistung des G80 benötigen? Dann hätten wir die Antwort, ob der G80 tatsächlich weniger effizient ist.
G80 = 90nm
G71 = 90nm
Ebend...
Eben, der G80 ist generell nicht besonders sparsam, aber deswegen kann man nicht nur von einem reinen Idle-Problem sprechen.Wie bitte?
:confused:
Also 140% mehr für 90% mehr zu brauchen, ist... na ja... unschön.
Aber fast 150% mehr für nix ist... UNTRAGBAR!
Die Effizienz-Bilanz im 3D-Modus ist halt ein bissel ungünstig, aber darüber würde ich nichtmal ansatzweise diskutieren wollen... Leistung 'kostet' halt was und "wie viel" ist bei HighEndern dann eher nebensächlich. Aber der Punkt, wo ein G80 rein gar nichts 'anderes' tut, als ein G71 oder G84, dafür aber unverhältnismäßig mehr Strom verbrät - so viel sogar, wie 'die anderen' unter maximallast verbraten (207W/198W bei G71/84 load vs. 204W bei G80 idle), ist sehr wohl diskussionswürdig.
Das hat mit schlechter Effizienz absolut nichts zu tun... viel eher mit einem schlechten bzw. 'unfertigen' Design.
Razor
kalle1111
2007-04-20, 13:22:41
Welches Tool zum Runtertakten gibt es?
http://www.awardfabrik.de/forum/showthread.php?t=850 (http://www.awardfabrik.de/forum/showthread.php?t=850)
Clock-Guide lesen. Funzt aber net unter Vista!
Moralelastix
2007-04-20, 13:27:51
.....
Erinnert mich an die Situation der ersten NV40 und dem defekten VideoProzessor!
:D
....
Razor
Ich bin schon gespannt was sie beim nächsten mal wieder vergessen werden.
Die Buchmacher nehmen die Wetten schon an.
.....
Ahh ich habs. CUDA funktioniert nur eingeschränkt und die Physikberechnungen funktionieren erst wieder mit dem Refresh.:biggrin:
jojo4u
2007-04-20, 13:46:36
Ich bin schon gespannt was sie beim nächsten mal wieder vergessen werden.
Die Buchmacher nehmen die Wetten schon an.
.....
Ahh ich habs. CUDA funktioniert nur eingeschränkt und die Physikberechnungen funktionieren erst wieder mit dem Refresh.:biggrin:
Hehe, ja Nvidia hat so langsam seinen Ruf weg.
Welches Tool zum Runtertakten gibt es?
Rivatuner.
Ebend...
Wie bitte?
:confused:
Also 140% mehr für 90% mehr zu brauchen, ist... na ja... unschön.
Aber fast 150% mehr für nix ist... UNTRAGBAR!
Die Effizienz-Bilanz im 3D-Modus ist halt ein bissel ungünstig, aber darüber würde ich nichtmal ansatzweise diskutieren wollen... Leistung 'kostet' halt was und "wie viel" ist bei HighEndern dann eher nebensächlich. Aber der Punkt, wo ein G80 rein gar nichts 'anderes' tut, als ein G71 oder G84, dafür aber unverhältnismäßig mehr Strom verbrät - so viel sogar, wie 'die anderen' unter maximallast verbraten (207W/198W bei G71/84 load vs. 204W bei G80 idle), ist sehr wohl diskussionswürdig.
Das hat mit schlechter Effizienz absolut nichts zu tun... viel eher mit einem schlechten bzw. 'unfertigen' Design.
Razor
Liegt am Geld. Hätte die Fertigung des PCB verteuert und nV hätte wahrscheinlich noch einen "Trigger" in ihrem Treiber wie ATi integrieren müssen, sprich die Karte läuft vom Start weg mit niedrigen Taktraten und Spannungen und wird erst durch den Treiber bei Start einer 3D Applikation auf volle Leistung geschaltet. Da wäre garantiert großes Einsparpotential vorhanden gewesen.
nV hat aber jetzt schon genug Probleme mit ihrem ganzen Treiber Hick Hack.
Hätte die Fertigung des PCB verteuert und nV hätte wahrscheinlich noch einen "Trigger" in ihrem Treiber wie ATi integrieren müssen, sprich die Karte läuft vom Start weg mit niedrigen Taktraten und Spannungen und wird erst durch den Treiber bei Start einer 3D Applikation auf volle Leistung geschaltet.
diesen "trigger" gibt es. beim booten laufen die G80-karten mit 200MHz chip und 400MHz speichertakt, erst mit dem laden des treibers wird der takt auf den "betriebszustand" angehoben.
Liegt am Geld. Wohl eher am 'etwas' überhasteten Release...
Razor
Fatality
2007-04-20, 16:13:13
wieso überhastet? läuft von anfang an perfekt.
diesen "trigger" gibt es. beim booten laufen die G80-karten mit 200MHz chip und 400MHz speichertakt, erst mit dem laden des treibers wird der takt auf den "betriebszustand" angehoben.
Echt? Dann wäre es doch für nV ein leichtes sowas mit der Spielprofilerkennung zu verknüpfen und dann erst die Takte bei Spielstart anzuheben. Zu Not könnte man ja noch einen manuellen Override Befehl integrieren, falls kein Profil vorliegen sollte und der Nutzer keines erstellen möchte. Bleibt nur noch die Spannungssenkung und die Karten wären perfekt.
Der g80 läuft im 2D Modus und 3D Modus mit 1,2V. Die 7900GT/7600 Karten liefen ebenfalls in beiden Modie mit 1,2V.
Der G80 hat 4 zusätzliche Speicherchips, mehr Spannungswandler und fast 2 1/2 Millionen Transistoren zusätzlich. Und er wird noch im 90nm Modus gefertigt.
Es ist daher vollkommen verständlich, dass die Karte im 2D Modus mehr Strom ziehen wird als eine 7900GT.
2 1/2 mal zuviele Transisoteren natürlich.
Der g80 läuft im 2D Modus und 3D Modus mit 1,2V. Die 7900GT/7600 Karten liefen ebenfalls in beiden Modie mit 1,2V.
Der G80 hat 4 zusätzliche Speicherchips, mehr Spannungswandler und fast 2 1/2 Millionen Transistoren zusätzlich. Und er wird noch im 90nm Modus gefertigt.
Es ist daher vollkommen verständlich, dass die Karte im 2D Modus mehr Strom ziehen wird als eine 7900GT.
Jo das ist klar. Trotzdem muss man ja auch einen Stromsparmechanismus einbauen. Bei niedrigen Taktraten könnte man garantiert um die 1,0V fahren. Aber dafür muss ja wieder eine Schaltung auf dem PCB vorhanden sein, die es ermöglicht mindestens 2 Spannungen anzulegen und passend zu den Taktraten zu wechseln. Kostet Geld und Zeit trotzdem hat man es weggelassen. Bei den anderen Karten war es zu verschmerzen, da viel weniger Transistoren vorhanden waren. Aber in Zukunft lässt sowas nicht mehr umgehen, denn die Transistorenanzahl wird rasch über eine Milliarde gehen. Und dann die gleichen Spannungen und Takte wie im 3D zu fahren --> unnötige Verschwendung
Echt? Dann wäre es doch für nV ein leichtes sowas mit der Spielprofilerkennung zu verknüpfen und dann erst die Takte bei Spielstart anzuheben.
natürlich wäre es ein leichtes, unterschiedliche takte für 2D und 3D funktionieren auch perfekt.
Der g80 läuft im 2D Modus und 3D Modus mit 1,2V
nein, G80-karten laufen immer mit 1,3V, sowohl in 2D als auch in 3D.
Brian_vi
2007-04-20, 20:31:17
@Razor:
TX für die korrigierte Tabelle
Die ganze Diskussion um Effizienz finde ich ziemlich müssig. Mich stört viel eher, dass es NACHGEWIESENERMASSEN funktionierende Möglichkeiten gibt Strom im IDLE zu sparen, dies z.Z. (6 Monate nach Markteinführung) aber immer noch Fremdsoftware benötigt.
NVidia hätte wirklich genügend Zeit gehabt zumindest die 2D/3D-Taktaufdröselung in den Treiber zu integrieren. Warum das noch nicht passiert ist, darüber kann man nur spekulieren. Vielleicht gibts Probleme mit der 3D-Erkennung und sie haben Angst, dass die Karte nicht mehr hochschaltet...ich weiss es nicht.
Wenn der Chip nicht von vorneherein auf das abschalten von Teilbereichen ausgelegt worden ist, dann wird das mittels Treiberupdate wohl kaum nachgeholt werden können.
Mit einer evt. Spannungsabsenkung im 2D-Betrieb bin ich mir da nicht so sicher.
Für mich ist ein wichtiger Punkt, dass weniger Wärme auch leiserer Lüfter bedeutet, obwohl ich da mit diesem Chip wohl eher die Ausnahme bin ;) Beim Zocken ists mir ja auch ziemlich egal, aber ansonsten so silent wie's geht.
Unter XP existieren ja bereits gepostete Möglichkeiten diese Treibermankos (Takt- und Lüftersteuerung) z.B. mittels Rivatuner vollautomatsich umzusetzen. Leider sieht's da unter Vista noch schlecht aus.
Brian
NVidia hätte wirklich genügend Zeit gehabt zumindest die 2D/3D-Taktaufdröselung in den Treiber zu integrieren. Warum das noch nicht passiert ist, darüber kann man nur spekulieren. Vielleicht gibts Probleme mit der 3D-Erkennung und sie haben Angst, dass die Karte nicht mehr hochschaltet...ich weiss es nicht.
die 3D-erkennung funktioniert wunderbar, die 2D-erkennung leicht verzögert, was aber kein großes problem ist.
dass problem ist vielmehr dass es keine langzeiterfahrungen gibt wie sich der chip verhält wenn sich die taktraten stark unterscheiden. wenn du das bei dir daheim machst ist das dein problem, wenn nvidia das offiziell macht muss es auch wirklich funktionieren. wenn dann eine von tausend karten bei der taktumschaltung abschmiert ist es schon zu viel.
Für mich ist ein wichtiger Punkt, dass weniger Wärme auch leiserer Lüfter bedeutet, obwohl ich da mit diesem Chip wohl eher die Ausnahme bin ;)n
zumindest beim G80 kein grund, der lüfter dreht in 2D sowieso schon extrem leise. der einzige grund wäre wirklich strom sparen zu wollen, von der lautstärke lässt der G80 eh keine wünsche mehr übrig.
Brian_vi
2007-04-20, 20:59:24
zumindest beim G80 kein grund, der lüfter dreht in 2D sowieso schon extrem leise. der einzige grund wäre wirklich strom sparen zu wollen, von der lautstärke lässt der G80 eh keine wünsche mehr übrig.
Ich habe einen G80 (GTS 320) und mir ist er im IDLE zu laut!!! Ich habe nunmal einen absoluten SILENT-Rechner und das einzige was ich höre ist der Lüfter der Graka! Der Rest ist praktisch nicht zu hören (insgesamt 4x120mm < bis << 1000 RPM)
Brian
Ich habe einen G80 (GTS 320) und mir ist er im IDLE zu laut!!!
dir ist der G80-lüfter im idle zu laut? sorry, aber das wirkt schon fast lächerlich.
selbst wenn die karte offen neben dem gehäuse liegen würde, würde ich den in normaler sitzhöhe nicht mehr hören. klar 5cm daneben ist der lüfter noch hörbar, aber normalerweise krieche ich nicht unter den tisch.
wenn noch etwas leiseres willst, brauchst du eben eine wasser kühlung oder musst auf highend-karten verzichten.
Superheld
2007-04-21, 01:26:03
hab mir heut mal ein Strommeßgerät aus geliehen.:smile:
Idle Rechner:
AMD x2 3800+@1,136V
Msi 8800gts 500/800
Gigabyte K8N Pro-SLI
2x1024MB takeMS
Netzteil ist das Enermax EG465AX-VE(G)FMA 460W
513/792 ~143W
200/792 ~131W
200/200 ~124W
150/150 ~122W
macht ca 20W die man sparen kann:)
Moralelastix
2007-04-21, 03:02:15
Wow, 20W am Netzteil ~ 15 Watt an der Karte selbst?
Laut xbit soll die GTS ja so 50W im ilde ziehen.
Dann währen es also nur noch 35W. Nur duch runtertakten.
Bei er GTX sind's noch mehr.
Was für ne unnötige Verschwendung blos weil der Treiberprogammer auf der Tastatur geschlafen hat.
Laut xbit soll die GTS ja so 50W im ilde ziehen.
Dann währen es also nur noch 35W. Nur duch runtertakten.
damit ist die karte garnicht mehr weit von der vorgängergeneration im idle entfernt.
Moralelastix
2007-04-21, 12:39:00
damit ist die karte garnicht mehr weit von der vorgängergeneration im idle entfernt.
Mhm, und dazu könnte ja auch noch die Spannung abgesenkt werden und dann währen wir bestimmt bei kleiner 30W.
Razor
2007-04-21, 13:30:57
damit ist die karte garnicht mehr weit von der vorgängergeneration im idle entfernt.Wenn sie tatsächlich 'nur' 50W brauchen würde...
AFAIK (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5423433#post5423433) (und hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5423900#post5423900)) sind dies aber schon 37W bzw. 43W mehr als im Vergleich zu einer 7950GT. Zieht man dann die theoretischen 15W ab (Brian (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5423078#post5423078) hat hier z.Bsp. nur 12W gemessen...) dann verbleiben noch immer 25W bzw. 28W 'mehr'.
Ergo: eine 8800 würde nicht mehr 2,5 mal soviel strom im idle 'brauchen', sondern nur noch 2 mal soviel.
(eben statt vorher + 150%, dann "nur noch" + 100% ;-)
Wirklich was 'bringen' tut das nicht.
Vor allem, wenn man bedenkt, dass eine 7950GT nicht einmal herunter getaktet werden muss, um auf die idle-Werte zu kommen...
Razor
AFAIK (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5423433#post5423433) (und hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5423900#post5423900)) sind dies aber schon 37W bzw. 43W mehr als im Vergleich zu einer 7950GT.
verglichen natürlich mit last-gen high-end, also 7900GTX bzw X1900XTX und nicht einer 7950GT, deren spannung ja schon reduziert wurde.
Razor
2007-04-21, 15:09:04
Ich verglich mit der 8800GTS320... nicht mit 8800GTS640 oder 8800GTX.
Der vergleich ist so schon durchaus korrekt...
Razor
Brian_vi
2007-04-23, 22:11:36
### Warnung vor HEIZ-Treiber 158.18 ###
Hallo zusammen,
hatte meine Messergegbnisse zum Thema Stromverbrauch, Wärme etc. mit dem 100.65 ja bereits weiter vorne in diesem Thread gepostet.
Hatte mir am Wochenende den neuen (Beta-)Treiber 158.18 draufgeladen.
Kann davon nur ABRATEN!!!
Mit dem Treiber heizt meine Karte plötzlich wie verrückt. Dachte zuerst ich, ich bilde mir den lauteren Lüfter nur ein. Heute nach ca. 1h CoH-Zocken lief der Lüfter auf 100%hoch. Hatte ich vorher noch nie (ausser beim Booten).
Also hab ich mal Everest angeschmissen und den Strommesser rausgeholt.
Leider wird mit dem 158.18 in Everest die CPU-Diode nicht angezeigt, sondern nur der ominöse GPU-Wert. Der zeigte bei Belastung jedenfalls bis zu 90° an! Beim 100.65er Treiber ist dieser GPU-Wert laut Everest immer ca. 10° niedriger als der GPU-Dioden-Wert. Also hätte die GPU-Diode wahrscheinlich an die 100° angezeigt. Kein Wunder also, dass der Lüfter voll aufgedreht hat.
Der Strommesser brachte dann auch ein eindeutiges Ergebnis:
- Mehrverbrauch 158.18 <-> 100.65 IDLE ca. 10-15 Watt!!!
- Mehrverbrauch 158.18 <-> 100.65 LAST ca. 10 Watt (wobei dies
schwieriger zu messen ist als IDLE)
Ausserdem heizte sich bei mir die CPU auch viel stärker auf, als mit dem 100.65er (CPU-Lüfter ist bei mir nicht Temp-geregelt). Nehme an das kam von der Abwärme, weil die CPU-Auslastung im IDLE schön zurückging und auch Speedstep funktionierte. Mein Gehäuse war trotzdem warm wie'n Backofen.
Ich kann deshalb von diesem HEIZTREIBER nur abraten!
Weil es ein Beta-Treiber ist, könnte es natürlich sein, dass dies nicht bei allen Karetn so ist. Für meine MSI 320GTS OC taugt der 158.18 jedenfalls definitv nix.
Brian
san.salvador
2007-04-23, 22:14:33
Der 158.18 ist ein offizieller, kein BETA-Treiber.
Ich betreibe meine GTS 640 damit im 2D bei 200Mhz/200Mhz, die GPU wird dabei ca. 55°C warm. Wieviel Watt das nun sind weiß ich nicht, aber ich sehe hier kein Problem.
Brian_vi
2007-04-23, 22:16:52
Der Treiber ist BETA!
Steht auch gross und breit auf der Nvidia-Page!
... und wie ich schon sagte: die Probleme müssen nicht bei allen Modellen auftreten.
Brian
san.salvador
2007-04-23, 22:19:20
Stimmt, mein Fehler.
Bin noch nicht lange "Nvidiot", ich dachte, dass nur die Treiber Beta sind, die unter "BETA Drivers" zu finden sind. Wär auch zu logisch gewesen. :D
drum02
2007-04-23, 22:20:09
WATT soll das ? Ist das nicht völlig egal ? CLOSED HIER
### Warnung vor HEIZ-Treiber 158.18 ###
kann ich nicht bestätigen, sowohl lüfter als auch temperatur sind gleich wie auch bei jedem anderen treiber.
renaldo
2007-04-24, 13:16:38
HARDWARE:
Intel E6600 (Standard)
Asus P5N-E SLI
2GB RAM
MSI 8800GTS 320MB OC
320GB SATA
Seasonic S12-500
Antec P180
Standardtakte Graka = (D): Chip 575 / Shader 1350 / RAM 1700
Zustand Takte Lüfter Temperatur Verbrauch
(Chip/Ram) (U/min) (GPU Diode) (System in Watt)
IDLE 575/1700 (D) 1615 (60%) 68° 149
3DMark06 575/1700 (D) 1615 (60%) 88° 234
IDLE 200/400 1615 (60%) 62° 137
IDLE 200/400 1265 (50%) 67° 136
3DMark06 200/400 1265 (50%) 74° 174
IDLE 575/1700 (D) 2840 (100%) 62° 151
3DMark06 648/1950 1615 (60%) 94° 249
3DMark06 648/1950 2840 (100%) 79° 250
Die Idle Werte schockieren mich ehrlich gesagt ;(
Kann denn hier jemand die Einschätzung von cold-pc verifizieren ?
http://www.cold-pc.de/thread.php?postid=863#post863
"Sehr interessant ist, dass auf dem MSI K9A Platinum, der 4000+ bei standard Einstellungen ohne CnQ im Windows Idle mit einer 8800 GTS 113 Watt hat!!! unser Testsystem mit einem E6300 beim P5W macht da 149 Watt, das ist schon gewaltig!!!"
113 Watt Idle würde ich mit Bauchschmerzen verkraften aber ich weigere mich ca. 150 Watt Idle zu akzeptieren...
mfg renaldo
Thowe
2007-04-24, 16:24:12
Intressehalber hatte ich es gerade mal getestet, wie es mit den Werten ausschaut. Der Treiber ist der 158.19. Das System ist das aus der Signatur, wobei die Benchmarkwerte nicht aktuell sind, die stammen noch vom alten Board/Prozessor.
Der Rechner verbraucht ohne die 8800er (onBoard Grafik) auf dem Desktop rund 65W IDLE.
127W Desktop o. Treiber oder mit Treiber, spielt keine Rolle.
119W Desktop auf 260/400 untertaktet.
142W Desktop, nach ungefähr 1 Stunde PC an läuft die Karte ab und an tatsächlich irgendwie "heiss" und es gibt ein Peak auf diese Größe, für max. ein paar Minuten, danach wieder auf normale Werte zurück. Seltsames Verhalten.
197W mit 5x 3DMARK2006 hintereinander, max. Messung des Messgerätes.
In meine Ohren ist die 8800 erst auf etwa 40% duty-cycle leise.
renaldo
2007-04-25, 11:18:23
Der Rechner verbraucht ohne die 8800er (onBoard Grafik) auf dem Desktop rund 65W IDLE.
127W Desktop o. Treiber oder mit Treiber, spielt keine Rolle.
142W Desktop für max. ein paar Minuten, danach wieder auf normale Werte zurück
Danke für Deine Messungen Thowe,ist natürlich schwierig wenn der Idle Verbrauch so extrem schwankt...
Beste Grüsse renaldo
Der Rechner verbraucht ohne die 8800er (onBoard Grafik) auf dem Desktop rund 65W IDLE.
127W Desktop o. Treiber oder mit Treiber, spielt keine Rolle.
119W Desktop auf 260/400 untertaktet.
142W Desktop, nach ungefähr 1 Stunde PC an läuft die Karte ab und an tatsächlich irgendwie "heiss" und es gibt ein Peak auf diese Größe, für max. ein paar Minuten, danach wieder auf normale Werte zurück. Seltsames Verhalten.
197W mit 5x 3DMARK2006 hintereinander, max. Messung des Messgerätes.
Interessante Info!
Thx.
Mit 62W idle-Verbrauch liegst Du unterhalb der von iXBT gemessenen ca. 69W für die GTX.
Sollte also 'normal' für 'ne GTS sein...
Du schaffst es, etwa 8W zu 'sparen', Brian hat es mit 200/200 hinbekommen, dies auf etwa 12W zu bringen.
Auch das scheint 'normal'...
Nur die 142W verstehe ich nicht ganz... kommen diese im herunter getakteten Zustand zustande?
Wie sieht es mit dem Temperaturen aus?
Die 132W Maximallast scheinen hingegen wieder 'normal'...
In meine Ohren ist die 8800 erst auf etwa 40% duty-cycle leise.
Jup... das deckt sich in etwa mit meinen Erfahrungen.
Razor
Da ich mir nun auch eine 8800er GTS 640 bestellt habe, die Frage, ob schon jemand versucht hat, im Idle mit Core 200 MHz und 400 MHz Speicher zu fahren und die Spannung im Bios z.B. auf 1,1 V dabei abzusenken (Werte sollen im 3D-Betrieb auf Standart bleiben).
Würde das funktionieren, oder geht die Karte dann evtl. nicht mehr?
san.salvador
2007-04-26, 10:59:55
Da ich mir nun auch eine 8800er GTS 640 bestellt habe, die Frage, ob schon jemand versucht hat, im Idle mit Core 200 MHz und 400 MHz Speicher zu fahren und die Spannung im Bios z.B. auf 1,1 V dabei abzusenken (Werte sollen im 3D-Betrieb auf Standart bleiben).
Würde das funktionieren, oder geht die Karte dann evtl. nicht mehr?
Mit der Spannung spiel ich mich nicht, aber meine GTS betreibe ich in 2D mit 200/200 - das geht ganz gut, auch die Temperatur sinkt anständig.
Thowe
2007-04-26, 11:03:03
...
Nur die 142W verstehe ich nicht ganz... kommen diese im herunter getakteten Zustand zustande?
Wie sieht es mit dem Temperaturen aus?
Hallo,
da eigentlich nicht, zumindestens nicht in den Zeitraum wo ich die Karte auf diesen Takt fuhr und das war schon einige Zeit. Anscheinend passiert es nur, wenn die Karte auf normalen Takt läuft und wenn ich das richtig vermute, im Zusammenhang mit der Aussage von Brian_vi, auch nur mit den aktuelle Treiber.
Definitiv ein sehr seltsames Verhalten, vor allem auch deshalb, weil die "normalen" Lastschwankungen bei voller Leistung deutlich massiver sind als wenn die Karte untertaktet wird.
Moralelastix
2007-04-26, 11:08:55
Was passiert eigentlich wenn der G80 für FAH oder ähnliche Berechnungen unter 2D genutzt wird?
Schaltet der G80 dann wenn er FAH Berechnugen durchführt auf volle Geschwindigkeit um?
(ja der FAH Client für den G80 ist noch nicht verfügbar wegen eines Bugs in CUDA)
@Thowe
Hmmm...
Wie taktest Du herunter?
nTune oder ATI-Tool?
:confused:
Evtl. arbeitet die "3D-Erkennung" vom ATI-Tool besser, als die des Treibers...
Und dass die Lastschwankungen im erzwungen untertaktetem Zustand nicht so ins Gewicht fallen, ist ja normal.
@Gast
Das mit der Spannung senken wird wohl nicht gehen...
Auch hat es noch niemand hinbekommen, einen 2D-Takt im Bios zu hinterlegen.
Des funzt nur mit Tools wie dem ATI-Teilchen und entsprechend eingerichteten Profilen.
Razor
Moralelastix
2007-04-26, 11:23:12
@ r@w. ;D
Haste mal das Asus tool zum takten versucht?
Hieß es nicht irgendwo das alle G80 Karten von Asus gefertigt werden?
Xaver Koch
2007-04-26, 11:51:40
@Gast
Das mit der Spannung senken wird wohl nicht gehen...
Auch hat es noch niemand hinbekommen, einen 2D-Takt im Bios zu hinterlegen.
Des funzt nur mit Tools wie dem ATI-Teilchen und entsprechend eingerichteten Profilen.
Razor
Dieser Gast bin ich (Anmeldung vergessen). Ich hatte nur gehört, dass man mit den nbitor das Bios editiren und anschließend flashen kann. Das mit dem Auslesen, editieren und Speichern hat mit meiner derzeitigen Gainward Bliss 512+ (die mit 24pp) ja schon geklappt, das ganze aber zu flashen, habe ich dann aber nicht gewagt, zumal das Takten mit dem Rivatuner (auch mit dem 158.19) gut klappt. Aber wenn damit bisher keiner Erfolg bei einer 8800er hatte, lasse ich das ganze lieber. Ich dachte nur, dass ein Herunterakten erst in Kombination mit einer V-Core-Senkung den Verbrauch richtig reduziert. Kann das ATI-Tool den V-Core einer 8800er senken?
Thowe
2007-04-26, 12:31:52
... Ich dachte nur, dass ein Herunterakten erst in Kombination mit einer V-Core-Senkung den Verbrauch richtig reduziert. Kann das ATI-Tool den V-Core einer 8800er senken?
und @Razor
Nutze auch den Rivatuner. Wenn das Tool tatsächlich die VCore senken könnte, dann wäre das schon ausgesprochen interessant, ich vermute aber mal, es kann es nicht.
Spannung fliesst immer nahezu quadratisch in die Verlustleistung ein, weswegen die ULV Prozessoren eben immer in den Bereichen rumkrebsen, wo mit unter 1V noch ein annehmbarer Takt realisierbar ist. Will meinen, man könnte den G80 durchaus in einen angemessenen Bereich bewegen, ich glaube nur, das NV dies wenig beabsichtigt hat.
Nebenbei noch erwähnt, die Lastschwankungen sollte bei gesenkten Takt nicht großartig anders sein als beim normalen. Da der Hauptverursacher für die Last eigentlich nicht mit beeinflusst wird. Das spräche dann eher dafür, dass der Chip doch die Spannung taktabhängig senkt, aber dafür in die Einsparrung wiederum zu gering.
Dieser Gast bin ich (Anmeldung vergessen). Ich hatte nur gehört, dass man mit den nbitor das Bios editiren und anschließend flashen kann. Das mit dem Auslesen, editieren und Speichern hat mit meiner derzeitigen Gainward Bliss 512+ (die mit 24pp) ja schon geklappt, das ganze aber zu flashen, habe ich dann aber nicht gewagt, zumal das Takten mit dem Rivatuner (auch mit dem 158.19) gut klappt. Aber wenn damit bisher keiner Erfolg bei einer 8800er hatte, lasse ich das ganze lieber. Ich dachte nur, dass ein Herunterakten erst in Kombination mit einer V-Core-Senkung den Verbrauch richtig reduziert. Kann das ATI-Tool den V-Core einer 8800er senken?
Nbitor hab ich auch für meine 8800 GTS verwendet und diese dann geflashed, erstens damit das OC auch unter Vista tut und an der anderen Stelle für den Idle untertaktet, was ich genau untertaktet hab kann ich erst heute Abend nachschauen (is ja schon ein paar Monate her)....
IkariGend
2007-04-26, 12:56:10
Dieser Gast bin ich (Anmeldung vergessen). Ich hatte nur gehört, dass man mit den nbitor das Bios editiren und anschließend flashen kann. Das mit dem Auslesen, editieren und Speichern hat mit meiner derzeitigen Gainward Bliss 512+ (die mit 24pp) ja schon geklappt, das ganze aber zu flashen, habe ich dann aber nicht gewagt, zumal das Takten mit dem Rivatuner (auch mit dem 158.19) gut klappt. Aber wenn damit bisher keiner Erfolg bei einer 8800er hatte, lasse ich das ganze lieber. Ich dachte nur, dass ein Herunterakten erst in Kombination mit einer V-Core-Senkung den Verbrauch richtig reduziert. Kann das ATI-Tool den V-Core einer 8800er senken?
Nbitor hab ich auch für meine 8800 GTS verwendet und diese dann geflashed, erstens damit das OC auch unter Vista tut und an der anderen Stelle für den Idle untertaktet, was ich genau untertaktet hab kann ich erst heute Abend nachschauen (is ja schon ein paar Monate her)....
Mist! Ist dieses anmelden vergessen ansteckend?!:tongue:
Xaver Koch
2007-04-26, 13:16:38
Mist! Ist dieses anmelden vergessen ansteckend?!:tongue:
Man muss halt vorher nochmal auf "Anmelden" klicken, nachdem man Name und Kennwort eigegeben hat, ehe man auf "Antworten" klickt, kann im Eifer des Gefechts schon mal passieren. ;)
Xaver Koch
2007-04-26, 13:19:24
Nbitor hab ich auch für meine 8800 GTS verwendet und diese dann geflashed, erstens damit das OC auch unter Vista tut und an der anderen Stelle für den Idle untertaktet, was ich genau untertaktet hab kann ich erst heute Abend nachschauen (is ja schon ein paar Monate her)....
Mich würde vor allen der V-Core unter 2D interssieren, die 200 MHz Core und 200 bzw. 400 MHz Speicher gelten ja quasi schon als gesetzt. Werde es aber auf alle Fälle vorher mit einem Tool probieren, nicht dass die neue Karte dann zwar nicht kaputt ist, aber trotzdem nicht mehr geht.
Aber wenn damit bisher keiner Erfolg bei einer 8800er hatte, lasse ich das ganze lieber. Ich dachte nur, dass ein Herunterakten erst in Kombination mit einer V-Core-Senkung den Verbrauch richtig reduziert. Kann das ATI-Tool den V-Core einer 8800er senken?
a) das ist wohl richtig
b) nein, das ATI Tool kann dies definitiv nicht
Sicher wäre eine Spannungsabsenkung DIE Lösung, wenn auch es einen 2D/3D-Modus geben müsste, der dann die 'richtige' Spannung bei 3D anlegt... sonst würden vermutlich die eigentlichen Takte nicht mehr erreicht. Solche Versuche sind aber bis dato gescheitert... Spannungsänderung im Bios bleibt ohne Wirkung, wie auch der 2D-Modus ohne Berücksichtigung bleibt.
Vermutlich 'will' nVidia einfach keine Spannungsschwankungen beim G80.
(oder aber die nötige 'Technik' fehlt dem derzeitigen Design... PCB und/oder GPU)
Nebenbei noch erwähnt, die Lastschwankungen sollte bei gesenkten Takt nicht großartig anders sein als beim normalen. Da der Hauptverursacher für die Last eigentlich nicht mit beeinflusst wird. Das spräche dann eher dafür, dass der Chip doch die Spannung taktabhängig senkt, aber dafür in die Einsparrung wiederum zu gering.
Das ist ja eben die Frage, die zu klären wäre.
Wenn da tatsächlich etwas mit der Lüftersteuerung im Argen ist, dann dürfte der geringere Takt u.U. dafür sorgen, dass sich die GPU nicht so aufheizt, was im Umkehrschluss wieder geringere Verlustleistung bedeuten würde. Könnte also gut sein, dass der geringere Takt einer Abmilderung der Problematik zuträglich ist...
Razor
IkariGend
2007-04-26, 13:53:18
Mich würde vor allen der V-Core unter 2D interssieren, die 200 MHz Core und 200 bzw. 400 MHz Speicher gelten ja quasi schon als gesetzt. Werde es aber auf alle Fälle vorher mit einem Tool probieren, nicht dass die neue Karte dann zwar nicht kaputt ist, aber trotzdem nicht mehr geht.
Ich schau da mal heute Abend nach, meine aber dass das mit dem VCore reduzieren nicht klappte oder ich es nicht riskieren wollte...
jojo4u
2007-04-26, 14:58:45
Mit 62W idle-Verbrauch liegst Du unterhalb der von iXBT gemessenen ca. 69W für die GTX.
Sollte also 'normal' für 'ne GTS sein...
Thowe hat die Netzteilverlustleistung mit drin.
SuperSoldierX
2007-04-26, 15:31:47
Etwas offtopic:
Ich betreibe meine 8800GTS 640MB mit einem Enermax Liberty 400W NT. Dort gibt es ja 2 getrennte Verbindungen für PCIe.
Nun hat mein GA-965P-DS4 Mainboard auch einen onboard 12V-Stromanschluss für Grafikkarten.
Welcher Anschluss ist besser bzw. stromsparender?
Xaver Koch
2007-04-26, 15:43:45
Welcher Anschluss ist besser bzw. stromsparender?
Direkt über das Netzteil hast Du halt eine Steckverbindung weniger, d.h. weniger Spannungsabfall durch einen Übergangswiderstand (weswegen ich von den sog. modular aufgebauten Netzteilen wenig halte). Wenn Dein Netzteil darüber hinaus getrennte 12V-Schienen hat und Du eine davon nur für die GraKa verwendest, hast Du eine stabilere Spannungsversorgung, da Spannung ja bekanntlich unter Last weniger wird. Darüber hinaus bin ich skeptisch, ob das MB die doch recht große Last einer Graka wirklich sauber kompensieren (d.h. die Spannung konstant halten) kann.
Soweit die Theorie, aber wenn alles ordnungsgemäß funktioniert, solltest Du keinen Unterschied bemerken, allenfalls bei extremen Übertaktungsversuchen.
IkariGend
2007-04-26, 16:22:53
Etwas offtopic:
Ich betreibe meine 8800GTS 640MB mit einem Enermax Liberty 400W NT. Dort gibt es ja 2 getrennte Verbindungen für PCIe.
Nun hat mein GA-965P-DS4 Mainboard auch einen onboard 12V-Stromanschluss für Grafikkarten.
Welcher Anschluss ist besser bzw. stromsparender?
Ich hoffe du meinst damit nicht, dass es reicht den Anschluss auf dem Mainboard zu setzten und brauchst dann den Stecker an der Grafikkarte nimmer :confused: , denn den benötigen die Grakas auf jeden Fall!
Diese Mainboard-Stecker für Grafikkarten dienen der Stabilität und werden am ehesten beim Einsatz von SLI, Crossfire o.ä. benötigt;)
SuperSoldierX
2007-04-26, 16:46:13
Ich hoffe du meinst damit nicht, dass es reicht den Anschluss auf dem Mainboard zu setzten und brauchst dann den Stecker an der Grafikkarte nimmer :confused: , denn den benötigen die Grakas auf jeden Fall!
Diese Mainboard-Stecker für Grafikkarten dienen der Stabilität und werden am ehesten beim Einsatz von SLI, Crossfire o.ä. benötigt;)
Ok, dachte halt, man könnte dies als Alternative zur direkten Verbindung NT/Graka nehmen.
In der Beschreibung des Mainboards steht das nur etwas missverständlich geschrieben.
IkariGend
2007-04-26, 18:59:01
Mich würde vor allen der V-Core unter 2D interssieren, die 200 MHz Core und 200 bzw. 400 MHz Speicher gelten ja quasi schon als gesetzt. Werde es aber auf alle Fälle vorher mit einem Tool probieren, nicht dass die neue Karte dann zwar nicht kaputt ist, aber trotzdem nicht mehr geht.
Habe gerade nachgeschaut, jetzt mit dem aktuellen nibitor 3.4 und weiß jetzt wieder warum ich die Voltages nicht geändert habe, bei 2D ist die Spannung angeblich 1,3V bei 3D 1,1V da ist doch was total verkorkst, oder?
siehe hier:
http://www.ikarigendo.de/_TEMP/nibitor-pic.JPG
san.salvador
2007-04-26, 19:30:55
Lustig, bei meiner BFG OC siehts anders aus.
http://666kb.com/i/anu0m4g34s38t6g66.png
€dit: Allerdings sind drei VID Modes vorhanden: 1,3V - 1,2V - 1,1V
IkariGend
2007-04-26, 20:08:59
Lustig, bei meiner BFG OC siehts anders aus.
€dit: Allerdings sind drei VID Modes vorhanden: 1,3V - 1,2V - 1,1V
Die sind bei mir auch vorhanden....
hmm ich könnte ja eigentlich versuchen "sinnvolle"-Werte zu wählen, wenns blöd läuft müsste ich meine olle pci-Karte wieder vom Speicher holen :|
das mit der Spannung könnt ihr vergessen
http://www.forumdeluxx.de/forum/showpost.php?p=5971593&postcount=412
Brian_vi
2007-04-27, 23:07:31
Jetzt wurde der 158.18 auch noch zertifiziert ;( Und ich hatte gehofft es gibt noch nen neuen Treiber vor dem Release.
Bis auf no_surrender mit dem 165.01er Beta (anderer Thread) und mir hatte offensichtlich noch niemand eindeutige Hitzeprobleme mit neueren Treibern als 100.65.
Kann doch eigentlich gar nicht sein. Hat hier niemand die MSI 320GTS OC im Einsatz??? Werde mal den MSI-Support anmailen.
Brian
dir ist der G80-lüfter im idle zu laut? sorry, aber das wirkt schon fast lächerlich.
selbst wenn die karte offen neben dem gehäuse liegen würde, würde ich den in normaler sitzhöhe nicht mehr hören. klar 5cm daneben ist der lüfter noch hörbar, aber normalerweise krieche ich nicht unter den tisch.
Vielleicht bist du Disco geschädigt und ich nicht?
Razor
2007-04-29, 08:15:32
Bei 40% Lüftergeschwindigkeit ist der Geräusch-Pegel OK.
Razor
Vielleicht bist du Disco geschädigt und ich nicht?
nö, ich gehe kaum in die disco.
was mich echt stört der geräuschpegel des intel-boxed-kühlers, da muss bis zum sommer was besseres her ;)
Moralelastix
2007-04-29, 17:20:53
Soldele,
ich hab auch mal mit ner GTS rumprobiert und bin verwirrt. :confused:
1. Die Lüftung der Karte hats zu meiner völligen Überraschung überhaupt nicht nötig eingestellt zu werden. Ich hab hier n Wakü Sys und trotzdem kann ich die Karte in 2D/3D kaum höhren(der Rechner steht direkt auf dem Tisch neben mir und das Gehäuse ist nicht gedämmt und auch dazu noch aus Alu)
2. Der 2D idle Verbrauch(am Netzteil gemessen) verringert sich bei mir überhaupt nicht wenn ich die Karte von 513/792 auf 128/198 stell. Ich stell das über das aktuelle ntune(5.05.38.00) ein. Ich glaube das sich die Temperatur aber ein klein wenig senkt. Laut "Nvidia MonitorView" von 52 auf 51°C.....wow!
Edit: *lol*
Stell ich die Taktraten mit ntune wieder auf die Voreingestellen zurück sinkt die Temperatur auf 49°C und der Verbrauch geht um 8 Watt zurück?! Wo is der Bug?
vergiss ntune und nimm rivatuner, auch zum loggen ob die taktraten wirklich übernommen werden.
Moralelastix
2007-04-29, 18:04:45
Die werden übernommen. Zumindest ingame (FarCry) kann ich deutlich sehn das die Framerate eingebrochen ist bei 128/198. Vorher an gleicher Stelle 80Fps und jetzt 25.
Auch sinkt der Verbrauch im 3D Modus um > 30W.
Das ganze riecht nach nem 2D Hardwarebug. Ansonsten hätten die das längst gefixt.
Vielleicht aber ist es aber auch durch die Nutzung von CUDA beabsichtigt?
Gibts schon Applikationen die den G80 als Streamprozessor nutzen und die unter XP laufen?
So wie der Folding@Home Client?
Vielleicht aber ist es aber auch durch die Nutzung von CUDA beabsichtigt?
Was bedeutet CUDA?
Thowe
2007-04-30, 00:29:30
Was bedeutet CUDA?
Sozusagen der "Missbrauch" der Grafikkarte als Streamprozessor für andere Aufgaben außerhalb der für Grafik.
Vgl.: http://developer.nvidia.com/object/cuda.html
Moralelastix
2007-04-30, 00:42:29
@Thowe
Gibts noch keine CUDA Applikationen für den G80?
Vielleicht aber ist es aber auch durch die Nutzung von CUDA beabsichtigt?
Der Treiber könnte auch in diesem Fall ohne Probleme den Kerntakt hochfahren.
Moralelastix
2007-04-30, 08:28:43
@Coda
Axo. Is das auch bei dem R580 und dem FAH Client so?
...und gibts denn noch keine G80 CUDA Applikationen?:confused:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.