PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Stromsparmechanismen bei G92 - Aber nur für NBs...


AnarchX
2007-11-19, 17:06:40
Im Anandtech-Artikel zur heute gelaunchten 8800M-Serie gab es durchaus interessante Zahlen zum Stromverbrauch dieser:

So what sort of power requirements will come with these new ultrafast mobile GPUs? Here is one more area where things have improved over the GeForce Go 7950 GTX. Maximum power use should be somewhat lower (37W compared to 44W for the 8800M GTX, and a few watts lower for the 8800M GTS), and minimum power requirements should also be lower - we were told the 8800M GTX sitting idle at the Windows desktop consumes 4.7W. VP2 will increase power requirements slightly when watching movies, but only up to around 7.2W. While the idle power consumption isn't particularly high, the fact of the matter is that battery life is extremely important for many laptop users, and battery life will still suffer compared to IGP laptop offerings.
http://www.anandtech.com/mobile/showdoc.aspx?i=3155&p=3

Von 44W auf 4.7W, ob das allein durch Spannungs/Taktsenkung möglich ist?
Oder können etwa doch wie schonmal berichtet im Zusammenhang mit dem "G80-Stromspar-Treiber" ganze Teile des Chips vom Strom getrennt werden?

Aber auf jeden Fall sieht man, dass NV deutlich weniger Idle-Verbrauch haben könnte, wenn man nicht Hybrid-SLI inkl. Plattformen um jeden Preis vermarkten wollte. :rolleyes:

Gast
2007-11-19, 17:15:06
Man so ein Rotz.

Da werden funktionierende Mechanismen abgeschaltet.
Aber trotz deren Bemühungen, ich tue mir keine nv Plattform an.

GeneralHanno
2007-11-19, 18:03:33
früher oder später wird ATi (genauer der markt) nvidia schon dazu zwingen stromspar-mechanismen auch für desktops anzubieten.

Super Grobi
2007-11-19, 18:13:29
früher oder später wird ATi (genauer der markt) nvidia schon dazu zwingen stromspar-mechanismen auch für desktops anzubieten.

Ach,
guck dir doch die Umfrage an. Hier im Forum gibts doch so ein Thread "8800GT oder 8700". Den Geforce-Bots ist das völlig egal.

ICH hab genau DESWEGEN mich für die 3870 entschieden, bin aber rech alleine mit meiner Meinung.

SG

Riipa
2007-11-22, 09:41:22
Vielleicht sind die "Bots" auch einfach nur ganz normale Menschen, deren Rechner nicht 24/7 läuft und die der Idle-Verbrauch einfach nicht interessiert. Wenn mein Rechner läuft, dann läuft zu 90% auch ein Spiel. Idle-Verbrauch? Ist mir völlig egal. Der Stromverbrauch ingmae muss in einem sinnvollen Verhältnis zur Leistung stehen - das wars.

BlackBirdSR
2007-11-22, 10:11:36
?

Aber auf jeden Fall sieht man, dass NV deutlich weniger Idle-Verbrauch haben könnte, wenn man nicht Hybrid-SLI inkl. Plattformen um jeden Preis vermarkten wollte. :rolleyes:

Ich gehe eher davon aus, dass es sich um einen neuen ASIC handelt. Der dann eben speziell die benötigten Funktionen aufweist. Das dürfte den Chip verteuern, und für den Desktopmarkt eher ungünstig sein. Immerhin will mnan die Chips da recht billig haben, falls möglich. Zumal der Großteil der Käufer keine Ahnung vom Verbrauch etc hat.
Sobald sich das ins Bewusstsein der Bevölkerung gebrannt hat (Sprich THG, Computerbild und ARD haben darüber berichtet) wird man es auch im Desktop finden.

AnarchX
2007-11-22, 10:35:08
Ich gehe eher davon aus, dass es sich um einen neuen ASIC handelt. Der dann eben speziell die benötigten Funktionen aufweist. Das dürfte den Chip verteuern, und für den Desktopmarkt eher ungünstig sein.

Warum sollte NV extra für das imo eher volumenschwache NB-HighEnd eine eigene GPU fertigen? :|
Das tat man AFAIR noch nie und der FW kennt ihn übrigens auch als G92.

Wenn dann handelt es sich hier wohl eher um einen besseren G92 (Wafermitte) um niedrige Spannungen zu ermöglichen, aber an sich wird es der normale G92 sein.

Zusätzlich kommt hier ja noch ein wohl ziemlich teures PCB hinzu, einmal wegen der Größe und der hocheffizienten Stromversorgung.

BlackBirdSR
2007-11-22, 10:40:51
Warum sollte NV extra für das imo eher volumenschwache NB-HighEnd eine eigene GPU fertigen? :|
Das tat man AFAIR noch nie und der FW kennt ihn übrigens auch als G92.

Wenn dann handelt es sich hier wohl eher um einen besseren G92 (Wafermitte) um niedrige Spannungen zu ermöglichen, aber an sich wird es der normale G92 sein.

Zusätzlich kommt hier ja noch ein wohl ziemlich teures PCB hinzu, einmal wegen der Größe und der hocheffizienten Stromversorgung.

Dann lieg ich damit wohl daneben ;)
Aber wenn man ganze Teile des Chips anschaltet, dann braucht man dafür auch HW. Und wenn das im G92 nicht verfügbar ist, dann hat nvidia entweder keinen Bock, oder es funktioniert nicht. Oder es sind doch veränderte Chips oder es gibt die Sache gar nicht....

Interessant wäre jetzt, wie sich der Chip auf dem Desktop in Vista verhält!

Spasstiger
2007-11-22, 10:47:41
Vielleicht sehen wir ja diese Stromsparmechanismen bei der GX2. Da würde es jedenfalls Sinn machen, wäre preislich evtl. auch drin und hätte auch sehr positive Resonanzen zur Folge (Tester geht von Idle-Stromfresser aus und findet das Gegenteil vor).

AnarchX
2007-11-22, 10:50:32
Dann lieg ich damit wohl daneben ;)
Aber wenn man ganze Teile des Chips anschaltet, dann braucht man dafür auch HW. Und wenn das im G92 nicht verfügbar ist, dann hat nvidia entweder keinen Bock, oder es funktioniert nicht. Oder es sind doch veränderte Chips oder es gibt die Sache gar nicht....
Wie schon gesagt Hybrid-SLI scheint hier die Antwort.
Warum sollte NV plötzlich konsequent auf Stromsparmaßnahmen in allen Desktop-Segmenten verzichten, wo sie noch mit GF7 hier glänzten?;)


Interessant wäre jetzt, wie sich der Chip auf dem Desktop in Vista verhält!
Denkst du nicht, dass sich die 4.7W auf Vista beziehen könnten? Etwas anderes macht ja im Zusammenhang mit einer 8800M nicht viel Sinn.

btw.

Da hatte sich wohl jemand damals verplappert:
Als wir nVidia auf dieses Thema ansprachen, gab der „Central European Product PR Manager“ von nVidia, Jens Neuschäfer, uns gegenüber bekannt, dass nVidia derzeit einen Treiber in Entwicklung hat, der den Stromverbrauch der G80-GPU im Leerlauf deutlich senken soll. Dies soll nicht nur durch eine starke Taktminderung sowie einer Reduzierung der Spannung, sondern ebenfalls durch eine Deaktivierung der Shadercluster bewerkstelligt werden. Der G80 hat insgesamt acht dieser Shadercluster (welche die ALUs, TMUs, TAUs sowie ein Großteil des Caches beinhalten), die selbst bei Verwendung der Aero-Oberfläche unter Windows Vista nicht nötig sind.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/
:D

Naja, vielleicht kann es Unwinder irgendwann mal hacken...

Gast
2007-11-22, 11:13:53
Da hatte sich wohl jemand damals verplappert:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/
:D

Naja, vielleicht kann es Unwinder irgendwann mal hacken...

Ja, 17. März. Passiert ist bis heute genau gar nichts.

Wurschtler
2007-11-22, 11:46:08
NV hat so krasse Stromsparmechanismen und nutzt sie im Desktop-Bereich nicht!? Sauerei...

Ich hab mir vor kurzem erst eine neue Grafikkarte bestellt. Es ist eine HD3870 geworden wegen dem niedrigen Idle-Verbrauch.

Gast
2007-11-22, 12:13:28
Warum sollte NV plötzlich konsequent auf Stromsparmaßnahmen in allen Desktop-Segmenten verzichten, wo sie noch mit GF7 hier glänzten?;)





naja, geglänzt habe sie auch nicht gerade, sie hatten lediglich eine (vor allem im vergleich zur konkurrenz) sehr sparsame GPU, auch ohne sich großartige gedanken um den stromverbrauch zu machen.

kahlchen
2007-11-22, 12:37:17
Ich gehe eher davon aus, dass es sich um einen neuen ASIC handelt. Der dann eben speziell die benötigten Funktionen aufweist.

Was ist ein ASIC? :redface:


Denkst du nicht, dass sich die 4.7W auf Vista beziehen könnten? Etwas anderes macht ja im Zusammenhang mit einer 8800M nicht viel Sinn.


Er meinte auf im Zusammenhang mit einem DESKTOP-System.

Spasstiger
2007-11-22, 16:38:02
sie hatten lediglich eine (vor allem im vergleich zur konkurrenz) sehr sparsame GPU
Und wenn man die Performance in heutigen Spielen heranzieht, kann von Effizienz wirklich keine Rede sein. Wofür eine GeForce 7900 GTX 80 Watt raushaut, reicht im Extremfall schon eine Radeon X1650 XT bei 50 Watt aus. Und was die 8800 GT mit einem nur rund 10 Watt höheren Energieverbrauch als bei der 7900 GTX leistet, ist noch viel beeindruckender.

Odal
2007-11-22, 16:57:46
früher oder später wird ATi (genauer der markt) nvidia schon dazu zwingen stromspar-mechanismen auch für desktops anzubieten.


so siehts aus...das was die HD3870 für mich so interessant macht ist der geringe Stromverbrauch...

wenn Grafikkarten in 3D viel Saft ziehen ok kann ich mit leben...aber ohne massive Verbrauchsabsenkung im 2D Windowsbetrieb wo eine Karte von vor 15 Jahren ausreichen würde geht mal gar nicht.

Wenn sie nichts dergleichen anbeiten sollten sie zumindest dem Kunden die möglichkeit geben per Treiber oder sonstiger Software Takt sowie Spannung beliebig abzusenken...

Coda
2007-11-22, 18:06:22
Was ist ein ASIC? :redface:
Application specific integrated circuit

Ein Chip einfach

Gast
2007-11-23, 00:58:54
so siehts aus...das was die HD3870 für mich so interessant macht ist der geringe Stromverbrauch...

wenn Grafikkarten in 3D viel Saft ziehen ok kann ich mit leben...aber ohne massive Verbrauchsabsenkung im 2D Windowsbetrieb wo eine Karte von vor 15 Jahren ausreichen würde geht mal gar nicht.

Wenn sie nichts dergleichen anbeiten sollten sie zumindest dem Kunden die möglichkeit geben per Treiber oder sonstiger Software Takt sowie Spannung beliebig abzusenken...

Also unter Vista reicht so ne alte Karte nicht und bei erscheinen der R600 GPU hat auch kein Hahn nach dem Stromverbrauch gekräht... wie man eben Farbe bekennt...

LovesuckZ
2007-11-23, 01:11:34
Es geht ja nichtmal um einen Stromsparmechanismus. Schon die bloße Möglichkeit der Untertaktung der Karte reicht aus, um bis zu 14€ im Jahr weniger zu verbrauchen (bei ca. 20 Watt Unterschied im IDLE). Warum man diese Möglichkeit bei den neuen Treibern gestrichen hat, versteht wohl der Vorstand und Gott...

Gast
2007-11-23, 01:22:13
Warum man diese Möglichkeit bei den neuen Treibern gestrichen hat, versteht wohl der Vorstand und Gott...

Das ist einfach: Jetzt im NACHHINEIN kann nVidia die Stabilität der Karten nicht mehr testen. Stell dir vor du installierst den Treiber und die Karte semmelt dir ab mit den gesenkten Taktraten...

Ich glaube nicht das nVidia zum Launch hin genug Zeit investiert hat um jeden Chip ausreichend auf alle Idle-Taktraten und Spannungen hin zu testen.

Eventuell liegt hier das Problem begraben. Man wollte vor ATI am Markt sein und hat diesen Punkt daher erstmal auf die Warteliste gesetzt?

Übrigens ist es nix neues. Der Notebookmarkt bekommt eigentlich die besseren Produkte ab. Die Core2 Architektur ist nicht umsonst unter "Merom" bekannt geworden, denn der Merom verfügt über bessere Stromsparmechanismen als das davon abstammende Desktop-Pendant...

LovesuckZ
2007-11-23, 01:25:12
Das ist einfach: Jetzt im NACHHINEIN kann nVidia die Stabilität der Karten nicht mehr testen. Stell dir vor du installierst den Treiber und die Karte semmelt dir ab mit den gesenkten Taktraten...


Bis zum 163.75 war eine Untertaktung mit den 8800 Karten (ausgenommen GT) möglich. Erst mit den neueren Treibern ist dies nicht mehr gegeben. So verringert sich die Stromaufnahme im IDLE - Modus trotz Untertaktung von 575 -> auf 200MHz einer GTX mit den neueren Treibern um ganze 1,5W. Früher ging es um ca. 21 Watt runter.

Gast
2007-11-23, 01:27:17
Bis zum 163.75 war eine Untertaktung mit den 8800 Karten (ausgenommen GT) möglich.

Eine automatische ohne dein zutun?

Erst mit den neueren Treibern ist dies nicht mehr gegeben.

Vielleicht gab es viele Probleme/Beschwerden oder es ist einfach nur ein Bug...

LovesuckZ
2007-11-23, 01:30:55
Nein, automatisch hat nVidia bei den 8xxx Karten nicht untertaktet. Manuell über nTune oder andere Tools war im Gegensatz zu den neueren Treibern jedoch möglich und wirksam.

Razor
2007-11-23, 01:52:05
Die 163'er unterstützten die 8800GT noch gar nicht... und die 169'er sind für die G8x allesamt beta.
Niemand zwingt Dich, Beta-Treiber einzusetzen!

Ich finde es erstaunlich, dass mit nur etwa 10W mehr (idle & load!) im Vergleich zu meiner guten alten 7900GT (mit 'leichtem' Volt-Mod ;-) die 8800GT einen derartigen Leistungsvorsprung hinlegt.

Und... die 8800GT 'schafft' es offenbar durch eine andere Technik, als "herunter takten" massiv die Leistungsaufnahme zu senken... das ist ganz sicher nicht nur auf die kleinere Strukturbreite zurück zu führen... schließlich haben sie ja nicht nur Leistungsaufnahme ganz erheblich gesenkt, sondern auch noch den Transistor-Count erhöht.

Und die Energie-Bilanz der G84/G86 ist ja nun auch nicht wirklich schlecht... insofern hier einzig der G80 ein Alleinstellungsmerkmal... ein negatives... besitzt... vermutlich müssen sich Käufer solcher Karten einfach damit abfinden (und das Heruntertakten wird schon irgendwann funktionieren, bis dahin halt die offiziellen WHQL-Treiber nutzen).

Razor

P.S.: bei Notebook-Hardware kommen noch ganz andere Techniken zum Einsatz, als nur eine bloße Taktabsenkung (obwohl auch dies dazu gehören dürfte). Wer also den Fehler macht, Desktop- mit Notebookhardware zu vergleichen, sollte sich mal zu Gemüte führen, warum ein Notebook INSGESAMT nur etwa 20-25W im Batterie-Modus verbraucht. Dass ATI jetzt offenbar Stromspartechniken aus dem Mobile-Segment für den Desktop-Bereich gebracht hat, ist hingegen erstaunlich... dürfte die Marge und auch die Ausbeute noch einmal ganz erheblich nach unten drücken.

mictasm
2007-11-23, 02:28:55
[...]vermutlich müssen sich Käufer solcher Karten einfach damit abfinden[...]

Tun sie ja (schon seit Monaten)... Warum die anderen immer herumschreien und ihre Fähnchen mit der roten Farbe schwenken, bleibt mir ein Rätsel. Die Farbe gibt es im HighEnd momentan ja eigentlich überhaupt nicht oder nur mit ähnlich hohem Stromverbrauch...

Gast
2007-11-23, 02:41:27
Naja das ist eben typisch Deutschland es verblödet immer mehr.

Gast
2007-11-23, 07:34:38
Dass ATI jetzt offenbar Stromspartechniken aus dem Mobile-Segment für den Desktop-Bereich gebracht hat, ist hingegen erstaunlich... dürfte die Marge und auch die Ausbeute noch einmal ganz erheblich nach unten drücken.

Also ob eine Takt- und Spannungsabsekung Margen kosten würde.

Hvoralek
2007-11-24, 02:48:58
Ich glaube nicht das nVidia zum Launch hin genug Zeit investiert hat um jeden Chip ausreichend auf alle Idle-Taktraten und Spannungen hin zu testen.

Eventuell liegt hier das Problem begraben. Man wollte vor ATI am Markt sein und hat diesen Punkt daher erstmal auf die Warteliste gesetzt?Ja klar, beim Erscheinen Auf- den- Markt- Drücken des G80 spürte man schon den Atem von R600 im Nacken :|

dargo
2007-11-24, 11:56:35
Bis zum 163.75 war eine Untertaktung mit den 8800 Karten (ausgenommen GT) möglich. Erst mit den neueren Treibern ist dies nicht mehr gegeben. So verringert sich die Stromaufnahme im IDLE - Modus trotz Untertaktung von 575 -> auf 200MHz einer GTX mit den neueren Treibern um ganze 1,5W. Früher ging es um ca. 21 Watt runter.
Wie kommst du denn darauf? Egal welchen Treiber ich nehme - die Untertaktung auf 200/200Mhz funzt bei mir immer.

Gast
2007-11-24, 12:01:09
Und... die 8800GT 'schafft' es offenbar durch eine andere Technik, als "herunter takten" massiv die Leistungsaufnahme zu senken
Siehe 6800GT.

Im Idle kein Mhz weniger und der Verauch geht trotzdem Massiv zurück.

Gast
2007-11-24, 12:42:01
Siehe 6800GT.

Im Idle kein Mhz weniger und der Verauch geht trotzdem Massiv zurück.
Ging sie nicht auf 300 MHz runter?

AnarchX
2007-11-24, 13:07:32
Ging sie nicht auf 300 MHz runter?

Nein, das sonderbare war ja, dass User, die ihre 6800Vanilla auf 350MHz übertaktet hatten, plötzlich von niedrigeren Temperaturen im Idle berichteten.;)

Liszca
2007-11-24, 13:10:34
Ging sie nicht auf 300 MHz runter?

nein kann ich mich nicht erinnern.

Razor
2007-11-24, 15:27:24
Also ob eine Takt- und Spannungsabsekung Margen kosten würde.
Eine Steuerung dafür kostet Geld... die Entwickler, die das im Treiber programmieren müssen, kosten Geld und schlussendlich sinkt die Ausbeute entsprechend 'fähiger' GPUs... schließlich ist es meist sehr viel einfacher durch Zugabe von Spannung höhere Geschwindigkeiten zu erreichen...

...sehr viel schwieriger ist es, die Spannung abzusenken, die Taktabsenkung hingegen ist es nicht, es sei denn, das Slilizium ist nicht darauf ausgelegt.

Durch die Selektion der Chips werden halt Margen 'verbrannt'.
Es sei denn natürlich, es wäre eine art "Abfall-Produkt", wie dies bei Mobile-Chips oftmals der Fall ist.
(hier ist mit "Abfall" nicht "Müll" gemeint, sondern etwas, was ab fällt ;-)

Razor

Gast
2007-11-25, 11:50:03
Also ich habe eine 8800GTS G80 GPU
Und ich mir ist der Stromverbrauch nicht egal.
Aber durch runtertakten der 88er GKs kann man ca 25Watt sparen.
Nur das mein PC dann immer noch 167Watt fürs nixtun verbrät.

LovesuckZ
2007-11-25, 13:51:24
Wie kommst du denn darauf? Egal welchen Treiber ich nehme - die Untertaktung auf 200/200Mhz funzt bei mir immer.

Es hat mit den neueren Treibern keine Auswirkung mehr auf dem Stromverbrauch.

Gast
2007-11-25, 14:16:28
Es hat mit den neueren Treibern keine Auswirkung mehr auf dem Stromverbrauch.
Und auch mit den alten kann man sich von der ersparten 10W einen Kecks freuen.

LovesuckZ
2007-11-25, 14:17:48
Und auch mit den alten kann man sich von der ersparten 10W einen Kecks freuen.

Es sind bis zu 30 Watt weniger. :rolleyes:

dargo
2007-11-25, 14:20:51
Es hat mit den neueren Treibern keine Auswirkung mehr auf dem Stromverbrauch.
Keine Ahnung was bei dir schief läuft. Ich habe immer bei jedem Treiber den gleichen Stromverbrauch mit 200/200Mhz.

Razor
2007-11-25, 19:56:40
Also ich habe eine 8800GTS G80 GPU
Und ich mir ist der Stromverbrauch nicht egal.
Aber durch runtertakten der 88er GKs kann man ca 25Watt sparen.
Nur das mein PC dann immer noch 167Watt fürs nixtun verbrät.
Wie gesagt... wäre mir noch zu viel.
Ich schau' mal eben aufs Volt-Meter... 141W... zwischen Netzteil und Steckdose.
Immer noch recht viel für nix!
OK, iNet, USB, TV und so...
:D

Es sind bis zu 30 Watt weniger. :rolleyes:
Wird ja immer mehr...
Realistisch sinds gute 20W bei der GTS und etwa 25-30W bei der GTX/Ultra.
Allerdings verbrät die GTX normalerweise ja auch schon locker 80W im idle.

Razor

LovesuckZ
2007-11-28, 19:27:08
Keine Ahnung was bei dir schief läuft. Ich habe immer bei jedem Treiber den gleichen Stromverbrauch mit 200/200Mhz.

Uner Vista gibt es mit den neueren Treibern keine Möglichkeit mehr den 2d Takt zu ändern. Daher nimmt der Stromverbrauch der Karte im 2D Modus bei Untertaktung auch nur noch um 1,5 Watt ab.

dargo
2007-11-28, 19:30:02
Uner Vista gibt es mit den neueren Treibern keine Möglichkeit mehr den 2d Takt zu ändern. Daher nimmt der Stromverbrauch der Karte im 2D Modus bei Untertaktung auch nur noch um 1,5 Watt ab.
Ach, du meinst Vista. Das kann ich ja nicht riechen. Meine Aussage bezieht sich ausschließlich auf mein primäres System - WinXP64. :)

Aber moment mal. Wenn du mit 2D Modus "standard 2D" unter Rivatuner meinst - damit hat das nichts zu tun. Bei den neueren Treibern wurde die Über-/Untertaktung vereinfacht. Man braucht nur noch entweder "standard 2D" oder "performance 3D" einstellen. Ist völlig egal was. Dieses Verhalten gibts auch bei WinXP.