PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird Nvidia beim G90 Stromsparfunktionen anbieten?


Gast
2007-05-02, 01:02:46
Wird der G90 also im IDLE Betrieb deutlich sparsamer als die Geforce 8800 sein?

AnarchX
2007-05-02, 07:48:04
G90 oder NV55. ;)

Aber anzunehmen ist schon, dass sich hier etwas in Punkto Stromverbrauch tun könnte. Man erinnere sich an die öffentlichen Aussagen eines NV-Mitarbeiter, wenn das nicht auf den G80 zutrifft wird es wohl auf den G90.

Gast
2007-05-02, 18:20:30
Stromsparfunktionen bieten bisher glaub immer nur die Mobile GPUs. Die GPUs auf Karten werden wohl erst in Jahren echtes Powermanagement wie heutige CPUs haben. Zumal die Midragen Produkte ja noch nicht soviel an Leistung verbraten, von daher rentiert sich das erst gar nicht da was großes nur fürs HIghend zu entwickeln (wo es egal ist, denn die User die sich direkt die GTX Karten kaufen haben eh HighendPCs mit "hohem" Stromverbrauch).

Das einzige was fehlt ist, das im 2D Mode die Spannung und Taktrate nicht gesenkt wird (kann man per Tools machen, wer glaubt das die TDP Verlustleistung immer anliegt irrt auch). Was anderes gibts bisher nicht, da hat auch die Konkurrenz bisher nichts entwickelt, also wird es dauern bis einer der beiden da etwas unternimmt.

Gast
2007-05-02, 21:56:28
(wo es egal ist, denn die User die sich direkt die GTX Karten kaufen haben eh HighendPCs mit "hohem" Stromverbrauch).


Blödsinn!

Weil HighEndPC ja gar nicht im IDLE Betrieb laufen können.

The_Silent_One
2007-05-30, 15:08:12
Blödsinn!

Weil HighEndPC ja gar nicht im IDLE Betrieb laufen können.


ich würd eher sagen, dass das jetzt blödsinn ist.
gibt genug leute, die kaufen sich ein highend system, obwohl sie zu 90% der zeit, die sie davor sitzen, den pc im idle haben (sprich surfen und so). aber WENN sie mal zocken, rendern oder sonstwas mit hohem bedarf an rechenleistung haben, haben sie da auch hohe ansprüche, was bildqualität oder renderdauer angeht.


sorry für OT. die frage um die es geht kann ich leider nicht beantworten.
es wäre aus o.g. gründen auf jeden fall wünschenswert.

Moralelastix
2007-05-30, 15:20:45
Ich bin ja auch für Stromsparfunktionen und ärger mich über den Rückschritt diesbezüglich beim G80/R600.
Aber die Leute die einen Highendrechner zum Surfen nutzen und sich über die nicht funktionierenden Stromsparfunktionen aufregen machen da grundlegend was falsch.
Die sollten sich halt einen zweiten kleinen PCs fürs Surfen/Office ins Zimmer stellen.

Adam D.
2007-05-30, 15:24:55
ich würd eher sagen, dass das jetzt blödsinn ist.
gibt genug leute, die kaufen sich ein highend system, obwohl sie zu 90% der zeit, die sie davor sitzen, den pc im idle haben (sprich surfen und so). aber WENN sie mal zocken, rendern oder sonstwas mit hohem bedarf an rechenleistung haben, haben sie da auch hohe ansprüche, was bildqualität oder renderdauer angeht.


sorry für OT. die frage um die es geht kann ich leider nicht beantworten.
es wäre aus o.g. gründen auf jeden fall wünschenswert.
Du hast seine Ironie nicht verstanden, genau das meint er ja. Auch High-End-Modelle gehören meiner Meinung nach mit Stromsparfunktionen ausgestattet. Muss ja nicht die Welt sein, aber durch simples Reduzieren von Spannung und Taktrate lässt sich schon einiges erreichen.

=Floi=
2007-05-30, 15:32:16
mir würde es besser gefallen wenn diser tolle NV IO chip endlich in den DIE integriert wird und man endlich wieder andere kühler verbauen kann die keine 100€ kosten...
+ einer verbesserung der spawa damit diese auch wieder kühler bleiben

The_Silent_One
2007-05-30, 15:44:20
oh... dann tuts mir leid.

steh heute irgendwie aufm schlauch...

Spasstiger
2007-05-30, 15:45:01
Das Problem ist halt: Jede Schaltung, an die ein Takt angelegt wird, wandelt auch elektrische Energie in Wärme um. Unabhängig davon, ob sie nun was sinnvolles rechnet oder nur Däumchen dreht und nops durchjagt.

Man müsste also vielleicht einen kompletten Funktionsblock integrieren, der für die Darstellung des Windows-Desktops (auch Vistas Aero) und 2D-Geschichten zuständig ist. Der High-Performance-3D-Teil wird nur bei Bedarf zugeschalten.

Vielleicht sehen wir sowas ja bei den Multicore-GPUs. In die Steuerungseinheit könnte man dann einen rudimentären Grafikchip integrieren, der energieeffizient arbeitet und ausreichend Performance für Aero bietet.

Grivel
2007-05-30, 16:32:52
ma ne Frage: Welche technische Tatsache hindert die Hersteller daran, die Grafikkarten im Leerlauf einfach auf zum bsp 200/300MHz runterzutakten(Für 2D) und überflüssige Einheiten abzuschalten(Shader etc) und nur ein 2D Bild auszugeben dafür reicht theoretisch doch scho nen billiger Chip(Ich merke keinen optischen 2 D Unterschied zwischen meiner Radeon 9700 ner Geforce 6600GT und meiner jetzigen Grafikkarte..nur das meine jetzige Karte mehr Strombrauch :/) also könnte man doch einen kleinen exterenen Chip für billige 2D Anwendungen extern löten - sobald zum bsp ein Film läuft wird einfach der Stromsparmodus des richtigen Chips aktiviert?

Nakai
2007-05-30, 16:39:41
Wenn man das intern realisieren kann, sodass der ganze 3D-Teil des Chips nicht mehr mit Strom versorgt wird, wäre deutlich besser.
Das nimmt weniger Platz ein und die Kosten wären nur bei einem Package.

mfg Nakai

Neosix
2007-05-30, 17:46:06
Ich finde es komisch das manche sagen das Highendrechner nur zum Zocken sind. Finde manche leute haben hier total realitätsfremde Einstellungen.
Beispiel an mir selbst: Ich habe hier relative kleines Zimmer wo ich bereits einen Fernseher, einen Laptop zum Arbeiten in der Uni und Datenrumschleppen nutze und meinen Rechner zuhause. Den ich auch zum Spielen missbrauche. Er läuft aber trotzdem ohne zu untertreiben ca.10 Stunden Täglich. Ich zocke aber nicht mal jeden Tag wenn in der Uni viel los ist. Und ich muss auch auf meine Stromrechnung achten. Und nun sagen mir hier welche nur weil der Rechner stark genug ist für aktuelle Spiele darf ich nicht meckern das er im idle wo er 99% der zeit ist zuviel Stromverbraucht? Damit gebe cih mich nicht zufrieden. Ich hab hier weder Platz noch Geld für einen Zweitrechner.

Ich finde solange Leute nicht anfangen Stromsparmodi von der Industrie zu fordern wird sich nix tun. Jeder Rechner verbringt die meiste Zeit seines Lebens mit sich langweilen. Ich habe kein Problem wenn eine Grafikkarte unter Volllast über 100W Stromverbraucht (ich finds nicht okay aber gut es sind nunmal 700+ Transistoren bei den Topmodellen). Ich persöhnlich schaue aber auf den idle verbrauch. Und wenn der genau so hoch ist, dann kommt mir die kotze hoch. Weil ich weiß das während ich für meinen nächsten Referat rescherschiere meine Grafikkarte alles aktiviert hat nur um Word dazurstellen.

Hab mir bereits überlegs das mein nächster Mainboard eine onboard Grafikkarte haben wird. Wenn Ich die Haupgrafikkarte dann net abschalten kann dann wird die eben aus dem rechner gezogen. Und in 1-3 Tagen wieder Reingepackt wenn ich wieder mehr zeit habe was zu spielen. Aber eine Zimmerheizung will ich nicht.

Wuge
2007-05-30, 18:12:12
Der G80 ist wirklich inakzeptabel in Sachen Idle-Stromverbrauch. Durch heruntertakten (geht sogar per BIOS-Mod) kann man immerhin ca. 25W rausholen.

Den 3D-Teil ganz abzuschalten wird nicht möglich sein, wg Aero etc.

Man könnte aber zumindest einige Cluster und ROPs vom Netz nehmen und Speicherchips abschalten.

Dann noch die Spannung reduziert und fertig ist der akzeptable Stromverbrauch.

Aber da NVidia ja Geld verdienen will und 99,5% der High-End-User auch Karten mit hohem Stromverbrauch kaufen, lässt man alles wie es ist.

Grivel
2007-05-30, 18:23:15
Der G80 ist wirklich inakzeptabel in Sachen Idle-Stromverbrauch. Durch heruntertakten (geht sogar per BIOS-Mod) kann man immerhin ca. 25W rausholen.

Den 3D-Teil ganz abzuschalten wird nicht möglich sein, wg Aero etc.

Man könnte aber zumindest einige Cluster und ROPs vom Netz nehmen und Speicherchips abschalten.

Dann noch die Spannung reduziert und fertig ist der akzeptable Stromverbrauch.

ja für aero oder so kann man ja sozusagen teile abschalten die net gebraucht werden ich mein aero läuft auf ner radeon 9700 einwandfrei(wieviel watt brauch die unter vollast ? 50W? glaub so wars^^) und soviel brauchen die anderen im idle modus.. ich meine cpus takten sich runter im idle modus (geniale erfindung..) aber wieso sollte des net bei grakas gehen , die hd 2900xt taktet sich ja auch um ca 100MHz runter wieso net mehr ? oder schaltet teile ab? is das so kompliziert? ausserdem würde es wegen niedriger Temperatur sowie weniger Benutzung die Lebensdauer verlängern.. von Lüfter(der dann langsamer oder gar net drehen muss) bis hin zu den Spannungswandlern...

TheGoD
2007-05-30, 20:25:51
Frage ich mich auch oft, gerade bei so parallel aufgebauten Konstrukten wie Grafikchips sollte das doch (besser als bei CPUs) möglich sein.

:o)Uhummel
2007-06-12, 16:18:43
Glaube kaum, daß sich da generell viel ändern wird.-Es sei denn, daß die Jungs bei NV nen ganz neuen Fertigungsprozess erfinden. Aber daß mit dem Runtertakten unter 2D sollte eigtl. schon immer ein Muß sein!-Das ist doch laut NV auch nur ein Treiber bzw. BIOS-Bug, oder? Aber man könnte bestimmt z.B. noch mehr Einheiten im Chip komplett abschalten, wenn diese länger ungenutzt bleiben. Dann natl. einen möglichst sparsamen Fertigungsprozess. NV tat/tut da bestimmt schon einiges und wird sich auch weiter darum kümmern !müssen!, wie auch ATI! -So ganz, ganz langsam dämmert es bei immer mehr Ingenieuren.

jojo4u
2007-06-17, 22:35:04
Die sollten sich halt einen zweiten kleinen PCs fürs Surfen/Office ins Zimmer stellen.

Unsinn, das ist schon ökologisch gesehen eine Katastrophe. So viel kann eine Geforce gar nicht mehr verbrauchen. Die Prozessorhersteller bekommen's ja auch hin sparsamer zu werden.

Adam D.
2007-06-17, 22:37:11
Ob's beim G90 schon so weit ist, ist schwer zu sagen - ich hoffe es. Wenn der G100 schon so ein Multi-Core-Chip wird, dann dürften wir spätestens da neue Ansätze zum Stromsparen bei Grafikchips sehen!

Gast
2007-06-17, 22:40:14
Die Prozessorhersteller bekommen's ja auch hin sparsamer zu werden.

Es wird jedoch nicht alle 1 1/2 eine Leistungsverdopplung erreicht. Ausserdem bestehen Grafikkarten aus weit mehr als nur der GPU. Zählt man bei den CPUs noch den Speicher und das Mainboard dazu, könnte man einen halbwegs vernünftigen Vergleich durchführen.

BlackBirdSR
2007-06-18, 08:38:54
ma ne Frage: Welche technische Tatsache hindert die Hersteller daran, die Grafikkarten im Leerlauf einfach auf zum bsp 200/300MHz runterzutakten(Für 2D) und überflüssige Einheiten abzuschalten(Shader etc) und nur ein 2D Bild auszugeben dafür reicht theoretisch doch scho nen billiger Chip(

Gibt es denn eine sichere Möglichkeit, Aero Glass, ein Spiel/Anwendung und Video voneinander zu trennen?
Bei 200MHz mag Aero noch gut funktionieren. Aber nicht jeder nutzt 3D nur als Fullscreen App.

Die Radeon ändern den Takt nur über die Erkennung einer Fullscreen-App. Alles im Windows bleibt bei "2D-Takt". Der fällt daher recht hoch aus, damit nicht zu viel Performance verloren geht.

ALso bräuchte man zu erst eine ganz sichere Methode Aero Glass zu erkennen, dann Videos, Spiele im Fenster und Anwendungen wie 3D-Studio, Google Earth, Celestia, Acrobat Reader... etc etc

mayo
2007-06-18, 10:58:02
Der Takt muss einfach an die Chiplast gekoppelt werden.
Die Last zu ermittelt sollte kein problem sein. Vllt ist die Logik dafür sogar schon vorhanden.

Coda
2007-06-18, 13:18:28
Gibt es denn eine sichere Möglichkeit, Aero Glass, ein Spiel/Anwendung und Video voneinander zu trennen?
Bei 200MHz mag Aero noch gut funktionieren. Aber nicht jeder nutzt 3D nur als Fullscreen App.

Die Radeon ändern den Takt nur über die Erkennung einer Fullscreen-App. Alles im Windows bleibt bei "2D-Takt". Der fällt daher recht hoch aus, damit nicht zu viel Performance verloren geht.

ALso bräuchte man zu erst eine ganz sichere Methode Aero Glass zu erkennen, dann Videos, Spiele im Fenster und Anwendungen wie 3D-Studio, Google Earth, Celestia, Acrobat Reader... etc etc
Wenn Microsoft Aero wirklich ohne Zusatzinfos über Direct3D rendert, dann kann es der Treiber nicht erkennen, ansonsten merkt er ja wenn eine App einen OpenGL-Context oder ein Direct3D-Device erstellt.

Falls ersteres zutrifft hat Microsoft aber wirklich nicht mitgedacht. Da das DDK dafür aber nicht öffentlich ist, hat man da keine Einsicht.