PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum werden nicht alle Grafikkarten im 2D-Modus radikal untertaktet?


Raff
2007-12-13, 14:59:11
Dass die Geforce-8-Serie stets mit demselben Takt und unveränderter Spannung läuft, ist bekannt. Hier wurde zu Recht viel herumgeheult, zumal der Missstand beim neuen G92 einfach mal ignoriert wurde. Aber auch Geforce-8-Karten kann man per Software extrem untertakten und so auch ohne Spannungsreduktion etwas Strom sparen. Das gilt für jede andere Grafikkarte.

Dass man bei einigen Exemplaren, wie den Radeons, die Spannung herabsetzen kann, ist sehr sinnvoll, aber nur optional für meine Fragestellung. Warum taktet fast jede aktuelle Karte so saumäßig hoch, gemessen an der für ein 2D-GUI benötigten Leistung? Meine 8800 GTX läuft dank des RivaTuners mit 121/296/190 MHz, womit nicht einmal Aero, geschweige denn XP, irgendwelche Anzeichen von Ruckeln zeigt. Für XP reicht ja im Grunde schon eine Riva TNT für geschmeidige Bilder.

Wieso kam man nicht schon früher darauf, einen 2D-Takt zu fahren? Wieso ist dieser, sofern vorhanden, nicht bei 50 MHz o.ä.? Das würde locker reichen. Ist es technisch so aufwändig, einen extrem niedrigen Takt auf einem PCB zu fahren, das für Hochleistung konzipiert wurde?

MfG,
Raff

Rebell
2007-12-13, 15:12:44
Bei meiner 7900GT damals hat man damit kein Watt Strom gespart. Hat überhaupt nichts gebracht.

Super Grobi
2007-12-13, 15:18:29
Ich kann es auch nicht verstehen, warum der 2D Betrieb so übergangen wird. (vorallen bei den neuen NV Karten!)

Es kann doch kein großes Prob sein, die Spannung zu verändert. Meine "alte" 8800GTS 640mb hatte ein OCing Bios drauf. Mit diesem wurde nur beim Spielen der Takt automatisch hoch gesetzt. Daran kann man ja schon sehen, daß die Taktänderung kein großes Prob wäre. Dazu einfach noch die Spannung der GPU ändern und alles wäre prima.

SG

Gast
2007-12-13, 15:19:59
Die IHVs wollen auch ihre Mobile Chips entsprechend teuer verkaufen.

Wenn die Desktop Modelle das gleiche können, würden in Notebooks vermehr auch Desktop Chips verbaut werden.

:(

Super Grobi
2007-12-13, 15:24:15
Die IHVs wollen auch ihre Mobile Chips entsprechend teuer verkaufen.

Wenn die Desktop Modelle das gleiche können, würden in Notebooks vermehr auch Desktop Chips verbaut werden.

:(

Das hätte mal den Vorteil, daß dort mal gescheite Chips zu normalen Preisen zu einsatz kommen würden. Wenn ich mir den Markt der bezahlbaren Gamer-Notebooks angucke, wird mir schlecht, wenn ich mir die GPUs angucke. CPU und Ram top, Graka flopp!

Aber das ist ein anderes Thema.

SG

Spasstiger
2007-12-13, 15:29:44
Wahrscheinlich sind die ganzen Kapazitäten und Leitungslängen für einen bestimmten Taktbereich ausgelegt und auch springende Taktraten hat man wohl nicht gerne, weil dann neu synchronisiert werden muss. Aber da ich bisher keine Grafikkarte designt habe, kann ich auch nicht mehr dazu sagen.
Ich habe aber die Erfahrung gemacht, dass zu starke Untertaktungen zu Bildfehlern und Abstürzen führen. Eine starke Untertaktung liegt also offensichtlich außerhalb der elektrischen Spezifikation.

Omnicron
2007-12-13, 15:33:33
Weil es den Hersteller Aufwand kostet das zu implementieren und fehlerfrei zu halten, und es von Kunden kaum einer will.
Die meisten Leute wissen 0,0 über Grafikkarten und entscheiden anhand der 3D Marks in der Computerbild, wenns hoch kommt.
Es gibt vielleicht einige User im 3DC (das bei weitem nicht den Durchschnittsuser repräsentiert!) die extrem low Power 2D Karten gut finden, und selbst davon wären sicher die meisten nicht bereit dafür mehr Geld zu zahlen oder Abstriche in der 3D Leistung in Kauf zu nehmen.

K4mPFwUr$t
2007-12-13, 15:38:29
das es machbar ist, zeigt ja die CPU :rolleyes:
wo ein wille ist, sollte auch ein weg sein. nur wenn kein wille da ist, da ist alles zum scheitern verurteilt.

raffa
2007-12-13, 16:02:14
Meine X800 läuft seit Ewigkeiten in 2D mit 200/280 und in 3D auf 470/550MHz, die Spannung kann ich leider nicht anpassen. Wenn man das aber einplant, klappt das auch, siehe HD3800er Reihe und natürlich die CPUs. (Mein AM2 3500+ A64 idlet völlig problemlos mit 900MHz bei 0.9Volt.)
Eine ernsthafte technische Herrausforderung kann ich jedenfalls nicht erkennen, man muss es allerdings implementieren und testen, was Geld und Arbeitskraft kostet, und natürlich die Idee und den Willen es auch umzusetzen, vorraussetzt.


Weil es den Hersteller Aufwand kostet das zu implementieren und fehlerfrei zu halten, und es von Kunden kaum einer will.
Die meisten Leute wissen 0,0 über Grafikkarten und entscheiden anhand der 3D Marks in der Computerbild, wenns hoch kommt.
Es gibt vielleicht einige User im 3DC (das bei weitem nicht den Durchschnittsuser repräsentiert!) die extrem low Power 2D Karten gut finden, und selbst davon wären sicher die meisten nicht bereit dafür mehr Geld zu zahlen oder Abstriche in der 3D Leistung in Kauf zu nehmen.

Ich bin zwar nicht gerade ein Durchschnittsuser, aber für mich und einige andere aus meinem Bekanntenkreis auch, ist ein geringer Idle-Verbrauch ein recht gewichtiges Argument. Die Multiplikatorwirkung der "Freaks" darf durchaus nicht unerschätzt werden und in Zeiten hoher Energiepreise und hoffentlich steigendem Umweltbewußtsein sind auch 0815Anwender leicht davon zu überzeugen, daß es zumindest nicht schaden kann, wenn der Rechner einen niedrigen Grundverbrauch hat.

Schrotti
2007-12-13, 16:08:12
Finde es auch nicht gut das daran nicht gearbeitet wird (nvidia) aber momentan ist es mir egal ob meine Grafikkarte den Takt senkt oder auch nicht.

BvB123
2007-12-13, 16:19:34
Denke die nächste NV generation muss dies auch unterstützen denn ATI hat diesmal vorgelegt.

Gruß

Corny
2007-12-13, 16:22:54
Überall ist Klimadebatte. Mit etwas Arbeit an den Treibern könnte man das in so manchem Grafikchip noch implementieren. Damit würde man den Stromverbrauch von einem großteil aller PCs da draussen in der weiten Welt um mal eben 10-20% senken. Ich finde das nicht unerheblich.

Ich denke vor allem auch an viele BüroPCs in Firmen mit teils überzogen starken Grafikkarten. Mein Büro PC hat beispielsweise eine Geforce 8500GT mit 512MB. Mehr als Google Earth und zwei Bildschirme sieht die Karte nicht. Sind wohl pro Stunde so 10-20Watt zuviel.

Coda
2007-12-13, 16:29:50
Sind wohl pro Stunde so 10-20Watt zuviel.
Es gibt keine "Watt pro Stunde."

K4mPFwUr$t
2007-12-13, 16:31:19
an 10-20w in einer stunde glaubst du doch selber nicht :rolleyes:

James Ryan
2007-12-13, 16:36:51
Die Geforce FX 5800 Ultra war ja die erste Karte mit einem 2D-Modus. Alle Nachfolger-Karten von NVIDIA hatten ihn ebenfalls, nur seit der Geforce 8 scheint dieser gestrichen worden zu sein.
Meine Vermutung: Da die GPU nun verschiedene Taktdomänen hat (ROP/Shader), ist es nicht mehr so einfach einen 2D-Modus zu implementieren. Oder aber NVIDIA will Hybrid-SLI eine Daseinsberechtigung verschaffen. :(
Persönlich finde ich das mies, da mein PC zu 80% nur im Idle läuft, und NVIDIA mit den neuen Treibern einen 2D-Modus per Bios schön umgangen hat.
Gott sei Dank hat ATi mit der HD 3xxx Reihe einen sehr guten 2D-Modus implentiert, ich hoffe NVIDIA sieht sich dadurch im Zugzwang!

MfG :cool:

Gast
2007-12-13, 16:56:37
Sind wohl pro Stunde so 10-20Watt zuviel.
Falscher Ausdruck.
Probier es nochmal mit 10-20W oder berechne die Gesamtleistungsaufnahme über zb das Jahr verteilt in kWh.

Gast
2007-12-13, 16:59:13
Warum wird ein R300 / R350 im Gegensatz zur FX als so sparsam dargestellt?
Bei den Angaben http://www.computerbase.de/artikel/hardware/grafikkarten/2003/bericht_stromverbrauch_grafikkarten/4/#abschnitt_winxp_desktop ist das vollkommen ungerechtfertigt.

K4mPFwUr$t
2007-12-13, 17:01:28
@gast
die performance per watt ist nunmal höher als bei der FX ;)

Adam D.
2007-12-13, 17:10:31
Also zumindest bei Nvidia leg ich meine Hand dafür ins Feuer, dass sie hSLi pushen wollen. Ist ja auch ok, aber dafür den 2D-Modus komplett außen vor zu lassen, find ich echt dämlich. ATi zeigt ja, dass man damit definitiv Punkte einsammeln kann.
Für den 2D-Modus meiner Grafikkarte kauf ich mir ganz sicher nicht ein neues Mainboard von Nvidia :rolleyes:

Gast
2007-12-13, 17:13:55
Für den 2D-Modus meiner Grafikkarte kauf ich mir ganz sicher nicht ein neues Mainboard von Nvidia :rolleyes:
Ack.

Entweder gleich eine AMD Karte (schade das da SSAA fehlt) oder sich ärgern.

Ultron
2007-12-13, 17:26:41
Das war halt noch was, zu Zeiten der Voodoo-3D-Addon Karten. So eine matrox Mystique hat damals kaum was verbretzelt, und die Voodoos waren im 2D Betrieb komplett off. Schade dass sie das heute nicht mehr hinkriegen, man könnte die Spannung senken, den Takt senken und bestimmte 3D Teile des Chips spannungslos. Von den 750 Millionen Transistoren ist sicher nicht mal 1% mit dem 2D Teil beschäftigt... :(

Super Grobi
2007-12-13, 17:58:41
Also zumindest bei Nvidia leg ich meine Hand dafür ins Feuer, dass sie hSLi pushen wollen. Ist ja auch ok, aber dafür den 2D-Modus komplett außen vor zu lassen, find ich echt dämlich. ATi zeigt ja, dass man damit definitiv Punkte einsammeln kann.
Für den 2D-Modus meiner Grafikkarte kauf ich mir ganz sicher nicht ein neues Mainboard von Nvidia :rolleyes:

Ja, man schafft künstlich die Berechtigung für hSLI. Für mich ist das Schwachsinn³ und total überflüssig. Wenn es ein gescheiten 2D Modus geben würde, bräuchte niemand diesen Mist. Aber so kann man wieder prima neue Boards und Karten verkaufen.

Aber es wird genug Leute geben, die wie die Leminge alles machen, was NV sich so wünscht und dann noch lobt.

Der 2D Modus war für mich der Punkt, weshalb ich meine alte 8800 GTS entsorgt hab und mir die 3870 gegönnt hab.

SG

Adam D.
2007-12-13, 18:09:02
Ja, man schafft künstlich die Berechtigung für hSLI. Für mich ist das Schwachsinn³ und total überflüssig. Wenn es ein gescheiten 2D Modus geben würde, bräuchte niemand diesen Mist. Aber so kann man wieder prima neue Boards und Karten verkaufen.

Aber es wird genug Leute geben, die wie die Leminge alles machen, was NV sich so wünscht und dann noch lobt.

Der 2D Modus war für mich der Punkt, weshalb ich meine alte 8800 GTS entsorgt hab und mir die 3870 gegönnt hab.

SG
Ist halt die Frage, wieviele andere so denken wie du / wir. Ich begrüße es, dass der Verbrauch generell gesenkt wird (G92/RV670). Auf der anderen Seite denke ich, dass wir bei dem Fortschritt noch deutlich mehr erreichen könnten, hätte man die Stromspar-Funktionen von Anfang an richrig gepusht. ATi wird wohl ab jetzt weiter daran arbeiten, da man keinen Schritt zurück gehen wird und der RV670 bereits in dieser Hinsicht glänzt. Bei Nvidia sieht es wohl wirklich schlechter aus, aber das bekommen sie dann schon zu spüren. Habe zwar momentan meine 8800GT drin, aber die HD3870 ist schon geordert. Ich hoffe, dass einige andere auf noch auf die Idee kommen, diese Entwicklung zu unterstützen.

Gummikuh
2007-12-13, 21:04:09
Na ja...bei der HD38x0 Serie kommt ja so einiges zusammen, kleinere Struktur und Integration von Powerplay.

Aber bei den 8x00 M Grafikkarten wird doch von NV dieser Powermizer benutzt, ev. erhält der ja auch mal Einzug in die Desktopkarten.

Am effektivsten ist natürlich bei geringerem Takt auch die GPU Core herunterzusetzen.Wenn man den Stromverbrauch von ner ollen X1800XL mit ner X1800XT vergleicht,da liegen ja schon nen paar Watt dazwischen.Der Löwenanteil kommt aber sicher von der höheren Kernspannung.

Marty98
2007-12-13, 22:04:02
Ich denke mal ATI hatte gar keine andere Wahl. Ohne die Spannungssenkung wäre der Idle-Verbrauch nicht akzeptabel. Jeder Hersteller implementiert das notwendige Mininum.

Gast
2007-12-13, 22:09:37
Ich denke mal ATI hatte gar keine andere Wahl. Ohne die Spannungssenkung wäre der Idle-Verbrauch nicht akzeptabel. Jeder Hersteller implementiert das notwendige Mininum.
Nur das AMDs Minimum besser ist als NVs.



Am effektivsten ist natürlich bei geringerem Takt auch die GPU Core herunterzusetzen.
So wie früher, es hat immer recht gut funktioniert.



Aber bei den 8x00 M Grafikkarten wird doch von NV dieser Powermizer benutzt, ev. erhält der ja auch mal Einzug in die Desktopkarten.
Bezweifel ich. Wie schon geschrieben, NV will die teuren Mobile Lösungen loswerden.
Wenn der Desktopmarkt stromsparend wird, dann werden wieder teilweise Desktoplösungen in Notebooks eingepflanzt.
Der Kunde würde sich über bessere, billigere Notebooks freuen, aber NV weniger verdienen.

Thunder99
2007-12-13, 22:12:14
Vielleicht sind NV´s Spannungswandler dafür nicht ausgelegt? Wenn man es extrem betrachtet

Gast
2007-12-13, 22:14:53
Vielleicht sind NV´s Spannungswandler dafür nicht ausgelegt?
Auch möglich, nachdem was dort in letzter Zeit gespart wird, ist die ganze Kiste recht knapp kalkuliert.
Jedoch könnten Hersteller mit eigenem Design, zb. Gainward/Palit das anbieten, dank eventuell besser ausgelegten Spawas. :)

LovesuckZ
2007-12-13, 23:18:54
2D Modus gibt es in bezug einer Spannungsabsenkung. So hat die 8800GT unter Last ~1,1V und beim IDLEN 1,05V. Einzig allein eine Taktabsenkung fehlt. Auch darf man nicht vergessen, dass der G92 noch im 65nm Fertigungsprozeß hergestellt wird.

MartinRiggs
2007-12-14, 08:20:30
2D Modus gibt es in bezug einer Spannungsabsenkung. So hat die 8800GT unter Last ~1,1V und beim IDLEN 1,05V. Einzig allein eine Taktabsenkung fehlt. Auch darf man nicht vergessen, dass der G92 noch im 65nm Fertigungsprozeß hergestellt wird.

was ist denn das für ne blöde Aussage?
90nm Athlons konnten sich schon runtertakten(oder waren es nicht sogar die 130nm Athlons:biggrin:) also das ist ja mal gar kein Argument.
NV will das nicht oder bringt es nicht auf die Reihe.
Genauso die X1900XT, die wurde auch noch nicht in 65nm hergestellt und kann runtertakten und das sogar perfekt.

AnarchX
2007-12-14, 08:42:43
Er will wohl andeuten, dass G92 generell etwas mehr im Idle verbrauchen wird als RV670.

@ Topic:

Wie auch andere würde ich sagen, dass ein funktionierender, nahezu 100% stabiler 2D-Modus mit einem gewissen Aufwand/Kosten zusammenhängt und deshalb die Hersteller sich zum Teil etwas zurückhalten.
Speziell bei NV hat man es wohl einfach nicht nötig, da die aktuellen G92-Karten schon so entsprechend viel für ihr Geld bieten und der Großteil der Kunden wohl nicht unbedingt Wert auf einen extrem sparsamen Idle-Modus legt.
Dazu kommt halt auch noch die geplante Vermarktung von hSLI.

Dass G92 über ziemlich gute Stromsparmechanismen verfügt ist ja auch mittlerweile bekannt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=391632

Gabbabytes
2007-12-14, 09:49:51
@horsti

dass gerade du den stromspar-thread einleitest, wundert mich ein wenig.

nichtsdestotrotz stecken hinter den ganzen funktioneren die aufteilung in marktsegmente und kostenstrukturen. bei den oems ist die stromsparfunktion eben nicht gefragt. der retail-markt ist nur ein prestigemarkt, wo hauptsächlich die leistung zählt. es ist schon mal gut, dass keine föne auf den markt geschmissen werden, sondern die karten weitestgehend leise sind. ein fortschritt.

jetzt hat ati mit powermizer vorgelegt. ich bin gespannt, was uns in der 9. generation erwartet. ich hoffe auch auf stromspareigenschaften!

N0Thing
2007-12-14, 13:48:58
2D Modus gibt es in bezug einer Spannungsabsenkung. So hat die 8800GT unter Last ~1,1V und beim IDLEN 1,05V. Einzig allein eine Taktabsenkung fehlt. Auch darf man nicht vergessen, dass der G92 noch im 65nm Fertigungsprozeß hergestellt wird.


0,05V Spannungsabsenkung könnten ja schon fast in der Meßungenauigkeit liegen...
Da fehlt der 8800GT deutlich mehr als eine Taktabsenkung, denn von den 0,05V weniger wird man beim Verbrauch in der Praxis nichts bemerken.

Gast
2007-12-14, 14:10:01
0,05V Spannungsabsenkung könnten ja schon fast in der Meßungenauigkeit liegen...
Da fehlt der 8800GT deutlich mehr als eine Taktabsenkung, denn von den 0,05V weniger wird man beim Verbrauch in der Praxis nichts bemerken.
So sieht`s aus. Das Verhältnis von Idle zu Last ist fast genau das selbe wie beim G80. Glücklicherweise ist der Bedarf halt durch 65nm von sich aus niedrig. Aber Stromsparmechanismen für Idle hat die 8800GT nicht.
Da wäre noch Potential drin gewesen.
Das ist das einzige, was man momentan nV vorwerfen kann, ansonsten ist die Karte top.

jojo4u
2007-12-14, 14:26:43
Ich hab schon 2005 darauf aufmerksam (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3677214#post3677214) gemacht ;)

Ich denke es liegt an der Abgrenzung zum mobilen Markt und am Aufwand das zu Zertifizieren.

L233
2007-12-15, 17:46:40
I hatte mal eine PoV 6800 Ultra mit einer sehr frühen BIOS version, die einen 2D Mode kannte. Das Problem war, daß Windows irgendwie damit nicht zurecht kam.... bei Applikationen (3DMark, Games) mit 2D Ladebildschirm gabs da öfters irgendwelche obskuren DirectX-Fehler, wenn er wieder in den 3D Mode wechseln wollte. Die nächste BIOS Revision hat das behoben, indem sie den 2D-Mode einfach entfernt hat. Und dies scheint seit dem bei allen Nvidia Desktop-Karten der Fall zu sein.

Liszca
2007-12-15, 17:56:47
Bei meiner 7900GT damals hat man damit kein Watt Strom gespart. Hat überhaupt nichts gebracht.

würde das dann heissen sie hatte eh schon wenig leckströme? oder haben leckströme nicht unbedingt was mit dem verbrauch zu tun den mit der temperatur?

The_Invisible
2007-12-16, 13:06:16
Bei meiner 7900GT damals hat man damit kein Watt Strom gespart. Hat überhaupt nichts gebracht.

komisch, ich mache es ähnlich wie raff und habe im idle über 10°C weniger, von irgendwoher muss das ja kommen ;)

mfg

Gast
2007-12-16, 15:12:51
komisch, ich mache es ähnlich wie raff und habe im idle über 10°C weniger, von irgendwoher muss das ja kommen ;)

Also da meine 7900GT im Idle bei 450Mhz bei 32°C rumhängt sind keine weiteren 10°C mehr zu erreichen. ;)
Der G71 ist einfach schon so unglaublich sparsam, das ein geringerer Verbrauch kaum zu spüren ist.

Gabbabytes
2007-12-16, 15:35:38
Also da meine 7900GT im Idle bei 450Mhz bei 32°C rumhängt sind keine weiteren 10°C mehr zu erreichen. ;)
Der G71 ist einfach schon so unglaublich sparsam, das ein geringerer Verbrauch kaum zu spüren ist.


also ich kann mich über meinen G73 in sachen stromverbrauch auch net beschweren ;)

MGeee
2007-12-16, 15:36:50
Ich hatte vor 1/2 Jahr schonmal eine ähnliche Diskussion losgetreten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=377899

Leider wurde mein damaliger Thread von Trollen und andere Vollidioten heimgesucht :redface: .

Raff
2007-12-16, 15:41:02
also ich kann mich über meinen G73 in sachen stromverbrauch auch net beschweren ;)

Ohne Rechenleistung kein Verbrauch. ;) Low-End verbraucht natürlich generell weniger Strom.

MfG,
Raff

The Jackal
2007-12-16, 16:07:31
Ich habe mir erst eine HD 3870 gekauft die den auch so tollen 2D Stromsparmodus hat. Alles schön und gut.

Doch als eine 3D Anwendung startete fing das ding an zu Pfeifen in den SpaWa's. Das kanns auch nicht sein. Dann reskier ich bei der 8800 GTS 512 eben 20W mehr in Idle, dafür herst auch ruhe im Rechner zu jeder zeit.

Auserdem wenn die Einheiten auf dem G92 nichts zu tun haben ziehen die auch weniger Strom. Warscheinlich würde sich Energietechnisch ein 2D Stromsparmodus auf der G80/92 Architektur garnicht lohnen. Man bräcuhte jetzt ein Notebook mit dienem G80/92 Mobile um es zu testen.

Coda
2007-12-16, 16:12:48
Natürlich würde sich das lohnen. Weniger Spannung und niederiger Takt bringen immer viel.

Gast
2007-12-16, 16:24:39
Ich habe mir erst eine HD 3870 gekauft die den auch so tollen 2D Stromsparmodus hat. Alles schön und gut.

Doch als eine 3D Anwendung startete fing das ding an zu Pfeifen in den SpaWa's. Das kanns auch nicht sein. Dann reskier ich bei der 8800 GTS 512 eben 20W mehr in Idle, dafür herst auch ruhe im Rechner zu jeder zeit.

Auserdem wenn die Einheiten auf dem G92 nichts zu tun haben ziehen die auch weniger Strom. Warscheinlich würde sich Energietechnisch ein 2D Stromsparmodus auf der G80/92 Architektur garnicht lohnen. Man bräcuhte jetzt ein Notebook mit dienem G80/92 Mobile um es zu testen.
Pfeifen die Amd-Karten schon wieder?
Wie laut ist es denn?
Ich mein, ein G80 pfeift auch unter gewissen Umständen, ist aber nur in sehr sehr leisen Rechnern hörbar. Meine ehemalige X1900 zirpte und pfeifte unter bestimmten Umständen so penetrant laut, dass selbst meine nicht leisen Lüfter es nicht übertönen konnten.
Klang manchmal wie ne Heuschrecke oder ein kleiner piepsender Hilfeschrei eines Vogels.
War ein Grund die Karte zu verkaufen. Habe ja nichts gegen etwas lautere Lüfter auf Grakas, aber solch ein nervtötendes Zirpen ist unter aller Sau.
Hat aber afaik nichts mit der Stromsparfunktion zu tun, sondern dass Spulen? anfangen zu schwingen. Je nach Frequenz und Amplitude wird's unerträglich.

The Jackal
2007-12-16, 16:44:21
Also es übertönt 2 92mm Lüfter die mit 1150 RPM laufen. Aber es ist nicht die Lautstärke sondern die Ferquenz. Ich würde sagen 2 kHz. Abartig. Das geräuch sägt sich selbst mit aufgesetzen Kopfhören durch.
Bin hin zum Händler und hab eine XFX 8800 GTS 512 geholt die ziemlich teuer war.

Gast
2007-12-16, 17:00:48
Hallo,
eine Stromsparfunktion zu implementieren währe wohl eher ne Kleinigkeit, dank NiBiTor kann das fast jeder DAU, auch und vor allem bei G80 Karten, sogar die Spannungsabsenkung funzt wenn man will, Erhöhung hingegen offenbar nicht (G80).
Die Einsparung hält sich wohl eher in grenzen, aber selbst wenn es nur 5-10W währen ist der Aufwand so gering das man es halt trotzdem macht, kostet ja nix ;).

MfG Gamiac

Gast
2007-12-16, 17:39:45
hallo,
vorab: ich finde es gut das sich so langsam immer mehr Leute für dieses Thema ernsthaft interessieren, das aber wohl an den steigenden Stromkosten liegen dürfte statt am Umweltbewusstsein bzw. das sich jemand wirklich dafür interessiert, was noch für die nachfolgenden Generationen übrig bleibt. Unseren derzeitigen Energiebedarf können wir praktisch nicht durch regenerative Energietechniken decken; theoretisch schon, aber halt nur theoretisch (auch wenn in den Medien was anderes behauptet wird - vor allem von denen, die solche Anlagen verkaufen, aber die interessieren sich in erster Linie für das Geld verdienen, wie NV auch).

Zu Computer allgemein: finde es nicht gut das sich die Hersteller über den Verbrauch der Geräte so bedeckt halten, vor allem was den Teillastbereich angeht (surfen, office, etc.) und im idle Zustand. Besonders von den MB-Herstellern ist nichts zu erfahren, würd mich mal interessieren was die so verbrauchen. Da fällt es einem nicht wirklich einfach einen stromsparenden PC zusammen zu stellen.
Bei aufwändigen 3D Games kann der Comp. ja ruhig saft ziehen, nur ist das i.d.R. nicht die meiste Zeit die der Comp. läuft! Wenn die Leistung nicht gebraucht wird sollte er auch wenig verbrauchen, Leistungsäquivalent halt.

Zu den Grakas: interessante Beiträge, kann da aber im Moment noch keine 'richtige' Aussage machen. Wie hoch der Stromverbrauch bei Teillast und mit variierender Taktung ist, werde ich noch messtechnisch ermitteln. Hierzu eine Frage: wird die PCIe-graka auch mit Strom über die Schnittstelle versorgt oder ausschließlich durch den PCIe-Stromanschluss?

Gruß

Gast
2007-12-16, 17:41:24
Also es übertönt 2 92mm Lüfter die mit 1150 RPM laufen. Aber es ist nicht die Lautstärke sondern die Ferquenz. Ich würde sagen 2 kHz. Abartig. Das geräuch sägt sich selbst mit aufgesetzen Kopfhören durch.
Bin hin zum Händler und hab eine XFX 8800 GTS 512 geholt die ziemlich teuer war.
Danke, war schon versucht mir diese Karte zu holen. Einfach unter aller Kanone so ein Gezirpe dem Kunden andrehen zu wollen. Die sollen mal ihre Spannungsversorgung so gestalten, dass diese die Spulen nicht in kritische Schwingungen versetzen oder verklebte Spulen benutzen. Dass die Reviewer nicht auf diesen Missstand aufmerksam machen. Sind die schon bei bestimmten Frequenzen taub?
Bisschen Zirpen ist ja immer, aber wie gesagt solche Geräusche wie die X1900 unter bestimmten Bedingungen von sich gegeben hat, als würde ein kleines Kabel mit einem schnell drehenden Lüfterblatt kollidieren. Dagegen ist das Klackern von Lüftern ein Kindergeburtstag.

RavenTS
2007-12-16, 20:26:42
Ich habe mir erst eine HD 3870 gekauft die den auch so tollen 2D Stromsparmodus hat. Alles schön und gut.

Doch als eine 3D Anwendung startete fing das ding an zu Pfeifen in den SpaWa's. Das kanns auch nicht sein. Dann reskier ich bei der 8800 GTS 512 eben 20W mehr in Idle, dafür herst auch ruhe im Rechner zu jeder zeit.

Auserdem wenn die Einheiten auf dem G92 nichts zu tun haben ziehen die auch weniger Strom. Warscheinlich würde sich Energietechnisch ein 2D Stromsparmodus auf der G80/92 Architektur garnicht lohnen. Man bräcuhte jetzt ein Notebook mit dienem G80/92 Mobile um es zu testen.


Das hängt dann aber eher an der jeweiligen Karte bzw den Bauteilen/Zusammenbau als am Chip selbst (ausser das Referenzdesign legt halt bestimmte Spezifika fest die genau dazu führen, aber das scheint mir eher unwahrscheinlich). Das Problem kannst du wohl bei einer billigen 8800 auch haben, die dann mit etwas Glück die ganze Zeit pfeift...

HisN
2007-12-17, 10:01:38
DMeine 8800 GTX läuft dank des RivaTuners mit 121/296/190 MHz, womit nicht einmal Aero, geschweige denn XP, irgendwelche Anzeichen von Ruckeln zeigt. Für XP reicht ja im Grunde schon eine Riva TNT für geschmeidige Bilder.


Kleiner Bildschirm?
Mein 30" fängt bei 250Mhz Coretakt an zu flackern. Erst bei 255 hört das auf^^
Duallink braucht wohl Power. Aber Du hast recht. Ältere Schinken wie Dungeon Siege2 takten die Graka nicht mal mehr von diesen Taktzahlen (255/200 bei mir) hoch und laufen trotzdem geschmeidig.

3dfx_is_gone
2007-12-17, 11:44:06
Interessante Diskussion. Auch der Hinweis auf die Voodoo, hat die sich wirklich ganz abgeschaltet ? Bin zu faul zum Test, hab hier noch eine Voodoo1 rumliegen. Das wäre doch technisch sehr leicht umzusetzen: Auf der High-End-Karte ein kleiner Zusatzchip (von mir aus Fremdfirma, Matrox, S3 wir rufen euch ...) der den 2D-Betrieb komplett übernimmt, im 3D-Betrieb würde dann der G92, R660 usw. eingeschaltet. Ließe sich doch prima vermarkten.

Oder eine Schnittstelle des MXM für den PC schaffen (http://de.wikipedia.org/wiki/MXM)? Ähnlich wie bei PCMCIA (http://de.wikipedia.org/wiki/PCMCIA) könnte man dann einfach in eine PCI/PCIe-Adapterkarte eine neue Notebook-Grafikkarte einsetzen. Wird m.E. aber immer zu teuer bleiben, nur für Effizienz- und Silent-Freaks interessant sein, sich also nicht durchsetzen.

Heute läuft das eben als Onboard-Grafik mit zusätzlicher PCIe-Schnittstelle. Irgendwann ist es in der CPU integriert. Das Problem löst sich vielleicht, wenn alle Schnittstellen Plug-and-Play können, nach den SATA eben auch die PCIe. Das ist Zukunftsmusik.

Der Trend (in den USA, auch bei uns ?) geht doch weg vom Spiele-PC hin zu den Konsolen, die früher verkaufsträchtigen Multimedia-PCs mit Spiele-Eignung verschieben sich zu den Rändern Einstiegs-PC mit Grafikkarte und den High-End-Systemen, einfach weil die Chipentwicklung so schnell geht.

In der ct 15/2007 gab es den sehr lesenswerten Artikel "Spar-o-Matic", in dem die Technik der Stromsparmechanismen mit all ihren Problemen geschildert wurde. Denke, es ist nur eine Frage der Zeit, bis sich das Gleiche im Grafikkarten-Bereich durchsetzt. AMD/ATI setzt die Erfahrungen von den Notebooks erstmal mit den neuen HD38X0 um, darf aber den Markt-Anschluss nicht verlieren. nVidia legt aber kräftig an technischen Entwicklungen vor, wird sicher bald kontern, wollen zeigen, dass sie alles besser können als AMD/ATI.

Meine Einschätzung: Nur aus Konkurrenzdenken zwischen den beiden Marktführern wird sich da was tun, der Energy-Star 4.0 wurde dieses Jahr weitgehend unbeachtet verabschiedet (http://de.wikipedia.org/wiki/Energy_Star), die 80Plus-Netzteile (http://www.80plus.org/) werden vereinzelt angeboten , aber so gut wie gar nicht beworben, welche Chancen hätte da ein 2D-Sparfeature ? Der Verbraucher entscheidet immer noch mehr nach Performance als nach Effizienz ... :redface:

Coda
2007-12-17, 12:57:44
Interessante Diskussion. Auch der Hinweis auf die Voodoo, hat die sich wirklich ganz abgeschaltet?
Also als PCI-Device ist sie immer gelistet, also war sie auf keinen Fall ganz abgeschaltet. Würde beim Stromverbrauch von dem Ding aber auch sinnlos sein.

jojo4u
2007-12-17, 13:03:14
Auf der High-End-Karte ein kleiner Zusatzchip (von mir aus Fremdfirma, Matrox, S3 wir rufen euch ...) der den 2D-Betrieb komplett übernimmt

Für Aero brauchst du eine potentere Graka als VIA mit seinen integrierten liefern kann ;) Und nicht zu vergessen die Videobeschleunigung.

Raff
2007-12-17, 20:42:41
Kleiner Bildschirm?
Mein 30" fängt bei 250Mhz Coretakt an zu flackern. Erst bei 255 hört das auf^^
Duallink braucht wohl Power. Aber Du hast recht. Ältere Schinken wie Dungeon Siege2 takten die Graka nicht mal mehr von diesen Taktzahlen (255/200 bei mir) hoch und laufen trotzdem geschmeidig.

Ui, das ist in der Tat interessant. Deine GTX macht also bei 2560x1600 schlapp, wenn du den GPU-Takt auf 250 MHz senkst? Vista-Aero oder "oldschool" XP?

Man stelle sich das mal vor. Ein "voller" G80 deklassiert auch mit 250 MHz noch jede Onboard-Lösung oder offiziell Aero-fähige SM2.0-Müllkarte um Welten. Sowohl in Sachen Rechenleistung als auch Stromverbrauch. ;)

Das sollte man mal testen.

MfG,
Raff

HisN
2007-12-17, 22:21:43
Oldschool XP64 und Vista64. Ich denke das es mit dem großen Display zusammenhängt, muss das mal mit einem 19" ausprobieren. Sieht halt so aus als würde nur noch jedes 2. Bild übertragen werden und dazwischen Schwarzframes^^

WinterBorn
2007-12-21, 13:07:50
Für Aero brauchst du eine potentere Graka als VIA mit seinen integrierten liefern kann ;) Und nicht zu vergessen die Videobeschleunigung.


Das ist ein wichtiger Punkt, wenn man Stromsparfunktionen im 2D-Modus bei zukünftigen GPU beachtet.

Warum sollten NV, ATI und Co. Zeit und Geld in die Entwicklung von reinen 2D-Stromspartechniken stecken, wenn alle zukünftigen MS-Betriebssysteme 3D-Funktionen für die Desktop- und Videodarstellung benutzen? Eine radikal untertaktete Karte würde in 2D-XP bei der VMR-Videowiedergabe auch keinen guten Job machen. Mal abgesehen davon, dass nicht alle in einer GPU auftretenen Ströme, Spannungen, Lauf- und Schaltzeiten linear zusammenhängen und man nicht beliebig tief takten kann.

NV,ATI & Co ist es ganz egal, wie viel Strom ihre GPU verbrauchen, solange man durch eine Verbrauchsenkung die Verkaufszahlen/Gewinn nicht DEUTLICH steigern kann, ohne ein Risiko von Designfehlern einzugehen. (bei Notebook-Grafik ist das z.B. nötig, weil sonst kein Geld in die Kasse kommt - mit noch kürzeren Akku-Laufzeiten möchte kein Kunde leben müssen - die Kühlung würde auch teuerer werden.).
Im Desktopbereich wird der Stromverbrauch der GPU zwar immer Diskutiert, aber die Kundschaft steht sowieso auf grosse, bunte, blinkende Kühler, Gehäuselüfter, durchsiebte Gehäuse und Netzteil mit 700W+. Da darf man am Kühler/Lüfter der Grafikkarte gar nicht sparen - das Bild der Karte auf der Verkaufsverpackung darf auf keinen Fall den Eindruck hinterlassen, dass die Karte langsam sein könnte*.Wer 3D-Power möchte, muss eben mit den Folgen leben - eine Wahl hat man ja nicht wirklich.

Kunden lassen sich für viele Funktionen oder Produkteigenschaften (Strom sparen) begeistern...nur Zahlen möchten sies' nicht (ATi hat die Preise für XY reduziert...ist jetzt günstiger als die vergleichbare XZ von Nvidia...Takt von xxxMHz....GDDR4....FSAA...SLI => solche Nachrichten wollen die Kunden lesen, und nicht : ATi XY-Boards werden 3%-teuerer, weil für XY ein aufwendigerer Spannungsregler erforderlich ist; wobei die Herstellung und der Transport der Teile des Spannngsreglers mehr Energie verbrauchen wird, als die Karte in 10 Jahren sparen kann)



*OT: besonders unsinnig sind auch die Kühlelemente, die einige Mainboardhersteller auf die MOS-FET des CPU-Spannungsreglers kleben - die Verlustleistung wird zwar hauptsächlich über die Leitbahnen abgeführt, der auf den keramischen- oder Kunststoffteil des FET geklebte Alu-Würfel (am besten noch mit Heatpipe) sieht aber schick aus und wird warm (warm=Leistung, schnell!)...Sollte der FET tatsächlich so an sein limit getrieben werden, dass die schlechte Kühlung über sein Gehäuse sein "überleben" sichert, sollte man Abstand von so einem Board nehmen.

puntarenas
2007-12-21, 13:17:14
Im Desktopbereich wird der Stromverbrauch der GPU zwar immer Diskutiert, aber die Kundschaft steht sowieso auf grosse, bunte, blinkende Kühler, Gehäuselüfter, durchsiebte Gehäuse und Netzteil mit 700W+.
Selbst in Deutschland ist das Problembewusstsein ja noch eher mager und die Wenigsten scheinen es am Ende in ihrer Kaufentscheidung zu würdigen, aber neulich habe ich ein US-Review gelesen, da hat sich der Autor gleich bei der positiven Erwähnung des besseren Stromverbrauchs einer HD3870 ausdrücklich davon distanziert, mit "Baumknutschern" (tree hugger) in einen Topf geworfen zu werden.

Wenn man also mal anschaut, welche Bedeutung der Stromverbrauch auf den weltweiten Markt für Spielekarten hat, dann muss man vielleicht sogar mit dem Erreichten sehr zufrieden sein. Bei Karten für Bürorechner sieht das anders aus und da gibts ja auch kein großes Problem mit der Verlustleistung.

Gast
2007-12-21, 16:53:18
Selbst in Deutschland ist das Problembewusstsein ja noch eher mager und die Wenigsten scheinen es am Ende in ihrer Kaufentscheidung zu würdigen, aber neulich habe ich ein US-Review gelesen, da hat sich der Autor gleich bei der positiven Erwähnung des besseren Stromverbrauchs einer HD3870 ausdrücklich davon distanziert, mit "Baumknutschern" (tree hugger) in einen Topf geworfen zu werden.

Ja bei den Amis ist das normal. Da wird gelebt und hat keine Ökobedenken. Mit denen Ökos will man auch nicht in eine Ecke gestellt werden. Ist in etwa so, als würde man in die Homo-Ecke gestellt werden oder man sich als Deutscher schreckhaft von Rechten distanziert.
Hier in Deutschland kommt das Energiesparen in letzter Zeit dadurch stark in Mode, weil die Energiepreise explodieren und gemessen an der Kaufkraft wohl mit die höchsten in den Industriestaaten sein dürften, während rings um uns die Energie rausgeschleudert wird wie nie zuvor. Unter solchen Bedingungen soll dann Deutschland wirtschaftlich mitkonkurrieren. Das ist so, als würde man einem Sprinter ein Bein amputieren und ihm eine Holzprothese geben. (Stichwort Alternative Energien)
Sorry für OT, aber mir wurde durch deinen Post wieder die Abartigkeit von Deutschland ins Bewusstsein gerufen.

RavenTS
2007-12-22, 11:16:29
Ja bei den Amis ist das normal. Da wird gelebt und hat keine Ökobedenken. Mit denen Ökos will man auch nicht in eine Ecke gestellt werden. Ist in etwa so, als würde man in die Homo-Ecke gestellt werden oder man sich als Deutscher schreckhaft von Rechten distanziert.
Hier in Deutschland kommt das Energiesparen in letzter Zeit dadurch stark in Mode, weil die Energiepreise explodieren und gemessen an der Kaufkraft wohl mit die höchsten in den Industriestaaten sein dürften, während rings um uns die Energie rausgeschleudert wird wie nie zuvor. Unter solchen Bedingungen soll dann Deutschland wirtschaftlich mitkonkurrieren. Das ist so, als würde man einem Sprinter ein Bein amputieren und ihm eine Holzprothese geben. (Stichwort Alternative Energien)
Sorry für OT, aber mir wurde durch deinen Post wieder die Abartigkeit von Deutschland ins Bewusstsein gerufen.

Mit modernen Prothesen kann man fast schneller laufen als mit manchen echten Beinen, weshalb mal diskutiert wurde Prothesen als "Doping" zu verbieten! Kein Witz jetzt!

Weiterhin siehst du nur die eine Seite. Sicher ist, daß Energie teurer wird. Wenn diese in D nun jetzt schon recht teuer ist werden die Unternehmen darauf eingehen und energiesparendere Techniken nutzen wo es geht um mithalten zu können und später dadurch einen Vorteil haben...

Gast
2007-12-22, 14:05:58
Mit modernen Prothesen kann man fast schneller laufen als mit manchen echten Beinen, weshalb mal diskutiert wurde Prothesen als "Doping" zu verbieten! Kein Witz jetzt!

Weiterhin siehst du nur die eine Seite. Sicher ist, daß Energie teurer wird. Wenn diese in D nun jetzt schon recht teuer ist werden die Unternehmen darauf eingehen und energiesparendere Techniken nutzen wo es geht um mithalten zu können und später dadurch einen Vorteil haben...
Deshalb schrieb ich ja auch Holzprothese. Energie wird teurer klar, aber in Deutschland wird man noch zusätzlich abegezockt von Staat und Industrie. Und das Geld was der Staat einnimmt, wird zuwenig in/für das Volk investiert.
Und mit regenerativen Energien kann man nicht mit der Weltwirtschaft mithalten, die konsequent auf fossile und atomare Brennstoffe setzt. Das System Kapitalismus lässt sich damit auch nicht betreiben, sprich Wachstum, Wachstum...
Wenn die fossilen Brennstoffe wirklich knapp werden, dann müssen alle auf alternative Energien setzen und Chancengleichheit herrscht. Bedeutet aber auch, dass das heutige Wirtschaftswachstum nicht mehr gehalten werden kann und der Lebensstandard runtergeschraubt werden müsste. Deshalb wird solange wie möglich auf fossile Brennstoffe gesetzt, da die Alternativen keine vollwertigen Alternativen sind, sprich wir könnten nicht so weitermachen wie bisher. (große Autos, große Fernseher, immer neue Computertechnik, Landwirtschaft mit hohen Erträgen, Flugverkehr etc. etc.)
Vor allem die Herstellung dieser verschlingt Unmengen an Energie, der Betrieb z.T. auch. Was alleine der Frankfurter Flughafen für einen täglichen Kerosinbedarf hat, unglaublich.

Sentionline
2007-12-22, 14:39:08
Warum werden nicht alle Grafikkarten im 2D-Modus radikal untertaktet?
Der Threadtitel ist etwas wiedersprüchlich, da rein das "untertakten" kein Stromersparnis mit sich bringt.

Also ich hab meine Grafikkarte vor einigen Tagen durch ein BiosMod bearbeitet (6800 Ultra). Normalerweise verbraucht dieser im 3D Modus wie auch im Leerlauf ~100W.

Standardspannung 1.4V
2D Standard 400/1100 Mhz - Lüfter 60% - 1.4V
3D Standard 425/1100 Mhz - Lüfter 100% - 1.4V

BiosMod mit Spannungs-/LüfterMod auf 1.1V/1.5V
2D Standard 200/800 Mhz - Lüfter 35% - 1.1V
3D Standard 430/1200 Mhz - Lüfter 75% - 1.5V

Was die Karte jetzt im 2D verbraucht, weiss ich allerdings nicht. Wo ein Wille ist, ist auch ganz offensichtlich ein Weg. Warum die Hersteller von sich aus nicht sowas machen...keine ahnung. Ebenso schleierhaft ist mir, warum das abändern der Grafikkartenbiose selbst kennern so schwer gemacht wird. Effizienter und leiser arbeitet die Karte jetzt auf jeden fall...

Ich überlege ob ich die 2D Taktraten nicht noch weiter heruntersetzen soll (100/600 Mhz). Die Karte machts mit...aber ob das gut für die Karte ist? Oder ob es mehr Strom spart? (bei gleicher Spannung)...keine ahnung...

http://www.abload.de/thumb/zwischenablage01lmn.jpg (http://www.abload.de/image.php?img=zwischenablage01lmn.jpg)

Thunder99
2007-12-23, 11:36:02
Hab bei mir diverse Werte getestet und bin zu folgendem Ergebnis gekommen:

X1900XT

2D:148Mhz/396Mhz @ 0,950V
3D:648Mhz/756Mhz @ 1,450V

Wenn ich den Speicher auf 300Mhz stellen wollte gabs jede Menge grüne Streifen und der Grafikkartentreiber wurde neu geladen oder das BS hängte sich auf :frown: und ich hatte einmal einen komplett Freeze als ich mit Tab ausm Spiel auf den Desktop geschalten hatte und wieder zurück wollte. Hat irgendwie die Grafikkarte oder Treiber net mitgemacht :confused:

Damit komme ich mal zu der Erkenntnis, dass net alle Werte gut sind für eine Grafikkarte und es zu Probleme kommen kann.

Gruß
Thunder99

Sentionline
2007-12-23, 11:45:07
Damit komme ich mal zu der Erkenntnis, dass net alle Werte gut sind für eine Grafikkarte und es zu Probleme kommen kann.
*Spaß* Gerade bei ATi :tongue:*/Spaß*

Also ich hab ein Update:

Standardspannung 1.4V
2D Standard 400/1100 Mhz - Lüfter 60% - 1.4V
3D Standard 425/1100 Mhz - Lüfter 100% - 1.4V

BiosMod mit Spannungs-/LüfterMod auf 1.1V/1.5V
2D Standard 100/400 Mhz - Lüfter 20% - 1.1V
3D Standard 412/1170 Mhz - Lüfter 50% - 1.5V

Funktioniert irgendwie fantastisch und vollautomatisch. Und mit 100 Mhz wird die Karte merklich Kühler, wodurch ich den Lüfter (Zalman) auf 20% laufen lassen kann...Ein hauch von Passiv...:smile:

http://www.abload.de/thumb/zwischenablage01qc5.jpg (http://www.abload.de/image.php?img=zwischenablage01qc5.jpg)

Kann jedem nur empfehlen sich mit der Materie zu befassen. Vorteile für:

+ Leise Kühlung
+ Weniger Stromverbrauch
+ automatische Über-/untertaktung
+ was will man mehr?

mfg

Odal
2007-12-23, 11:54:36
Hab bei mir diverse Werte getestet und bin zu folgendem Ergebnis gekommen:

X1900XT

2D:148Mhz/396Mhz @ 0,950V
3D:648Mhz/756Mhz @ 1,450V

Wenn ich den Speicher auf 300Mhz stellen wollte gabs jede Menge grüne Streifen und der Grafikkartentreiber wurde neu geladen oder das BS hängte sich auf :frown: und ich hatte einmal einen komplett Freeze als ich mit Tab ausm Spiel auf den Desktop geschalten hatte und wieder zurück wollte. Hat irgendwie die Grafikkarte oder Treiber net mitgemacht :confused:

Damit komme ich mal zu der Erkenntnis, dass net alle Werte gut sind für eine Grafikkarte und es zu Probleme kommen kann.

Gruß
Thunder99

scheint da echt ne serienstreuung zu sein....meine X1900XT lief im 2D immer auf 148/148 auch @0,95Volt und im 3D 750/900 @1,57Volt von nem kumpel die lief z.b. nicht unter 0,975 Volt....

gastlich hier
2007-12-27, 05:47:29
Den Stromwahn hat an sich ja schon 3dfx zu verantworten. Immer breitere Boards mit vielen Gpus und dedizierten Netzteilen. Dieses Marketing PCI-E v2 wäre wohl dann früher gekommen.

Die Gründe waren damals, wie heute die Selben. Antriebslosigkeit durch Innovationslosigkeit gemäss fehlender Konkurrenz und Fehlplanung. Von sich aus machen die Hersteller ja für den Kleinkunden nichts und schon garnichts, was womöglich die Quartalszahlen durch die "Geiz ist Geil" Kunden schmälert. Einige weitere Komplexe Wirtschaftsgründe lasse ich mal hier aussen aus.

Da jetzt gnädigerweise ATI sein längst überfälliges Powerplay in den Desktopbereich integriert, liegt daran, weil man im Prestigebereich nicht punkten kann. Dafür kann man sich als Umweltengel im Klimawandel Prestige und möglichen Absatz machen. Reines Marketingkapitalgewäsch.

Normale Office und Zockerkarten könnten locker unter 10 Watt im reinen Officebetrieb verbrauchen und Aero darstellen, leider würden sie den OEM unbezahlbare X Cent pro Stück mehr kosten und man kann sie nicht so schön mit "50Mhz Ultra fast 3D Accelerator mit 1Gbyte Grafikram" bewerben.

Gruss

Raff
2008-01-14, 20:40:46
Oldschool XP64 und Vista64. Ich denke das es mit dem großen Display zusammenhängt, muss das mal mit einem 19" ausprobieren. Sieht halt so aus als würde nur noch jedes 2. Bild übertragen werden und dazwischen Schwarzframes^^

Wird am Monitor liegen. Kollege Spille meinte auch, dass eine GTX bei seinem 30-Zöller die Crysis kriegt. ;)

Meine GTX hat derweil ein neues Minimum gesehen: 122/243/144 MHz. Ihr glaubt gar nicht, wie da die Temperatur fällt. Und es spart etwa 25 Watt im Vergleich zum Standardtakt. Keine Probleme unter Vista x86 in 1680x1050 und aktivierter Aerobik.

Bei 110 MHz GPU-Takt spackt das Bild weg und flackert nur noch. Gesehen auf zwei GTXen und zwei Monitoren mit ebendieser Auflösung, OS-unabhängig.

MfG,
Raff

Gast
2008-01-15, 08:36:04
Wird am Monitor liegen. Kollege Spille meinte auch, dass eine GTX bei seinem 30-Zöller die Crysis kriegt. ;)

Meine GTX hat derweil ein neues Minimum gesehen: 122/243/144 MHz. Ihr glaubt gar nicht, wie da die Temperatur fällt. Und es spart etwa 25 Watt im Vergleich zum Standardtakt. Keine Probleme unter Vista x86 in 1680x1050 und aktivierter Aerobik.

Bei 110 MHz GPU-Takt spackt das Bild weg und flackert nur noch. Gesehen auf zwei GTXen und zwei Monitoren mit ebendieser Auflösung, OS-unabhängig.

MfG,
Raff

Ahoi,

gibt es dazu irgendwo ein Tutorial? Ich habe eine 7900 GTX die ich einst zum Zocken angeschafft habe, aber die meiste Zeit tut sie nix anderes als im Officebetrieb mir den Strom wegzufressen. Wollte schon eine XT2400 Pro holen. Wenn ich aber die 7900 GTX runtervolten könnte, wäre das schon klasse.

Gast
2008-01-15, 14:05:55
Meine GTX hat derweil ein neues Minimum gesehen: 122/243/144 MHz.
BIOS-Flash oder mittels Tool?

Raff
2008-01-15, 17:49:38
Riva Tuner, aber ein BIOS-Flash folgt vermutlich. Guckt ihr: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363264

Bei mir steht das OC-Limit unter "Power User" bei "10".

MfG,
Raff

puntarenas
2008-01-15, 17:59:13
Klasse Ergebnis, hast du die 25W Ersparnis über den Daumen gepeilt oder gemessen?
Da stellt man sich ja fast die Frage, ob wohl 8800GT oder 8800GTS besser zu untertakten sind, Standard verbrauchen sie im Idle ja nahezu gleich.

BTW: Gibt es sowas wie Dargos ausgezeichnete Rivatuner-Anleitung auch für BIOS-Mods (mit nbitor?!). Dass das automatische Runtertakten per BIOS doch gehen soll, habe ich nur mal nebebei hier in einem Thread gelesen, ansonsten hört man ja immer, das ginge bei NVidia gar nicht (obwohl offensichtlich halt nur keine Spannungsabsenkung im 2D-Modus funktioniert).

BlackBirdSR
2008-01-15, 18:53:34
Ohne Expertenmeinung kann ich natürlich nur im Dunkeln stockern. Aber ich denke einige haben es schon angesprochen. Das Problem dürfte bei den Spannungswandlern und Co. liegen.
Dem ASIC selbst macht ein häufiges Ändern des Takts nichts aus. Egal ob schnell oder langsam, ihm ist das in dieser speziellen Hinsicht recht egal.
Nicht so dem Spannungswandler, der restlichen Elektronik und den Sicherheitsfaktoren.

Nehmen wir Intel als Beispiel für einen High-Performance-ASIC mit hohen Takt, hoher Spannung und hohem Verbrauch. Die dortigen Energiespaarfunktionen sind alle schön und toll, haben jedoch ein grundlegendes Problem: Es gibt keine sprunghaften Übergänge der Signale. Ein Absenken der Spannung, des Takts und des Stroms wird immer ein Überschwingen zur Folge haben, ebenso ein Anheben der Spannung des Takts und anliegendem Strom. Je größer die Differenz, desto größer der Effekt bis gegengeregelt werden kann. Am Ende belastet man damit die Elektronik, reizt Sicherheitsgrenzen aus und verteuert die benötigten Bauteile.
Intels Anwort ist der oft missverstandene und rätselhafte Voltage-Droop. Die CPU hat unter Last eine niedrigere Versorgungsspannung als eigentlich eingestellt wird. Das Resultat ist ein Überschwingen innerhalb des Toleranzbereichs. Nachteile sind natürlich, dass die CPUs jetzt bei noch niedriger Spannung im fordernden Bereich arbeiten müssen. Das kostet bares Geld.

Grafikchips mit 150W, 1.3+V und 600+MHz sind da keine Ausnahme mehr. Schon seit einiger Zeit sind wohl Spannungswandler am Versagen von 3DKarten schuld. Die geforderte Belastung ist oftmals zu viel für hart kalkulierte Bauteile. Noch mehr Belastung bedeutet oft höhere Kosten bei nahezu keinen funktionalem Gewinn. 90% der Käufer ist ein "2D-Modus" völlig unbekannt. Die meisten interessieren sich für so etwas gar nicht. Warum dafür Geld ausgeben?
ATI scheint in diese Richtung zu gehen, das wird aber mehr Kosten verursachen. Bleibt der Verrbauch so extrem, ist sowas in Zukunft natürlich weit wichtiger als die letzten Jahre.

LordDeath
2008-01-30, 23:14:49
Ich habe jetzt auch eine 8800GT im Rechner und wollte in Rivatuner ein Profil zur Untertaktung der Grafikkarte erstellen. Bei meiner Radeon X1950GT ging die Temperatur sehr schnell runter, wenn ich diese auf 300/300Mhz runtergetaktet habe. (Fiel sogar unter 40°C)
Jetzt mit der neuen Geforce habe ich beim Rivatuner alle Regler komplett links: 300/750/450. Allerdings ging die Temperatur nur einen Grad runter :(
Wie kann ich versuchen, noch weiter runterzugehen? Kann ich diese untere Grenze im Rivatuner nicht abschalten?

PS: Ich habe es bisher so gemacht, dass ich mit STRG + Bild-Nach-Unten runtergetaktet habe und mit STRG + Bild-Nach-Oben hochgetaktet. War ganz bequem.

Mills
2008-02-12, 14:53:48
Frag mich ein bisschen warum das Thema hier als SO wichtig angesehen wird. Man kann sich doch nicht auf der einen Seite ne fette GTX o.ä. gönnen, und "nachts liegt man wach" wg. des hohen Idle-Verbrauchs. Ich mein, entweder oder, entweder kleinere Brötchen backen und wg. Ökogewissen ne kleinere Karte kaufen, oder eben mit der Tatsache leben. Alles andere ist IMHO völlig inkonsequent und Augenwischerei.

Ein Ferrari ist nunmal kein Lupo, da hilft auch langsamfahren nur bedingt. Habs bei meiner G92GTS das Senken des Idle-Takts ausprobiert - das bringt in der Tat nur wenig. Also hab ich das Thema ad acta gelegt. Solche Sachen befriedigen eher den Bastel- und Tweak-Wahn von Leuten mit zuviel Zeit, als das es der Umwelt merklich was bringen würde. Die Kiste ausschalten wäre viel effizienter... :biggrin:

Technisch wärs sicher kein großes Prob. Meine Vermutung ist, das das Thema Nvidia und Co schlichtweg egal ist, da solches Wissen den meisten normalen Leuten sowieso abgeht, und das Thema Stromsparen & PC erst langsam den Weg ins Rampenlicht findet... Ergo binden die Grafikhersteller daran keinerlei Ressourcen, sondern stecken diese bestenfalls in die mobilen Chips. Und das auch nicht wg. der Umwelt, sondern eher für die Akkulaufzeit.

Spasstiger
2008-02-12, 16:19:58
Frag mich ein bisschen warum das Thema hier als SO wichtig angesehen wird. Man kann sich doch nicht auf der einen Seite ne fette GTX o.ä. gönnen, und "nachts liegt man wach" wg. des hohen Idle-Verbrauchs. Ich mein, entweder oder, entweder kleinere Brötchen backen und wg. Ökogewissen ne kleinere Karte kaufen, oder eben mit der Tatsache leben. Alles andere ist IMHO völlig inkonsequent und Augenwischerei.
Wie man an der HD3850/HD3870 sieht, gehts auch anders. Unter 3D schnell, aber auch einigermaßen stromfressend (wobei sich das auch in Grenzen hält angesichts der Performance), unter 2D sehr sparsam, auf Niveau von Budget-Karten. So sollte es immer sein.

Und der Stromverbrauch ist bei Leuten, die ihren Strom selbst zahlen, durchaus ein kaufentscheidendes Kriterium. Nicht jeder kann 70-80€ im Monat für elektrische Energie ausgeben und dann machts halt auch einen Unterschied, ob der Rechner bei 10 Stunden Laufzeit am Tag nun durchschnittlich 100 Watt oder 200 Watt aus dem Netz saugt (wären dann auch schon 5€ im Monat Unterschied).
Nicht jeder nutzt seinen Rechner zum Dauerzocken. Und einen energiesparenden Zweitrechner hat auch nicht jeder, braucht ja Platz und verursacht zusätzliche Anschaffungskosten (zumal die meisten aus Bequemlichkeit dann wohl mit der Zeit auch beide Rechner gleichzeitig laufen lassen).

=Floi=
2008-02-12, 21:22:52
ein 2. pc ist natürlich unbezahlbar teuer :rolleyes:
anders geht es in zukunft einfach nicht mehr

---
bemerkenswerterweise ist die 3850 sparsamer als die meisten mid-range karten (im idle) und selbst die 3870 macht eine sehr gute figur
vorbildlich!

No.3
2008-02-12, 21:35:48
ein 2. pc ist natürlich unbezahlbar teuer :rolleyes:


na suuuper, da erkauft man sich ein bisschen Stromersparnis durch Resourcenverschleuderung in Form der Resourcen die man für die Produktion eines 2. Mainboards, einer 2. Graka, eines 2. Netzteils etc .... benötigt :rolleyes:

Gast
2008-02-12, 21:38:58
naja - weil sichs nicht lohnt
nvidia und ati bauen karten für 0815 user - gamer und teilweise highendgamer

schau dir mal ne matrox karte an - 12 watt verbrauch und hat sogar 256mb ram drauf ...

aber wofür anstrengen wenn die nächste generation schon nach 6 monaten in die läden kommt :(

mir wärs lieber die wären bei reinen 3D beschleunigern geblieben, dann hätt ich seit jahren ne matrox und als 3D beschleuniger immer den neuesten stromfresser ...

=Floi=
2008-02-14, 22:46:54
es geht nicht um resourcen oder um die öko-bilanz, sondern um die kosten. Mit einem 2. pc sind diese nunmal am geringsten und nebenbei bekommt man noch ein paar andere vorteile.

Spasstiger
2008-02-14, 22:58:08
es geht nicht um resourcen oder um die öko-bilanz, sondern um die kosten. Mit einem 2. pc sind diese nunmal am geringsten und nebenbei bekommt man noch ein paar andere vorteile.
Ich hab nen zweiten PC und da arbeitet es sich deutlich träger (weniger RAM, deutlich schwächerer Prozessor) und der Stromverbrauch im idle ist auch nur 15 Watt geringer als beim Haupt-PC. Lohnt also nicht, den zu benutzen. Und 400€ für einen Stromspar-PC mit ordentlicher Performance beim Surfen und Arbeiten würde ich sicherlich nicht ausgeben.

Gast
2008-02-16, 11:46:45
um es mal auf den PUNKT zu bringen...

Für die Umwelt ATI

Für die globale Erwärumung nVIDIA

Gast
2008-02-16, 13:27:21
um es mal auf den PUNKT zu bringen...

Für die Umwelt ATI

Für die globale Erwärumung nVIDIADas gilt aber erst hiermit ;)
http://www.computerbase.de/downloads/treiber/grafikkarten/ati/computerbase_ati_bios-editor/

Trotzdem: WUNDERBAR!

Gast
2008-02-17, 01:08:34
Habe im Selbstversuch mal ein HDMI-DVI Adapter für meinen hp2408h (1920*1200)gegen reines DVI an meinem Samsung 205BW (1680*1050) getestet.
Der Samsung frist alles an Signalen und schaltet auch nicht bei totaler Untertaktung der Grafikkarte ab.
Der HP hingegen hat bei Untertaktung des RAMs Probleme. Dann zeigt er das Bild total Grün und schaltet ab. Aber nur in der maximalen Auflösung, schraubt man die Auflösung eins runter auf 1080p, dann zeigt er immer noch ein Bild an. GPU Takt ist egal.

Gast
2008-02-17, 01:10:45
Zu oben: GF8800GTS640 mit FW169.21

LovesuckZ
2008-02-17, 01:35:27
um es mal auf den PUNKT zu bringen...

Für die Umwelt ATI

Für die globale Erwärumung nVIDIA

Läuft die AMD Karte mit Sonnenenergie?

Jonny1983
2008-03-06, 16:28:42
Mit NiBiTor und NvFlash hab ich meine 8800GTS G92 von 1,15V auf 1,05V senken können und kann immer noch leicht übertakten.
Mit 1,00V hab ich mit dem ATITool Grafikfehler, 3DMark01 aber lief ohne Grafikfehler durch.
Sowohl der Verbrauch(20-30W gemessen unter Last), die Temperatur als auch die Lüfterlautstärke gehen spürbar runter.

Warum flashen hier so wenige ihr GraKa Bios? Alles schisser :biggrin:
Der eigentliche Flashvorgang dauert nur 5sek.

Kaputtflashen ist eigentlich nicht möglich(nur bei Stromausfall und selbst das kann man wieder hinbekommen mit einer zweiten PCI GraKa).

Übringends kann man sofort die geringste Spannung einstellen bei NiBiTor und dann flashen, die Karte wird auf keinen Fall dadurch unterversorgt, da sie ja nicht unter Last steht im DOS oder Windows. Dann einfach mal das ATITool starten und 10min laufen lassen, dann sieht man ob die Spannung genügt, wenn nicht, setzt man eine Stufe höher an.

puntarenas
2008-03-06, 16:31:59
Legst du dir mal einen 2D-Modus im BIOS an und verwendest dort eine geringere Spannung als für 3D? Taktabsenkung funktioniert ja, würde mich interessieren ob auch die Spannungsänderung angenommen wird :devil:

Jonny1983
2008-03-07, 00:52:49
Legst du dir mal einen 2D-Modus im BIOS an und verwendest dort eine geringere Spannung als für 3D? Taktabsenkung funktioniert ja, würde mich interessieren ob auch die Spannungsänderung angenommen wird :devil:

Bei der 8800 GT kann man da an mehreren Parametern was ändern bei NiBiTor (3D, Thrtl,2D), ob das auch so funktioniert ist ne andere Frage.

Bei der GTS gibt es nur einen Punkt den man ändern muss und das ist "Extra". Das definiert die Spannung sowohl im 2D als auch 3D Modus.

Gast
2008-03-18, 22:06:10
Hat sich die Frage nach dem radikal untertaktet von Grafikkarten im 2D-Modus nicht sehr bald erledigt haben?

Es kommt doch jetzt die HybridPower-Technology von NVIDIA, mit z.B. dem GeForce 8200 Chipsatz raus. Die aktiviert die maximale Grafikperformance, wenn diese benötigt wird, und schaltet das System ansonsten auf leisen Stromsparbetrieb um. Mainboards gibt es schon zu haben, Grafikkarten habe ich bisher aber noch nicht gefunden! Angeblich soll bei Office, Internet oder ähnlichen Applikationen nur der sparsame Onboard-Grafikchip laufen und bis zu 80% an strom sparen (fragt sich nur 80% zu welcher Basis?).

Wäre für mich schon interessant, könnte ne menge Geld sparen, ich brauch mein Computer für alles Mögliche und der läuft viel. Schließlich will ich nicht mehr Geld im Jahr für den Unterhalt des Computers ausgeben wie sein Anschaffungspreis hoch war.

Thunder99
2008-03-18, 23:05:13
DAS nützt mir nichts wenn ich ein AMD Mainboard mit einer nvidia Karte betreiben will ;)

Gast
2008-03-18, 23:24:06
DAS nützt mir nichts wenn ich ein AMD Mainboard mit einer nvidia Karte betreiben will ;)
...zumal die NVidia-Chipsätze ja auch nicht gerade als Stromsparwunder bekannt sind. Sollte Power Play+ bei kommenden ATI-Karten wirklich einen Idleverbrauch von <10W erreichen, dann ist man als Stromsparer mit genügsamem Chipsatz und einer solchen Karte sicherlich besser dran.

Außerdem halte ich nichts von solchen Plattformzwängen, das ist ja fast schon Erpressung zum NVidia-Chipsatz ;)

Gast
2008-03-18, 23:36:52
Es ist nicht nur der Plattform und Vista Zwang:

Jetzt soll ich, nur um im Idle Strom zu sparen mein funktionierdendes Brett wegwerfen, um mir ein teures NV Brett mit 20 rosa leuchtenden Heatpipes zu kaufen?

Gast
2008-05-02, 21:29:35
NV Brett teuer?
die sind doch mittlerweile günstiger als die ihrer Konkurenz und haben zudem mehr Saft.

Gast
2008-05-02, 21:36:21
NV Brett teuer?
die sind doch mittlerweile günstiger als die ihrer Konkurenz und haben zudem mehr Saft.

Das heißt "die ziehen zudem mehr Saft"...

K4mPFwUr$t
2008-05-02, 21:47:45
das ganze hyprid power zeug ist totaler quatsch, es lenkt nur von dem eigentlichen problem ab.
wenn man hyprid plant, dann richtig in dem man eine kleine externe GPU die 2D last zuteilt.

so als lösungsvorschlag. das problem ist da die DIEs von highend single GPUs immer größer werden, braucht man immer mehr strom zur speisung. man kann zwar mit teilabschaltung entgegenwirken, aber auch das hat seine grenzen.

Jake Dunn
2008-05-02, 22:20:52
Finde die Hybrid lösung auch nicht gut :rolleyes:
1. NV Board
2. VISTA

Blaire
2008-05-02, 22:24:52
Finde die Hybrid lösung auch nicht gut :rolleyes:
1. NV Board
2. VISTA

1. Hab ich eh zwecks SLI
2. Setzt sich eh durch, ob wir wollen oder nicht.

K4mPFwUr$t
2008-05-02, 22:26:58
@blaire
man sollte nicht nur an sich denken ;)

es gibt genug käufer von nV karten die weder ein nV board oder vista ihr eigen nennen.
die hypridlösung verliert so ihre wirkung auf die masse.

Unyu
2008-05-02, 22:36:49
2. Setzt sich eh durch, ob wir wollen oder nicht.
Wie lang gibts Vista schon?
Und dann gerade mal 14%? http://marketshare.hitslink.com/report.aspx?qprid=10 http://www.steampowered.com/status/survey.html
http://marketshare.hitslink.com/chartfx62/temp/CFT0502_04332434A88.png
Keine Chance, zum Vienna Start gibts immer noch weit mehr XP als Vista und dann gehts abwärts mit Vista. :)

The_Invisible
2008-05-02, 22:41:23
Wie lang gibts Vista schon?
Und dann gerade mal 14%? http://marketshare.hitslink.com/report.aspx?qprid=10 http://www.steampowered.com/status/survey.html
http://marketshare.hitslink.com/chartfx62/temp/CFT0502_04332434A88.png
Keine Chance, zum Vienna Start gibts immer noch weit mehr XP als Vista und dann gehts abwärts mit Vista. :)

aja, und du weißt das "vienna" erfolgreicher als vista wird? gut, gut...

mfg

K4mPFwUr$t
2008-05-02, 22:45:54
@The_Invisible
als gegenfrage: und du weist jetzt schon wie schlecht vienna wird?
man kann nur hoffen das die vermissten features von vista auf vienna übertragen werden.

@Unyu
vergiss nicht, ein großteil stammt aus firmen. und die wechseln nicht gerade oft das OS.
nach langer zeit hat sich XP bei firmen auf breiter front durchgesetzt. vista wird man frühstens wechseln wenn die software zu 100% drauf funktioniert und der PC bzw. hardware einen angenehmen workflow zulässt. vorher wird sich vista sowieso nicht durchsetzen, weil es so gesehen nur verbesserungen für den gamer bietet.

aber ich bin der meinung vista ist das 2. ME und vienna vieleicht das 2. XP ;)

=Floi=
2008-05-03, 16:12:03
gibt es eigentlich einen praktischen grund die kleineren karten nicht runterzutakten? Braucht quasi die (8600GT, ) 8500GT und die 8400 ihre volle leistung um videos zu beschleunigen?
Takten die ati karten bei videobeschleunigung auch runter?


edit
gibt es einen test, wo die 8600GT runtergetaktet wurde und deren stromverbrauch gemessen wurde?

RIPchen
2008-05-05, 11:50:36
Und wenn man sich überlegt, dass sich so etwas ohne Probleme in den Treiber integrieren liesse, dann kann man erst Recht anfangen zu heulen. Denn Strom kostet mittlerweile viel Geld und selbst beim Surfen lärmende Kühllösungen nerven extrem. Der nächste Schritt ist ja, Teile der Hardware abzuschalten, aber dazu bedarf es etwas mehr an Innovation. Sowas wird also von Nvidia gleich gar nicht so schnell kommen, von ATI dagegen umso früher, bzw ist ja schon da mit PowerPlay (mein Stand der Kenntnisse, alles unter Vorbehalt). Bin gespannt, ob die vollmundigen Ankündigungen beider "Großen" diesbezüglich in den letzten Monaten auch in nächster Zeit in sichtbare Ergebnisse umgewandelt werden.
ATI ist immerhin schonmal einen Schritt weiter, denn deren Stromfresser 3870X2 - nachvollziehbar bei den Rochrechenleistungen, braucht im idle deutlich weniger als andere vergleichbaren Lösungen.