PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stromverbrauch aktueller Grafikchips!


Gast
2008-06-22, 20:36:35
Was geht denn aktuell bei den Grafikkarten ab!? oO
Vor 3 Jahren empfanden die meisten 50W Maximalverbrauch als Overkill, heute überbieten sich selbst Mid-End-Karten mit drei- bis vierfachen Werten. Alter Schwede.
Momentan habe ich eine 7600GS im Rechner und hatte eigentlich vor, mir eine neue Graka zu kaufen, aber das hab ich ganz schnell auf Eis gelegt. Mehr als 50W Verbrauch kommt mir nicht in die Tüte.

http://666kb.com/i/azqwd7b20xcd55m1l.jpg

http://666kb.com/i/azqwdht5tbxz2ff15.jpg

http://666kb.com/i/azqwfeusim67k0qu1.jpg

http://666kb.com/i/azqwh0z5nqvulaok9.jpg

http://666kb.com/i/azqwhidluimf70teh.jpg

http://666kb.com/i/azqwj8w3n0cea69jt.jpg

http://666kb.com/i/azqwjn62qo90bb7x5.jpg

http://666kb.com/i/azqwk0y45m36rp80p.jpg

http://666kb.com/i/azqwknrysnsgsbe1l.jpg

http://666kb.com/i/azqwl522aa5z9euop.jpg

http://666kb.com/i/azqwljc1bmnk94amx.jpg

http://666kb.com/i/azqwm3ste8i8dgwyh.jpg

http://666kb.com/i/azqwmc4rjzdylxlg9.jpg

Gast
2008-06-22, 20:43:09
Es liegt an den Illuminaten und ihrem Geheimpakt mit Gazprom.

Spasstiger
2008-06-22, 20:43:38
Der maximale Verbrauch entspricht nicht dem Durchschnittsverbrauch. Mit der Radeon HD3850 könnte sich dein Rechner sogar als sparsamer als mit der GeForce 7600 GS rausstellen, wenn du relativ selten in den 3D-Modus gehst und mehr surfst oder Videos schaust.
Die 236 Watt bei der GeForce GTX 280 markieren z.B. wirklich nur den Spitzenwert. In 3D-Spielen wirst du so um die 160 Watt verbrauchen, im 2D-Betrieb nur um die 50 Watt.

Ich hab z.B. eine Radeon HD2900 Pro und einen Core 2 Duo @ 3 GHz in meinem Rechner und dank Grafikkarten-Bios-Mod braucht mein Rechner im 2D-Betrieb nicht mehr Strom als meine alte Kiste von 2002, welche über eine Radeon 9700 und einen Pentium 4 2,53 GHz verfügt. Und das, wo in meinem neuen Rechner sogar mehr Zubehör drinsteckt (z.B. X-Fi mit Frontpanel).

/EDIT: Man vergleiche mal hier:

Computerbase-Testrechner von 2006: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7600_gs/20/#abschnitt_stromverbrauch
Athlon 64 4000+ Singlecore
2*512 MiB RAM
200-GB-Festplatte
DVD-Laufwerk
mit GeForce 7600 GS: 109 Watt idle, 147 Watt Last

Computerbase-Testrechner von 2008: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/32/#abschnitt_leistungsaufnahme
Core 2 Extreme QX9770 Quadcore @ 4 GHz
4*1 GiB RAM
750-GiB-Festplatte
DVD-Laufwerk
Bluray-Lauferk
mit Radeon HD3850: 131 Watt idle, 221 Watt Last

Der Verbrauch im idle ist also um 20% gestiegen, der Verbrauch unter Last um 50%. Die Spieleleistung hat sich dabei locker verzehnfacht (zumindest in moderneren Games, bei älteren Sachen wie Fear besteht immer noch ein Faktor 5).

mapel110
2008-06-22, 20:44:24
Ahjo, die Hersteller gehen halt an das maximal Machbare. Einfach zusätzliche Einheiten dranklatschen und schon wirds schneller, aber auch größer und gefressiger. Sie warten halt nicht auf die nächsten Fertigungsverfahren.
CPU-Hersteller AMD und Intel haben sich imo abgesprochen und einen Stopp eingelegt, damit sie wieder Spielraum für Multi-Core-CPUs haben und die Fertigungstechniken reifen konnten.

Threadstarter
2008-06-22, 20:50:09
Der maximale Verbrauch entspricht nicht dem Durchschnittsverbrauch. Mit der Radeon HD3850 könnte sich dein Rechner sogar als sparsamer als mit der GeForce 7600 GS rausstellen, wenn du relativ selten in den 3D-Modus gehst und mehr surfst oder Videos schaust.
Die 236 Watt bei der GeForce GTX 280 markieren z.B. wirklich nur den Spitzenwert. In 3D-Spielen wirst du so um die 160 Watt verbrauchen, im 2D-Betrieb nur um die 50 Watt.

Wobei 50Watt im 2D-Betrieb auch noch recht viel sind.
Ich habe irgendwo mal gelesen, dass langfristig geplant ist, auf Grafikkarten 2 Grafikchips zu verbauen. Einen für den 2D- und einen für 3D-Betrieb. Die Karte würde dann bei 2D-Anwendungen den sparsamen 2D-Chip benutzen und im 3D-Betrieb den Hochleistungschip hochfahren. Ich weiß zwar nicht, ob sowas machbar ist, interessant angehört hat sich das aber allemal.

Coda
2008-06-22, 20:50:27
AMD hat ganz sicher keine Absprachen mit Intel. Die würden momentan alles tun um wieder mithalten zu können.

Pirx
2008-06-22, 20:50:31
Es liegt an den Illuminaten und ihrem Geheimpakt mit Gazprom.
:D


Wenn alles richtig eingestellt ist, wird ein hoher Verbrauch nur im 3D-Betrieb erreicht. In 2D sind viele aktuelle Grafikkarten recht "sparsam".

mapel110
2008-06-22, 20:53:08
Wobei 50Watt im 2D-Betrieb auch noch recht viel sind.
Ich habe irgendwo mal gelesen, dass langfristig geplant ist, auf Grafikkarten 2 Grafikchips zu verbauen. Einen für den 2D- und einen für 3D-Betrieb. Die Karte würde dann bei 2D-Anwendungen den sparsamen 2D-Chip benutzen und im 3D-Betrieb den Hochleistungschip hochfahren. Ich weiß zwar nicht, ob sowas machbar ist, interessant angehört hat sich das aber allemal.
Es gibt Hybrid-SLI. Da übernimmt der Onboard-Grafikchip des Mainboards den 2D-Part und schaltet die Grafikkarte nur noch bei 3D ein.

AMD hat ganz sicher keine Absprachen mit Intel. Die würden momentan alles tun um wieder mithalten zu können.
Ich denke da eher an die Situation im Jahre 2002. Stillstand bei 3 Ghz (AMD bei 2 Ghz).

LovesuckZ
2008-06-22, 20:54:17
Wobei 50Watt im 2D-Betrieb auch noch recht viel sind.
Ich habe irgendwo mal gelesen, dass langfristig geplant ist, auf Grafikkarten 2 Grafikchips zu verbauen. Einen für den 2D- und einen für 3D-Betrieb. Die Karte würde dann bei 2D-Anwendungen den sparsamen 2D-Chip benutzen und im 3D-Betrieb den Hochleistungschip hochfahren. Ich weiß zwar nicht, ob sowas machbar ist, interessant angehört hat sich das aber allemal.

Gibt es bei nVidia schon heute: Hybrid-Power.

Gast
2008-06-22, 20:56:52
leistugn kostet eben, im verhältnis zur leistung sind grafikkarten heutzutage sogar um längen sparsamer.

Threadstarter
2008-06-22, 21:42:33
Hybrid-SLI hört sich echt genial an.
Hoffentlich setzt sich das auf breiter Basis durch :)

Spasstiger
2008-06-22, 21:45:18
Hybrid-SLI hört sich echt genial an.
Hoffentlich setzt sich das auf breiter Basis durch :)
Intel will sowas selbst auch umsetzen und zwar universell für alle Grafikkarten.
Bleibt nur noch AMD. Wenn die auch noch auf den Zug aufspringen, kann man wohl davon ausgehen, dass dieses System in Zukunft zum Standard wird.

Im Verhältnis zur Rechenleistung sinkt der Energieverbrauch auf jeden Fall erheblich und das seit es integrierte Schaltungen gibt.

Black-Scorpion
2008-06-22, 21:49:43
Hybrid-SLI hört sich echt genial an.
Hoffentlich setzt sich das auf breiter Basis durch :)
Es hört sich aber nur im ersten Moment so genial an.
Die Einschränkungen wurden nämlich vergessen zu erwähnen.
Es funktioniert nur mit einigen nV Chipsätzen.
Und ist bis jetzt nur für AMD Boards verfügbar.

LovesuckZ
2008-06-22, 21:57:16
Das ist eine normale Einschränkung, wenn Technik nicht standardisiert ist.
Wer jedoch seine Karte beim IDLEN komplett abschalten will, der kann heute nur zu Hybrid-Power greifen.

Spasstiger
2008-06-22, 22:01:13
Die entsprechenden Hybrid-SLI-Chipsätze für Intel-CPUs sind doch auch schon zum Greifen nahe.

Black-Scorpion
2008-06-22, 22:02:53
Ich habe auch nichts dagegen gesagt.
Man kann aber nicht die Vorzüge in den Vordergrund stellen und die deutlichen Einschränkungen einfach unter den Tisch fallen lassen.
Das es nicht mit allen Karten funktioniert hatte ich noch nicht mal erwähnt.

*edit*
Es ist ein Interessanter Ansatz aber nicht mehr.

Gast
2008-06-22, 22:17:22
Es gibt Hybrid-SLI. Da übernimmt der Onboard-Grafikchip des Mainboards den 2D-Part und schaltet die Grafikkarte nur noch bei 3D ein.Großes Kino. Erstmal ist man damit auf NV festgenagelt und zweitens schillt so mancher auf eine bestimmte Graka/bestimmten Chip, weil in 2D-features ebenfalls interessieren. Wie zB. Rendering des Videomaterials.

Wer kauft sich eine Graka für 300€ um sie quasi nur 20h in der Woche wirklich zu benutzen? HybridPower ist für mich ein irrwitzige Selbstverarsche des Kunden.

BH

Gast
2008-06-22, 22:18:07
Großes Kino. Erstmal ist man damit auf NV festgenageltGemeint sind NV-Boards.

LovesuckZ
2008-06-22, 22:20:58
Großes Kino. Erstmal ist man damit auf NV festgenagelt und zweitens schillt so mancher auf eine bestimmte Graka/bestimmten Chip, weil in 2D-features ebenfalls interessieren. Wie zB. Rendering des Videomaterials.

Wenn einem die 2D-Features der diskreten Karte interessiert, der sollte die diskrete Karte nicht komplett deaktivieren...


Wer kauft sich eine Graka für 300€ um sie quasi nur 20h in der Woche wirklich zu benutzen? HybridPower ist für mich ein irrwitzige Selbstverarsche des Kunden.


Wer mehr als eine Karte im Rechner hat, hat so nur einen Zuwachs von 3 Watt, statt 15-30.
Selbst ein guter IDLE Modus kann Hybrid-Power nicht ersetzen.

Gast
2008-06-22, 22:23:16
Wenn einem die 2D-Features der diskreten Karte interessiert, der sollte die diskrete Karte nicht komplett deaktivieren...Gibt es auch indiskrete Karten? Die Chipsatzgraka stellt den kompletten Desktop dar und die 280er rendert das Video im MPC? Hast du Links dazu?

LovesuckZ
2008-06-22, 22:24:52
Gibt es auch indiskrete Karten? Die Chipsatzgraka stellt den kompletten Desktop dar und die 280er rendert das Video im MPC? Hast du Links dazu?

Wie soll das gehen? Hybrid-Power deaktiviert zu 99% komplett die diskrete Karte. Es läuft alles über die GPU auf dem Board. Wer 2D Features der diskreten Karte verwenden, kann diese ja nicht komplett deaktivieren.

Gast
2008-06-22, 22:27:45
Wie soll das gehen? Hybrid-Power deaktiviert zu 99% komplett die diskrete Karte. Es läuft alles über die GPU auf dem Board. Wer 2D Features der diskreten Karte verwenden, kann diese ja nicht komplett deaktivieren.Du hast gesagt, daß du nichts gesagt hast. Was war denn meine Frage? Wo schreib ich da was von 100% deaktivieren?

LovesuckZ
2008-06-22, 22:29:03
Anscheinend hast du nicht die Funktionalität von Hybrid-Power verstanden hast.

Gast
2008-06-22, 22:31:22
Anscheinend hast du nicht die Funktionalität von Hybrid-Power verstanden hast.Dafür hab ich hab ich nun zum zweiten um einen Link gebeten dich.

Gast
2008-06-23, 16:04:53
Es wäre schön, wenn ältere Chips in neuer Fertigungstechnologie wieder

aufgelegt würden.

Ich denke hier z.B. an die 7800 GT.

Die Karte ist von der Leistung her ausreichend und durch einen Shrink könnte man hier sicher ein paar Watt sparen.

Black-Scorpion
2008-06-23, 19:06:33
Das ist aber nicht ernstgemeint?
Warum sollte jemand auf die Glorreiche Idee kommen eine DX9 Karte neu aufzulegen und dafür auch noch den Aufwand für einen Shrink in Kauf nehmen?
Und ausreichende Leistung?

Deinorius
2008-06-23, 19:13:45
Es wäre schön, wenn ältere Chips in neuer Fertigungstechnologie wieder

aufgelegt würden.

Ich denke hier z.B. an die 7800 GT.

Die Karte ist von der Leistung her ausreichend und durch einen Shrink könnte man hier sicher ein paar Watt sparen. Ich hab ne bessere Idee. Man nehme die aktuelle GPU-Generation und baut einfach weniger Shader, ROPS usw. ein. Weniger (oder gleicher) Verbrauch bei dennoch mehr oder gleicher Leistung wie die ältere Version.

Moment...

Sowas bezeichnet man heute als Mainstream. ;D

Gast
2008-06-23, 23:59:06
Es wäre schön, wenn ältere Chips in neuer Fertigungstechnologie wieder

aufgelegt würden.

Ich denke hier z.B. an die 7800 GT.

Die Karte ist von der Leistung her ausreichend und durch einen Shrink könnte man hier sicher ein paar Watt sparen.Sowas findert sich heute in einer Northbridge und verbraucht 10W.

BH

Deinorius
2008-06-24, 00:16:02
10 W? Beim 780G sinds gar nichtmal 1 W TDP, sofern THG keinen Blödsinn geschrieben hat.

Außerdem ist dieser Weg viel zu leistungsschwach.

Gast
2008-06-24, 00:20:07
Wie soll das gehen? Hybrid-Power deaktiviert zu 99% komplett die diskrete Karte. Es läuft alles über die GPU auf dem Board. Wer 2D Features der diskreten Karte verwenden, kann diese ja nicht komplett deaktivieren.


Imho ist der Ansatz von Hybrid-Power echt löblich. Allerdings würde ich mir dafür kein Nvidia Board kaufen. Die Nforce-Boards sind für mich der Inbegriff des Blue-Screens und haben mich auch in meiner Bekanntschaft schon einiges an Nerven gekostet.

sloth9
2008-06-24, 07:00:45
Imho ist der Ansatz von Hybrid-Power echt löblich. Allerdings würde ich mir dafür kein Nvidia Board kaufen. Die Nforce-Boards sind für mich der Inbegriff des Blue-Screens und haben mich auch in meiner Bekanntschaft schon einiges an Nerven gekostet.

AMD wird es doch sowieso für Laptops bringen.
Ist es für Desktops ein Erfolg, brigen sie es garantiert auch für letzteren.
C'n'Q war ja auch nur die Umsetzung von Laptop-Techniken.

Ikon
2008-06-24, 11:34:32
Die Ersparnis durch Hybrid Power kann sich schon sehen lassen: http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_amd_780g_nvidia_780a/9/#abschnitt_leistungsaufnahme.

Mit einer 9800GTX als Graka ca. 90W weniger im Leerlauf. Leider werden bisher nur die 9800-Serie und die neuen GT200-Karten unterstützt, das muss NV noch deutlich ausbauen.

mapel110
2008-06-24, 12:03:28
Mit einer 9800GTX als Graka ca. 90W weniger im Leerlauf. Leider werden bisher nur die 9800-Serie und die neuen GT200-Karten unterstützt, das muss NV noch deutlich ausbauen.
Dafür wird zusätzliche Hardware benötigt. Also wirds das nicht für ältere Grafikkarten geben. Aber da es eh nur auf AMD-Systemen funktioniert, ists noch uninteressant.