PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Stromsparmodus für 48X0-Serie?


Seiten : [1] 2

=Floi=
2008-06-29, 01:18:55
Hallo
wo bleibt der stromsparmodus für die 48X0 serie? Ich dachte das machen die karten über das bios und bisher habe ich leider davon nnoch nichts gesehen?!
Sollte das über den treiber realisiert werden?

Denniss
2008-06-29, 01:23:10
Muß wohl von bios und Treiber unterstützt werden. Mit dem 48xx Hotfix funktioniert anscheinend das Runtertakten halbwegs aber noch nicht das Absenken der Spannung.

reunion
2008-06-29, 09:58:13
Ich würde nicht mehr darauf wetten. Es gibt bis dato keine aktuelle Stellungnahme von AMD zu den Thema. Taktraten und Spannung werden bereits gesenkt. Ein Microcontroller auf dem Board übernimmt das glock-gatering, und das wohl nicht so gut wie erhofft.

GeneralHanno
2008-06-29, 10:00:59
raff meinte (in so nem PCGH planlos video), dass man hierzu ein neues BIOS flashen müsste, weil ein neuer treiber alleine nicht ausreicht ...

Herr Doktor Klöbner
2008-06-29, 10:25:31
Hallo,

ohne jetzt über das Thema wirklich Bescheid zu wissen möchte ich folgendes anmerken: Ich habe seit 15 Jahren PCs und habe schon viele Hardware kommen und gehen gesehen. Wann immer ein neues Produkt nicht so funktioniert hat wie es sollte kam von den Herstellern das Statement " Treiberproblem, wird gefixt" und das war in der Regel gelogen.Meistens lag das Problem doch tiefer und wurde mit neuen Chiprevisionen oder gar nicht gelöst.

Jules
2008-06-29, 13:41:28
Hallo,

ohne jetzt über das Thema wirklich Bescheid zu wissen möchte ich folgendes anmerken: Ich habe seit 15 Jahren PCs und habe schon viele Hardware kommen und gehen gesehen. Wann immer ein neues Produkt nicht so funktioniert hat wie es sollte kam von den Herstellern das Statement " Treiberproblem, wird gefixt" und das war in der Regel gelogen.Meistens lag das Problem doch tiefer und wurde mit neuen Chiprevisionen oder gar nicht gelöst.Außnahmen bestätigen die Regel. ;)
Mehr als warten kann man eh nicht, von deaher sollte man kein Hehl draus machen. Sobald es über Treiber gelöst werden sollte, schön, wenn nicht? macht auch nix, für das Geld gibts derzeit eh nix besseres.

Adam D.
2008-06-29, 13:48:28
Catalyst 8.7 Beta steht zum Download bereit (s. ATi-Forum), wird sich sicher jemand erbarmen, dann wissen wir alle mehr.

redfalcon
2008-06-29, 13:57:02
Catalyst 8.7 Beta steht zum Download bereit (s. ATi-Forum), wird sich sicher jemand erbarmen, dann wissen wir alle mehr.

Meine 4850 taktet sich mit dem 8.7 Beta unter Windows auf 500/750 (von 625/993) runter, das tat sie aber schon mit dem Hotfix-Treiber für die HD4xxx Serie.

Adam D.
2008-06-29, 13:58:27
Meine 4850 taktet sich mit dem 8.7 Beta unter Windows auf 500/750 (von 750/900) runter, das tat sie aber schon mit dem Hotfix-Treiber für die HD4xxx Serie.
Und sonst keinerlei Änderungen?

dildo4u
2008-06-29, 14:00:34
Da hat ATI ja ein tollen Bock geschossen bin gespannt wie schnell die Stromsparfunktion bei der Roten Fraktion unwichtig wird im gegensatz zur 3800 Serie. ;)

redfalcon
2008-06-29, 14:00:57
Und sonst keinerlei Änderungen?

(Default Takte sind natürlich 625/993 und nicht 750/900, sry).

Idle-Temp bleibt gleich; woran sollte ich denn Änderungen bemerken?

Adam D.
2008-06-29, 14:02:49
Da hat ATI ja ein tollen Bock geschossen bin gespannt wie schnell die Stromsparfunktion bei der Roten Fraktion unwichtig wird im gegensatz zur 3800 Serie. ;)
Ganz schnell, immerhin hat man ja leistungstechnisch aufgeholt, da braucht man den ganzen Rest nicht mehr ;)

(Default Takte sind natürlich 625/993 und nicht 750/900, sry).

Idle-Temp bleibt gleich; woran sollte ich denn Änderungen bemerken?
Lüfterlautstärke, Core-Spannung ... Aber wenn die Idle-Temps gleich sind, heißt das schon mal nix gutes.

dildo4u
2008-06-29, 14:03:30
Idle-Temp bleibt gleich; woran sollte ich denn Änderungen bemerken?
Idle Temp und wenn vorhanden Strommesser am PC. ;)

Gast
2008-06-29, 14:11:23
(Default Takte sind natürlich 625/993 und nicht 750/900, sry).

Idle-Temp bleibt gleich; woran sollte ich denn Änderungen bemerken?

An der Stromaufnahme.

Grumbart
2008-06-29, 14:16:51
Da hat ATI ja ein tollen Bock geschossen bin gespannt wie schnell die Stromsparfunktion bei der Roten Fraktion unwichtig wird im gegensatz zur 3800 Serie. ;)

Und bei der G80/G92 war das Alles kein Thema?
Der Load-Verbrauch der GT200 Serie ist auch kein Thema?
Lange im Gespräch war auch "Stromspar" Treiber für nV Karten, welcher auch nie das Licht der Welt erblickte. Tut doch nicht immer so als wäre die Welt bei den "Grünen" voller Sonnenschein

dildo4u
2008-06-29, 14:20:51
Und bei der G80/G92 war das Alles kein Thema?
Der Load-Verbrauch der GT200 Serie ist auch kein Thema?
Lange im Gespräch war auch "Stromspar" Treiber für nV Karten, welcher auch nie das Licht der Welt erblickte. Tut doch nicht immer so als wäre die Welt bei den "Grünen" voller Sonnenschein
Hab ich doch geschrieben das war ein Vorteil der 3800 Serie gegenüber den NV Karten der nun dahin ist?

anddill
2008-06-29, 14:34:40
[Gerüchtnachplappermodus]
Da sitzt ein eigener kleiner Microcontroller irgendwo auf der Platine oder direkt im Grafikchip, der für die Energiesparfunktionen verantwortlich ist. Der braucht noch seine Firmware, und die steckt normalerweise im Grafik-BIOS. Daher wird ein BIOS-Update notwendig sein, um Powerplay2 zum ticken zu bringen
[/Gerüchtnachplappermodus]

Obs stimmt? Tja, keine Ahnung.

HarryHirsch
2008-06-29, 14:36:44
[Gerüchtnachplappermodus]
Da sitzt ein eigener kleiner Microcontroller irgendwo auf der Platine oder direkt im Grafikchip, der für die Energiesparfunktionen verantwortlich ist. Der braucht noch seine Firmware, und die steckt normalerweise im Grafik-BIOS. Daher wird ein BIOS-Update notwendig sein, um Powerplay2 zum ticken zu bringen
[/Gerüchtnachplappermodus]

Obs stimmt? Tja, keine Ahnung.

das mit dem chip hat doch pcgh.de in einem video schon bestätigt.

edit:

hier das video:
http://www.pcgameshardware.de/aid,649263/News/PCGH_Exklusiv_Sinnlos_in_der_Redaktion_-_Episode_2_Angriff_der_Klonkarten/

kommt so ziemlich am ende

Gast
2008-06-29, 14:52:16
zumal ati auf den folien ja selber einen geringeren stromverbrauch als bei der HD38xx Serie angibt

=Floi=
2008-06-29, 15:10:45
oder es gibt wieder einen kleinen refresh, und bringt dann dieses feature um die karten besser verkaufen zu können...
ich dachte amd hat intern mit 17 watt geworben...

x-dragon
2008-06-29, 16:10:46
oder es gibt wieder einen kleinen refresh, und bringt dann dieses feature um die karten besser verkaufen zu können...
ich dachte amd hat intern mit 17 watt geworben... Bisher gabs glaube ich noch keine offizielle Aussage dazu und ob die Folie echt war die zwischendurchmal auftauchte ...

clockwork
2008-06-29, 16:18:19
Ich hoffe da tut sich noch was in den nächsten Wochen. Der Idle-Verbrauch ist für mich das Hauptargument für eine ATI. Sollte es ein Softwareproblem sein wird das ja wohl spätestens mit Cat. 8.8 lösen.

Kann es sein das an den Grafikkarten vielleicht irgendwas defekt ist? Das Bauteil dass das alle steuert z.B.?

Gast
2008-06-29, 16:37:27
nein, es leigt an dem clock gating was wohl nicht so einfach ist wie ich hörte.

Leute flashen ihr Karten schon fleissig die dann paar Stunden später sterben, die sollen liener warten bis Treiber dafür am Start sind.

Schlammsau im Urlaub
2008-06-29, 18:00:17
also wenn sich am Stromverbrauch mit den kommenden Treibern, bzw. BIOS'n nichts mehr ändern sollte, wär ich schon arg entäuscht. Hätte mir dahingehend mehr erwartet!
Aber überbewerten werde ich es aber nicht, da er immer noch unter dem einer 9800GTX bzw. GTX+ liegt.

Dicker Igel
2008-06-30, 00:05:56
Diskussion aus dem Thread ATI 8.7Beta (8.52) hierher verschoben.
-punta
Ich mein nicht den geleakten Treiber sondern die Powerplaysituation.

Blacksoul
2008-06-30, 00:13:02
Auch an dich, Igel.
Du schreibst etwas von "wenn man vom versprochenen ausgeht".
So würde ich gerne wissen, was AMD denn wo versprochen hat bzw. beworben hat.
Siehe mein längerer Kommentar dazu im 4870-Erfahrungsthread.

Auch hier meine ich es wieder ernst. Wo hab ich die Werbung übersehen?
Du hast ja schon Erfahrung damit gemacht, dass ich mal was übersehe. ;) *3DMark-Hotfix *hust**


t.b.d

Ronny145
2008-06-30, 00:19:11
Auch an dich, Igel.
Du schreibst etwas von "wenn man vom versprochenen ausgeht".
So würde ich gerne wissen, was AMD denn wo versprochen hat bzw. beworben hat.
Siehe mein längerer Kommentar dazu im 4870-Erfahrungsthread.

Auch hier meine ich es wieder ernst. Wo hab ich die Werbung übersehen?
Du hast ja schon Erfahrung damit gemacht, dass ich mal was übersehe. ;) *3DMark-Hotfix *hust**


t.b.d


Naja, das verbesserte Powerplay (2) wurde sehr wohl beworben von AMD, man muss nur die entsprechende Folie gesehen haben. Und ganz offensichtlich funktioniert das Powerplay noch nicht wie gewollt.

Dicker Igel
2008-06-30, 00:20:31
HarryHirsch hat's im anderem Thread ja schon gepostet, rund läuft das Powerplay imho noch nicht.
Man müsste allerdings erstmal wissen, was die 4870 explizit verbraucht (einzeln ohne Restsystem).

Ronny145
2008-06-30, 00:29:02
Man müsste allerdings erstmal wissen, was die 4870 explizit verbraucht (einzeln ohne Restsystem).


Warum müsste man die wissen? Von der 4850 gibt es schon Werte: http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_14.html#sect0

Blacksoul
2008-06-30, 00:30:45
Naja, das verbesserte Powerplay (2) wurde sehr wohl beworben von AMD, man muss nur die entsprechende Folie gesehen haben. Und ganz offensichtlich funktioniert das Powerplay noch nicht wie gewollt.

Die Sache ist doch einfach, dass das genauso gut eine interne Folie gewesen sein kann und man das Feature in dem Umfang eben streichen musste.
Solange es halt nicht in dem Sinne offiziell ist, wurde eben nichts versprochen. Oder sehe ich das wieder einmal falsch?
Genauso hat Nvidia damals auch gesagt, dass man versucht einen Stromspartreiber zu entwickeln und zu veröffentlichen. Es wurde nie etwas versprochen.

Und unter dynamic clock gating verstehe ich eigentlich eine dynamische Taktanpassung, was ja definitiv passiert.
Habe ich das vielleicht falsch verstanden?

So langsam kreuzen sich die Threads :hammer:


t.b.d

Dicker Igel
2008-06-30, 00:31:39
Warum müsste man die wissen?

Hatte irgendwo gelesen (ja ich weiß ;)), dass die 48x0 Serie auch im IDL Bereich der 3870 sein sollen oder gar darunter, deswegen.

@ Blacksoul

Stimmt eigentlich auch wieder ^^

HarryHirsch
2008-06-30, 00:37:07
Die Sache ist doch einfach, dass das genauso gut eine interne Folie gewesen sein kann und man das Feature in dem Umfang eben streichen musste.
Solange es halt nicht in dem Sinne offiziell ist, wurde eben nichts versprochen. Oder sehe ich das wieder einmal falsch?
Genauso hat Nvidia damals auch gesagt, dass man versucht einen Stromspartreiber zu entwickeln und zu veröffentlichen. Es wurde nie etwas versprochen.

Und unter dynamic clock gating verstehe ich eigentlich eine dynamische Taktanpassung, was ja definitiv passiert.
Habe ich das vielleicht falsch verstanden?

So langsam kreuzen sich die Threads :hammer:


t.b.d

naja da steht:

ATI PowerPlay™ Technology5
Advanced power management technology for optimal performance and power savings
Performance-on-Demand
Constantly monitors GPU activity, dynamically adjusting clocks and voltage based on user scenario
Clock and memory speed throttling
Voltage switching
Dynamic clock gating
Central thermal management – on-chip sensor monitors GPU temperature and triggers thermal actions as required man beachte die 5, denn da kommt später noch:

5 ATI PowerPlay™ technology consists of numerous power saving features. Not all features may be available in all ATI Radeon HD 4800 Series graphics cards.

deshalb schrieb ich auch:

edit:
meiner glaub ich auch nich

vielleicht ergeht es dem rv770 jetzt wie dem g80

Blacksoul
2008-06-30, 00:40:52
naja da steht:

ATI PowerPlay™ Technology5
Advanced power management technology for optimal performance and power savings
Performance-on-Demand
Constantly monitors GPU activity, dynamically adjusting clocks and voltage based on user scenario
Clock and memory speed throttling
Voltage switching
Dynamic clock gating
Central thermal management – on-chip sensor monitors GPU temperature and triggers thermal actions as required man beachte die 5, denn da kommt später noch:

5 ATI PowerPlay™ technology consists of numerous power saving features. Not all features may be available in all ATI Radeon HD 4800 Series graphics cards.

deshalb schrieb ich auch:

edit:
meiner glaub ich auch nich

vielleicht ergeht es dem rv770 jetzt wie dem g80

Eben auf die Kleinigkeit habe ich ja auch bereits im andere Thread hingewiesen. Nur war die 5 dort ein ** ;)

Das ist ja eben diese elendige Haarspalterei, weshalb man den IHVs im Nachhinein nichts nachweisen kann.
Zudem ja auch alle Punkte in gewisser Weise erfüllt werden.


t.b.d

Ronny145
2008-06-30, 00:43:59
Die Sache ist doch einfach, dass das genauso gut eine interne Folie gewesen sein kann und man das Feature in dem Umfang eben streichen musste.
Solange es halt nicht in dem Sinne offiziell ist, wurde eben nichts versprochen. Oder sehe ich das wieder einmal falsch?



Kann gut sein, aber du siehst ja im Beitrag von HarryHirsch, dass AMD sehr wohl einen effizienten Stromsparmodus bewirbt.

HarryHirsch
2008-06-30, 00:44:17
Eben auf die Kleinigkeit habe ich ja auch bereits im andere Thread hingewiesen. Nur war die 5 dort ein ** ;)

Das ist ja eben diese elendige Haarspalterei, weshalb man den IHVs im Nachhinein nichts nachweisen kann.
Zudem ja auch alle Punkte in gewisser Weise erfüllt werden.


t.b.d

eben darum mein:
meiner glaub ich auch nich

;)

HarryHirsch
2008-06-30, 00:45:23
Kann gut sein, aber du siehst ja im Beitrag von HarryHirsch, dass AMD sehr wohl einen effizienten Stromsparmodus bewirbt.

naja mit dieser *5* steht ja nichts mehr fest

Ronny145
2008-06-30, 00:48:34
naja mit dieser *5* steht ja nichts mehr fest


Stimmt auch wieder. Man wird es sehen. Wenn AMD das mit dem Cat 8.7 nicht hinbekommt, scheint was nicht zu stimmen und man sollte sich weniger Hoffnungen auf einen Stromspartreiber machen, bei NVIDIA lief das so ähnlich.

Dicker Igel
2008-06-30, 00:50:10
Meint ihr das man dann per Treiber Voltage/Takt/Recheneinheiten absenkt/abschaltet :confused:
Imho hätte man das ja schon mit den 8.6 Hotfix machen können, beim Takt wär's ja kein Problem aber die Voltage konnte man zuletzt bei den 1950XT(X) per Traytools verändern,
ich glaube nicht das dies nun wieder (versteckt) eingeführt wird. Wie Chris im anderem Thread schon schrieb,
müssten dann ja auch die Recheneinheiten mit geschalten werden, was auch meiner Meinung nach eher das VGA BIOS machen sollte.
Es wird sich wohl leider nix mehr groß ändern und es wird auch gehen.

Gast
2008-06-30, 03:46:02
Eine Stellungname seitens AMD/ATi dazu wäre nicht verkehrt. Das die Presse da noch nicht richtig rumzeckt versteh ich noch weit weiger. Naja, man wird sehen.!

BlackBirdSR
2008-06-30, 07:45:52
Elementare Hardwarefunktionen lassen sich eher schlecht per Treiber beeinflussen. Und deshalb glaube ich auch nicht, dass sich im reinen Idle-Betrieb noch etwas verbessern wird. Wenn der Chip nicht genug abschalten kann, bzw zu hohe Leckströme hat, dann hilft auch dynamisches Runterfahren unter Minder-Last natürlich nichts.

Gast
2008-06-30, 07:54:51
Powerplay kann einwandfrei funktionieren, dies sagt nichts übder den absoluten Verbrauch aus.

EgonOlsen
2008-06-30, 20:33:20
naja mit dieser *5* steht ja nichts mehr festNaja, also auf meiner 4870-Packung steht: "Lower Power - less heat"...verglichen zu was denn dann? Zur 3870 wohl nicht. Zur 2900er aber auch nicht. Die hatte ich vorher und die hat im Idle etwa 15 Watt weniger(!) verbraucht. Also von mir aus funktionieren halt nicht alle PowerPlay-Eigenschaften aber zumindest sollte es doch möglich sein, die für ihren Verbrauch vielgescholtene 2900er zu unterbieten.

Gast
2008-06-30, 20:34:35
Meint ihr das man dann per Treiber Voltage/Takt/Recheneinheiten absenkt/abschaltet :confused:

takt und spannung werden ja angepasst, aber das clock-gating funktioniert offenbar (noch) nicht. der 280GTX scheint es ja ähnlich zu gehen.

dargo
2008-06-30, 20:37:30
Elementare Hardwarefunktionen lassen sich eher schlecht per Treiber beeinflussen. Und deshalb glaube ich auch nicht, dass sich im reinen Idle-Betrieb noch etwas verbessern wird.
Wenn mich meine Erinnerung nicht täuscht hatte der R520 oder R580 genau die selben Probleme mit dem Stromverbrauch in Idle wie der RV770 heute. Das wurde mit späteren Treibern gefixt.

Schlammsau
2008-07-01, 13:03:59
hab mich jetzt mal an das untertakten bzw. undervolten per BIOS herangewagt!
Was soll ich sagen.....es bringt rein gar nichts! 160/500Mhz (auch laut Overdrive und GPUZ) bringt kein einziges Watt bzw. kein einziges Grad.
Ich warte jetzt einfach weitere Treiber ab, bevor ich "ausflippe"!

Gast
2008-07-01, 17:14:08
Das habe ich auch festgestellt, seit dem ich das MSI Bios auf meiner Powercolor verwende. Nicht 1 Watt weniger zum org. Bios.

Sorkalm
2008-07-01, 17:19:24
Bei nicht mal einem Watt Unterschied würde ich nicht mal davon ausgehen, dass die Taktraten tatsächlich abgesenkt werden (oder das es früher nicht nicht passiert ist).

Schlammsau
2008-07-01, 19:10:10
Bei nicht mal einem Watt Unterschied würde ich nicht mal davon ausgehen, dass die Taktraten tatsächlich abgesenkt werden (oder das es früher nicht nicht passiert ist).

hab gerade etwas entdeckt....wenn bei euch die Karte im 2D nicht heruntertaktet, taktet die Karte mit Overdrive (und nur mit Overdrive) ein wenig hoch.
Meine Karte taktet erst dann runter auf 160/500! Bringt auch dann um die 10Watt und 5°C. Kein Witz es funktioniert! Bei mir jedenfalls mit dem MSI Bios!
Für mich eindeutig ein Zeichen dafür, dass ein Treiberproblem besteht.

horn 12
2008-07-01, 19:15:33
Oder ein nicht behebbarer Bug der HD4800-er Serie, welche deshalb dann so extremst!! Billig angeboten werden. :confused:Und dies sagt ein ATI Jünger...

Blacksoul
2008-07-01, 19:17:21
Oder ein nicht behebbarer Bug der HD4800-er Serie, welche deshalb dann so extremst!! Billig angeboten werden. :confused:Und dies sagt ein ATI Jünger...

Fehlende Stromsparfunktionen ist kein Grund eine Karte so zu verramschen.
Da könntest du auch der Kaiser von China sein und das sagen.
Nvidia hat es mit dem G80 ja auch nicht anders gemacht.


t.b.d

Spasstiger
2008-07-01, 19:37:57
Zumindest liegt der idle-Verbrauch auf ca. G92-Niveau und ist nicht abartig hoch wie beim G80. So gesehen erlebt der Käufer von Performance-Grafikkarten keine bösen Überraschungen.
Und was das Verhältnis von Last-zu-Idle-Verbrauch angeht, gab es beim RV770 gegenüber dem RV670 auch keine Verschlechterung.

Die HD4870 leidet allerdings ein wenig an ihrem 1,8 GHz schnellen GDDR5-RAM, der eben doch mehr frisst als 0,9 GHz schneller GDDR3-RAM.

MrMostar
2008-07-01, 19:41:24
Oder ein nicht behebbarer Bug der HD4800-er Serie, welche deshalb dann so extremst!! Billig angeboten werden. :confused:Und dies sagt ein ATI Jünger...

im post über dir wird deine Vermutung widerlegt.
Die Stromsparfuntion geht, aber nur, wenn leicht übertaktet wird.

Kriton
2008-07-01, 20:41:43
10 Watt und 5 Grad mag ein Indiz sein, im Ergebnis aber noch zu wenig.

Ferengie
2008-07-01, 21:27:20
Was völlig gegen hohe Leckströme spricht, sind die Ankündigungen der Karten mit hohen OC.
Außerdem bekommt man z.B. die Powerplayfunktion bei Chips für Notebooks nur mit einem Trick (http://www.driverheaven.net/modtool.php) zum Laufen.
Die IDLE Werte der 4870 liegen mit digitaler Spannungsversorgung und GDDR5 30Watt höher als die 4850. Dann schaut man sich noch 3870 und X2 3870 IDLE an und kommt plus 512MB und einer CPU auch auf ca. 30Watt.
Nach meiner Meinung gehen die Karten trotz Untertaktung nicht IDLE. (wenn es kein Chiproblem ist-> kein BIOS-, nur Treiberprob.)

Gast
2008-07-01, 21:44:33
Was völlig gegen hohe Leckströme spricht, sind die Ankündigungen der Karten mit hohen OC.


Wieso spricht das gegen hohe Leckströme? AFAIK sind die doch gar nicht vom Takt abhängig.

Ferengie
2008-07-01, 21:59:54
Dann ist das nicht mehr berechenbar für die Hersteller, dann verbraucht Karte X mit 100MHz mehr 20Watt und die daneben 60Watt mehr. Auch wenn sie nicht mehr am VCore schrauben.
Auch wenn die "Super OC" mit Wakü angekündigt sind, kein Single Radi schafft eine Leckstrom GPU noch vernünftig unter Last zu kühlen. Oder soll der Radi dann so warm werden wie die Kühlkörper auf einer Graka -> locker 70Grad.

MadManniMan
2008-07-02, 07:19:28
Ich werf jetzt mal potentiellen Bullshit in den Raum:

AMD hat sich bereits mit Kühl und Leise 2 übernommen (siehe Hardtecs4U-Roundup (http://ht4u.net/reviews/2008/amd_phenom_x4_x3/index10.php) ) und ATi leidet unter dem selben Problem: PP2 geht, nagt aber an der Performance und wird deswegen nicht aktiviert.

:|

Gast
2008-07-02, 14:05:27
Sie könnten ja den User entscheiden lassen, ob er Powerplay nutzen will oder nicht und eine Möglichkeit zum Deaktivieren anbieten im CCC.

Thunder99
2008-07-02, 18:27:03
wieviel verbrauchen nun aktuell die HD48xx Karten?

Aquaschaf
2008-07-02, 19:00:26
und ATi leidet unter dem selben Problem: PP2 geht, nagt aber an der Performance und wird deswegen nicht aktiviert.

:|

Würde ich schon eher in die Kategorie Bullshit einordnen. Entwicklungstechnisch haben AMD CPUs und GPUs ja noch nichts gemein.

Chris2CB
2008-07-02, 19:08:06
Sie könnten ja den User entscheiden lassen, ob er Powerplay nutzen will oder nicht und eine Möglichkeit zum Deaktivieren anbieten im CCC.



Wenn alles wie es sollte funktionieren würde dann geht das automatisch, wie zB. bei meiner 3870.

Also entweder ein BIOS wirds richten müssen oder beim packen bzw. Transistoren sparen ist einer Wild geworden und PP2 ist erst garnicht funktionsfähig. Zudem müssen die SPWA dementsprechend ausgelegt sein um bei solch einer Bandbreite an Leistung auch effizient ihren Dienst zu verrichten.

C'nQ sollte ja jetzt dank einem X4 9350e so funktionieren wie gedacht, hilft einem 9850 käufer aber halt wenig.

@Thunder, so genau kann man keine Angabe machen, da dies von der Auslastung abhängt, im FUR Bechnmark scheint eine 4870 einen enorm hohen Vebrauch zu haben(2900XT Niveau), bei Spielen um einiges weniger. Zum einen würde ich gerne eine 4870 kaufen(aba halt 1gb), aber auf der anderen Seite finde ich den Verbrauch so dermaßen inakzeptabel das ich dann doch lieber mit meiner alten Gurke zocke, oder mir ein neues Stativ kaufe.;(

2B-Maverick
2008-07-02, 19:20:02
Wenn alles wie es sollte funktionieren würde dann geht das automatisch, wie zB. bei meiner 3870.

Also entweder ein BIOS wirds richten müssen oder beim packen bzw. Transistoren sparen ist einer Wild geworden und PP2 ist erst garnicht funktionsfähig. Zudem müssen die SPWA dementsprechend ausgelegt sein um bei solch einer Bandbreite an Leistung auch effizient ihren Dienst zu verrichten.

C'nQ sollte ja jetzt dank einem X4 9350e so funktionieren wie gedacht, hilft einem 9850 käufer aber halt wenig.
Anandtech hat in ihrem Artikel allerdings von dicken C&Q Problemen berichtet - bei dem aktuellen Test zu den neuen Prozzis!

....... ich den Verbrauch so dermaßen inakzeptabel das ich dann doch lieber mit meiner alten Gurke zocke, oder mir ein neues Stativ kaufe.;(
Kauf dir die 4850 und nen Objektiv mit IS/OS. ;)

CU
Markus

Gast
2008-07-02, 21:40:35
wieviel verbrauchen nun aktuell die HD48xx Karten?

Hier ist zumindest ein Vergleich mit den GTX9800 Karten, welche wohl die direkte Konkurrenz darststellen. Zu beachten ist, dass es sich hier um das gesamte System handelt!

http://www.legionhardware.com/Bench/ATI_Radeon_HD_4850_vs_Nvidia_GeForce_9800_GTX_plus/Power.png

Demnach verbraucht die HD4850 derzeit inkl. Netzteilverluste usw. ca. 25 Watt weniger im Idle und ca 30 Watt weniger unter Last.

S940
2008-07-03, 10:48:50
Die HD4870 leidet allerdings ein wenig an ihrem 1,8 GHz schnellen GDDR5-RAM, der eben doch mehr frisst als 0,9 GHz schneller GDDR3-RAM.Bist Du Dir da sicher, dass die 4870er "leidet" ? GDDR5 läuft nur mit 1,5V gegenüber den über 2V bei GDDR3 ... der Mehrverbrauch der 4870er Karten kommt imo durch die höhergetaktete GPU und deren erhöhtem vcore.

Falls ein Hersteller ne 4850 mit GDDR5 planen würde, hätte die sicherlich weniger Stromverbrauch als die jetzigen Modelle.

ciao

Alex

Sorkalm
2008-07-03, 10:50:39
Weniger? Ich würde einfach sagen, der Speicher macht da kaum einen Unterschied...

Gast
2008-07-03, 12:10:14
Hier ist zumindest ein Vergleich mit den GTX9800 Karten, welche wohl die direkte Konkurrenz darststellen. Zu beachten ist, dass es sich hier um das gesamte System handelt!

http://www.legionhardware.com/Bench/ATI_Radeon_HD_4850_vs_Nvidia_GeForce_9800_GTX_plus/Power.png

Demnach verbraucht die HD4850 derzeit inkl. Netzteilverluste usw. ca. 25 Watt weniger im Idle und ca 30 Watt weniger unter Last.


Warum wurde das Bild gelöscht?!

Hier nochmal:

http://www.legionhardware.com/Bench/ATI_Radeon_HD_4850_vs_Nvidia_GeForce_9800_GTX_plus/Power.png

Gast
2008-07-03, 12:12:01
Warum wurde das Bild gelöscht?!

Hier nochmal:

http://www.legionhardware.com/Bench/ATI_Radeon_HD_4850_vs_Nvidia_GeForce_9800_GTX_plus/Power.png

Upps sorry, lag wohl an meinem Browser... :confused:

Brian_vi
2008-07-03, 23:44:23
Hi,

ich hab derzeit noch ne 8800GTS drin und spekuliere auf die 4870; die Sache mit dem Stromsparen erinnert mich leider - wie so viele - an das bekannte G80-Dilemma von nvidia.

1.) Bei meiner Karte bringt ein Absenken der Taktraten auf Minimalst-Werte (ntune, GPU 143, Speicher 212) ca. 10 Watt Ersparnis an der Steckdose und die Chip-Temp sinkt bei gleicher Lüfterdrehzahl um ca. 10°C.

Beim 770er dürfte sich die Sache ähnlich verhalten. Mit ner Taktreduktion alleine OHNE Spannungsanpassung UND/ODER Abschaltung von Chip-Teilbereichen ist also kein Blumentopf zu gewinnen. Obwohl diese manuelle Untertaktung beim G80 bei vielen Usern einwandfrei funktioniert ( z.B. auch mit Rivatuner) hat nvidia dies niemals in einen Treiber integriert!

2.) Aktuell werden die 770er im 2D-Modus erstaunlich wenig runtergetaktet (Reduktion um ca. 20%), warum nicht 80%. Die Leistung sollte locker noch ausreichen. Ich fürchte das hat ähnliche Gründe wie bei nvidias G80

3.) Von meinem G80 habe ich gelernt, dass die Firmen oftmals angepriesene bzw. in Aussicht gestellte Features/Verbesserungen, welche per Treiber-Update behoben werden sollten niemals nachgeliefert haben - Stichwort "Stromspartreiber" und "VRAM-Bug". Ich verlass mich jedenfalls nicht mehr auf solche Aussagen und warte ab, bis das ganze auch erhältlich (Soft-/Hardware) und nachgewiesen ist.

Brian

Denniss
2008-07-04, 00:39:45
Bist Du Dir da sicher, dass die 4870er "leidet" ? GDDR5 läuft nur mit 1,5V gegenüber den über 2V bei GDDR3 ... der Mehrverbrauch der 4870er Karten kommt imo durch die höhergetaktete GPU und deren erhöhtem vcore.

Falls ein Hersteller ne 4850 mit GDDR5 planen würde, hätte die sicherlich weniger Stromverbrauch als die jetzigen Modelle.

ciao

Alex

Bist Du Dir sicher mit den über 2V bei GDDR3 ?
Bei den 1000/1100 MHz von nvidia sicherlich aber ich kann mir nicht vorstellen das die mit 900MHz betriebenen Chips so viel brauchen.

Lurtz
2008-07-04, 00:45:57
Hi,

ich hab derzeit noch ne 8800GTS drin und spekuliere auf die 4870; die Sache mit dem Stromsparen erinnert mich leider - wie so viele - an das bekannte G80-Dilemma von nvidia.
Aber der G80 war ja eine komplett neue Generation, die 48x0er-Serie ist ja "nur" ein Update der 38x0er-Serie.

w0mbat
2008-07-06, 00:59:33
Aber der G80 war ja eine komplett neue Generation, die 48x0er-Serie ist ja "nur" ein Update der 38x0er-Serie.

Naja, der RV770 ist schon deutlich mehr als als ein RV670-Update.

Gast
2008-07-06, 09:32:42
Naja, der RV770 ist schon deutlich mehr als als ein RV670-Update.

Nein, ist sie nicht.

Mark3Dfx
2008-07-06, 10:10:41
Im Endeffekt spekulieren alle im Nebel und ich möchte nicht im BIOS einer 200€+ teuren Graka rumpfuschen
um ein vom Hersteller beworbenes Feature nutzen zu können.
Solange nicht von mehreren Testseiten berichtet wird das der Stromsparmodus wirksam funktioniert kaufe ich keine 48x0 Karte.

w0mbat
2008-07-06, 12:02:13
Nein, ist sie nicht.

Doch, und zwar immer zweimal mehr als du sagst :P

Wenn du anderer Meinung bist gib doch bitte einen Grund an.

Schlammsau
2008-07-06, 12:04:37
Gibt es eigentlich mittlerweile irgendwelche offiziellen Aussagen seitens ATi?

Giraffengustav75
2008-07-06, 12:11:23
Leider hält auch mich der Verbrauch aktueller Grafikkarten von einem Kauf ab. Wirklich schade, der Spareffekt, den man mit heutigen CPUs erhält, wird von der GPU wieder mehr als aufgefressen.

Ich wünsche mir wieder leistungsfähige Mainstream-Grafikkarten mit einem Verbrauch von maximal 50-60 Watt unter Last - sowie die 6600 und 7600 GT zum Beispiel. Aber das wird es wohl nicht mehr geben. Vor ein paar Jahren waren 100 Watt nur für eine Grafikkarte utopisch, heute scheint man da fast froh zu sein, wenn es nur so niedrig ist.

S940
2008-07-06, 12:17:40
Gibt es eigentlich mittlerweile irgendwelche offiziellen Aussagen seitens ATi?
Angeblich steht in der aktuellen c't ne AMD Aussage, dass in den aktuellen Treibern nicht viel Stromsparoptionen aktiv sind:
http://www.planet3dnow.de/vbulletin/showthread.php?p=3657236#post3657236

@xxx1983:
Vielleicht reicht Dir ja die kommende RV740 in 45nm.

ciao

Ale

Schlammsau
2008-07-06, 12:20:28
Angeblich steht in der aktuellen c't ne AMD Aussage, dass in den aktuellen Treibern nicht viel Stromsparoptionen aktiv sind:
http://www.planet3dnow.de/vbulletin/showthread.php?p=3657236#post3657236

@xxx1983:
Vielleicht reicht Dir ja die kommende RV740 in 45nm.

ciao

Ale

Danke, dass gibt mir noch Hoffnung. :smile:
Andererseits kann es eigentlich, wie ich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6628441#post6628441) ertestet habe, nur an den Treibern liegen.

Gast
2008-07-06, 12:24:37
Doch, und zwar immer zweimal mehr als du sagst :P

Wenn du anderer Meinung bist gib doch bitte einen Grund an.


Vielleicht solltest eher du mal deine Behauptung begründen.

m.sch
2008-07-06, 12:28:38
Im Endeffekt spekulieren alle im Nebel und ich möchte nicht im BIOS einer 200€+ teuren Graka rumpfuschen
um ein vom Hersteller beworbenes Feature nutzen zu können.


Das aufspielen einer neuen Firmware könnte auch ein neuer Treiber übernehmen,bei der X-Fi ging das auch (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6355588&postcount=13)

w0mbat
2008-07-06, 12:48:30
Vielleicht solltest eher du mal deine Behauptung begründen.

Vom Ringbus weg zum "Hub", TMUs sind komplett überarbeitet worden, Crossfire Sideport, mehr on-die Cache, etc.

Coda
2008-07-06, 14:56:41
Das wichtigste ist wohl dass die TMUs überarbeitet wurden (sinnloses Zeug gegen sinnvolles Zeug getauscht) und die ROPs endlich wieder vernünftig funktionieren.

An den reinen Recheneinheiten wurde wohl nicht viel geändert, aber sie sind zumindest sehr dicht gepackt worden. Mehr Cache läuft nebenher dafür braucht man ja nicht viel ändern.

Das sie den Ringbus wegschmeißen war mir sowieso klar ;)

Gast
2008-07-06, 15:08:25
Vom Ringbus weg zum "Hub", TMUs sind komplett überarbeitet worden, Crossfire Sideport, mehr on-die Cache, etc.

Alles Zeichen eines Refreshes. Die ALUs sind identisch zum RV670.

=Floi=
2008-07-06, 15:59:23
warum war klar, dass der ringbus ersetzt wird?
Ichh offe, dass amd hier noch über den treiber noch etwas machen kann...

Sorkalm
2008-07-06, 16:27:00
Alles Zeichen eines Refreshes. Die ALUs sind identisch zum RV670.

Solche Sachen wie Ringbus raus ist doch etwas mehr als ein typisches Refresh-Zeichen. ;)

Coda
2008-07-06, 18:12:30
warum war klar, dass der ringbus ersetzt wird?
Weil er langsamer und unflexibler als eine Crossbar ist.

Ichh offe, dass amd hier noch über den treiber noch etwas machen kann...
Was machen?

Solche Sachen wie Ringbus raus ist doch etwas mehr als ein typisches Refresh-Zeichen. ;)
Kann man jetzt echt endlos darüber streiten, aber es sind auf jeden Fall nicht nur mehr Einheiten. Dann wäre das Ding viel größer.

CrazyIvan
2008-07-06, 21:13:45
Was machen?

Er bezog das auf den idle-Verbrauch.

Avalox
2008-07-06, 22:24:25
Hallo
wo bleibt der stromsparmodus für die 48X0 serie? Ich dachte das machen die karten über das bios und bisher habe ich leider davon nnoch nichts gesehen?!
Sollte das über den treiber realisiert werden?


Im aktuellen c't Artikel zur HD48x0

"Radeon 4800 schlägt GeForce" c't 15/2008 S.54

steht. "AMD teilt dazu mit, dass die meisten Stromsparfunktionen noch nicht im Treiber implementiert sind."

Es wird also noch einiges kommen.

Schlammsau
2008-07-07, 15:28:52
Im aktuellen c't Artikel zur HD48x0

"Radeon 4800 schlägt GeForce" c't 15/2008 S.54

steht. "AMD teilt dazu mit, dass die meisten Stromsparfunktionen noch nicht im Treiber implementiert sind."

Es wird also noch einiges kommen.

Dann stellt sich nur noch die Frage, wann sie den implementiert werden. :mad:

Gast
2008-07-07, 15:57:54
Meine Vermutung ist, dass es noch Probleme gibt und AMD sich deshalb zu Thema etwas zurückhält und nicht genau weiß ob sie es im nächsten oder übernächsten Treiber implementieren können.

w0mbat
2008-07-07, 16:02:53
Vielleicht mit dem ersten offiziellen Cat. mit HD4800er Unterstützung?

S940
2008-07-07, 16:03:00
Alles Zeichen eines Refreshes. Die ALUs sind identisch zum RV670.
Nö, die 4 einfachen Alus können jetzt auch Bit Shifts ausführen.
Les Dir doch mal nen (guten) RV770 Artikel durch, bevor Du hier rumspamst :)

ciao

Alex

Schlammsau
2008-07-07, 16:05:14
hmmm.....naja, sie müssen ja was tun.
was meint ihr wie das bei den Leuten ankommt wenn die kommende X2 über 100 Watt im Idle aus der Leitung zieht! *kotz*

Gast
2008-07-07, 17:02:13
hmmm.....naja, sie müssen ja was tun.
was meint ihr wie das bei den Leuten ankommt wenn die kommende X2 über 100 Watt im Idle aus der Leitung zieht! *kotz*

Das sind doch die meisten SLI Nutzer eh gewöhnt. Hat von diesem Klientel bisher keinen gekuckt.

Gast
2008-07-07, 18:18:55
Es tut sich was....

http://www.forumdeluxx.de/forum/showthread.php?t=505271&page=82

Denke das Problem sollte wirklich bald aus der Welt sein ;)

Kriton
2008-07-07, 18:42:02
Hat das jemand schon mal mit geändertem Bios anstatt händischen Profilen probiert?

w0mbat
2008-07-07, 18:50:24
Wartete doch einfach auf einen Treiber mit Powerplay.

Gast
2008-07-07, 19:32:31
Wartete doch einfach auf einen Treiber mit Powerplay.

Wenn du es sagst :)

dargo
2008-07-09, 20:00:26
Wartete doch einfach auf einen Treiber mit Powerplay.

Wann soll der nun endlich kommen? :)

Gast
2008-07-09, 20:01:24
Wann soll der nun endlich kommen? :)

Morgen früh ;)

Superheld
2008-07-15, 15:53:32
hier was von pcgh

http://www.pcgameshardware.de/aid,651597/News/Stromsparfunktionen_moderner_GPUs_-_RV770_und_GT200_in_der_Nachbetrachtung/

Man sei noch in einer frühen Phase der Arbeit mit dem neuen Mikrokontroller und könne noch viele Parameter optimieren. Dies sei im Gegensatz zu früher jedoch nur eine Treiberangelegenheit, sodass die Stromspar-Features per monatlichem Catalyst-Update einfach an den Mann zu bringen seien.

Gast
2008-07-15, 16:02:45
Na bitte. Aber hoffentlich konnten sie die frühe Phase überwinden und im Cat8.7 ist alles drin, was man braucht :)

Gast
2008-07-15, 16:13:19
Es geht aber noch weiter:

Man sei zuversichtlich, ein deutlich niedrigeres Leistungsniveau erreichen zu können, wenn auch das Level der HD3870 schwer zu toppen sei. Die HD4870 soll dabei bis auf wenige Watt an die HD4850 herankommen.

Hört sich nicht so toll an. Die 4850 verbraucht im Idle doch auch schon zu viel.

w0mbat
2008-07-15, 16:14:28
@Gast: Bei der HD4850 ist PP ja auch noch nicht aktiv.

AnarchX
2008-07-15, 20:28:44
Wobei sich dass aber eher danach anhört, dass man als Ziel die 40W der 4850 für die HD4870 hat und bei der 4850 wohl kein großes Potential besteht.

Generell scheint man wohl nicht unbedingt einen besseres Powerplay für HD4800 gegenüber HD3800 erwarten zu können.

Gast
2008-07-15, 20:35:33
Wobei sich dass aber eher danach anhört, dass man als Ziel die 40W der 4850 für die HD4870 hat und bei der 4850 wohl kein großes Potential besteht.

Generell scheint man wohl nicht unbedingt einen besseres Powerplay für HD4800 gegenüber HD3800 erwarten zu können.

Mein PC brauch mit der HD4870@200/250 ~135W im IDLE, die HD3870 hat ~120W verbraten, das ganze System versteht sich ;)

AnarchX
2008-07-15, 20:37:37
Mein PC brauch mit der HD4870@200/250 ~135W im IDLE, die HD3870 hat ~120W verbraten, das ganze System versteht sich ;)
Sofern du das mit Bildern und genaueren Daten zum System bestätigen kannst, wäre das für den ein oder anderen durchaus interessant.

Gast
2008-07-15, 20:39:25
Sofern du das mit Bildern und genaueren Daten zum System bestätigen kannst, wäre das für den ein oder anderen durchaus interessant.

Kann ich nachreichen :)

Henroldus
2008-07-15, 21:40:26
Mein PC brauch mit der HD4870@200/250 ~135W im IDLE, die HD3870 hat ~120W verbraten, das ganze System versteht sich ;)
ich hab das CPU/GRAKA Update mal zum anlass genommen die kombinationen zu messen bezüglich des idle verbrauchs:

E6600@2,4GHz + 8800GT: 118W
E6600@3GHz + 8800GT: 135W
E8400 + 8800GT: 113W
E8400 + HD4870: 160W

der idleverbrauch ist bei ca gleicher CPU Leistung also um 25W gestiegen! :(
schade, da hatte ich mir von ATI mehr erhofft aber der Leistungsschub stimmt.
Zudem reicht auch unter Last nach wie vor mein 400W Enermax Liberty Netzteil :smile:

restliches system siehe sig

jetzt heissts also warten auf den Wundertreiber der unsere Energieversorger ärmer macht ;D

MR2
2008-07-15, 21:48:15
Wie schon Superheld geschrieben hat, es wird sich noch was tun..Wenns nicht so wäre gäbe es ein Kein Kommentar, oder man würde abblocken bzw. runterspielen.

AnarchX
2008-07-15, 21:50:17
E6600@2,4GHz + 8800GT: 118W
E6600@3GHz + 8800GT: 135W
E8400 + 8800GT: 113W
E8400 + HD4870: 160W


Da spiegeln sich die ~70W Idle-Verbrauch wieder, die auch die Review zeigen.

Da frage ich mich doch ernsthaft wie der Gast diesen fast dritteln konnte.;)

reunion
2008-07-15, 21:53:03
Da frage ich mich doch ernsthaft wie der Gast diesen fast dritteln konnte.;)

Keine Kunst wenn man den GDDR5-Speicher runtertaktet.

Henroldus
2008-07-15, 21:53:55
Da spiegeln sich die ~70W Idle-Verbrauch wieder, die auch die Review zeigen.

Da frage ich mich doch ernsthaft wie der Gast diesen fast dritteln konnte.;)
er wollte sein system ja nachreichen ;) also warten wirs ab

Keine Kunst wenn man den GDDR5-Speicher runtertaktet.
gibts da erfahrungswerte/messungen wieviel die 8 Chips etwa verbrauchen?
sicherlich auch nicht mehr als die 896/1024MB auf den Nvidias.
GDDR5 taktet zwar scheller aber die spannung ist ja geringer ebenso wie die speichermenge

Gast
2008-07-15, 21:54:50
Untertakten bringt bei der 48x0 mehr als man denkt!

AnarchX
2008-07-15, 22:06:33
Keine Kunst wenn man den GDDR5-Speicher runtertaktet.

gibts da erfahrungswerte/messungen wieviel die 8 Chips etwa verbrauchen?
sicherlich auch nicht mehr als die 896/1024MB auf den Nvidias.
GDDR5 taktet zwar scheller aber die spannung ist ja geringer ebenso wie die speichermenge
Bei 2.5W TDP@ 2.5GHz pro Chip sehe ich bei 8 Chips nicht wirklich das Potential fast 50W einzusparen, vorallem da das Untertakten der GPU bisher doch keinen Erfolg brachte.

http://img253.imageshack.us/img253/2690/01425i21097800bi1.jpg
http://www.extremetech.com/article2/0,2845,2309887,00.asp
0.83ns GDDR3 dürfte wohl bei ~3W liegen.

reunion
2008-07-15, 22:06:36
gibts da erfahrungswerte/messungen wieviel die 8 Chips etwa verbrauchen?
sicherlich auch nicht mehr als die 896/1024MB auf den Nvidias.
GDDR5 taktet zwar scheller aber die spannung ist ja geringer ebenso wie die speichermenge

4850/4870 Karten takten in 2D AFAIK mit den selben Taktraten und derselben Spannung. Die Differenz im idle-Betrieb kann man also fast ausschließlich auf den GDDR5-Speicher zurückführen.

Henroldus
2008-07-15, 22:06:49
Untertakten bringt bei der 48x0 mehr als man denkt!
das sollte aber der treiber tun ohne viel gefrickel

Bei 2.5W TDP bei 2.5GHz pro Chip sehe ich bei 8 Chips nicht wirklich das Potential fast 50W einzusparen, vorallem da das Untertakten der GPU bisher doch keinen Erfolg brachte.

http://img253.imageshack.us/img253/2690/01425i21097800bi1.jpg
http://www.extremetech.com/article2/0,2845,2309887,00.asp
danke für die Info AnarchX!

reunion
2008-07-15, 22:11:01
Bei 2.5W TDP@ 2.5GHz pro Chip sehe ich bei 8 Chips nicht wirklich das Potential fast 50W einzusparen, vorallem da das Untertakten der GPU bisher doch keinen Erfolg brachte.


Na jetzt wirds aber abenteuerlich. Ich wundere mich woher dann die niedrigen idle-Werte mit 4870 mit modifizierten BIOS herkommen sollen.

AnarchX
2008-07-15, 22:11:13
4850/4870 Karten takten in 2D AFAIK mit den selben Taktraten und derselben Spannung. Die Differenz im idle-Betrieb kann man also fast ausschließlich auf den GDDR5-Speicher zurückführen.
Mir scheint eher wahrscheinlich, dass die 3D-Spannung auch unter 2D weiter angewendet wird, welche bei der 70 natürlich höher ist.

Angiesan
2008-07-15, 22:37:04
Hi,

wenn ich das eben richtig gelesen habe, wird es bei der 4870 keine richtiges
Powerplay geben.

Ein Moderator bei den AMD Forum-Spiele hat zumindest so etwas geschrieben.
Hoffe ich konnte dies mit meinem bescheidenen Englisch richtig lesen.

Der Typ behauptet, dass es eine Absenkung der Spannung bei der 4870 nicht
geben wird, bei der 4850 aber sehr wohl.

"is powerplay supposed to reduce power usage when idle, at the moment its whats putting me off getting a pair of 4800's"

"Yes on 4850's. No on 4870's."

Originally posted by: Andydigital

Originally posted by: spyre Yes on 4850's. No on 4870's.

What do you mean "no on the 4870", its the same card with different memory so why cant power saving at idle work on the 4870.

The 4870's dont lower the voltage at idle clockspeeds, the 4850's do.

-------------------------
Game.AMD Administrator


Hier mal der Link:
http://http://forums.amd.com/game/messageview.cfm?catid=260&threadid=97359&STARTPAGE=1&FTVAR_FORUMVIEWTMP=Linear

Gast
2008-07-15, 23:24:15
Da frage ich mich doch ernsthaft wie der Gast diesen fast dritteln konnte.;)

Wiso dritteln?

Der PC nimmt ohne runtertakten der Karte ~172w und mit 200/250 ~135w
Mit der HD3870 ca. 120w, also dürft die Karte jetzt allein um 35W-40w ziehn aus der Dose im Idle.



er wollte sein system ja nachreichen ;) also warten wirs ab


System kann ich gleich schreiben, aber ich muß mir erst noch eine Cam holn.:)
Xeon 3350@3,2ghz@1,15V, HD4870 512mb, 2Gb Ram, 250gb HDD, paar Lüfter.

Gast
2008-07-15, 23:27:17
The 4870's dont lower the voltage at idle clockspeeds, the 4850's do.Das heisst nicht, dass sie es nicht könnten, das heisst nur, dass sie es nicht tun, jetzt. Also keine neue Info. Die Antwort auf die Frage "...supposed to reduce..." (also "sollten sie") kann man vernachlässigen, denn wir wissen ja, dass sie es eigentlich sollten, siehe alte AMD-Folien.

Angiesan
2008-07-16, 00:05:07
Jetzt bin ich verwirrt :-))

aber Spaß bei Seite, ich habe das so verstanden, dass auch in den kommenden Treibern
es bei der 4870 kein richtiges Powerplay geben wird.
Die 4850 kann das meines Wissen heute auch noch nicht, oder?
Alles was ich bis jetzt gelesen habe bezieht sich immer nur auf die Senkung der
Taktraten und dort ist ja bekanntlich bezüglich des Energieverbrauches nicht so ein hohes Sparpotential gegeben.

Da ich selbst eine 4870 besitze würde ich mich über einen geringeren Energieverbrauch
natürlich sehr freuen.

Gorkon
2008-07-16, 00:35:29
@Angiesan

Der AMD-Mod bezieht sich wohl nur auf die Infos, der er zur Zeit hat...und das sind allerhöchstens die Infos des BIOS bei der 4850 bzw. 4870. Die 4850 hat für den 2D und 3D-Modus unterschiedliche Spannungen im BIOS hinterlegt, während die 4870 fix bei 1,263V liegt.

Gast
2008-07-16, 02:03:45
Aha. Der Idlemodus soll also auf 4850er funktionieren und auf 4870er nicht. Ohweia. Anders rum wärs schlauer gewesen...

Gast
2008-07-16, 06:52:35
jetzt warten wirs erstmal ab....heute soll doch der neue Catalyst erscheinen.

Angiesan
2008-07-16, 07:06:01
@Angiesan

Der AMD-Mod bezieht sich wohl nur auf die Infos, der er zur Zeit hat...und das sind allerhöchstens die Infos des BIOS bei der 4850 bzw. 4870. Die 4850 hat für den 2D und 3D-Modus unterschiedliche Spannungen im BIOS hinterlegt, während die 4870 fix bei 1,263V liegt.

Moin Moin,

danke für die Info.
Das bei der 4850 im Bios unterschiedliche Spannungen hinterlegt sind deutet
aber wohl schon darauf hin, dass es so ist wie er es bereschrieben hat.
Natürlich hoffe auch ich das es nicht so ist.

Grüße

Gast
2008-07-16, 07:16:49
ich glaube dass bei der 48xx Serie noch viel mehr als sonst über den Treiber geregelt wird.

AnarchX
2008-07-16, 07:48:47
Wiso dritteln?

Der PC nimmt ohne runtertakten der Karte ~172w und mit 200/250 ~135w
Mit der HD3870 ca. 120w, also dürft die Karte jetzt allein um 35W-40w ziehn aus der Dose im Idle.

Ja, dritteln war etwas viel.
Aber halbieren ist trotzdem noch ein stolze, leicht unglaubwürdige Leistung. ;)

reunion@work
2008-07-16, 08:00:51
Ja, dritteln war etwas viel.
Aber halbieren ist trotzdem noch ein stolze, leicht unglaubwürdige Leistung. ;)

Hallo, wir reden hier von Taktraten die weniger als die Hälfte des default-Wertes ausmachen. Das ist locker drin. Zumal das schon mehrfach bestätigt wurde:

Stimmt imo nicht. Denn mit 200/300 geht beim Idlen meine 4870 auf 58°C bei 0% Lüftergeschwindigkeit runter. Bei 500/900 sinds 78°C bei ~20%.

acrowley23
2008-07-16, 13:03:05
Hallo, wir reden hier von Taktraten die weniger als die Hälfte des default-Wertes ausmachen. Das ist locker drin. Zumal das schon mehrfach bestätigt wurde:

Jo, definitiv geht das!

meine 4870 läuft mit 200mhz Gpu und 300mhz Ram via amd clock tool im 2d.

haben im luxx Forum auch viele

dargo
2008-07-16, 15:47:41
Leute, könnte mich mal einer über den aktuellen Stand der HD4870 was den Stromverbrauch angeht informieren? Ich würde mir die Karte gerne bald kaufen, nur die Idle-Verlustleistung hält mich noch davon ab. Wird es irgendwann mal endlich den Stromsparmodus geben? Ich stelle mir so ca. 20-30W in Idle vor, das fände ich schon ok.

Kann man die HD4870 jetzt schon problemlos stark in Idle untertakten (wenn ja mit welchem Tool)? Wenn ich den Gast da oben mit den 135W sehe dann sind das hinter dem NT nur 15W mehr als mit einer HD3870. Das finde ich auch ok.

acrowley23
2008-07-16, 16:40:00
Ich sage nur clockgating:

das ist bei der 4870 nicht ganz so einfach, die Spannung senkt sich Automatisch und kann man nicht verstellen (noch nich).

Man kann das schnell selber Testen, schnapp man sich ein Multimeter, da liegen am RAM 1.294 V an egal ob IDLE und Load, dann Takte man den ram mal runter auf 400 MHz und schwupps liegen 1.12V an.
Also die Spannung wird Automatisch gesenkt und nennt sich Clock Gating (Dynamisches runter takten), wenn man den RAM runter stellen tut spart man richtig viel an Strom und Hitze.

2x4870@ 780/100 = 369 Watt IDLE
2x4870@200/300 = 271 Watt IDLE

also NUR durch VRAM runter takten spart man gleichmal min 20° IDLE und 98 Watt, somit fressen 2 4870 wenger Strom im IDLE wie eine GTX2X0 dann kommt das auch hin mit 10 Watt IDLE.......

@dargo
ja das geht, mit AMD gpu clock tool kann man GPU und Ram runter takten. Zb auf 200/300

dargo
2008-07-16, 16:48:30
@dargo
ja das geht, mit AMD gpu clock tool kann man GPU und Ram runter takten. Zb auf 200/300
Danke, gibts schon eine "Durchschnittsgrenze" bei den Taktraten in Idle, so dass noch keine Artefakte auftauchen. Geht also problemlos noch weniger?

acrowley23
2008-07-16, 17:08:38
Ich (und die meisten) haben so 200GPU/300RAM ...was in jeden Fall gehen sollte.
Der Verbrauch sinkt drastisch und die Temp um 5-10C ( ich habe so 31-35C Idle)

Im LuxxForum habe auch welche 150/200...
Aber 200/300 sollte ausreichen

AnarchX
2008-07-16, 18:13:32
Ich sage nur clockgating:

das ist bei der 4870 nicht ganz so einfach, die Spannung senkt sich Automatisch und kann man nicht verstellen (noch nich).

Man kann das schnell selber Testen, schnapp man sich ein Multimeter, da liegen am RAM 1.294 V an egal ob IDLE und Load, dann Takte man den ram mal runter auf 400 MHz und schwupps liegen 1.12V an.
Also die Spannung wird Automatisch gesenkt und nennt sich Clock Gating (Dynamisches runter takten), wenn man den RAM runter stellen tut spart man richtig viel an Strom und Hitze.

2x4870@ 780/100 = 369 Watt IDLE
2x4870@200/300 = 271 Watt IDLE

also NUR durch VRAM runter takten spart man gleichmal min 20° IDLE und 98 Watt, somit fressen 2 4870 wenger Strom im IDLE wie eine GTX2X0 dann kommt das auch hin mit 10 Watt IDLE.......

Wie soll das funktionieren, wenn der GDDR5 wohl nichtmal bei 2.5W TDP pro Chip unter Last liegen soll? Die niedrige Spannung von <1.5V spricht ebenfalls für diese TDP.

Ausserdem deuten die Werte des Gastes mit einer 4870 eher auf 35-40W hin, 10W sind es ganz sicherlich nicht.

Clock-Gating ist übrigens kein dynamisches Herunterregeln der Spannung, sondern das Abschalten von nicht benötigten Funktionblöcken auf einem ASIC.

Mal sehen ob sich diesem Phänomen mal ein der großen HW-Seiten annimmt.

Gast
2008-07-16, 18:37:20
Der Speicher wird bestimmt nicht alleine für 100W ersparniss aufkommen.

Die GPU hat er ja auch Stark untertaktet. Wie wäre es mal mit einem Vergleich bei

750Mhz GPU/ 1000Mhz Speicher
200Mhz GPU/ 1000MHZ Speicher
750mhz GPU/ 200Mhz Speicher und
200Mhz GPU/ 200Mhz Speicher.

Könntest du das machen acrowley23?

Gruß bvb

hmx
2008-07-16, 18:57:41
Jo, definitiv geht das!

meine 4870 läuft mit 200mhz Gpu und 300mhz Ram via amd clock tool im 2d.

haben im luxx Forum auch viele

Bei kann ich beim Tool nicht den Takt für 2D und 3D getrennt einstellen. Das entsprechende Häkchen ist ausgegraut...

Henroldus
2008-07-16, 22:10:24
Ich (und die meisten) haben so 200GPU/300RAM ...was in jeden Fall gehen sollte.
Der Verbrauch sinkt drastisch und die Temp um 5-10C ( ich habe so 31-35C Idle)

Im LuxxForum habe auch welche 150/200...
Aber 200/300 sollte ausreichen
Danke!!!
genial, der idleverbrauch meines systems hat sich soeben von 160W auf 125W verringert :biggrin:

Super Grobi
2008-07-16, 22:13:31
Ich finde das komisch, daß durch Taktsenkung der Verbrauch so stark in die Knie geht. KANN es sein, das es Stromsparfunktionen der GPU gibt, die nur bei geringen Takt arbeiten? (und man so den "update" vom Treiber schon vorgreift?)

SG

gisbern
2008-07-16, 22:14:40
kann man dieses Tool zum runtertakten auch per autostart ausführen lassen ?

AnarchX
2008-07-16, 22:21:07
Ich finde das komisch, daß durch Taktsenkung der Verbrauch so stark in die Knie geht. KANN es sein, das es Stromsparfunktionen der GPU gibt, die nur bei geringen Takt arbeiten? (und man so den "update" vom Treiber schon vorgreift?)

Scheint wohl der Fall zu sein, seltam dass solche Versuche bei der HD4850 aber keinen Erfolg brachten.

reunion
2008-07-16, 22:24:07
Ich finde das komisch, daß durch Taktsenkung der Verbrauch so stark in die Knie geht. KANN es sein, das es Stromsparfunktionen der GPU gibt, die nur bei geringen Takt arbeiten? (und man so den "update" vom Treiber schon vorgreift?)

SG

Was ist daran bitte komisch? Der Verbrauch sinkt linear mit dem Takt, eine Taktabsenkung auf nur mehr 40% der ursprünglichen 2D-Taktes hat natürlich starke Auswirkungen. Stromsparfunktionen sind jedenfalls sicher nicht vom Takt abhängig.

Scheint wohl der Fall zu sein, seltam dass solche Versuche bei der HD4850 aber keinen Erfolg brachten.

Die BIOS-Mods waren erfolglos, aber IMHO liegt das daran das die Taktraten gar nicht übernommen würden.

sklave_gottes
2008-07-16, 22:25:40
Scheint wohl der Fall zu sein, seltam dass solche Versuche bei der HD4850 aber keinen Erfolg brachten.


Es könnte vieleicht sein das sich die spannung automatisch der takänderung anpasst. Also mitsinkt.

wäre aber irgendwie schon bissel strange.

mfg martin

Super Grobi
2008-07-16, 22:26:50
Was ist daran bitte komisch? Der Verbrauch sinkt linear mit dem Takt, eine Taktabsenkung auf nur mehr 40% der ursprünglichen 2D-Taktes hat natürlich starke Auswirkungen.



Die BIOS-Mods waren erfolglos, aber IMHO liegt das daran das die Taktraten gar nicht übernommen würden.

Mir ist neu, das reine Taktabsenkung soviel bringt! Normal bringt nur Vcore absenkung wirklich was und Mhz ist larifari, auch wenn es nur noch 40% Takt ist.

SG

CrazyIvan
2008-07-16, 22:27:04
Mag sein, dass ich in der Hinsicht nicht mehr auf dem neusten Stand bin, aber bis vor einiger Zeit galt es doch als Fakt, dass die Leistungsaufnahme linear vom Takt eines Chips abhängt. Also bringt die Verminderung des Taktes auf 1/3 auch die gleiche Verminderung der Leistungsaufnahme. Da Leckströme davon nicht betroffen sind, ist die Skalierung halt nicht ganz 1:1, aber genau das spiegelt ja auch die Realität wieder. Trotzdem bin ich noch lange nicht angetan von den Resultaten. Durch Clock Gating und vor allem die Senkung der Kernspannung sollte da noch einiges mehr drin sein. Sollte AMD nicht mindestens die gleichen idle-Werte wie GT200 erreichen, werte ich das als herben Rückschlag.

Was ist daran bitte komisch? Der Verbrauch sinkt linear mit dem Takt, eine Taktabsenkung auf nur mehr 40% der ursprünglichen 2D-Taktes hat natürlich starke Auswirkungen.
Gott sei Dank, ich dachte schon, mein Hirn spielt mir einen Streich ;)

Mir ist neu, das reine Taktabsenkung soviel bringt! Normal bringt nur Vcore absenkung wirklich was und Mhz ist larifari, auch wenn es nur noch 40% Takt ist.

SG
Die Senkung der Spannung bringt natürlich NOCH MEHR, weil sie im Quadrat eingeht. Und quadratisch >> linear ;)

Super Grobi
2008-07-16, 22:38:33
Die Senkung der Spannung bringt natürlich NOCH MEHR, weil sie im Quadrat eingeht. Und quadratisch >> linear ;)

Ist mir alles bekannt, denoch kommt mir das spanisch vor.

Drauf geschissen! Die neuen Treiber bringen eh neues und somit ist es unsinn sich darüber jetzt den Kopf zu zerbrechen (und wie ich schonmal gepostet habe: Dämlich an der Karte deshalb JETZT rum zu flashen)

SG

Gast
2008-07-17, 03:35:58
Super Grubi hat schon recht.. runtertakten bringt normalerweise keine 50W.. bisher hielt sich das immer im 15-20W bereich auf.

Ich denke auch das dort automatische Spannungssenkungen wie weiter oben beschrieben greifen.

Gruß

Gast
2008-07-17, 05:23:52
Ich finde das komisch, daß durch Taktsenkung der Verbrauch so stark in die Knie geht. KANN es sein, das es Stromsparfunktionen der GPU gibt, die nur bei geringen Takt arbeiten? (und man so den "update" vom Treiber schon vorgreift?)

SG

Der meiste Strom wird Ram runtertakten eingespart, ich versteh es auch nicht, ist aber so ;)


kann man dieses Tool zum runtertakten auch per autostart ausführen lassen ?

Man kann sich eine Verknüpfung für 2d machen auf den Desktop

AMDGPUClockTool.exe -eng=200 -mem=250 -i=*

Gast
2008-07-17, 05:26:49
Wenn ich den Gast da oben mit den 135W sehe dann sind das hinter dem NT nur 15W mehr als mit einer HD3870. Das finde ich auch ok.

Die HD3870 war eine OC Version die ca. 5W mehr als eine Referenz HD3870 verbraucht hat im Idle *anmerk*

Mr. Lolman
2008-07-17, 07:08:24
Man kann sich eine Verknüpfung für 2d machen auf den Desktop

AMDGPUClockTool.exe -eng=200 -mem=250 -i=*

Die Umschaltung auf 3D funktioniert dann aber wohl nicht mehr. D.h. man muss fleissig Batchfiles basteln. Oder gibts schon irgendeine andere praktikable Lösung?

Gast
2008-07-17, 07:13:48
Die Umschaltung auf 3D funktioniert dann aber wohl nicht mehr. D.h. man muss fleissig Batchfiles basteln. Oder gibts schon irgendeine andere praktikable Lösung?

sich selber ein Bios basteln.
Mit dem RBE funzt das mittlerweile ganz gut!

Mr. Lolman
2008-07-17, 07:25:50
sich selber ein Bios basteln.
Mit dem RBE funzt das mittlerweile ganz gut!

Und da geht die Umschaltung von 200/300 auf bspw. 790/1100? Wenn ja, dann mach ich das sofort :eek:

Gast
2008-07-17, 07:38:04
Und da geht die Umschaltung von 200/300 auf bspw. 790/1100? Wenn ja, dann mach ich das sofort :eek:

Bei mir nur wenn man die 3D Taktfrequenzen nicht verändert. Dann funzt nämlich weiterhin das Overdrive vom CCC!
Ändere im BIOS nur die 2D Taktraten und evtl. die 2D Spannung. Lass die 3D Taktraten unangetastet, dann kannst du die 3D Taktraten über das Overdrive ansteuern. Dann funzt auch Powerplay.

Mr. Lolman
2008-07-17, 11:28:58
Hm. Bei mir verhält Overdrive generell so, dass der eingestelle Speichertakt auch fürn 2D Modus gilt. Ist halt ärgerlich, wenn man dann mit 1.1GHz Speichertakt am Desktop rumidlet.

BTW:
200/300: 0%, 54°C
500/900: 20%, 77°C
500/1100: 23% 80°C

reunion@work
2008-07-17, 11:49:51
Hm. Bei mir verhält Overdrive generell so, dass der eingestelle Speichertakt auch fürn 2D Modus gilt. Ist halt ärgerlich, wenn man dann mit 1.1GHz Speichertakt am Desktop rumidlet.

BTW:
200/300: 0%, 54°C
500/900: 20%, 77°C
500/1100: 23% 80°C

Ja wie schon gesagt, der Speichertakt hat ganz offensichtlich starke Auswirkungen auf den Verbrauch.

AnarchX
2008-07-17, 13:41:14
Fragt sich nur ob der Speicher an sich, was eher unglaubwürdig bei <1.5V ist, oder ob da chip-intern irgendwas arbeitet unter 2D, was es eigentlich nicht sollte, abhängig vom Speichertakt.

Nichtsdestotrotz interessant, dass man hier manuell schon für eine deutliche Ersparnis sorgen kann.

Mal sehen was nun noch von ATi aus geschehen wird.

Außerdem interessant wären auch noch ein paar Zahlen der 4850, die in den bisherigen Versuchen keine Veränderungen am Verbrauch zeigte.

w0mbat
2008-07-17, 13:45:24
Also ich habe ein internes Dokument gesehen, auf dem gesagt wird dass PowerPlay mit einem kommenden Cat. Release nachgereicht wird. Deshalb schreibe ich hier ja auch schon seit einer Weile dass man einfach auf dem nächsten oder übernächsten Cat. warten soll - wenn das dort geschriebene stimmt.

Mr. Lolman
2008-07-17, 13:46:45
Seh ich mittlerweile auch so. Siehe mein letztes Post im RBE-Thread.

Adam D.
2008-07-17, 13:52:18
Warum sollte denn sonst PowerPlay ankündigen? Und wieso sollte es auf dem RV770 nicht funktionieren? Klar wird es nachgereicht, ich versteh die Leute nicht, die daran zweifeln.

Gast
2008-07-17, 14:09:33
Sehe ich auch so. Ein kleines Treiberproblem mehr nicht. Und die Einsparung wird deutlich besser sein, als das was die Userfixes schaffen.

Gast
2008-07-17, 15:17:18
Dagegen spricht doch, dass in den Preview-Bedingungen zur HD4870X2 darauf verwiesen wodern sein soll, von Idle-Verbrauchsmessungen abzusehen, weil die BIOSe der Vorserienkarten noch kein Power-Play Unterstützen.

Wir werden sehen, Treiberproblem, BIOS-Problem, Hardware-Problem, ist alles drin. :)

Gast
2008-07-17, 15:20:02
Dagegen spricht doch, dass in den Preview-Bedingungen zur HD4870X2 darauf verwiesen wodern sein soll, von Idle-Verbrauchsmessungen abzusehen, weil die BIOSe der Vorserienkarten noch kein Power-Play Unterstützen.

Wir werden sehen, Treiberproblem, BIOS-Problem, Hardware-Problem, ist alles drin. :)

Nein, es wurde nur gesagt das keine idle-Messungen durchgeführt werden dürfen. Der Grund wurde nicht genannt.

CrazyIvan
2008-07-17, 18:15:57
3. As PowerPlay has not been enabled in the BIOS on your engineering sample, please stay away from Idle Power tests at this point.

Quelle:
http://anandtech.com/video/showdoc.aspx?i=3354&p=3

Gast
2008-07-17, 19:25:48
Das erklärt aber nicht, warum es bei den 4850 und 4870 derzeit nicht geht.

(del)
2008-07-18, 00:55:07
Was ist jetzt zum Geier damit?? Ich hab meine 4850 nach 2 Tagen abgegeben. Weil "wie ichs darf" und hab mir das Geld zurückholen können und hare der Dinge wieder mit der 1950pro/512 aus.

Genau wegen diesem Feature und genau in der Hoffnung, es gibt die Modelle in einiger Zeit mit Powerplay(2). Kommt da jetzt noch was oder wars das? :mad:

Hat das nicht schon mit den 3xxx einwandfrei funktioniert? Hallo? :frown:

Spasstiger
2008-07-18, 01:30:01
Hat das nicht schon mit den 3xxx einwandfrei funktioniert? Hallo? :frown:
So gut wie bei der HD38xx-Reihe klappt es in Relation zur Performancesteigerung doch auch bei der HD48xx-Reihe. Die Erwartung war ja, dass Powerplay2 sogar weitere Verbessrungen bringt.
Schau dir mal bei Computerbase den Unterschied zwischen idle- und Lastverbrauch an: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/26/#abschnitt_leistungsaufnahme

Gegenüber der Radeon HD3650:
HD3850 (256 MiB): idle +1 Watt, Last +21 Watt
HD4850 (512 MiB): idle +27 Watt, Last +90 Watt
GeForce 9800 GTX: idle +35 Watt, Last +93 Watt
GeForce 8800 Ultra: +84 Watt, Last +141 Watt

Die ganze Debatte von wegen "Stromspar-Bug" wird heißer gekocht als gegessen. Die HD4850 ist in ihrer Performanceklasse recht sparsam, sowohl im idle, als auch unter Last. Einen Rückschritt gegenüber der HD3850 kann ich nicht erkennen, der Verbrauch im idle wird sogar noch deutlicher gegenüber dem Lastverbrauch reduziert. Und wir reden bei der HD4850 von einer ganz anderen Performanceklasse als bei der HD3850.

Den besten Job in Sachen Verbrauchsreduktion von load nach idle macht derzeit halt Nvidia mit der GTX 260 und der GTX 280, da brauchen wir nicht lange um den heißen Brei herumreden. Aber vielleicht sehen wir diese Relation ja auch bald bei ATI.

P.S. @ BessereHälfte: Wenn du dich von deinem SLI-Board verabschieden würdest, könntest du im idle auch die Differenz an Energie sparen, die zwischen der HD4850 und der HD3850 besteht. ;)

(del)
2008-07-18, 10:19:01
P.S. @ BessereHälfte: Wenn du dich von deinem SLI-Board verabschieden würdest, könntest du im idle auch die Differenz an Energie sparen, die zwischen der HD4850 und der HD3850 besteht. ;)Ich meine so schlimm sieht das garnicht aus ;) Einfach bis 10.2 scrollen http://www.computerbase.de/forum/showthread.php?t=279984

Davon ab hatte und hat das Board sovie Leistung und andere Vorteile für mich, daß ich den Mehrverbrauch :| nun gerne mit einer im Idle wie zugesagt funktionierenden 4850 "aufwiegen" würde...

CPU, IDE/SATA, USB oder Speicherdurchsatz brauch ich dauernd. Beim Oberflächengekritzel oder Videos dagegen ist selbst die X1950pro mit 196Mhz mehr als schnell genug. Das war sie übrigens auch für die Kinkerlitzchen unter Vista. Den letzten Mod von HL2 will ich trotzdem voll ausfahren ;)

NV: Ja ja. Mich interessiert aber nicht der Unterschied, sondern der Verbrauch im Idle. Und die Leistung in 3D.

The Jackal
2008-07-18, 18:25:45
Einige wundern sich über die Verbrauchseinsparung beim senken des RAM-Takts.

Wenn ich RAM-Takt senke....... senk ich doch nicht wirklich den RAM-Takt, sondern eher den HUB Takt und der RAM muß die Taktvorgabe schlucken.

Also senk ich den Takt von 5% der Chip fläche und den RAM-Takt. Wir wissen nicht wie gut der neue HUB ist im vergleich zum Ring-BUS. Vieleicht frisst der kleine Teil der Chip-Fläche wie blöde Strom.

AnarchX
2008-07-23, 12:43:26
CB - HD 4800: Stromsparen einfach gemacht (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/)

Mal sehen ob sich da noch etwas bei der 4850 tut, wo man auf die Gunst von ATi angewiesen ist.

puntarenas
2008-07-23, 14:14:27
Während man aus einer Radeon HD 4850 zurzeit also nicht mehr viel herausholen kann, ist das Potenzial zum Stromsparen auf einer Radeon HD 4870 sehr hoch, da der GDDR5-Speicher anscheinend viel Strom benötigt.

Das klingt irgendwie nicht besonders plausibel, GDDR5 läuft doch mit geringerer Spannung als GDDR3 und soll auch sparsamer zu Werke gehen. Die enormen Einsparungen durch Speicheruntertaktung bei einer HD4870 scheint wohl eher einen Mechanismus auszulösen, der noch nicht vollständig implementiert wurde. Mal eben 30W durch Heruntertakten des Speichers?

Die Messergebnisse decken sich aber mit denen hier im Forum und das macht IMHO tatsächlich Hoffnung, dass ATI die PowerPlay-Geschichte noch zu einem guten befriedigenden Ende führt: Catalyst 8.7, Seite3 ff (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6674007#post6674007)

CrazyIvan
2008-07-23, 16:56:01
Ich glaube nicht, dass die von Computerbase angegebenen Taktraten real sind. Selbst mit Leckströmen ist es nicht zu erklären, dass die Senkung des Taktes der 4870 GPU um Faktor 7,5 zu lächerlichen 2 Watt Einsparung führen soll. Gleiches gilt für die 4850, wo Faktor 6,5 nur 1 Watt bringen soll. Sorry, aber das ist Schwachsinn. Abzüglich einiger Toleranzen für Leckströme und Wirkungsgradverluste wäre selbst Faktor 2 noch schlecht, aber wenige Prozent? Niemals!

AnarchX
2008-07-23, 17:04:45
Wieso nicht?

Immerhin schalten doch ein Großteil der Transitoren im Idle/unter 2D nicht bzw. kaum, sodass eine Taktänderungen bei diesen eben kaum etwas bringt im Bezug auf den Verbrauch, erst recht bei einer GPU mit einem "3D-Teil" von >900M Transitoren.

Dass eine reine Taktsenkung nicht viel bringt bei einer sich im Idle befindlichen GPU bzw. gar CPU hat man doch in der Vergangenheit oft beobachten können.

Interessanter ist da das Verhalten der 4870, wo definitiv irgendetwas in der GPU abhängig vom Speichertakt unter 2D noch arbeitet, wohlmöglich die Crossbar wie The Jackal vermutet.

CrazyIvan
2008-07-23, 17:10:29
Hm, da hast Du recht. Hatte in der Eile völlig übersehen, dass nicht ein einziger Last-Wert in den Diagrammen ist. Der wäre zur Klärung der Frage, wie hoch das Delta zwischen idle und Last bei gleichem Takt ist, doch sehr hilfreich gewesen. *schäm*

roidal
2008-07-24, 21:21:44
Welche Idle-Temperatur hat eure 4850? Laut CCC hat meine GPU im Leerlauf um die 80°C. Ich glaube nicht dass dieser Wert stimmen kann?

mfg
Roland

Lurtz
2008-07-24, 23:04:57
Welche Idle-Temperatur hat eure 4850? Laut CCC hat meine GPU im Leerlauf um die 80°C. Ich glaube nicht dass dieser Wert stimmen kann?
Doch, das kann leider stimmen.

x-dragon
2008-07-25, 01:01:17
Sollte die nicht kühler als eine 4870er sein? Kurz nachdem ich ein 3D-Spiel beendet habe ist meine 4870er OC bei 62°C ... (lt. GPU-Z bei 30% Fan-Speed). Also hab nichts dran gebastelt oder dran rumgetaktet oder so.

Lurtz
2008-07-25, 01:41:26
Sollte die nicht kühler als eine 4870er sein? Kurz nachdem ich ein 3D-Spiel beendet habe ist meine 4870er OC bei 62°C ... (lt. GPU-Z bei 30% Fan-Speed). Also hab nichts dran gebastelt oder dran rumgetaktet oder so.
Die 4850 hat nur einen Singleslotkühler, der zudem sehr langsam im idle dreht und sie deshalb bei 70 Grad hält.
Ich lasse meinen Lüfter manuell auf 35% laufen, damit bekomme ich ca. 60 Grad und sie ist immer noch sehr leise.

x-dragon
2008-07-25, 18:07:53
Die 4850 hat nur einen Singleslotkühler, der zudem sehr langsam im idle dreht und sie deshalb bei 70 Grad hält.
Ich lasse meinen Lüfter manuell auf 35% laufen, damit bekomme ich ca. 60 Grad und sie ist immer noch sehr leise. Achja stimmt, daran hatte ich gar nicht mehr gedacht, aber ist schon interessant zu sehen was das ausmacht.

Gast
2008-08-02, 14:12:33
Ist das eigentlich schon bekannt?

http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2206426

LolekDeluxe
2008-08-02, 14:25:38
Was ist jetzt zum Geier damit?? Ich hab meine 4850 nach 2 Tagen abgegeben. Weil "wie ichs darf" und hab mir das Geld zurückholen können und hare der Dinge wieder mit der 1950pro/512 aus.

Genau wegen diesem Feature und genau in der Hoffnung, es gibt die Modelle in einiger Zeit mit Powerplay(2). Kommt da jetzt noch was oder wars das? :mad:

Hat das nicht schon mit den 3xxx einwandfrei funktioniert? Hallo? :frown:
Diese ganze PP2 Geschichte wird immer lächerlicher, ja es ist schade das es noch nicht läuft.
Vielleicht wir es ja nie laufen, aber jetzt GK wegen zu hohen IDLE verbrauch zurückzugeben ist sowas von asozial.:down:
Hat sich überhaupt einer darüber Gedanken gemacht, das der Wertverlust z.B. einer 4850 nach einem Jahr das
5-10 fache verschlingt, imgegensatz zudem was man mit IDLE einsparren "könnte".
Ich hab mir jetzt eine 4870 geholt und scheiss auf den Mehrverbrauch.:P

Schlammsau@Gast
2008-08-03, 10:24:49
wers noch nicht mitbekommen hat......
http://www.forumdeluxx.de/forum/showthread.php?t=516691
hier gibt es ein nettes Tool zum anpassen der Taktraten. Funzt wunderbar und ist zum überbrücken der Zeit, bis PP funktioniert, sehr gutg geeignet.

http://img3.imagebanana.com/img/39amgds/ACP_02.jpg

Tarkin
2008-08-04, 10:10:05
http://www.hardware-infos.com/news.php?news=2269

endlich! Catalyst 8.8 mit Powerplay und verbessertem CF

"Auch der 2D-Stromsparmodus Powerplay 2.0 soll endlich funktionieren. Auf selbem System sank der Stromverbrauch im Idle von 211 auf 174 Watt deutlich."

Hübie
2008-08-04, 10:20:09
Ich hab mal den 8.8 Beta gesaugt: Da geht PP immer noch net!
Entgegen einiger Behauptung anderer....
Hab 2 HD4850 falls das was zur Sache tut.


bye Hübie

Edit: Dieser hier (http://www.ati-forum.de/allgemein/news/p4409-catalyst-8-8-beta-aufgetaucht-catalyst-8-8-beta-found/#post4409) solls angeblich sein. Driver Version 8.52-080625a-066078E-ATI gibt er aus

http://s2.directupload.net/images/080804/hlxhf5rm.jpg (http://www.directupload.net)

Schlammsau
2008-08-04, 10:32:23
Ich hab mal den 8.8 Beta gesaugt: Da geht PP immer noch net!
Entgegen einiger Behauptung anderer....
Hab 2 HD4850 falls das was zur Sache tut.


bye Hübie

Edit: Dieser hier (http://www.ati-forum.de/allgemein/news/p4409-catalyst-8-8-beta-aufgetaucht-catalyst-8-8-beta-found/#post4409) solls angeblich sein. Driver Version 8.52-080625a-066078E-ATI gibt er aus

http://s2.directupload.net/images/080804/hlxhf5rm.jpg (http://www.directupload.net)

Das ist aber nicht dieser hier oder?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=423148
Bei diesem geht PP nämlich wirklich nicht und ist schon älteren Semesters! Ist eine sehr frühe Beta des 8.8........

Feuerpfote
2008-08-04, 10:41:55
Was steht in der Syssteuerung, von wann der Treiber ist?

Schlammsau
2008-08-04, 10:45:40
Was steht in der Syssteuerung, von wann der Treiber ist?

25.06.08......sieht man im Screeni oben. Es ist der "alte" Beta Treiber.
Hübie, du hast den falschen Treiber!

Feuerpfote
2008-08-04, 12:26:58
ich saug mal.

€: aus dem hwl:
so .. also die karte taktet mit dem treiber zwar nicht weiter runter als mit dieversen anderen treibern,
der verbrauch ich aber trotzdem geringer!

hab vor installation des 8.8 beta den stromverbrauch bei diversen taktraten ermittelt ( 8.7 presse treiber)
ergebnisse:
500/465 -154w
300/300 -145w
200/200 -140w

und nun das selbe spiel mit dem 8.8 beta!
500/465 -137w
300/300 -125w
200/200 -120w

also ~20w weniger bei gleicher taktrate als mit den alten treibern!

Hübie
2008-08-04, 12:46:52
25.06.08......sieht man im Screeni oben. Es ist der "alte" Beta Treiber.
Hübie, du hast den falschen Treiber!

Und wo gibts den richtigen? Den hier hatte ich vorhin bei ATI-Forum.de gesaugt...


bye Hübie

Feuerpfote
2008-08-04, 12:48:13
das müsste er sein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=427245

Ich bin noch am saugen. Dauert etwas.

Hübie
2008-08-04, 13:08:02
So hab den neuen von nem HWL-User bekommen. Da geht aber auch kein PP. Also viel heiße Luft, sonst nix...


bye Hübie

Feuerpfote
2008-08-04, 13:13:02
wieso nicht, haste nachgemessen?

Hübie
2008-08-04, 13:15:36
Ja. Siehe hier im HWL (http://www.forumdeluxx.de/forum/showpost.php?p=9741598&postcount=1927).

Schade.


bye Hübie

Schlammsau
2008-08-04, 13:21:01
Ja. Siehe hier im HWL (http://www.forumdeluxx.de/forum/showpost.php?p=9741598&postcount=1927).

Schade.


bye Hübie

kannst mal nen Screenshot von den Teriberdaten (wie oben) machen?

Fox
2008-08-04, 13:27:54
könnte man die 2 Thread in diesem Forum vielleicht zusammenführen? Dann hat man alles zentral.

Odal
2008-08-04, 15:36:40
ich saug mal.

€: aus dem hwl:


schade das da nicht der default verbrauch des systems angegeben ist...

so hätte man den (PP2) verbrauch der karte abschätzen können

mit runtertakten (von den schon etwas untertakteten werten) bei angenommenen 85% netzteileffizienz sinds so ca. 30++ watt weniger verbraucht...

laut xbits braucht die 4870 65 watt...

liesse sich dann auf einen verbrauch von 35 watt abschätzen....

hatte Powerplay2 nicht das ziel <<30 watt idle zu verbauchten?

könnte bald hinkommen

Gast
2008-08-04, 15:54:23
schade das da nicht der default verbrauch des systems angegeben ist...

so hätte man den (PP2) verbrauch der karte abschätzen können

mit runtertakten (von den schon etwas untertakteten werten) bei angenommenen 85% netzteileffizienz sinds so ca. 30++ watt weniger verbraucht...

laut xbits braucht die 4870 65 watt...

liesse sich dann auf einen verbrauch von 35 watt abschätzen....

hatte Powerplay2 nicht das ziel <<30 watt idle zu verbauchten?

könnte bald hinkommen

ATi wollte eigentlich nur 10 Watt verbrauchen.....war irgendwo im Speku Thread zu finden!

w0mbat@Chicago
2008-08-04, 19:11:58
ATi wollte eigentlich nur 10 Watt verbrauchen.....war irgendwo im Speku Thread zu finden!

Nein, das haben Hartware und HW-Infos als Ziel angegeben, bei dennen waren aber auch die restlichen Daten falsch.

Schlammsau
2008-08-04, 19:30:28
Nein, das haben Hartware und HW-Infos als Ziel angegeben, bei dennen waren aber auch die restlichen Daten falsch.
was darf man dann erwarten?

blackbox
2008-08-04, 20:52:19
Das Ganze erinnert mich irgendwie an die Geschichte mit Nvidia. Die wollten mit einem Treiberupdate auch das Stromproblem in den Griff bekommen. Bei welcher Karte war das nochmal? Und irgendwie ist doch nie was draus geworden?

Coda
2008-08-04, 20:55:25
Eigentlich alle G8x/G9x-Karten.

Hübie
2008-08-04, 21:49:56
kannst mal nen Screenshot von den Teriberdaten (wie oben) machen?


Bitte sehr:

http://s8.directupload.net/images/080804/ybwye96z.jpg (http://www.directupload.net)

;)


bye Hübie

Hübie
2008-08-08, 20:27:23
Tja hier tut sich ja auch nix mehr. Irgendwie gibts keine vernünftig funktionierende Art und Weise wie man bei der HD48x0-Serie Energie sparen kann.

Dieses tool (http://www.forumdeluxx.de/forum/showthread.php?t=516691) produziert diesen Fehler:

http://s4.directupload.net/images/080808/temp/vj7vbj4s.jpg (http://s4.directupload.net/file/d/1515/vj7vbj4s_jpg.htm)
siehe Systray


bye Hübie

x-dragon
2008-08-08, 20:49:22
Naja dann läßt man halt das das AMD-Tool im Autostart, welche automatisch die Grafikkarte runtertaktet und je nach Bedarf ändert man das mit einem Mouseklick. Ist jetzt ja auch nicht so aufwendig ... :)

Hübie
2008-08-08, 20:59:17
Das sagt bei mir immer "set clock failed!". Wahrscheinlich hab ich auch echt ne ungünstige Kombination: XP x64+crossfire. Da kommen wohl viele net mit.
ATT ist auch beschissen. Damit stürzen Spiele nach ein paar Minuten komplett ab.


bye Hübie

Gast
2008-08-08, 21:11:46
Diese ganze PP2 Geschichte wird immer lächerlicher, ja es ist schade das es noch nicht läuft.
Vielleicht wir es ja nie laufen, aber jetzt GK wegen zu hohen IDLE verbrauch zurückzugeben ist sowas von asozial.:down:
Hat sich überhaupt einer darüber Gedanken gemacht, das der Wertverlust z.B. einer 4850 nach einem Jahr das
5-10 fache verschlingt, imgegensatz zudem was man mit IDLE einsparren "könnte".
Ich hab mir jetzt eine 4870 geholt und scheiss auf den Mehrverbrauch.:P
Du rechnest zwei total separate ökonomische Kriterien miteinander auf. Das wäre in etwa so, als wenn du sagen würdest: "Ist doch egal ob meine Freundin JETZT hübsche Sachen trägt ... alt und hässlich wird sie sowieso...warum also nicht gleich im Kartoffelsack rumlaufen."

Gast
2008-08-09, 10:15:45
Du rechnest zwei total separate ökonomische Kriterien miteinander auf. Das wäre in etwa so, als wenn du sagen würdest: "Ist doch egal ob meine Freundin JETZT hübsche Sachen trägt ... alt und hässlich wird sie sowieso...warum also nicht gleich im Kartoffelsack rumlaufen."



Hier wird nix miteinander aufgerechnet sondern einfach in Relation gesetzt.

Feuerpfote
2008-08-09, 11:48:31
Du rechnest zwei total separate ökonomische Kriterien miteinander auf. Das wäre in etwa so, als wenn du sagen würdest: "Ist doch egal ob meine Freundin JETZT hübsche Sachen trägt ... alt und hässlich wird sie sowieso...warum also nicht gleich im Kartoffelsack rumlaufen."

zumal das 10 fache etwa 500 bis 700 € wären. Der Wertverlust einer 130€ Karte also effektiv über 350€ läge. Da kauf ich mir 10.000 Gebrauchte und bin Millionär. :frown:

LolekDeluxe
2008-08-09, 13:16:38
Hier wird nix miteinander aufgerechnet sondern einfach in Relation gesetzt.
Richtig, darum geht es mir.:up:
Alle heulen wegen den höheren IDLE Mehrverbrauch von ca. 5-10€ im Jahr.
Wobei man nach einem Jahr bestimmt 50€ oder mehr Wertverlust erleidet.

Kriton
2008-08-09, 13:44:28
Der Wertverlust ist aber theoretisch - umso mehr wenn ich meine Karte lange nutze und dann eh nicht mehr verkaufen kann. Da spielt der Verbrauch dann nämlich doch eine Rolle...

salo
2008-08-09, 14:07:22
Richtig, darum geht es mir.:up:
Alle heulen wegen den höheren IDLE Mehrverbrauch von ca. 5-10€ im Jahr.
Wobei man nach einem Jahr bestimmt 50€ oder mehr Wertverlust erleidet.

Hast du dir mal darüber Gedanken gemacht, dass nicht "Alle" wegen dem Geld heulen. Schon allein die Aussage IDLE Mehrverbrauch von 5-10 € im Jahr kann man auch als totalen Quark ansehen. Du gibst eine Energie in €/Jahr an. Was für ein Blödsinn. Misst du deine Schwanzlänge auch in Kilogramm.

"Ich liebe meine Freundin, weil sie über 100 T€ im Jahr verdient." Genial!

Der höhere Energieverbrauch kann für einen Käufer einen gänzlich anderen negativen Nutzen stiften, als nur höhere Lebenszykluskosten resultierend aus dem höheren IDLE-Verbrauch.

Vielleicht lassen sich solche Karten IDLE nicht mehr passiv und lautlos kühlen. Vielleicht mag ein solcher Käufer schlicht unnötige Energieverschwendung nicht.

Eindimensional, subjektiv und trivial verallgemeinern. Das ist dein Talent.:eek:

Der Werteverlust ist/war bei einer Karte, die weniger verbraucht (in diesem fall z.B. Radeon HD3850) ähnlich hoch.
Genau aus diesem Grund kann man das nicht aufrechnen.
Warum verbrauchen Grafikkarten im IDLE/Windowsdesktop soviel Strom. Das ist schlichtweg unnötig und mindestens ökologisch zu verurteilen, wenn man dem Argument mit der passiven Kühlbarkeit schon nicht folgen möchte.
Diese Karten sind (meist über mehrere Nutzer verstreut) mindestens geschätzte fünf Jahre im Einsatz. Da werden aus 5-10€ schnell mal total unnnötige 25-50€. Bei 10 000 verkauften Karten sind das schon 250 - 500 T€ sinnlos verpulverte Energie.:|

Schlammsau
2008-08-09, 17:05:59
Hast du dir mal darüber Gedanken gemacht, dass nicht "Alle" wegen dem Geld heulen. Schon allein die Aussage IDLE Mehrverbrauch von 5-10 € im Jahr kann man auch als totalen Quark ansehen. Du gibst eine Energie in €/Jahr an. Was für ein Blödsinn. Misst du deine Schwanzlänge auch in Kilogramm.

"Ich liebe meine Freundin, weil sie über 100 T€ im Jahr verdient." Genial!

Der höhere Energieverbrauch kann für einen Käufer einen gänzlich anderen negativen Nutzen stiften, als nur höhere Lebenszykluskosten resultierend aus dem höheren IDLE-Verbrauch.

Vielleicht lassen sich solche Karten IDLE nicht mehr passiv und lautlos kühlen. Vielleicht mag ein solcher Käufer schlicht unnötige Energieverschwendung nicht.

Eindimensional, subjektiv und trivial verallgemeinern. Das ist dein Talent.:eek:

Der Werteverlust ist/war bei einer Karte, die weniger verbraucht (in diesem fall z.B. Radeon HD3850) ähnlich hoch.
Genau aus diesem Grund kann man das nicht aufrechnen.
Warum verbrauchen Grafikkarten im IDLE/Windowsdesktop soviel Strom. Das ist schlichtweg unnötig und mindestens ökologisch zu verurteilen, wenn man dem Argument mit der passiven Kühlbarkeit schon nicht folgen möchte.
Diese Karten sind (meist über mehrere Nutzer verstreut) mindestens geschätzte fünf Jahre im Einsatz. Da werden aus 5-10€ schnell mal total unnnötige 25-50€. Bei 10 000 verkauften Karten sind das schon 250 - 500 T€ sinnlos verpulverte Energie.:|


:up::massa:

Hübie
2008-08-09, 18:24:13
Richtig, darum geht es mir.:up:
Alle heulen wegen den höheren IDLE Mehrverbrauch von ca. 5-10€ im Jahr.
Wobei man nach einem Jahr bestimmt 50€ oder mehr Wertverlust erleidet.

...und zusätzlich noch die Kosten des Mehrverbrauchs hat :rolleyes:

Das ist also ein schlimmeres Minusgeschäft, als nur der Wertverlust. Überleg doch mal, bevor du schreibst.
Mir persönlich ists jedoch scheißegal wieviel ich am Ende mehr an Energie zahlen muss, weil es durch andere Dinge kompensiert werden kann (Glotze aus, verbrauchsarme Haushaltsgeräte etc..).
Ich denke da nur an die arme Karte, die permanent mit 80°C vor sich hinbruzzelt ;(:redface:


bye Hübie

ps: Ich wohne nicht bei Mami! :wink:

HPVD
2008-08-12, 09:13:52
beider 4870X2 scheint das Powerplay im Idle wohl recht gut zu funktionieren:

Gesamtsystem mit 4870x2 im Idle 206W (ATi Catalyst Sample 8-52-2)
Gesamtsystem mit 2x 4870 CF im Idle 283W (ATi Catalyst 8.6 Release 5)
Gesamtsystem mit 1x 4870 CF im Idle 197W (ATi Catalyst 8.6 Release 5)

Quelle:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme


gibts bereits irgendwo tests mit dem für die X2 verwendeten Treiber für eine einzelne 4870?

Andreas12
2008-08-12, 09:25:25
beider 4870X2 scheint das Powerplay im Idle wohl recht gut zu funktionieren:

Gesamtsystem mit 4870x2 im Idle 206W (ATi Catalyst Sample 8-52-2)
Gesamtsystem mit 2x 4870 CF im Idle 283W (ATi Catalyst 8.6 Release 5)
Gesamtsystem mit 1x 4870 CF im Idle 197W (ATi Catalyst 8.6 Release 5)



Reißt mich nicht vom Hocker.
Mit einem Quad 6600 und einer GTX280 komme ich auf nur 154W Idle
Verbrauch.

HPVD
2008-08-12, 09:35:22
die absoluten werte sind natürlich nicht so toll.
Aber das verwendete System erzeugt auch ohne Grafikkarte bereits eine gewisse "Grundlast":

Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
Asus P5E3 Deluxe WiFi-AP
2x 1024 MB G.Skill DDR3-1600
Netzteil Coolermaster M850 Real Power Pro Modular (850 Watt)

Toshiba SD-H802A HD-DVD-Laufwerk
Pioneer BDC-202BK SATA Blu-ray-Laufwerk
Samsung SpinPoint F1 SATA2-HDD mit 750 GB

=> Die Senkung um fast 80W im Idle (2x4870 => 4870X2) ist aber schon sehr beachtlich und das obwohl sich gleichzeitig auch die Speichermenge verdoppelt.
-Respekt!

ZipKaffee
2008-08-12, 19:16:58
Kauft euch noch ein Laptop wie ich, dann verbraucht ihr nur 23 Watt und das mit Bildschirm :biggrin:.

und zum Zocken wird halt der PC angeworfen...

Hübie
2008-08-12, 20:39:12
So mach ichs auch =)


bye Hübie

dildo4u
2008-08-12, 20:45:05
beider 4870X2 scheint das Powerplay im Idle wohl recht gut zu funktionieren:

Gesamtsystem mit 4870x2 im Idle 206W (ATi Catalyst Sample 8-52-2)
Gesamtsystem mit 2x 4870 CF im Idle 283W (ATi Catalyst 8.6 Release 5)
Gesamtsystem mit 1x 4870 CF im Idle 197W (ATi Catalyst 8.6 Release 5)

Quelle:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme


gibts bereits irgendwo tests mit dem für die X2 verwendeten Treiber für eine einzelne 4870?Für die einzelne 4870 wird der neue Treiber whol nix bringen bei der X2 wird whol einfach in 2D eine GPU komplett abgeschaltet.

HarryHirsch
2008-08-12, 20:51:05
Für die einzelne 4870 wird der neue Treiber whol nix bringen bei der X2 wird whol einfach in 2D eine GPU komplett abgeschaltet.

sowas wär für cf echt geil... aber da brauch man bestimmt nen amd chipsatz oder?

derguru
2008-08-12, 21:42:34
Für die einzelne 4870 wird der neue Treiber whol nix bringen bei der X2 wird whol einfach in 2D eine GPU komplett abgeschaltet.

glaub ich nicht das eine gpu abgeschaltet wird weil dann das runtertakten auf 500/500 unnötig wäre und vorallem würde es dann noch weniger im idle sein.

LolekDeluxe
2008-08-13, 07:28:11
...und zusätzlich noch die Kosten des Mehrverbrauchs hat :rolleyes:

Das ist also ein schlimmeres Minusgeschäft, als nur der Wertverlust. Überleg doch mal, bevor du schreibst.
Mir persönlich ists jedoch scheißegal wieviel ich am Ende mehr an Energie zahlen muss, weil es durch andere Dinge kompensiert werden kann (Glotze aus, verbrauchsarme Haushaltsgeräte etc..).
Ich denke da nur an die arme Karte, die permanent mit 80°C vor sich hinbruzzelt ;(:redface:


bye Hübie

ps: Ich wohne nicht bei Mami! :wink:
Hubie Du mußt aber auch noch Lesen lernen.
Ich meinte in dem Post nur den IDLE verbrauch.
Über den 3D Verbrauch der 48XX scheint sich niemand aufzuregen,
ach ja der von Nvidia ist ja höher.;D
"Ich denke da nur an den armen Hübie, der permanent mit 80°C vor sich hinbruzzelt.:rolleyes:
Lötzin hat eine schmelz Temp von ca. 160-180°C.
Die meisten IC's sind bis 150°C Spezifiziert.
Deine Probleme möchte ich haben.

Hübie
2008-08-13, 12:46:58
Naja aber es ist allseits bekannt, dass durch permanent höhere Temperaturen die Langlebigkeit leidet.
Darauf bezog sich mein post.

Ich gebe dir ja auch Recht, denn man hat ja wie gesagt nicht nur die Mehrkosten beim Energieverbrauch sondern zusätzlich den von dir angesprochenen Wertverlust.
Je länger man die Karte im Einsatz hat umso besser ist der Wertverlust zu verschmerzen, da aber die Temps permanent hoch sind siehts mit einem langen Leben eher schlecht aus: ergo muss ATi sich endlich bewegen!


bye Hübie

centurio81
2008-08-13, 14:15:35
Meine 4870 braucht im Idle mit meinem System 130-140 Watt.
Prozessor ist immer hochgetaktet.

Einfach das AMD Clocking Tool benutzen und drastisch runtertakten. :)

Temps um die 50° bei diesen taktraten..(150/200)

Gast
2008-08-13, 23:24:32
Naja aber es ist allseits bekannt, dass durch permanent höhere Temperaturen die Langlebigkeit leidet.



*klingelingeling* Legendenalarm und gefährliches Halbwissen, welches als Fakt hingestellt wird.

Hübie
2008-08-13, 23:29:12
*klingelingeling* Legendenalarm und gefährliches Halbwissen, welches als Fakt hingestellt wird.

*simmsalabimm* Das Gastphänomen, das ohne Erklärung Senf dazu gibt.

Kläre uns alle doch auf. :rolleyes:


bye Hübie

Gast
2008-08-14, 01:37:38
*simmsalabimm* Das Gastphänomen, das ohne Erklärung Senf dazu gibt.

Kläre uns alle doch auf. :rolleyes:


bye Hübie
Bin zwar ein anderer Gast, aber ich geb mal dazu ein Kommentar ab. Dem Siliziumchip selbst tuts überhaupt nichts wenn der mit 120° arbeitet. Die Frage ist halt ob das Package damit zurecht kommt und ob Elkos in der Nähe sind (denn diese sind temperaturempfindlich). Beides sind aber Designpunkte die man problemlos ändern kann. Im übrigen sind 120° für einen Notebookgrafikchip was völlig normales.

wieder ein anderer Gast
2008-08-14, 05:49:01
Naja aber es ist allseits bekannt, dass durch permanent höhere Temperaturen die Langlebigkeit leidet.


Ich denke große Temperaturunterschiede (Idle/Last) sind nicht so der bringer für eine Karte!

centurio81
2008-08-14, 11:00:36
Bin zwar ein anderer Gast, aber ich geb mal dazu ein Kommentar ab. Dem Siliziumchip selbst tuts überhaupt nichts wenn der mit 120° arbeitet. Die Frage ist halt ob das Package damit zurecht kommt und ob Elkos in der Nähe sind (denn diese sind temperaturempfindlich). Beides sind aber Designpunkte die man problemlos ändern kann. Im übrigen sind 120° für einen Notebookgrafikchip was völlig normales.

Woher hast du diese Information?
Würd mich mal interessieren.
Ich breche in der Regel auch nicht in Panik aus, wegen hohen Temps, denke die vertragen alle mehr als man denkt, aber trotzdem ises mal schön Zahlen zu haben.
Denn es irrt wirklich viel halbwissen durch den Äther.. ;) ^^

Schlammsau
2008-08-14, 12:30:05
50Watt im Idle zu sparen ist ohne Umstände mit 2 Tools (http://www.forumdeluxx.de/forum/showthread.php?t=516691) möglich! Schauts euch an.....

Gast2
2008-08-14, 14:27:30
Woher hast du diese Information?

Das sind einfache Basis, die vorallem hier im Forum sich gern mal weiter verbreiten dürfen. Stattdessen schieben einige schon Panik bei normalen Temperaturen, ich find das immer wieder lustig. :)
Verdampfen tut deine GPU nicht bei 100 oder 120° grad... außerdem wird bevor es dazu kommt, sicherlich durch fehlfunktionen (rechen-pixelfehler,freezes) darauf aufmerksam gemacht.Schau dir doch mal die passiven GraKa an, einige davon arbeiten ständig in diesem Bereich.

aber trotzdem ises mal schön Zahlen zu haben.

Bringt dir nichts, hängt immer vom Einzelfall ab, wie der Gast schon sagte.
Es zählt ja nicht nur das Silizium, sondern auch der rest und der varriert von Anbieter zu Anbieter teilweise, es gibt manchmal auch fehlerhafte Karten wie erst neulich bei nvidia...

Gast
2008-08-14, 14:40:46
*klingelingeling* Legendenalarm und gefährliches Halbwissen, welches als Fakt hingestellt wird.

schonmal was von elektromigration gehört? das ist ein fakt ;)

Schlammsau
2008-08-14, 16:32:48
schonmal was von elektromigration gehört? das ist ein fakt ;)

Jupp....aber hat das nicht eher was mit zu viel Spannung, statt Temperaturen um die 100° zu tun?

Hübie
2008-08-14, 23:25:35
Ich rede auch net vom Silizium sondern von den Widerständen,Transistoren und Kondensatoren.

Es sind schon einige Karten beim Furmark bei ~100°C abgeraucht. DAS ist ein Fakt.
Im HWL und afaik auch hier gibts schon ein paar "Opfer".

@Schlammsau: Hab ich schon probiert aber mit XP x64 und CF gehts einfach net. Bin wohl zu sehr Aussenseiter!

bye Hübie

Angiesan
2008-08-15, 00:35:07
Ja Ja im HWLuxx,

lese da auch ab und zu mal, dass aber die Hälfte da was an der Waffel hat ist
schon klar, oder?
"Wie konnte das nur passieren, habe meine 4870 mit einem XY Kühler auf 840/1200 gebracht und dann ist mir das Ding doch tatsächlich bei Furmark nach 5 Std. abgeraucht, kann ich jetzt ja mal gar nicht verstehen" lol
So sehen die Kommentare aus wenn so ein Ding mal abgeraucht ist.
Was ist daran besonderes, sowas gab es schon bei der 9800 und erst Recht bei der X800 von ATI.
Wenn man es aber nicht gleich übertreibt, dann kann man mit seiner 4870 auch über Jahre glücklich werden, da bin ich mir sicher.
Das PP nicht richtig, oder nicht in dem Maße funktioniert finde ich aber auch nicht gut, für was soll es gut sein wenn das Ding im Idle einfach so viel verbraucht und für mich ist es keine Alternative da mit diversen Tools selbst Hand anzulegen.

Grüße

centurio81
2008-08-15, 00:50:52
Zumal edr Kühler echt Reserven hat.. Der dreht bei Last und Standardtakt ja nich mal zur Hälfte auf..
So schnell überhitzt die Karte sicher net..

Hübie
2008-08-15, 11:02:43
Teilweise waren das non-oc-Karten. Aber sei es drum. Manche scheinen mir auch hier lernresistent zu sein.

Dauerhaft hohe Temps sind einfach net gut für elektronische Bauteile. Ende.
Warum werden z.B. CPUs sonst auf ~85°C spezifiziert???


bye Hübie

centurio81
2008-08-15, 12:15:02
Warum werden z.B. CPUs sonst auf ~85°C spezifiziert???


Wo steht das?

Gast
2008-08-15, 14:44:19
Wo steht das?

Bei AMDs neuem Athlon X2 6000+ sind es sogar nur 62°C.

Quelle: http://www.planet3dnow.de/photoplog/index.php?n=2943

centurio81
2008-08-15, 14:49:53
Wahrscheinlich aber nur wieder der Heatspreader..
Die Kerntemp is üblicherweise deutlich höher angelegt..

Gast
2008-08-15, 14:51:42
Teilweise waren das non-oc-Karten. Aber sei es drum. Manche scheinen mir auch hier lernresistent zu sein.

Dauerhaft hohe Temps sind einfach net gut für elektronische Bauteile. Ende.
Warum werden z.B. CPUs sonst auf ~85°C spezifiziert???


bye Hübie

Weil die Funktion nur bis zu dieser Temperatur garantiert wird. Das hat aber nichts mit eventuellen Zersetzungsprozessen zu tun.

Ich wage mal zu behaupten dass ständige Erwärmungs- und Abkühlungsprozesse eine wesentlichere Einschränkung für die MTBF von den meisten auf Grafikkarten genutzten Bauteilen darstellen als eine konstant hohe Temperatur um die 80°C.

centurio81
2008-08-15, 14:58:00
Wieso?
Dann daf ich mein Rechner besser nicht mehr abschalten oder was.. Weil wenn er abkühlt er auf dauer kaputt geht..? :uroll:
Wenn es um krasse Unterschiede geht versteh ich das ja..
Wegen Kondesnwasser und so..
Aber ich hab Nachts keine 0° im Zimmer und sonst 35°..
Den Sprung von den paar Grad den so ne Komponente mitmacht seh ich eher als lebensverlängernd an..

Gast
2008-08-15, 15:22:44
Wieso?
Dann daf ich mein Rechner besser nicht mehr abschalten oder was.. Weil wenn er abkühlt er auf dauer kaputt geht..? :uroll:
Wenn es um krasse Unterschiede geht versteh ich das ja..
Wegen Kondesnwasser und so..
Aber ich hab Nachts keine 0° im Zimmer und sonst 35°..
Den Sprung von den paar Grad den so ne Komponente mitmacht seh ich eher als lebensverlängernd an..

Ja, man kann eben keine absolute Aussage treffen. Zum einen ist eine Abkühlung bei Nichtbeanspruchung sicher förderlich für verwendete Elektrolytkondensatoren, andererseits bestehen die mesiten Bauteile nunmal aus verschiedenen Materialien mit unterschiedlichen Ausdehnungskoeffizienten, daher sind ständige Temperaturwechsel auch nicht das Gelbe.

Wie gesagt, es gibt keine allgemeingültige Aussage, kommt ganz auf den Fall an. Bis zu einer bestimmten Temperaturschwelle (aufgrund des exponentiellen Fortschritts des Elektrolytverlustes bei Elkos) halte ich eine konstante Temperatur für vorteilhafter.

Hübie
2008-08-16, 01:21:42
Also manche scheinen ihre eigene Theorie von gängiger Praxis abzusondern.

Interessant :)


bye Hübie

Gast
2008-08-16, 01:50:20
Also manche scheinen ihre eigene Theorie von gängiger Praxis abzusondern.

Interessant :)


bye Hübie


Das liegt wohl daran dass solche Spinner wie du etwas im Netz aufschnappen und meinen das hier im Forum als Fakt verkaufen zu müssen. Im Gegensatz zu dir schreib ich wenigstens dazu das die Äusserungen meine Ansicht vertreten.

Hübie
2008-08-16, 10:16:49
Ah yo. Is schon klar :) 15 Jahre PC-Erfahrung und Arbeit in IT-Firmen haben mich aber eben etwas anderes gelehrt, als du uns hier weiß machen willst.
Und ich verbitte mir ausdrücke wie "Spinner" und aufgeschnapptes Halbwissen. Ich möchte nicht, dass du so von oben herab mit mir redest.


bye Hübie

ZipKaffee
2008-08-16, 11:32:05
Bitte wieder zurück zum Thema, danke. ;)

r@h
2008-08-16, 11:45:16
Ich wage mal zu behaupten dass ständige Erwärmungs- und Abkühlungsprozesse eine wesentlichere Einschränkung für die MTBF von den meisten auf Grafikkarten genutzten Bauteilen darstellen als eine konstant hohe Temperatur um die 80°C.
Wie bitte :confused:

Du bist also der Meinung, dass der Wechsel von etwa 50° auf 80° und wieder zurück "schädlich" für die GPU wäre?
Die anderen Komponenten bekommen davon ja bei entsprechender Kühlung kaum etwas mit...

Also bitte nicht ambient und core Temp verwechseln, gell?

Ich sehe nicht die Temperatur als das Problem an, sondern ausschließlich den Stromverbrauch.
Und mir ist schlicht egal, was Strom denn nun 'kostet'...

Razor

Uwe-3D
2008-08-17, 12:21:31
Hallo,

ich hatte gestern am mein Windows neu aufgesetzt. Ohne Catalyst-Treiber lag die GPU bei 82°C:ucrazy3:
Dann die Catalyst-Beta 8.8 aufgespielt -> GPU=60°C Ich weiß aber nicht, wie der Unterschied mit den 8.7er-Treiber gewesen wäre.

Gruß,
Uwe

HPVD
2008-08-17, 12:25:20
Hallo,

ich hatte gestern am mein Windows neu aufgesetzt. Ohne Catalyst-Treiber lag die GPU bei 82°C:ucrazy3:
Dann die Catalyst-Beta 8.8 aufgespielt -> GPU=60°C Ich weiß aber nicht, wie der Unterschied mit den 8.7er-Treiber gewesen wäre.

Gruß,
Uwe

4870?