PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI baut den Prescott unter den GPUs


Gast
2005-10-06, 09:37:09
Das Gesamtsystem mit der X1800XT verbrät idle, nur bei der Anzeige des Windows-Desktop, bereits 152W, das sind 33W mehr als ein System mit einer nVidia 7800GTX und 43W mehr als mit der alten ATI High-End Karte, der X850XT. Vermutlich hat ATI hier die gleichen Probleme mit dem 90nm Prozess wie Intel mit dem Prescott, hohe Leckströme.

Der diesjährige Prescott Award für kreativen Umgang mit Energie und Umwelt sollte deshalb an ATI verliehen werden, schliesslich haben sie mit der X1800XT eindrucksvoll bewiesen dass man in etwa die Leistung einer 7800GTX auch mit viel mehr Hitze, Geräusch und Energieverbrauch erreichen kann. Das muss kesseln, Bravo ATI.

Spasstiger
2005-10-06, 09:40:22
Unter Idle zieht ein Athlon XP mehr Strom als ein Prescott. Und bei den Spitzenverbräuchen liegt die X1800 XT gleichauf mit der Konkurrenz.

Gast
2005-10-06, 09:45:04
Unter Idle zieht ein Athlon XP mehr Strom als ein Prescott.

Das ist falsch. Nicht wenn der XP beim Nichtstun, wie es sich gehört, schlafen geschickt wird. Viele Sockel-A Boards haben das im BIOS leider deaktiviert und nutzen den HLT Befehl nicht oder nicht richtig. Oft helfen dann Zusatzprogramme wie CPU-Idle und Konsorten.

Und bei den Spitzenverbräuchen liegt die X1800 XT gleichauf mit der Konkurrenz.

Die meiste Zeit verbringt man aber nun mal auf dem Windows Desktop, Internet, Officekram usw., deshalb ist der idle Verbrauch für die Gesamtenergiebilanz wesentlich wichtiger als der Spitzenverbrauch.

Spasstiger
2005-10-06, 09:53:36
Das ist falsch. Nicht wenn der XP beim Nichtstun, wie es sich gehört, schlafen geschickt wird. Viele Sockel-A Boards haben das im BIOS leider deaktiviert und nutzen den HLT Befehl nicht oder nicht richtig. Oft helfen dann Zusatzprogramme wie CPU-Idle und Konsorten.

Dann ist der Prescott-Vergleich trotzdem falsch, weil der im Idle wirklich nicht so wahnsinnig viel zieht.
Außerdem dürfte der hohe Verbrauch der neuen ATIs im Idle noch auf Treiberprobleme zurückzuführen sein. Da sollte noch was zu machen sein.
Unter Last ziehen die Dinger ja nicht mehr als andere GPUs.

Gast
2005-10-06, 10:00:50
Wiederum falsch. Die ziehen auch unter Last wesentlich mehr als andere GPUs.

http://www.xbitlabs.com/images/video/radeon-x1000/power_x18.gif

http://www.xbitlabs.com/articles/video/display/radeon-x1000.html

Dass man das mit einem anderen Treiber wesentlich drücken kann glaube ich nicht, das ist IMHO ein Problem des Herstellungsprozesses, eben die bei 90nm deutlich angestiegenen Leckströme. Und die sind vom Takt unabhängig.

Mumins
2005-10-06, 10:32:11
Wiederum falsch. Die ziehen auch unter Last wesentlich mehr als andere GPUs.

http://www.xbitlabs.com/images/video/radeon-x1000/power_x18.gif

http://www.xbitlabs.com/articles/video/display/radeon-x1000.html

Dass man das mit einem anderen Treiber wesentlich drücken kann glaube ich nicht, das ist IMHO ein Problem des Herstellungsprozesses, eben die bei 90nm deutlich angestiegenen Leckströme. Und die sind vom Takt unabhängig.

Da stimmt doch was nicht! Die XT braucht nie 53W mehr als ne XL.

Spasstiger
2005-10-06, 10:35:46
Da stimmt doch was nicht! Die XT braucht nie 53W mehr als ne XL.

Jo, kann echt nicht sein. Vom Taktunterschied alleine her dürfte die X1800 XT vielleicht 30% mehr Strom verbrauchen. Da müsste dann schon auch die Spannung ca. 1/4 höher sein.
EDIT: Hm, die 512 MB und die hohe Ramspannung könnten natürlich mit Gründe für den hohen Verbrauch sein.

Ist halt seltsam, dass sich die Messungen auch in keinster Weise mit den Messungen von Computerbase decken: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

Zur Lautstärke gibt es ja auch völlig unterschiedliche Aussagen, Techreport redet von einer geringen Lautstärke, geringer als bei der 7800 GTX, anderswo werden schon Vergleiche mit der GeForce FX 5800 herangezogen.

][immy
2005-10-06, 10:37:38
Da stimmt doch was nicht! Die XT braucht nie 53W mehr als ne XL.

das dürfte auf die Taktraten zurückzuführen sein. der energie-bedarf steigt ja nicht konstant mit der Taktrate, sondern desto höher die taktrate desto größer die sprünge des verbrauchs

könnte natürlich auch sein, das deren Sample-karte nen kleinen defekt hatte

ich find es allerdings schon heftig was die neuen grafikkarten so verbraten. Mal sehen was die mobile-versionen der Chips (wenn es den welche geben wird) so verbrauchen

edit:
die XT hat außerdem 512 MB Speicher der höher getaktet ist als die 256 MB der XL version, das sollte wohl einiges ausmachen.
der Chip ansich wird wohl nicht viel mehr verbraten, denn der etwa doppelte Energiehunger dank der doppelt so hohen speicherausstattung passt doch schon ganz gut

Rübezahl
2005-10-06, 11:07:47
Da stimmt doch was nicht! Die XT braucht nie 53W mehr als ne XL.

Doch, die Messung ist IMHO verlässlich, XBit-Labs sind recht kompetent in sowas. Der grosse Unterschied zur XL kommt meiner Meinung nach daher dass sowohl die Spannung für die GPU als auch für den Speicher bei der XT höher ist als bei der XL um die höheren Taktraten zu ermöglichen. Neben der doppelten Speichermenge natürlich. Zur Erinnerung: Die Verlustleistung eines Chips ist in erster Näherung linear zum Takt, aber quadratisch zur Betriebsspannung, das heisst eine Erhöhung der Spannung wirkt sich auf den Energieverbrauch weit heftiger aus als das blosse Erhöhen des Taktes.

Echt heftig, die XT wird meiner Meinung nach nur ne Prestigekarte aber kaum ein kommerzieller Erfolg. Wer kauft sich schon so nen Dinosaurier.

Ronny145
2005-10-06, 11:24:12
Da stimmt doch was nicht! Die XT braucht nie 53W mehr als ne XL.


Doch, kann schon stimmen. Bei techreport sind es 43 Watt. Es kommt ja auch immer ein bisschen auf die settings mit an.

Mumins
2005-10-06, 11:42:10
Wenn das stimmt haben die bei Computerbase aber nur Unsinn gemessen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

Da braucht die XT 30W mehr als die XL, aber die GTX ist mit der XT gleichauf. Xbit verbraucht die GTX viel zu wenig, oder eben die XT viel zu viel.

Der Ornithologe
2005-10-06, 12:51:46
XBit-Labs misst direkt die Leistungsaufnahme der Karte indem die aufgenommenen Ströme gemessen und mit der jeweiligen Spannung multipliziert werden. Dazu haben sie ein spezielles Board, das die direkte Messung erklaubt -> sehr genau.

Die anderen Seiten messen nur jeweils die Leistungsaufnahme des Gesamtsystems mit einfachen "Energiemonitoren". Das ist ziemlich ungenau weil alle möglichen anderen Faktoren mit reinspielen und man nicht genau weiss was für ein Energiemessgerät die verwenden, ob das Ding überhaupt reine Wirkleistung messen kann oder ob es sich von der Scheinleistungskomponente irreführen lässt, alles sehr dubios.

Wenn ihr gute Werte haben wollt dann schaut bei XBit-Labs.

deekey777
2005-10-06, 13:00:37
Da stimmt doch was nicht! Die XT braucht nie 53W mehr als ne XL.

Doch, da stimmt was. Die X1800XT und die X1800XL basieren beide auf verschiedenen R520-Versionen, steht so gar auf Seite 10 und 11. :)

Rooter
2005-10-06, 13:19:58
Stimmt doch gar nicht :

Die Radeon X1800 XL stellt die etwas kleinere Variante des XT-Top-Modells dar, ist technisch jedoch vollkommend identisch mit dem größeren Bruder. So wird auf jenen Karten ebenso der R520-Chip verbaut, die Taktrate ist mit 500 MHz aber deutlich geringer.
MfG
Rooter

sunnyboy
2005-10-06, 13:26:57
Die meiste Zeit verbringt man aber nun mal auf dem Windows Desktop, Internet, Officekram usw., deshalb ist der idle Verbrauch für die Gesamtenergiebilanz wesentlich wichtiger als der Spitzenverbrauch.
Na klar, man kauft sich ja auch eine High-End GraKa um damit im Internet schnell surfen zu können.
Das ist eine Karte zum SPIELEN damit ;)
sunnyboy

Gast
2005-10-06, 13:31:45
bin mal auf die 7800 GTX mit 512 MB Ram gespannt....

StefanV
2005-10-06, 13:34:43
Stimmt doch gar nicht :


MfG
Rooter
Nein, das was CBase da schreibt, stimmt (momentan) nicht.

Es ist in der Tat so, das die Chips auf der X1800XL und XT unterschiedliche Revisionen sind...

Das, was auf der XT verbaut wird, ist also neuer und schafft höhere Takte, auf der X1800XL sind die alten verbaut worden...

Gast
2005-10-06, 13:43:30
Na klar, man kauft sich ja auch eine High-End GraKa um damit im Internet schnell surfen zu können.
Das ist eine Karte zum SPIELEN damit ;)
sunnyboy

Also ich kenne niemanden der mit seinem Rechner nur spielt. Die meisten spielen auch damit und einige haben High-End GraKas. Aber eigentlich jeder davon verbringt mehr Zeit mit irgendwelchem anderen Kram als mit Spielen. Die Jungs die nur und ausschliesslich spielen haben eher Konsolen.

Ronny145
2005-10-06, 17:12:42
Wenn das stimmt haben die bei Computerbase aber nur Unsinn gemessen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

Da braucht die XT 30W mehr als die XL, aber die GTX ist mit der XT gleichauf. Xbit verbraucht die GTX viel zu wenig, oder eben die XT viel zu viel.


Eine weitere Messung:

http://www.pcper.com/article.php?aid=172&type=expert&pid=27


Dort ist der Unterschied 66 Watt. Die Tests unterscheiden sich zum Teil sehr deutlich. Ich würde der Messung von xbitlabs am meisten trauen.

Na klar, man kauft sich ja auch eine High-End GraKa um damit im Internet schnell surfen zu können.
Das ist eine Karte zum SPIELEN damit ;)
sunnyboy


Eben nicht, bei dir trifft das vielleicht zu. Ich habe einen PC für beides. Für Office+Internet und dann auch gleichzeitig zum spielen. Und wenn dann eine Karte 30 Watt im Idle mehr verbraucht, spricht das gegen die Karte, wenn es auch besser geht. Man merkt ja schon, dass die Stromaufnahme häufig angesprochen wird. Das kann gar nicht so unwichtig sein.

sunnyboy
2005-10-06, 20:00:41
@Gast und Ronny145
ich habe 3 Rechner, eine WorkStation, einen Spiele-PC und ähhm noch einen Spiele-PC.
Auf beiden Spiele-PC's sind nur Treiber und Spiele drauf, sonst nichts, nicht mal eine AV-Proggi (wozu auch?)
Also könnt ihr verstehen dass ich sehr viele Probs nicht habe die anderen haben...
Die Spiele-PC's werden z.B. nur zum Spielen an gemacht...
Die Vorteile die man somit hat sind nicht zu übersehen ;)
sunnyboy

Gast
2005-10-07, 21:08:51
deshalb ist der idle Verbrauch für die Gesamtenergiebilanz wesentlich wichtiger als der Spitzenverbrauch.

Fuer die Gesamtenergiebilanz ist die Phase des Betriebs fast voellig unwichtig. Den weitaus meisten Teil der Energie und Ressourcen verbraucht die Produktion der Karte, nicht der Betrieb.

Snoopy69
2005-10-08, 07:32:27
Ich finde es irgendwie zum Kotzen, dass es bei neuen Karten immer noch kein Feature ähnlich wie C&Q gibt.
Dass eine Karte für´s Nixtun im 2D-Betrieb noch soviel Strom verbrät muss echt nicht sein. Da könnte sie ruhig auf´s minimalste runtergetaktet werden und (wichtig) die VGPU runter...

Jmd hatte mal erwähnt, dass es sowas schon gibt!? Welche Karten wären das denn? Meine lt. Sig. hat das nicht - auch niemals gehabt...

derMeister
2005-10-08, 08:08:34
Die NV35/38 (59/5950) hatten so eine Funktion, im 2D haben sie extrem runter getaktet und die V-Core auch stark reduziert.
Habs mit nem Bioseditor noch weiter reduziert um 100mhz und 0,2V, funzte wunderbar. Leider hat meine x850 dieses nicht, schade.

Piffan
2005-10-08, 09:51:34
Sind hier ausgeloggte Member unterwegs oder was geht hier ab? Zwei Gäste haben nun ihre Meinung kundgetan, nämlich dass der Stromverbrauch der "Neuen" von Ati zu hoch ist. Ok, Botschaft angekommen, weitere Basherei wirkt langsam zu auffällig und monoton...Müsst das Ding ja nicht kaufen, aber auch nicht als Missionare für NV hier tätig sein.

Cyphermaster
2005-10-08, 10:33:08
Nun ja, irgendein Chip hat immer die rote Laterne, sprich den größten Stromdurst - das ist mal der eine, mal der Andere, aktuell wohl ATI und nicht mehr nVidia; soweit unspektakulär. Das "Wertvolle" an dem Thread ist eher die Frage, ob/wie man solche Karten im Surf/Büro-Betrieb per Software im Verbrauch drosseln kann. Wenn's bei CPUs als "Speedstep" bzw. "C'n'Q" geht, dann sollte es doch für die Hersteller kein Beinbruch sein, sowas zukünftig als Standard zu integrieren; da sollte man durchaus mal mit etwas Nachdruck nachfragen. Daß es über BIOS-Hacks geht, ist ja auch bekannt, nur kann's das doch eigentlich nicht sein, oder?

MikBach
2005-10-08, 10:41:54
Nun ja, irgendein Chip hat immer die rote Laterne, sprich den größten Stromdurst - das ist mal der eine, mal der Andere, aktuell wohl ATI und nicht mehr nVidia; soweit unspektakulär. Das "Wertvolle" an dem Thread ist eher die Frage, ob/wie man solche Karten im Surf/Büro-Betrieb per Software im Verbrauch drosseln kann. Wenn's bei CPUs als "Speedstep" bzw. "C'n'Q" geht, dann sollte es doch für die Hersteller kein Beinbruch sein, sowas zukünftig als Standard zu integrieren; da sollte man durchaus mal mit etwas Nachdruck nachfragen. Daß es über BIOS-Hacks geht, ist ja auch bekannt, nur kann's das doch eigentlich nicht sein, oder?
Kann ich nur zustimmen, wobei bei der X1800XT der Speicher ordentlich was wegzieht. Mit 256MB-600Mhz-Speicher wäre der Unterschied deutlich geringer.

Gast12
2005-10-08, 13:00:50
Es handelt sich bei diesem Graphen doch um die "Peak Power Consumption". Also das was die XT im Extremfall verbraucht und nicht um den durchsnittlichen Verbrauch.
Also könnte der von CB gemessene Wert für den Gesamtverbrauch des Systems wieder stimmen?

Gast
2005-10-08, 13:43:20
Man nehme die ATI Tray Tools und erstelle ein 2D Profil mit gesenkter Taktrate. Sollte doch gehen.

Dr.Dirt
2005-10-08, 14:04:18
Man nehme die ATI Tray Tools und erstelle ein 2D Profil mit gesenkter Taktrate. Sollte doch gehen.

Bringt aber kaum etwas, solange man die Spannungen nicht auch absenkt.

Gast
2005-10-08, 15:41:10
Bringt aber kaum etwas, solange man die Spannungen nicht auch absenkt.

Wer sagt das?! Laut Demirug steigt auch die Leistungsaufnahme Überproportional mit dem Takt. Und selbst wenn nicht, bei halbiertem,getritteltem, oder gevierteltem Takt verhält sich die Leistungsaufnahme des Chips genau so.

Gast hoch zwei
2005-10-08, 15:42:23
Warum sollte die Leistungsaufnahme überproportional zum Takt steigen? Das widerspricht allen Erfahrungen.

Coda
2005-10-08, 15:44:24
Warum sollte die Leistungsaufnahme überproportional zum Takt steigen? Das widerspricht allen Erfahrungen.Im Gegenteil, das ist schon so seit es CMOS-Schaltkreise gibt.

Gast hoch zwei
2005-10-08, 15:46:04
Für CMOS gilt in erster Näherung immer noch die alte Faustregel:

Leistungsaufnahme linear zum Takt, quadratisch zur Spannung.

jojo4u
2005-10-08, 16:32:50
Bringt aber kaum etwas, solange man die Spannungen nicht auch absenkt.

Kommt darauf an wie weit man es absenkt. Ein Athlon XP verbraucht durch Disconnect ja auch eindeutig weniger, oder? Meine Radeon 9700 Erlebnisse aus (http://forums.silentpcreview.com/viewtopic.php?t=23837&highlight=):

Today I discovered that my Radeon 9700 underclocks really well with the Ati Tray Tools. Previous tries with different tools only yielded freezes after some Mhz downclock.
Now, while on the Windows Desktop, I managed to get down to 35Mhz core and 170Mhz memory. 170Mhz memory requires a CAS latency from 4 up to 5 in order to stay without distortions.

What is the result in terms of power consumption?

all figures in VA AC of the whole system
underclocked 35/170Mhz: 99W
standard 275/270Mhz: 110W
overclocked 370/310Mhz: 113W

The Ati Tray Tools allow automatic clocking when you start or stop a 3d application.
Videos require 60Mhz core to be distortion-free.

Rooter
2005-10-08, 17:34:41
Naja, underclocken bringt wohl schon was aber undervolten dürfte sich noch sehr viel deutlicher zeigen.

Meine Messungen zum underclocking : http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3524491&postcount=26

MfG
Rooter

nino
2005-10-08, 23:07:04
finds auch scheisse das sich die vcore bei der radeon nicht einstellen lässt. beim dvd schauen oder so wärs dann vielleicht sogar möglich die karte passiv zu kühlen