PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikkarten und Stromverbrauch


Tjell
2004-06-15, 12:06:11
Hier erst einmal der zugrundeliegende Artikel der Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/19/#leistungsaufnahme).

Auch wenn in dem Artikel ausdrücklich gesagt wird, daß die angegebene Leistungsaufnahme nicht der Leistungsaufnahme der Grafikkarte entspricht, so verwundert mich dennoch Folgendes:

Daß die "alten" Grafikkarten so hoch in der Leistungsaufnahme eingestuft sind.

So ganz verstehe ich das nicht, würde aber ein anderes Licht auf den "Stromfresser" 6800 Ultra werfen. Kann das jemand erläutern?

LovesuckZ
2004-06-15, 12:41:16
Original geschrieben von Tjell
So ganz verstehe ich das nicht, würde aber ein anderes Licht auf den "Stromfresser" 6800 Ultra werfen. Kann das jemand erläutern?

r3xx wurden noch in 0.15 Fertigungsprozeß hergestellt, bei der NV30 gab es Probleme mit der 0.13 Fertigung und beim NV38 wurde im 3D Modus einfach die Spannung (von 1.4 auf 1.6 Volt) erhoeht.

DrumDub
2004-06-15, 12:41:45
tjo. wahrscheinlich ist fü+r die 6800u ein test wie codecreatures nicht besonders anspruchsvoll. ergo: sie zieht nicht soviel leistung. man müsste die x800er vund die 6800er wohl am besten mit 3dmark03, halo oder far cry in 1600x1200 4xaa/16xaf testen, um vergelichbarere ergebnisse zu bekommen. ich vemute einfach, dass bei dem test die älteren grakas besser ausgelastet sind.

hier wurde zum beispiel das dx9 hdr-lighting demo genommen: http://www.techreport.com/reviews/2004q2/radeon-x800/index.x?pg=27

das beansprucht die neue generation wohl stärker.

Uller
2004-06-15, 12:53:28
Wieso sollte den Codecreatures nicht anspruchsvoll sein?

Die neuen Karten produzieren mehr Bilder pro Sekunde, laufen also auf jeden Fall mit voller Leistung.

Tjell
2004-06-15, 13:01:50
Ja gut. Es stimmt, daß das auch mit dem verwendeten Graka-RAM und dem Herstellungsprozeß zusammenhängt.

Nur einleuchten will es mir nicht, denn es kann doch nicht sein, daß eine alte Grafikkarte mehr Strom benötigt als eine 6800 Ultra:

Die Leistungsaufnahme bei Vollbelastung mit Codecreatures hängt ja im Bezug auf die Unterschiede unmittelbar mit der Grafikkarte zusammen. Wenn nun daher, so meine Schlußfolgerung, eine FX5950 eine höhere (Gesamt)Leistungsaufnahme verursacht, müßte dieses Mehr an Stromverbrauch nicht auch erstmal in die Grafikkarte gespeist werden?

Würde für mich bedeuten, daß entweder
a) die 6800 Ultra keinen 2. Stromanschluß benötigt oder
b) (aus Praxis widerlegt) die FX5950 einen solchen bräuchte.

Verdammt, ich komm nicht klar.

Super Grobi
2004-06-15, 13:10:57
Ich bin piff und paff. Nach den Werten verstehe ich den Stromgeschiss bei der Geforce 6800 nicht so ganz.

SG

BvB123
2004-06-16, 19:23:53
in der PCGH steht das man nur einen stromanschluss für die 6800 Ultra braucht unter der vorausetzung das man sie mit 400Mhz laufen läßt darüber braucht sie den 2.ten

bei übertaktung braucht die karte wesentlich mehr strom

von 350 auf 400 sind schon 16 Watt

Tjell
2004-06-16, 19:28:31
Was dann jedoch interessant wäre:

Sind die derzeitigen Angaben zur Leistungsaufnahme vor allem der neuen Grafikkarten als worst-case zu betrachten? Müßte man nicht bei getätigten Benchmarks zu jeder Grafikkarte auch die Leistungsaufnahme mit angeben, um irgendwann einen Durchschnittswert bilden zu können?

Denn daß sich das System mit der verbauten FX5950 bei der Computerbase an die Spitze der Tabelle setzt, hätte ich nach den Angaben für die 6800 Ultra und X800 XT nicht vermutet.

Oder schlußfolgere ich falsch?

Quasar
2004-06-16, 19:31:12
Die RTHDRIBL-Demo belastet fast ausschließlich Pixelshader - hier sind schonmal Karten im "Nachteil" (sprich unterbelastet), die aufgrund von Architektur-Problemen ihre Recheneinheiten schlecht auslasten können - bsw. die GeForceFX.

Vertexshader, eine ziemlich leistungsfressende Geschichte in modernen GPUs, werden kaum, wie auch kaum belastet. In modernen Games ist das zwar ebenfalls der Fall und insofern realistisch, sagt aber eben wenig über die maximal mögliche Leistungsaufnahme aus.

IMO entringt CC aufgrund hoher Last für Vertexeinheiten, Pixelshader (auch auf älteren Architekturen), TMU (spätestens durch AF) und ROPs (spätestens durch AA) mit die höchste Leistungsaufnahme, die man bekommen kann.

Zumindest habe ich keine vernünftig reproduzierbare Szene in einem Game oder anderen Benchmark gefunden, die soviel Energie benötigt.


Zu deiner Frage, Tjell:
Ältere Grafikkarten haben in dieser Hinsicht mehrere Probleme. Die FX5800U bsw. hatte DDR-II RAM der ersten Generation, welches abnorm viel Saft schluckte - so war sie trotz Taktreduktion und 0,13µ sehr weit vorn, was Leistungsaufnahme anging.

GF4 und Radeon97xx und höher wurden noch in 0,15µ gefertigt und vermutlich mit höherer Spannung betrieben. Zudem konnten sie im 2D-Betrieb nicht oder nur schlecht stromsparende Maßnahmen einleiten, wie aus Notebook-Chips bekannt, indem sie nicht benötigte Chipteile abschalten oder herunterfahren.

Tjell
2004-06-16, 19:38:55
Sind dann nicht als Fazit die neuen Karten von Ihrem Manko des hohen Stromverbrauchs zumindest teilweise freizusprechen?

Wenn das so ist, dann sollte man das als Tester den Leuten ans Herz legen, denn es echauffieren sich doch nicht wenige über genau diesen Umstand.

Quasar
2004-06-16, 19:50:13
Das ist eben die Frage.

Man sollte dabei allerdings nicht vergessen, daß es bei der Leistungsaufnahme von Graka-Hersteller zu Graka-Hersteller Unterschiede geben kann - somit sollte man am besten sowieso nicht verallgemeinern.

Für mich persönlich ist ein gutes Indiz dafür, wie gut die Grafikkarte ihren Stromhaushalt im Griff hat und wieviel "Design" darin inverstiert wurde, der Windows-Idle Betrieb.

Hier hat definitiv jede Grafikkarte nur gleichviel zu tun. Bei bekannt hoher Leistungsaufnahme des RAM bsw. könnte man hier alles bis auf ein Modul (oder 16-32MB, je nachdem) abschalten.
Die FX-Reihe hat schon mit ihrem in 2D abgesenkten Kerntakt einen Schritt in die richtige Richtung getan. Der muss zwar nicht allein selig machen - Takt ist schließlich nur eine Zahl - wenn man trotz gleichem Takt in 2D wie in 3D bei ersterem ausreichend große Teile des Chips deaktivieren kann um auf eine entsprechend niedrige Leistungsaufnahme zu kommen, ist das IMO genauso akzeptabel.

Endorphine
2004-06-16, 21:23:26
Mir graust es schon davor, wenn GUIs in Zukunft mit 3D-Beschleunigerfunktionen "verschönert" werden sollen. Dann arbeitet die Grafikkarte ausser auf Textkonsolen immer unter Volllast :eyes:

bleipumpe
2004-06-16, 22:49:11
Original geschrieben von Endorphine
Mir graust es schon davor, wenn GUIs in Zukunft mit 3D-Beschleunigerfunktionen "verschönert" werden sollen. Dann arbeitet die Grafikkarte ausser auf Textkonsolen immer unter Volllast :eyes:

Mach das mal dem Durchschnittsuser klar. Ich habe schon Probleme in meinem Freundeskreis wenn ich erkläre, daß man für den Verbrauch von 4h zocken auch seinen Kühlschrank einen Tag lang betreiben kann. Aber vielleicht gibt es dann auch einen "3d-Idle" Mode. Ich zahle gerne ein paar € im Jahr mehr, nur damit meine Icons 3D sind. Was mich zu der Frage führt: brauchen wir wirklich eine 3D GUI? :grübel:

mfg b.

Dalai-lamer
2004-06-16, 23:20:11
Wieviel verbraucht denn ein Kühlschrank...
Ich finde der verbrauch hält sich gerade so in Grenzen wenn man den PC nciht 24/7 laufen hat =)

D-Swat
2004-06-17, 12:00:55
Original geschrieben von Endorphine
Mir graust es schon davor, wenn GUIs in Zukunft mit 3D-Beschleunigerfunktionen "verschönert" werden sollen. Dann arbeitet die Grafikkarte ausser auf Textkonsolen immer unter Volllast :eyes:

Muss nicht sein, bei CPUs gehts ja auch das sie nicht ständig ausgelastet sind.
Bei GPUs kann man es bestimmt auch hinbekommen,
das im Desktop mode die last der Graka nicht immer 100% beträgt.

ironMonkey
2004-06-17, 12:23:59
Im 3D bestrieb läuft die Karte auf 100%, also müsste man die 3D Speed senken, aber dann sind ja auch die karten beim Zocken langsamer:(



Gruß

Tjell
2004-06-17, 12:37:36
Die mobilen Grafikchips machen doch die Entwicklung schon vor - sie variieren doch je nach benötigter Leistung ihre Taktung, richtig?

Es liegt eigentlich auf der Hand, daß über kurz oder lang die Stromsparmechanismen aus dem mobilen IT-Bereich auch auf den Desktop übertragen werden müssen, wie das Beispiel Intel mit den eingestampften P4-Cores zeigt.

StefanV
2004-06-17, 12:38:32
Original geschrieben von Endorphine
Mir graust es schon davor, wenn GUIs in Zukunft mit 3D-Beschleunigerfunktionen "verschönert" werden sollen. Dann arbeitet die Grafikkarte ausser auf Textkonsolen immer unter Volllast :eyes:

Klint irgendwie nach schwachsinn, zumal es auch entscheidend ist, welche Teile des Chips genutzt werden...

Ebenso könnte der Treiber die 'auslastung' erkennen und entsprechend nur ein Quad aktivieren (oder gar weniger).

Quasar
2004-06-17, 12:39:39
Jein.
Die CPU macht heutzutage kaum noch einen Unterschied. Ob ich einen 3GHz Northwood oder einen 3,4GHz Prescott habe, macht sich zu 99% in der Stromrechnung bemerkbar, während Grafikkarten durchaus noch nützliche Zusatzleistung erbringen.

Endorphine
2004-06-17, 19:20:54
Derzeitige 3D-Grafikkarten kennen (speziell mit vsync=off) nur zwei Betriebsmodi: 3D-Modus: volle Kanne rendern, egal ob 200 spf oder 2000 fps oder gar nicht rendern.

Wer derzeitige Desktopgrafikkarten mit Windows Longhorn und den neuen Effekten betreibt kann sich dann über eine nette Energierechnung freuen.

Nebenbei lastet 3D-Beschleunigung auch die CPU wunderbar aus. :eyes:

Da wäre noch einiges an Hard- und Software zu verändern, damit diese 3D-Verschönerung von GUIs die Leistungsaufnahme nicht explodieren lässt. Beim derzeitigen Modell liefe so ein Rechner immer bei 100% CPU- und GPU-Last und man kann das Gespann nur mittels Vsync und niedriger Takte einbremsen.

Edit: Doch nicht ;(

Omnicron
2004-06-17, 20:30:29
Original geschrieben von Endorphine

Edit: Doch nicht ;(

Kannst du das näher erläutern ?

bleipumpe
2004-06-17, 20:38:40
Original geschrieben von Dalai-lamer
Wieviel verbraucht denn ein Kühlschrank...
Ich finde der verbrauch hält sich gerade so in Grenzen wenn man den PC nciht 24/7 laufen hat =)

Hi,
wir haben einen ca. 6 Jahre alten Siemens Kühlschrank. Insgesamt sind es 300l (inkl. 30l Eisfach). Laut Betriebsanleitung sind es im Standardbetrieb (Stufe 3, 6-8 Grad) gerade einmal 48W/h. Mein Bruder hat z.B. einen wirklich guten Rechner mit 2(!) 21' CRTs. Da er Design studiert und mind. 6h/d am Rechner hängt, kommt schon ganz schön was zusammen. Als Ausgleich habe ich mir ein Uralt-System für Uralt-Games (z.B.UFO:EU), zum Surfen und ein wenig Office zusammengebaut. Das ist eben ausgleichende Gerechtigkeit und irgend wer muss ja etwas für unsere Stromrechnung tun :flöt:

@Topic
Neuere Karten haben vielleicht einen 3D-Idle Modus aber was machen ältere Karten ohne diese Funktion? Hier wird dem User wieder einmal ein Produkt verkauft, was keine wirkliche Daseinsberechtigung hat. Oder kann ich im Moment den Sinn einer 3D GUI nicht erkennen? Mal sehen, wie der Markt es annimmt oder ob man es vielleicht alternativ deaktivieren kann.

mfg b.

Endorphine
2004-06-17, 21:06:41
Original geschrieben von Omnicron
Kannst du das näher erläutern ? An der Stelle stand mal ein "gleich kommt zeckensack und erklärt es genauer" ;) Leider postete er nur in nem anderen Thread ;(

evilass
2004-06-19, 10:38:38
In der Theorie wäre es doch möglich, dass Windows Longhorn im GUI-Betrieb eine Variable an den Treiber übergibt, der die Frames per Second der animierten 3D-Icons auf die gerade eingestellte Hz-Zahl des Monitors setzt, zu mal sich der gleiche Treiber ja auch darum kümmert.
Dadurch wäre die Graka nicht ausgelastet und damit auch der Stromhunger gebändigt.

Ginge diese Theorie auf?

Janbo000
2004-06-20, 16:04:15
Hallo Leute!

Habe gerade das ATI-Tool 0.20 installiert und so eingestellt, dass die Graka (Herc 9800) im 2D-Modus auf 100/200 MHz läuft (weiter runter ging der Speicher nicht, gab Artefakte...!?) und im 3D-Modus auf Normaltakte hochfährt. Hat einen SEHR deutlichen Effekt, der Luftstrom meines Netzteils ist DEUTLICH kühler geworden (so kühl wie bei meiner Kyro2 :-) )

Wäre toll, wenn ATI das in den Treiber integrieren würde.

CU,
Janbo

don_salieri
2004-06-23, 19:54:36
Original geschrieben von Janbo000
Hallo Leute!

Habe gerade das ATI-Tool 0.20 installiert und so eingestellt, dass die Graka (Herc 9800) im 2D-Modus auf 100/200 MHz läuft (weiter runter ging der Speicher nicht, gab Artefakte...!?) und im 3D-Modus auf Normaltakte hochfährt. Hat einen SEHR deutlichen Effekt, der Luftstrom meines Netzteils ist DEUTLICH kühler geworden (so kühl wie bei meiner Kyro2 :-) )

Wäre toll, wenn ATI das in den Treiber integrieren würde.

CU,
Janbo Habs gerade mal mit meiner Club3D 9800Pro probiert...da ist aber bei Core=200 und Mem=250 schluss. Wenn ich Mem weiter absenke, gibts Bildfehler, bei geringerem Core schmiert der Rechner ab bzw. VPU-Recover springt ein und aktiviert Software-Rendering.

Ich würde mir ebenfalls wünschen, dass der ATI-Treiber standardmässig unter 2D die Taktraten runterfährt (wenigstens so dass es auf ALLEN Karten problemlos läuft). Technisch ist das ja offensichtlich kein Problem.

don_salieri
2004-06-25, 11:16:56
Mir ist gerade der Rechner böse abgeschmiert (schwarzer Bildschirm), ganz so unproblematisch scheint das Untertakten also doch nicht zu sein...schade.

DrumDub
2004-06-25, 16:06:29
Original geschrieben von don_salieri
Mir ist gerade der Rechner böse abgeschmiert (schwarzer Bildschirm), ganz so unproblematisch scheint das Untertakten also doch nicht zu sein...schade.

also auf meiner 9700np isses ganz unproblematisch. das ram darf ich nur nicht zu stark untertakten (nicht unter 200mhz). im windowsbetrieb läuft sie bei mir mit 200/250. mach das ganze mit dem radlinker.