PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Leistungsaufnahme aktueller Grafikkarten (xbitlabs)


mapel110
2006-02-02, 04:07:37
http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_4.html
mal wieder sehr interessant. :)

Ein Chrome S27 haben sie auch getestet. So toll sieht er dabei aber nicht aus.
http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_8.html

dargo
2006-02-02, 09:26:40
http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_4.html
mal wieder sehr interessant. :)

:up:

Danke für den Link. =)

Nerothos
2006-02-02, 09:46:36
Wurde die X1900XT wieder durch Heruntertakten einer X1900XTX simuliert, oder war es eine "echte" X1900XT?

GloomY
2006-02-02, 16:29:11
120W für eine Graka finde ich viel zu viel. Man stelle sich diese beiden im SLI/Crossfire Modus vor. Das sind 240W nur für die Grafik! :eek:

MadManniMan
2006-02-02, 16:44:00
Boah, alles alles über 60W ist für mich ... nunja, mein verkaufter Laptop verbrauchte unter Last nichmal soviel :|

Gast
2006-02-02, 17:26:46
Das mit dem Stromverbrauch ist wirklich ein ernstes Problem geworden!

z.B.:
In meinem Arbeitsrechner, ein Shuttle SN25(nforce4U) hab ich ne normale 6600 und der Verbraucht aufm Desktop idle 60W und 3D burn 100W.

Schon beim alten Spiele Rechner nforce2U/xp3200+ mit ner 6800GT geht er Verbrauch auf 140W Desktop idle und ca. 220W 3D burn hoch.

Aber für eine einzelne Grafikkarte sollte doch 100W die absolute Schmerzgrenze sein!

Gabs nicht mal hier einen Tread "Frames per Watt".

Ronny145
2006-02-02, 17:30:17
Vorallem muss sich langsam was ändern. Es kann doch nicht jede neue Generation deutlich mehr verbrauchen. Dann sind wir bald bei 200 Watt angelangt. Selbst die X1900XT verbraucht schon extrem viel und wird dementsprechend heiß, trotz lautem Lüfters.

Gast
2006-02-02, 17:35:02
Man darf aber auch nicht vergessen, dass einen grossen Teil der Speicher verbraucht.

Ronny145
2006-02-02, 17:35:59
Daher bin ich auch auf den GDDR4 Speicher gepannt.

Gast
2006-02-02, 17:48:15
Und wie groß soll der Anteil des Speichers sein?

Ich schätze mal kaum mehr als 30%

Gast
2006-02-02, 17:56:13
Und wie groß soll der Anteil des Speichers sein?

Ich schätze mal kaum mehr als 30%
Kommt drauf an wie viel Speicher verbaut ist...
Bei der 512 MB Version der X1900XT(X) dürfte allein der Speicher ca. 50 Watt verbrauchen.

deekey777
2006-02-02, 18:03:48
Kommt drauf an wie viel Speicher verbaut ist...
Bei der 512 MB Version der X1900XT(X) dürfte allein der Speicher ca. 50 Watt verbrauchen.

Vielleicht etwas weniger, der Chip an sich kann bis zu 60 W schlucken.

Vielleicht verbraucht der Lüfter noch eine safftige Menge an w00ts.X-D

Gast
2006-02-02, 18:10:03
Aber die 512GTX hat den schnelleren Speicher und Verbraucht trotzdem deutlich weniger.

Scheint als hat das GPU Design von ATI schwächen beim Stomverbrauch.
Oder andersrum: das ATI um die Perfomance Krone zu ergattern nur über eine hohe Taktrate also hohen Stomerbrauch reagieren kann.

Mal den G71 abwarten.
Da der ja in 90nm kommen wird glaub ich das der Stromverbrauch dort ähnlich wie beim G70 sein könnte.

Gast
2006-02-02, 18:15:35
Könnten moderne Grafikkarten nicht besonders im 2D modus Strom sparen?

Für was laufen die mit einigen 100 Megaherz Chip / Speicher?

Ist doch vollkommem überflüssig!

BK-Morpheus
2006-02-02, 18:16:25
Ich finde die 7800GT hat nen gutes Verhältnis aus Leistung und Verbrauch, wenn man sich dagegen mal die anderen Karten in dieser Klasse anguckt.
Schade, dass die aktuellen ATI Modelle (also die schnellen) so viel verbrauchen.

GloomY
2006-02-02, 18:52:04
Kommt drauf an wie viel Speicher verbaut ist...
Bei der 512 MB Version der X1900XT(X) dürfte allein der Speicher ca. 50 Watt verbrauchen.Woher nimmst du diese Zahlen?

123456
2006-02-02, 19:23:42
Könnten moderne Grafikkarten nicht besonders im 2D modus Strom sparen?

Für was laufen die mit einigen 100 Megaherz Chip / Speicher?

Ist doch vollkommem überflüssig!

Gute Frage. Die neueren Karten dürften theoretisch auch mit beispielsweise 150 MHz / 150 MHz laufen, oder nicht? Eine Art Q&C für Grafikkarten wäre nicht übel.

deekey777
2006-02-02, 20:22:55
Aber die 512GTX hat den schnelleren Speicher und verbraucht trotzdem deutlich weniger.

Scheint als hat das GPU Design von ATI schwächen beim Stomverbrauch.
Oder andersrum: das ATI um die Perfomance Krone zu ergattern nur über eine hohe Taktrate also hohen Stromverbrauch reagieren kann.

Mal den G71 abwarten.
Da der ja in 90nm kommen wird glaub ich das der Stromverbrauch dort ähnlich wie beim G70 sein könnte.

Einerseits ist da ein gewisser Taktunterschied, andererseits sind die G70 Chips für die 7800GTX 512 mit sehr hoher Wahrscheinlichkeit handverlesen. Recht hast du aber.

Wechselbalg
2006-02-02, 21:11:13
Ich finde die 7800GT hat nen gutes Verhältnis aus Leistung und Verbrauch, wenn man sich dagegen mal die anderen Karten in dieser Klasse anguckt.
Schade, dass die aktuellen ATI Modelle (also die schnellen) so viel verbrauchen.

Die schnellsten Ati Modelle wirklich leider, aber die XL hat doch zumindest recht ähnliche Werte, so dass man sie auf einer Augenhöhe mit der GT sehen kann.

Ist mir aber auch bei den beiden zu viel, doch so schnell wird es wohl vermutlich nicht wieder wirklich weit heruntergehen.

deekey777
2006-02-02, 21:22:58
Woher nimmst du diese Zahlen?


http://www.digit-life.com/articles2/video/r580-part2.html#p4

:)

Ob jetzt nur der Speicher für den restlichen Verbrauch verantwortlich ist, weiß ich nicht, aber von warmer Luft lebt er nicht.

jojo4u
2006-02-03, 00:27:17
Ich möchte auch dass die Hersteller endlich mal vernünftig sie Spannung reduzieren bei nichtstuenden Desktopgrafikkarten. Nur die Frequenz runter bringt ja nur linear was. Was gibt es da nicht alles für tolle Features, nur keins wird genutzt ("clock gating, reverse bias, PCIe Lane Reduzierung"). Kann ja nicht sein dass ein Athlon 64 unter 5W bleibt aber eine X1300 pro 20W zieht. DAS wäre für mich mal ein Kaufgrund und nicht 10% mehr in den achso tollen Standardbenchmarks.
Bei den mobilen können sie es ja auch. Sieht für mich so aus, als würde der mobile Mark künstlich abgeschottet. Was für ein Verbrechen an der Umwelt und meinem Geldbeutel :/

dargo
2006-02-03, 00:35:50
Mal den G71 abwarten.
Da der ja in 90nm kommen wird glaub ich das der Stromverbrauch dort ähnlich wie beim G70 sein könnte.
Soll der G71 nicht deutlich höheren GPUtakt und 32 Pipes haben?
Dann wird der Stromverbrauch wohl auch um die 100W liegen.

Könnten moderne Grafikkarten nicht besonders im 2D modus Strom sparen?

Naja, ~30W in 2D finde ich eigendlich noch ok. Natürlich wären 10W besser. :D
Dann könnte man die GPU wohl in 2D passiv kühlen.

GloomY
2006-02-04, 15:55:23
http://www.digit-life.com/articles2/video/r580-part2.html#p4

:)

Ob jetzt nur der Speicher für den restlichen Verbrauch verantwortlich ist, weiß ich nicht, aber von warmer Luft lebt er nicht.Interessant.
Considering that the memory operates at a lower voltage than the standard value, its power consumption is not that high, but it's still about 50 Watts. So the new card certainly consumes more than 100 Watts.Im Gegensatz zum Verbrauchder GPU klingt das eher nach einer Schätzung.

Aber dass das so viel sein soll, erstaunt mich dann doch etwas.

dargo
2006-02-04, 17:48:11
Sehe ich das richtig, daß 512MB Ram bei der XTX 50Watt verbrauchen? :|
Oh man, wird höchste Zeit für GDDR4!

Wobei, viel weniger verspreche ich mir davon auch nicht.
Weiß schon jemand was dann GDDR4 Ram verbraucht?

Spasstiger
2006-02-04, 18:05:19
Man darf aber auch nicht vergessen, dass einen grossen Teil der Speicher verbraucht.

512 MB 850 MHz schneller GDDR3-Ram brauchen ca. 20-30 Watt (je nach Voltage). Ich kann ja bei Samsung nochmal das entsprechende Dokument über GDDR3 rauskrammen.

GloomY
2006-02-04, 18:21:25
Sehe ich das richtig, daß 512MB Ram bei der XTX 50Watt verbrauchen? :|
Oh man, wird höchste Zeit für GDDR4!

Wobei, viel weniger verspreche ich mir davon auch nicht.
Weiß schon jemand was dann GDDR4 Ram verbraucht?Mit deutlich höherem Takt und weniger Spannung schätze ich, dass GDDR4 mindestens so viel wie GDDR3 verbrauchen wird...
512 MB 850 MHz schneller GDDR3-Ram brauchen ca. 20-30 Watt (je nach Voltage). Ich kann ja bei Samsung nochmal das entsprechende Dokument über GDDR3 rauskrammen.Ja, bitte :)

Spasstiger
2006-02-04, 18:34:10
Ja, bitte :)

Hier GDDR3-Ram, der bis 900 MHz spezifziert ist:
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/ds_k4j52324qc_rev13.pdf

Informationen, die zur Bestimmung der Leistungsaufnahme notwendig sind, ab Seite 51. Leider steht dort unter "Power dissipation" noch "TBD", also "to be defined".
Aber wenn man weiter unten schaut, dann liegt der maximale Stromfluss bei 1,3A bei 2 Volt. Dies gilt für einen Speicherchip mit 512 MBit.
Bei 512 Megabyte kommt man also auf 8 * 1,3 A * 2 V = 20,8 Watt.

Die Schätzung von 50 Watt halte ich für viel zu viel beim Speicher, sonst müsste man ihn ja in jedem Fall kühlen. Wakü-Besitzer beweisen aber, dass man bei solchen Karte auf die Speicherkühlung auch verzichten kann.

Man kann ja auch mal die Verlustleistung pro Fläche berechnen. Wenn man an das Ende des Dokumentes geht, findet man eine Fläche von 11 mm * 14 mm je Chip, das sind also 154 mm². Bei einer Verlustleistung von 2,6 Watt je Chip sind das 16,9 mW/mm². Bei einer Verlustleistung von 50 Watt für den gesamten Speicher hätte man schon 40,6 mW/mm².
Eine Herdplatte (2kW, 18cm Durchmesser, 400°C) liegt bei rund 80 mW/mm² (und man kann mit ner Herdplatte auch eine Zigarette anzünden, mein Bruder macht das immer, wenn er mal kein Feuerzeug zur Hand hat, dauert ca. 30 Sekunden, bis die Zigarette brennt).

dargo
2006-02-04, 19:33:30
Dann verstehe ich nicht wo der Rest bei einer X1900XTX bleibt. :|
Fassen wir mal zusammen.

GPU - ~60W
Speicher (nach deiner Beschreibung) - ~20W

Wo bleiben die anderen 40W?
Verbraten die Bauteile ( Spannungwandler, Elkos usw.) der Graka so viel? :|

BiG OnE
2006-02-04, 20:46:46
Moin, moin
Wo bleiben die anderen 40W?
Verbraten die Bauteile ( Spannungwandler, Elkos usw.) der Graka so viel? :|
ich glaube nicht, daß auf der Karte derart schlechte Bauteile verwendet werden, die eine so hohe Verlustleistung habe. Es steht aber fest, daß die Spannungversorgung der 1900er Serie ggü. der 1800er nochmals verstärkt wurde.

Bis denne ...

GloomY
2006-02-04, 20:50:15
Hier GDDR3-Ram, der bis 900 MHz spezifziert ist:
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/ds_k4j52324qc_rev13.pdf

Informationen, die zur Bestimmung der Leistungsaufnahme notwendig sind, ab Seite 51. Leider steht dort unter "Power dissipation" noch "TBD", also "to be defined".
Aber wenn man weiter unten schaut, dann liegt der maximale Stromfluss bei 1,3A bei 2 Volt. Dies gilt für einen Speicherchip mit 512 MBit.
Bei 512 Megabyte kommt man also auf 8 * 1,3 A * 2 V = 20,8 Watt.Ja, das habe ich mir jetzt auch angeschaut. Die 1300 mA pro Chip sind im Übrigen die für die 900 MHz Version. Die langsamste Version (500 MHz) kommt mit 830 mA aus (bei VDD=VDDQ=1,8V). Das wären dann knapp 12W für acht Chips. :)
Die Schätzung von 50 Watt halte ich für viel zu viel beim Speicher, sonst müsste man ihn ja in jedem Fall kühlen. Wakü-Besitzer beweisen aber, dass man bei solchen Karte auf die Speicherkühlung auch verzichten kann.

Man kann ja auch mal die Verlustleistung pro Fläche berechnen. Wenn man an das Ende des Dokumentes geht, findet man eine Fläche von 11 mm * 14 mm je Chip, das sind also 154 mm². Bei einer Verlustleistung von 2,6 Watt je Chip sind das 16,9 mW/mm². Bei einer Verlustleistung von 50 Watt für den gesamten Speicher hätte man schon 40,6 mW/mm².
Eine Herdplatte (2kW, 18cm Durchmesser, 400°C) liegt bei rund 80 mW/mm² (und man kann mit ner Herdplatte auch eine Zigarette anzünden, mein Bruder macht das immer, wenn er mal kein Feuerzeug zur Hand hat, dauert ca. 30 Sekunden, bis die Zigarette brennt).Willst du jetzt vorschlagen, dass alle Besitzer von High-End Grakas 'ne Kippe an die Speicherchips halten sollen? ;)

Spaß beiseite, ich glaube dass du vollkommen Recht hast. 50W sind einfach zu viel.

Avalox
2006-02-04, 21:19:30
Die c't hat in der neuen Ausgabe 4/06 die X1900XTX gestestet dieses auch als CF Gespann.

Nach den gemessenen Einzel-Spitzen dürfte die einzelne Karte 180W maximal ziehen(theoretisch) und damit die Vorgaben (max. 150W) des PCIe deutlich sprengen. ATI sorgt wohl dafür, dass die Karte in Spielen aber nicht über 150W kommt.

Der CF Test mit einem A64 3800+ (SingleCore) setzte jedenfalls ein ordentliches 600W Netzteil voraus.

Im 2D Betrieb wurde eine mittlere Leistungsaufnahme von 42W gemessen.

dargo
2006-02-04, 22:31:14
Nach den gemessenen Einzel-Spitzen dürfte die einzelne Karte 180W maximal ziehen(theoretisch) und damit die Vorgaben (max. 150W) des PCIe deutlich sprengen.
Was heißt denn jetzt hier theoretisch :confused:
Laut xbitlabs zieht eine X1900XTX ~120W.

Avalox
2006-02-04, 22:40:16
Was heißt denn jetzt hier theoretisch :confused:
Laut xbitlabs zieht eine X1900XTX ~120W.

Ja und die eine(!) X1900XTX zieht bei c`t 150W und theoretisch (zieht man alle Spitzen zusammen) 180W. Das sind im CF Konfiguration 360W, von ATI gebremst auf 300W.

Gast
2006-02-04, 22:43:24
Bitte auch um Aufklärung!

Noch mehr als 120W?

Gast
2006-02-04, 22:46:25
Jetzt reicht aber!

150W für ne X1900XTX!

Bei ATI piepts wohl!

dargo
2006-02-04, 22:49:02
Ja und die eine(!) X1900XTX zieht bei c`t 150W und theoretisch (zieht man alle Spitzen zusammen) 180W. Das sind im CF Konfiguration 360W, von ATI gebremst auf 300W.
:eek:

Da hat ATI aber ganz schön Mist gebaut. Spätestens hier hört der Spaß auf.
150W für eine Graka. :ucrazy:

Die sind nicht mehr ganz dicht!

Trotzdem würde mich interessieren wie diese 150W oder auch 180W zustande kommen. Laut http://www.digit-life.com/articles2/video/r580-part2.html#p4 soll die GPU "nur" 60W verbrauchen. Dann der Speicher mit ca. 20W.

Ja, was passiert mit dem Rest :confused:

Ronny145
2006-02-04, 23:03:48
150 Watt? Wo soll das hinführen. Dann werden die 200 W bald erreicht werden.

chrisihamm
2006-02-04, 23:32:55
Totaler Schwachsinn was die dort messen,ich besitze eine X1900XTX und habe die ordentlich mit meinem Strommessgerät durchgetest sowohl unter 2D als auch 3D.Unter 2D verbraucht die Karte gute 30W weniger als meine alte 7800GTX 256 und unter 3D sind sie gleich.Die Karte verbraucht niemals 150W,es sind eher 100W!


mfg

BlueI
2006-02-04, 23:36:31
Kann mir mal einer erklären, wie die sowas wegkühlen wollen??
Ich mein' schon bei CPUs haben sie ja Probleme, die 100-150W beim Prescott wegzukühlen ohne gewisse Richtlinien zu verletzen (500g, Platzverbrauch, 38°C Gehäusetemp., ...). Das muss doch bei GPUs noch viel schwieriger sein, schließlich "hängt" der Kühler ja und Platz ist auch nicht soviel.
:|

Ronny145
2006-02-05, 00:23:22
Totaler Schwachsinn was die dort messen,ich besitze eine X1900XTX und habe die ordentlich mit meinem Strommessgerät durchgetest sowohl unter 2D als auch 3D.Unter 2D verbraucht die Karte gute 30W weniger als meine alte 7800GTX 256 und unter 3D sind sie gleich.Die Karte verbraucht niemals 150W,es sind eher 100W!


mfg


Da musst du dich vermessen haben. Sagen wir mal 30 W verbraucht die X1900XTX unte 2d. Dann müsste die 7800 GTX 60 W verbrauchen. Das ist unmöglich. Und du hast nur den Gesamtverbrauch des Systems gemessen.


edit: Und unter 3d sind sie schon gar nicht gleich. Ich würde daher eher behaupten, dass deine Messung totaler Schwachsinn ist oder dein "ordentliches Messgerät" doch nicht so ordentlich zu sein scheint.

Avalox
2006-02-05, 01:06:52
Kann mir mal einer erklären, wie die sowas wegkühlen wollen??
Ich mein' schon bei CPUs haben sie ja Probleme, die 100-150W beim Prescott wegzukühlen ohne gewisse Richtlinien zu verletzen (500g, Platzverbrauch, 38°C Gehäusetemp., ...). Das muss doch bei GPUs noch viel schwieriger sein, schließlich "hängt" der Kühler ja und Platz ist auch nicht soviel.
:|


Zitat

"Die heiße Luft - Warmluft wäre untertrieben - rauscht durch ein Gitter im Slotblech nach außen" (c’t4/06 S. 70 „ Kronräuber“)


Die nV 7800 GTX erreicht aber auch schon 101W im Mittel und 146W in der theoretischen Spitze. Erwähnt wird auch, dass die nVidia Karten dabei das Gehäuse mit erhitzen, da die Warmluft nicht vollständig nach draußen geblasen wird. Entgegen der ATI Lösung, wo die komplette Warmluft nach außen befördert wird.

Die R580 ist auch quasi in jeder Disziplin, mitunter sehr, sehr deutlich leistungsfähiger,a als ihr nV Gegenstück. Von CF ist die c't enttäuscht, der Treiber verschenkt ein riesiges Potential. Was durch zukünftige Optimierungen erschlossen werden kann um dann ähnlich effektiv wie nVidias SLI arbeiten zu können.

Gast
2006-02-05, 02:23:45
Was durch zukünftige Optimierungen erschlossen werden kann um dann ähnlich effektiv wie nVidias SLI arbeiten zu können.Wenn ich mal spekulieren darf: Crossfire wird erst dann richtig konkurrenzfähig, wenn die notwendige Logik in die GPU gewandert ist. Ergo eine komplett andere Technik eingesetzt wird. Aber das ist nur Spekulation. Insgeheim hoffe ich natürlich, dass Crossfire so schnell wie möglich eine echte Alternative zu SLi wird. So ein x1900xt-Crossfire-Gespann wäre schon was feines. Aber mit den zur Zeit vorhandenen Einschränkungen ist das nur Geldverschwundung imho.

m.sch
2006-02-05, 06:33:09
Ja und die eine(!) X1900XTX zieht bei c`t 150W und theoretisch (zieht man alle Spitzen zusammen) 180W. Das sind im CF Konfiguration 360W, von ATI gebremst auf 300W.

Sehr wahrscheinlich meint C't nur bestimmte bereiche der GPu :|

Der Prozessor insgesamt verbraucht in 3D nur 60 Watt , dennoch können bestimmte Bereiche eine Leistungsdichte von >100 Watt pro Quadratzentimeter aufweisen ( Hot Spots ) :rolleyes:

chrisihamm
2006-02-05, 08:32:51
Wieso Schwachsinn,GTX 256 raus und X1900XTX rein,was soll da schief laufen,ach nee die X1900xtx verbraucht 500000W,ich habe mich verlesen. :biggrin:


mfg

svenw
2006-02-05, 10:53:33
Was erwartet ihr denn? Die Leistung von Grakas verdoppelt sich momentan jährlich und ihr erwartet das die leistungsaufnahme nicht in die Höhe schnellt? eine GRaka kann nicht schnell genug sein und das fordert eben seinen Tribut an der Steckdose. Kleinere strukturen bremsen den Leistungshunger etwas, aber das wird meist gleich wieder in Mehrleistng umgesetzt.

Frage: du hast eine 2000 XTX mit 200 watt leistungsaufnahme und eine Gforce 8000 mit 100 Watt aber halber Leistung zur Auswahl (könnte auch andersrum sein). Welche würde wohl gekauft?

Wasserkühlung wird bald Pflicht werden oder wir kommen bald mit der Lärmschutzverordnung in Konflikt. ;)

reunion
2006-02-05, 11:15:08
Die c't hat in der neuen Ausgabe 4/06 die X1900XTX gestestet dieses auch als CF Gespann.

Nach den gemessenen Einzel-Spitzen dürfte die einzelne Karte 180W maximal ziehen(theoretisch) und damit die Vorgaben (max. 150W) des PCIe deutlich sprengen. ATI sorgt wohl dafür, dass die Karte in Spielen aber nicht über 150W kommt.


Der Kühler der X1900XTX soll bis zu 180W abführen? Das glaubst du doch selbst nicht.

svenw
2006-02-05, 11:16:32
180W nicht dauerhaft sondern als Peak. 150W wird er wohl als Dauerleistung bringen müssen, kein Wunder das er laut ist.

reunion
2006-02-05, 11:20:02
180W nicht dauerhaft sondern als Peak. 150W wird er wohl als Dauerleistung bringen müssen, kein Wunder das er laut ist.


Das ist doch Blödsinn.
Ja, der Standardkühler ist crap, aber bereits ein VF700 reicht aus, um die Karte bei 5V leise zu kühlen. Vergleich das mal mit CPU-Kühlern, die müssten ja dann >300W verbraten.

reunion
2006-02-05, 11:40:26
Sehr wahrscheinlich meint C't nur bestimmte bereiche der GPu :|

Der Prozessor insgesamt verbraucht in 3D nur 60 Watt , dennoch können bestimmte Bereiche eine Leistungsdichte von >100 Watt pro Quadratzentimeter aufweisen ( Hot Spots ) :rolleyes:


ACK, irgendetwas ist da faul.
Die GPU kann bei 40A und 1.45V gar nicht mehr als 58W ziehen, der RAM verbraucht mit Sicherheit auch nicht mehr als 25W. Glaubt ihr, dass ATi die restlichen 100W zum Spaß an irgendeinem Widerstand verbrät, oder wie stellen sich das einige hier vor?

BlueI
2006-02-05, 12:01:09
Was erwartet ihr denn? Die Leistung von Grakas verdoppelt sich momentan jährlich und ihr erwartet das die leistungsaufnahme nicht in die Höhe schnellt? eine GRaka kann nicht schnell genug sein und das fordert eben seinen Tribut an der Steckdose. Kleinere strukturen bremsen den Leistungshunger etwas, aber das wird meist gleich wieder in Mehrleistng umgesetzt.

Frage: du hast eine 2000 XTX mit 200 watt leistungsaufnahme und eine Gforce 8000 mit 100 Watt aber halber Leistung zur Auswahl (könnte auch andersrum sein). Welche würde wohl gekauft?

Wasserkühlung wird bald Pflicht werden oder wir kommen bald mit der Lärmschutzverordnung in Konflikt. ;)
Man sollte aber auch sehen, dass genau das selbe auch bei CPUs passiert (ist) und dort haben sich ein paar schlaue Ideen gefunden, um dem Verbrauch entgegenzuwirken (C&Q, Speedstep, teilweise Abschaltung/Runtertaktung/Spannungssenkung, etc.).
Da könnten sich ATI/NVidia&Co auch mal 'ne Scheibe von Abschneiden...

svenw
2006-02-05, 12:01:36
Das ist doch Blödsinn.
Ja, der Standardkühler ist crap, aber bereits ein VF700 reicht aus, um die Karte bei 5V leise zu kühlen. Vergleich das mal mit CPU-Kühlern, die müssten ja dann >300W verbraten.Schau dir mal an wieviel Platz eine Graka für den Kühler hat und wie begrenzt eine CPU in der Hinsicht ist. Wo würdest du denn dort z.B. einen Radiallüfter installieren? Ein Graka lüfter darf nicht alzu hoch bauen, kann aber breit bauen, was bei Lüftern von Vorteil ist.

svenw
2006-02-05, 12:06:56
Man sollte aber auch sehen, dass genau das selbe auch bei CPUs passiert (ist) und dort haben sich ein paar schlaue Ideen gefunden, um dem Verbrauch entgegenzuwirken (C&Q, Speedstep, teilweise Abschaltung/Runtertaktung/Spannungssenkung, etc.).
Da könnten sich ATI/NVidia&Co auch mal 'ne Scheibe von Abschneiden...
Das geht kaum. Wenn die Graka sagen wir mal mit der Hälfe der Pipelines die 1280er Auflösung schafft, sattelt man noch AA/AF etc drauf solange wie die Karte gerade noch im spielbaren Bereich bleibt. Die ganzen Verbesserungen bei CPUs zielen darauf den Verbrauch zu senken, wenn Teile der CPU nichts zu tun haben. Wenn die CPU am Limit rennt, kannst du die ganzen Techniken in die Tonne treten! Die haben dann keinen Einfluß auf die Leistungsaufnahme, sondern sie bringen was wenn die CPU Mittel bis wenig zu tun hat.

Ronny145
2006-02-05, 12:07:26
Man sollte aber auch sehen, dass genau das selbe auch bei CPUs passiert (ist) und dort haben sich ein paar schlaue Ideen gefunden, um dem Verbrauch entgegenzuwirken (C&Q, Speedstep, teilweise Abschaltung/Runtertaktung/Spannungssenkung, etc.).
Da könnten sich ATI/NVidia&Co auch mal 'ne Scheibe von Abschneiden...


Das ist im Idle oder 2d bei GPUs. Teile der GPU werden unter 2d auch deaktiviert. Hier geht es aber vorallem um die hohen Lastwerte.

Avalox
2006-02-05, 12:20:45
Der Kühler der X1900XTX soll bis zu 180W abführen? Das glaubst du doch selbst nicht.

Nein nicht 180W. Die 180W erreicht die X1900XTX nicht. ATI hat dafür gesorgt, dass die Karte nicht über 150W aufnimmt. Die 180W ist die theoretisch mögliche maximale Aufnahme. Praktisch auf 150W begrenzt. Es scheint eine Definitionsgrenze für PCIe Karten mit zusätzlicher Stromversorgung von 150W zu existieren, welche Hersteller nicht überschreiten dürfen.

Im Mittel hat die Karte 140W aufgenommen.

Die nF 7800 GT 512 nimmt im Mittel 101W auf.

Die Spitzen liegen immer drüber. Bei der X1900XTX hat halt ATI dafür gesorgt, dass diese nicht über 150W kommt. Das ist übrigens auch eine Aussage von ATI selbst und bestätigt die Messungen.

BlueI
2006-02-05, 14:25:49
Das geht kaum. Wenn die Graka sagen wir mal mit der Hälfe der Pipelines die 1280er Auflösung schafft, sattelt man noch AA/AF etc drauf solange wie die Karte gerade noch im spielbaren Bereich bleibt. Die ganzen Verbesserungen bei CPUs zielen darauf den Verbrauch zu senken, wenn Teile der CPU nichts zu tun haben. Wenn die CPU am Limit rennt, kannst du die ganzen Techniken in die Tonne treten! Die haben dann keinen Einfluß auf die Leistungsaufnahme, sondern sie bringen was wenn die CPU Mittel bis wenig zu tun hat.
Das ist im Idle oder 2d bei GPUs. Teile der GPU werden unter 2d auch deaktiviert. Hier geht es aber vorallem um die hohen Lastwerte.
Ein Pentium M braucht auch nur ein Drittel von dem, was ein Prescott braucht bei gleicher Leistung! Und das auch bei Volllast.
ATI/NVidia sind bloß einfach zu "faul", was heißen soll, das der Markt/Konsument einfach noch nicht genug Druck macht.

btw.: Mit 30-50W, was 'ne 1900er im Idle verbraucht, kann man mit 'ner 9700m locker in 3D zocken -> Da lässt sich auch noch was machen.
:)

Gast
2006-02-05, 14:26:33
Es scheint eine Definitionsgrenze für PCIe Karten mit zusätzlicher Stromversorgung von 150W zu existieren, welche Hersteller nicht überschreiten dürfen.
Natürlich, aber das ist nicht ATis oder Nvidias Verdienst, sondern einfach der Spec der Netzteile und PCIe zu verdanken.

75W aus dem Slot + 75W aus dem Kabel = 150W gesamt.

Sollte eine Karte (auch bei seltenen Peaks) mehr ziehen, sind massive RMA-Wellen vorprogrammiert, da dabei einiges kaputtgehen kann.


Q

GloomY
2006-02-05, 16:49:23
Man sollte aber auch sehen, dass genau das selbe auch bei CPUs passiert (ist) und dort haben sich ein paar schlaue Ideen gefunden, um dem Verbrauch entgegenzuwirken (C&Q, Speedstep, teilweise Abschaltung/Runtertaktung/Spannungssenkung, etc.).
Da könnten sich ATI/NVidia&Co auch mal 'ne Scheibe von Abschneiden...Ich schätze mal, dass die interne Auslastung bei Grafikchips höher liegen wird als bei einer CPU. Deswegen besteht bei GPUs nicht so ein hohes Einsparpotential mit Hilfe der oben beschriebenen Techniken.

Die Einheiten in der CPUs sind durch fehlende Befehlsparallelität, falsche Sprungvorhersage oder schlichtweg durch Cache-Misses häufiger zum Nichtstun verdammt, als die Einheiten in einer GPU. Dementsprechend kann man bei CPUs auch mehr einsparen, indem man in diesen Fällen die Einheiten komplett abschaltet (also z.B. vom Taktsignal und/oder Versorgungsspannung trennt).

Ronny145
2006-02-05, 16:52:37
Ein Pentium M braucht auch nur ein Drittel von dem, was ein Prescott braucht bei gleicher Leistung! Und das auch bei Volllast.
ATI/NVidia sind bloß einfach zu "faul", was heißen soll, das der Markt/Konsument einfach noch nicht genug Druck macht.

btw.: Mit 30-50W, was 'ne 1900er im Idle verbraucht, kann man mit 'ner 9700m locker in 3D zocken -> Da lässt sich auch noch was machen.
:)


Der Vergleich hinkt leider und ich weiß nicht was das mit meinem Zitat zu tun hat.

btw, mit den 20-30 W, was die 9700 Pro im Idle verbraucht, kann ich mit meiner Voodoo 3 locker in 3D zocken. Du siehst, der Vergleich hinkt auch hier gewaltig.

m.sch
2006-02-05, 17:27:24
ACK, irgendetwas ist da faul.
Die GPU kann bei 40A und 1.45V gar nicht mehr als 58W ziehen, der RAM verbraucht mit Sicherheit auch nicht mehr als 25W. Glaubt ihr, dass ATi die restlichen 100W zum Spaß an irgendeinem Widerstand verbrät, oder wie stellen sich das einige hier vor?

Darüber gabs mal ein Bericht (http://www.eetimes.de/showArticle.jhtml?articleID=59301783)

Gast
2006-02-05, 20:09:20
ACK, irgendetwas ist da faul.
Die GPU kann bei 40A und 1.45V gar nicht mehr als 58W ziehen, der RAM verbraucht mit Sicherheit auch nicht mehr als 25W. Glaubt ihr, dass ATi die restlichen 100W zum Spaß an irgendeinem Widerstand verbrät, oder wie stellen sich das einige hier vor?
Manche Karten zeigen aber bis zu 1,48v an und es gibt manchmal Peaks über 50A. Das ist dann schon ein kleines bißchen mehr.

Benedikt
2006-02-05, 20:32:54
Der Vergleich hinkt leider und ich weiß nicht was das mit meinem Zitat zu tun hat.

btw, mit den 20-30 W, was die 9700 Pro im Idle verbraucht, kann ich mit meiner Voodoo 3 locker in 3D zocken. Du siehst, der Vergleich hinkt auch hier gewaltig.
Der Vergleich hinkt keineswegs. Intel schafft es ja auch, beim PentiumM (und Nachfolgern) bei konkurrenzfähiger Rechenleistung den Leistungsbedarf auch unter Volllast (verglichen zu den Mitbewerbern) sehr niedrig zu halten. Dementsprechend sieht die Prozessorfamilie bei Performance/Watt sehr gut aus. Warum ist so ein Design bei GPUs nicht möglich, wo man den Stromverbrauch an denjenigen Prozessorteilen einzudämmen sucht, wo das am Besten ohne große Leistungseinbußen möglich ist? Sicher, man muss Kompromisse schließen - das Design wird vielleicht nicht mehr ganz so schnell sein. Worauf ich hinaus will ist folgendes:

Welche Einsparung wohl bei 5% weniger Rechenleistung, dafür aber konsequenter low-power-Bauweise möglich wäre? Ich bin mir sicher, dass das mehr als 5% Energieersparnis sind...
Umdenken ist gefragt - nicht mehr maximal mögliche Performance, koste es was es wolle, sondern maximal mögliche Performance bei niedrigstmöglichem Energieverbrauch.

Ronny145
2006-02-05, 21:30:00
Der Vergleich hinkt keineswegs. Intel schafft es ja auch, beim PentiumM (und Nachfolgern) bei konkurrenzfähiger Rechenleistung den Leistungsbedarf auch unter Volllast (verglichen zu den Mitbewerbern) sehr niedrig zu halten. Dementsprechend sieht die Prozessorfamilie bei Performance/Watt sehr gut aus. Warum ist so ein Design bei GPUs nicht möglich, wo man den Stromverbrauch an denjenigen Prozessorteilen einzudämmen sucht, wo das am Besten ohne große Leistungseinbußen möglich ist? Sicher, man muss Kompromisse schließen - das Design wird vielleicht nicht mehr ganz so schnell sein. Worauf ich hinaus will ist folgendes:

Welche Einsparung wohl bei 5% weniger Rechenleistung, dafür aber konsequenter low-power-Bauweise möglich wäre? Ich bin mir sicher, dass das mehr als 5% Energieersparnis sind...
Umdenken ist gefragt - nicht mehr maximal mögliche Performance, koste es was es wolle, sondern maximal mögliche Performance bei niedrigstmöglichem Energieverbrauch.


Natürlich hinkt der Vergleich. Erstmal ist der P-M als mobile CPU entsprechend möglichst stromsparend gebaut, das ist bei High-End GPUs weniger die Priorität. Und durch mehr Pipelines, Features etc. erhöht sich die Transistorzahl deutlich. 384 Millionen hat bereits der R580. Wieviel hat der P-M? Und der Speicher verbraucht auch einiges. Die GPU alleine verbraucht alleine gar nicht so extrem viel, obwohl die komplexer sein dürfte. Daher ist das nicht vergleichbar. Man könnte die Spannung verringern, aber die wollen bei den High-End Grafikkarten auch keine Leistung verschenken. Wer solche Grafikkarten nicht will, muss sich weniger leistungsfähige Karten suchen.
Was nicht heißt, dass der Stromverbauch nicht zu viel ist beim High-End. Sonst erleben wir in 1-2 Jahren Grafikkarten mit über 200 Watt.

Aquaschaf
2006-02-05, 23:16:57
Ist nicht auch ein entscheidender Punkt, dass eine Grafikkarte im 3D-Betrieb meistens eine viel höhere Auslastung hat als eine CPU, die im Notebook meistens für nicht rechenintensive Anwendungen benutzt wird?

LolekDeluxe
2006-02-05, 23:56:10
Was mich noch verwundert ist der Verbrauchsunterschied zwischen X1800XL und X1800XT.
Das sind einfach so das Doppelte von XL zu XT. :eek:
KLICK (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_5.html)

Benedikt
2006-02-06, 00:09:06
Natürlich hinkt der Vergleich. Erstmal ist der P-M als mobile CPU entsprechend möglichst stromsparend gebaut, das ist bei High-End GPUs weniger die Priorität. Und durch mehr Pipelines, Features etc. erhöht sich die Transistorzahl deutlich. 384 Millionen hat bereits der R580. Wieviel hat der P-M? Und der Speicher verbraucht auch einiges. Die GPU alleine verbraucht alleine gar nicht so extrem viel, obwohl die komplexer sein dürfte. Daher ist das nicht vergleichbar. Man könnte die Spannung verringern, aber die wollen bei den High-End Grafikkarten auch keine Leistung verschenken. Wer solche Grafikkarten nicht will, muss sich weniger leistungsfähige Karten suchen.
Was nicht heißt, dass der Stromverbauch nicht zu viel ist beim High-End. Sonst erleben wir in 1-2 Jahren Grafikkarten mit über 200 Watt.
Worauf ich eigentlich hindeuten wollte war weniger, warum das Ding technisch soviel verbraucht wie-es-ist. Klar, es sind sehr viele Transistoren mehr.
Aber es ging mir mehr ums Prinzip: Warum wird energieeffiziente Bauweise, wenn diese auch mit leichten Performanceabstrichen einhergeht, nicht zum Designziel Nr. 1 gemacht? Wie von mir beschrieben würden sicher 5% weniger Rechenleistung in deutlich mehr als 5% Verbrauchseinsparung münden. Es wird einfach unglaublicher Aufwand getrieben, das Produkt so schnell wie möglich zu machen, und dabei werden wohl alle energiesparenden Designprinzipien missachtet. Ist wohl mehr eine ideologische Frage: Der Kunde ("enthusiast") würde wohl keine ein bisschen langsamere Karte kaufen, die dafür um die Hälfte weniger Strom verbraucht...

Was mich noch verwundert ist der Verbrauchsunterschied zwischen X1800XL und X1800XT.
Das sind einfach so das Doppelte von XL zu XT. :eek:
KLICK (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_5.html)

Genau das meine ich. Die XL ist sicher nicht um die Hälfte langsamer als die XT, braucht aber offensichtlich die doppelte Wattzahl.

Zephyroth
2006-02-06, 11:10:40
Ich würde auch begrüßen, das die Chips weniger Strom verbrauchen, aber derzeit ist wohl noch kein Leidensdruck da, hier etwas zu machen.

Aber dieser Leidensdruck wird kommen, nachdem die Stromversorgungen und die Kühllösungen an der Grenze sind. ATI und NVidia sind heute da, wo Intel letztes Jahr war, als sie erkannten das es mit dem Prescott so nicht weitergehen kann, da die Kühlung zu aufwendig wird. AMD hat das noch etwas früher erkannt und den A64 auf stromsparend getrimmt.

Wasserkühlung als Pflicht ist nicht durchzusetzen (in der breiten Masse) und auch die Leidensfähigkeit der User was Lärm angeht hat Grenzen. So wird einfach die Physik das Steuer übernehmen und die Verlustleistung begrenzen....

Was man nicht vergessen darf, ist die Anzahl der Logiktransistoren auf einem Grafikchip hat mit 380 Mill. (R580) halt viel mehr als ein üblicher Prozessor, die kommen ja kaum über 10 Mill. raus (wohlgemerkt Logiktransistoren, kein Cache). Dennoch takten diese vielen Transistoren nicht mit 2GHz, weshalb man vielleicht ein wenig Strom sparen kann.

Stromsparfeatures unter 3D einsetzen stelle ich mir schwer vor, da alle Einheiten maximal ausgelastet werden. Lediglich mit VSync und doublebuffering kann man ein wenig sparen, indem der Chip auf den Monitor warten muß.

Ich selber habe mit meiner X850XT diese Erfahrung gemacht. Mit VSync wurde der Chip 75°C heiß, ohne VSync oder VSync und Triple Buffering, beides führt dazu das der Chip nicht warten muß, hat eine Temperatur von 80°C gebracht.

Das Problem bei Grafikchip ist, das der auszuführende Code kurz, vorhersagbar und vor allem parallel abgearbeitet wird. Da kann man keine Einheiten abschalten, wie bei einem Prozessor.....

Das einzige was im 3D Betrieb die Verlustleisung senken kann, ist die Chiptechnologie. Und das nur wenn man die Transistoranzahl gleich behält, was leider fast nie der Fall ist.

Grüße,
Zeph

Gast
2006-02-06, 13:07:55
Gibt es irgendwo einen Vergleich zwischen den Mobile Lösungen und den entsprechenden Desktop GPUs hinsichtlich des Verbrauchs?

Mir fallen da besonders diese Gamer Notebooks ein!


Ich weiß das bei mobile GPUs zusätzlich extra Transistoren auf den DIE hinzugefügt werden um die Effizienz zu steigern.

Anscheinenend lohnt es sich noch nicht für die Hersteller diese extra Logik auch in den Desktop GPUs einzusetzen.

Schade!

FlashBFE
2006-02-06, 16:38:57
Na wenigstens takten die neueren Chips sich schonmal runter und laufen nicht dauerhaft auf 500MHz oder so.

dargo
2006-02-06, 17:09:00
Was ich an der ganze Sache nicht so recht verstehe ist, daß ATI die X1900XTX auf 150W begrenzen kann. :|

Ich meine, wie kann man Verlustleistung begrenzen?
Das geht doch nur, in dem man den Chip ausbremst. Also wäre theoretisch der R580 schneller als er jetzt ist. Nur damit ATI die 150W nicht überschreitet wird er gebremst.

Dann frage ich mich, wozu ATI die GPU mit 1,45V laufen lässt wenn man dann in 3D den Chip eh wieder ausbremsen muss.
Wäre es nicht sinnvoller die GPU dann mit zb. 1,30V laufen zu lassen (ohne nachfolgende Ausbremsung) :confused:
Es wäre zb. möglich, daß die Graka dann mit 1,30V die 150W nicht überschreitet.

Wobei das auch wieder Quatsch ist. :tongue:
Bezogen auf die max. 180W wird alleine die GPU durch die Absenkung der Spannung von 1,45V auf 1,30V nie 30W weniger verbrauchen, wenn sie jetzt angeblich "nur" bei 60W alleine liegt.

WEGA
2006-02-06, 17:16:40
120W für eine Graka finde ich viel zu viel. Man stelle sich diese beiden im SLI/Crossfire Modus vor. Das sind 240W nur für die Grafik! :eek:

ein staubsauger braucht 500W

Coda
2006-02-06, 17:17:15
Prescott wird auch vor allem durch die Verlustleistung limitiert. MOSFET-Transistoren schalten eben immer schlechter je heißer sie werden, deshalb wird man sehr wohl genau dadurch begrenzt.

Man kann auch nicht einfach die Spannung senken, dann schalten die Transistoren ja auch wieder langsamer.

ein staubsauger braucht 500WSchön. Der läuft auch lange nicht so oft.

Zephyroth
2006-02-06, 17:33:14
Wenn man schon Vergleiche macht dann richtig, ein Staubsauger braucht etwa 1500W. Und man wird bald Gebläse in dieser Leistungsklasse brauchen um zukünftige Grafikkarten zu kühlen, wenn's so weitergeht.

Wie auch immer ich bin zuversichtlich, das sich auch NV und ATI einkriegen werden und zumindest in der Leistung nicht mehr steigen...

Grüße,
Zeph

dargo
2006-02-06, 17:43:04
ein staubsauger braucht 500W
Super Vergleich. :uconf3:

Meine Microwelle braucht 1500W auf höchster Stufe. ;)


Man kann auch nicht einfach die Spannung senken, dann schalten die Transistoren ja auch wieder langsamer.

Mich würde dann aber interessieren wieviel Spannung der R580 zb. für 600Mhz braucht.

Ich könnte wetten, daß es deutlich weniger ist. Würde schätzen, locker unter 1,30V.
Ob die 50Mhz wirklich soviel V-Erhöhung wert sind ...

Gast
2006-02-06, 18:11:25
Was mich noch verwundert ist der Verbrauchsunterschied zwischen X1800XL und X1800XT.
Das sind einfach so das Doppelte von XL zu XT. :eek:
KLICK (http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_5.html)

alleine die 1,45V vs 1,2V versorgungsspannung machen rund 45% mehr verbrauch im chip aus.
ähnlich dürfte der verbrauch in den spannungswandlern ansteigen, und dann kommt noch der doppelte speicher mit ebenfalls erhöhter spannung zum tragen.

zu guter letzt ist sie auch deutlich höher getaktet, der mehrverbrauch ist also durchaus logisch erklärbar.

dargo
2006-02-06, 18:36:38
alleine die 1,45V vs 1,2V versorgungsspannung machen rund 45% mehr verbrauch im chip aus.

Wie kommst du jetzt auf 1,2V?

Die X1800XL GPU läuft mit 1,1V bzw. 1,075V.

Coda
2006-02-06, 18:57:07
dargo, die Verlustleistung steigt quadratisch mit der Spannung - nicht linear.
Eine geringe Verringerung bewirkt also schon Wunder, wie man bei der XL sieht, da hast du schon recht. Allerdings wird man solange es heißt Benchmarks zu gewinnen immer maximal aufdrehen.

dargo
2006-02-06, 19:28:34
dargo, die Verlustleistung steigt quadratisch mit der Spannung - nicht linear.

Das ist bekannt. :)

Könnte bitte jemand für mich die Leistungsaufnahme der GPU seiner X1900XTX aufnehmen?

1. Mit 650Mhz und 1,45V
2. Mit 600Mhz und 1,35V
3. Mit 550Mhz und 1,25V

Jeweils mit dem 3DMark05.

Gast
2006-02-06, 19:35:36
Könnte bitte jemand für mich die Leistungsaufnahme der GPU seiner X1900XTX aufnehmen?

Wie soll man das machen, dass man nur die Verlustleistung der GPU aufnimmt? :D

*scnr*

dargo
2006-02-06, 19:40:35
Das Atitool zeigt die Ampere der GPU bei meiner X1800XL an. Geht das bei der X1900XTX (noch) nicht?

Edit:

Nur mal so als Beispiel:

X1800XL GPU@500Mhz@1,075V:
2D - 10,9A (11,72W)
3D - 30,0A (32,25W)

X1800XL GPU@500Mhz@1,175V:
2D - 13,6A (15,98W)
3D - 32,7A (38,42W)

X1800XL GPU@600Mhz@1,175V:
2D - 16,4A (19,27W)
3D - 38,2A (44,88W)

m.sch
2006-02-09, 05:42:33
Wie hoch werden wohl die Leckströme aktueller High-End-Gpu's sein :| ,
Ati hat enorm mit der Verlustleistung zu kämpfen,vielleicht liegt da der Hund begraben.

Bei einer Intel-CPU macht das imo >25% des Stromverbrauchs aus und man
kann davon ausgehen,dass diese Leckströme den aktiven Stromverbrauch in naher Zukunft übertreffen werden. :confused:

Coda
2006-02-09, 12:10:54
Wie hoch werden wohl die Leckströme aktueller High-End-Gpu's sein :|Das ist bei einer GPU weniger ein Problem weil sowieso die meisten Transistoren immer schalten. Bei einer CPU werden je nach derzeitigen Befehlen sehr unterschiedliche Teile belastet.

Gast
2006-02-09, 16:32:02
Für den 2D-Betrieb halte ich das doch schon für relevant. Selbst bei Zockern idlen die Grafikkarten oft im 2D.


Q

Coda
2006-02-09, 17:27:59
Ja, dann schon. Aber da hat man ja auch keine wirklichen thermischen Probleme, bzw. es interessiert niemanden.

Zephyroth
2006-02-09, 17:54:20
Es geht hier nicht um thermische Probleme sondern um den Energieverbrauch ansich. Wieso soll eine Grafikkarte 20W verbraten, wenn auch weniger möglich wäre?

Tatsache ist, das sich eine VCore-Verringerung inzwischen kräftiger auswirkt als eine Reduktion der Taktraten. Die VCore ist verantwortlich für Leckströme, die Frequenz für die Schaltverluste...

Das die Transistoren in GPU's die ganze Zeit schalten entkräftet nicht den Nachteil der Leckströme.

Derzeit sieht's für eine High-End-Grafikkarte so aus:

15W Leckströme + 5W 2D-Betrieb = 20W
15W Leckströme + 45W 3D-Betrieb = 60W

Wenn man 15 Watt weniger hätte, könnte man entweder leiser kühlen, oder höher takten....

Grüße,
Zeph

Coda
2006-02-09, 18:32:43
Tatsache ist, das sich eine VCore-Verringerung inzwischen kräftiger auswirkt als eine Reduktion der Taktraten.Das war schon immer so. Die Leistung hängt exponentiell von der Spannung ab, aber nur linear vom Takt.

Gast
2006-02-09, 20:51:54
Tatsache ist, das sich eine VCore-Verringerung inzwischen kräftiger auswirkt als eine Reduktion der Taktraten. Die VCore ist verantwortlich für Leckströme, die Frequenz für die Schaltverluste...



das war schon immer so.

je geringer die auslastung des chips ist desto mehr bringt natürlich die vcore-anpassung im verhältnis zur taktanpassung.