PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AGP und PCIE GraKA gleichzeitig auf dem Asrock Dual?


Popeljoe
2007-02-15, 10:29:23
Hai Ihr!
Seit ich die X1800XT im Rechner habe, mache ich mir Gedanken um meinen Stromverbrauch.
Ich brauche die 3D Leistung ja nur selten und wollte evtl. eine kleinere Karte auf dem AGP Port einsetzen um Strom zu sparen.
Lohnt das überhaupt und wenn ja, wie funzt das?
Zwei verschiedene Bootsequenzen o.ä.?
Gruß
P1

Vertigo
2007-02-15, 10:34:50
Um wirklich Strom zu sparen, müßtest Du jedesmal die Karten umstecken ... ;)

Aber schön dass die X1800XT noch läuft. =)

PS: Du kannst via ATI Tray Tools bei der Karte im 2D-Betrieb die Spannungen und Taktfrequenzen reduzieren. Das macht einiges aus.

Gast
2007-02-15, 10:42:33
Mit Vista könnte AFAIR eventuell die Hot-Plug-Fähigkeit von PCIe funktionieren, sodass man die X1800XT eben komplett ausschalten kann.

f!P[z]y
2007-02-15, 10:46:26
Beide gleichzeitig, für einen 4 Monitorbetrieb ist möglich. Aber eine Abschalten IMO nicht.

Popeljoe
2007-02-15, 12:31:38
Um wirklich Strom zu sparen, müßtest Du jedesmal die Karten umstecken ... ;)

Aber schön dass die X1800XT noch läuft. =)

PS: Du kannst via ATI Tray Tools bei der Karte im 2D-Betrieb die Spannungen und Taktfrequenzen reduzieren. Das macht einiges aus.
Schade, wäre doch aber auch zu schön gewesen, wenn man sich beim booten das hätte aussuchen können.
Meist weiß man ja, wann man zocken oder schreiben/I-Net machen will.
Da würde es sich anbieten jeweils die entsprechende GraKa einzusetzen.
Ne X1800XT unter IDLE frisst doch sicher mehr Saft, als ne Karte der FX5200 Klasse oder Onbord-Chip Lösung.
@Vertigo: diese schlechte Angewohnheit sich umzunennen ist echt irritierend! ;)
P1

f!P[z]y
2007-02-15, 12:35:18
Das nächste Problem in dieser Sache wäre ja auch, dass du dann entweder zwei Monitore bräuchtest oder umstecken musst.
Da halte ich den Vorschlag von Vertigo mit der Taktraten- und Spannungsreduzierung in 2D für sinnvoller.

Popeljoe
2007-02-15, 12:46:09
Klingt sinnvoll, hat einer von euch Checkung, wieviel das ausmachen könnte? :usweet:
P1

f!P[z]y
2007-02-15, 13:02:50
IMO müsste es sich ähnlich der Prozessorverlustleistung verhalten.
Hier gibts ein prog zur Berechnung dieser, in Abhängigkeit von der Standardverlustleitung:
KLick (http://www.kaltestille.de/cpuverlustleistung.html)

Näherungsweise so:
Original-Verlustleistung * (Neuer-Takt / Original-Takt) * (neue-Spannung / originale-Spannung) ² = neue Verlustleistung

Vertigo
2007-02-15, 13:07:33
Klingt sinnvoll, hat einer von euch Checkung, wieviel das ausmachen könnte? :usweet:
P1
Allerhand. Ich habe mit der Karte seinerzeit wohl mit 0,1V weniger bei gleichen Lüftereinstellungen etwa 3-5°C weniger gehabt - in meinem TT Xaser III. Versuch macht klug. ;)

@Vertigo: diese schlechte Angewohnheit sich umzunennen ist echt irritierend! ;)
P1
Namen sind Schall und Rauch ... ;)

mapel110
2007-02-15, 13:10:11
y;5254277']Beide gleichzeitig, für einen 4 Monitorbetrieb ist möglich.
Jo, habs neulich getestet. Funzt mit dem Board einwandfrei. Primäre Graka wählt man ja im BIOS aus. "Init display first" oder so ähnlich.

Gast
2007-02-15, 13:37:03
y;5254598']Das nächste Problem in dieser Sache wäre ja auch, dass du dann entweder zwei Monitore bräuchtest oder umstecken musst.
Da halte ich den Vorschlag von Vertigo mit der Taktraten- und Spannungsreduzierung in 2D für sinnvoller.

Warum sollte das ein Problem sein?

CRTs und fast alle TFTs besitzen mehr als nur einem Anschluss und erlauben das umschalten zwischen mehreren Signalen.

Bei den High End Geräten könnte man sogar zwischen 3 Geräten hin und herschalten!

Gast2
2007-02-15, 14:11:04
Also das runtertakten der X1800XT (natürlich in 2D) bringt leider nicht allzuviel.
Einziger Vorteil: Man kann den Lüfter komplett abschalten.

Wers ausprobieren willen:
Mit atioverclocker den Takt von GPU und RAM auf 200MHz stellen.
Mit AtiTrayTools dann GPU- und Speicherspannung einstellen (GPU 1V, Speicher auf minimal). Danach kann man den Lüfter im Normalfall abstellen. Normalfall: Ein halbwegs belüftetes Gehäuse. ;-)