PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikkarten umschaltbar?


Choco
2007-08-19, 18:06:32
Hallo zusammen.



Möchte evtl. folgendes machen:

Ich spiele nur recht selten auf dem PC. Daher muss die "große" Grafikkarte wie z.B. eine 8800 GTS nicht immer laufen.

Zum normalen arbeiten würde mir ja eine "kleine" Grafikkarte auch reichen.

Folgende Idee hätte ich.

Die meisten neuen Boards bieten ja Platz für 2 PCIe Grafikkarten. Wäre es daher möglich, 2 Stück in den PC einzubauen. Einmal die "große" und im zweiten Schacht dann die "kleine" Grafikkarte.

Gibts dann eine Möglichkeit, nur die benötigte Grafikkarte zu betreiben?

AnarchX
2007-08-19, 18:32:31
Wird mit der aktuellen Hardware (vorallem Board) eher nicht gehen, aber NV arbeitet momentan an einem Produkt, die genau deine Idee wiederspiegelt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369095

Gast
2007-08-19, 20:27:27
zumindest mit vista sollte es funktionieren, da dort der grafiktreiber on-the-fly gewechselt werden kann. ob die starke karte dann allerdings wirklich keinen strom verbraucht weiß ich nicht.

AnarchX
2007-08-19, 20:55:55
Das wird eben nicht reichen, das BIOS bzw. der Chipsatz muss halt die GraKa aus und einschalten können, was wohl dann bei den Hybrid-SLI-Plattformen funkioniert. Zwar gibt es von AMD den 690T, wo dies auch jetzt schon funktionieren soll, aber da gibt es keine öffentlichen Bestrebungen in die Richtung Desktop.

PatkIllA
2007-08-19, 21:26:08
zumindest mit vista sollte es funktionieren, da dort der grafiktreiber on-the-fly gewechselt werden kann. ob die starke karte dann allerdings wirklich keinen strom verbraucht weiß ich nicht.
Das ging auch früher schon, aber die Karte ist halt nicht wirklich aus.
Das lohnt eh nicht, wenn du nicht den Rechner 24/7 an hast und nur eine Stunde die Woche spielst. Weder für die Umwelt noch fürs Portmonee.

Gast2
2007-08-19, 22:47:34
Das lohnt bei fast jedem Recher, wenn es so einfach funktionieren würde.

Du vergisst, das kleine Karten auch einen sehr kleinen Idle-Verbrauch haben. Während du z.B. mit 45 W beim G80 vorlieb nehmen musst, kann so eine sparsame Karte sich teils mit 5-15W begnügen.

30W lohnen also nicht? Würde gern mal wissen, wieso du das so siehst. Ein Durchschnittlicher Rechner läuft sicher mehr als 2h.

Bei meinem Surfverhalten wären das allein innerhalb eines Tages locker 150W Einsparung.

Es soll Leute geben, die lassen ihren Rechner auch über Nacht fürs Filesharing etc. laufen, da kommt man locker auf 15h und mehr, selbst wenn davon keine einzige gespielt wird. Wären immerhin 28€ jedes Jahr bei 17 Cent.

seba86
2007-08-19, 22:51:15
Wenn du ein Desktopgehäuse hast, einfach den Rechner auflassen und der Ausbau dauert nur einige Sekunden. Selbst Win98se Systeme wechseln dann für die jeweilige Grafikkarte die richtigen installierten Treiber. Ich weiß ist auch keine superelegante Lösung

PatkIllA
2007-08-19, 22:51:19
Bei meinem Surfverhalten wären das allein innerhalb eines Tages locker 150W Einsparung.Das wären immer noch 30 Watt. Du meinst Wattstunden.
Für 28€ kriegst du keine LowEnd Karte und dafür das ständige umgestelle und evtl umgestöpsel?
Außerdem kommen bei der Produktion giftige Stoffe zum Einsatz. Dann lieber ein bisschen CO2 in die Atmosphäre.

PatkIllA
2007-08-19, 22:54:51
Wenn du ein Desktopgehäuse hast, einfach den Rechner auflassen und der Ausbau dauert nur einige Sekunden. Selbst Win98se Systeme wechseln dann für die jeweilige Grafikkarte die richtigen installierten Treiber. Ich weiß ist auch keine superelegante Lösung
Und dafür 2 Minuten rechner runterfahren und wieder hochfahren und dann die nur für eine begrenzte Benutzung ausgelegten Slots auf Karten und Mobo gefährden? Blödsinn²

Gast2
2007-08-19, 22:56:07
Das wären immer noch 30 Watt. Du meinst Wattstunden.
Für 28€ kriegst du keine LowEnd Karte und dafür das ständige umgestelle und evtl umgestöpsel?


Sag mal, fällt es dir so schwer zu rechnen?
Wer redet denn davon, nach einem Jahr die Karte wieder rauszuschmeißen? Eine gescheite PCI/PCIe Karte könnte man mehrere Jahre verwenden und da kommste dann auf Beträge von 30, 60, 90+ €.


[quote]Außerdem kommen bei der Produktion giftige Stoffe zum Einsatz. Dann lieber ein bisschen CO2 in die Atmosphäre.

Falsch gedacht. Die Karten wurden sowieso schon produziert und werden es auch weiterhin, ob du sie nun kaufst oder auch nicht. :)

PatkIllA
2007-08-19, 22:59:26
Sag mal, fällt es dir so schwer zu rechnen?
Wer redet denn davon, nach einem Jahr die Karte wieder rauszuschmeißen? Eine gescheite PCI/PCIe Karte könnte man mehrere Jahre verwenden und da kommste dann auf Beträge von 30, 60, 90+ €.
Dann dauert es halt 2 Jahre bevor es anfängt sich evtl. zu rechnen. Und mit ein bisschen Glück kann die nächste Generation auch bei Bedarf ordentlich runtertaken/Spannungen senken und evtl. gar Teile abschalten und der vermeintliche Vorteil verschwindet vollends.

Falsch gedacht. Die Karten wurden sowieso schon produziert und werden es auch weiterhin, ob du sie nun kaufst oder auch nicht. :)Nach der Logik wird das Erdöl und die Kohle auch gefördert und es hat sowieso alles keinen Sinn.

dr.denton
2007-08-19, 23:06:39
Was nicht in die Überlegung eingeflossen ist: aktuelle Mainboards mit nF4xx/70x0 oder RS690G/V bringen meist bereits eine integrierte Grafik mit und verbrauchen trotzdem weniger Strom als die ganzen tollen Highend-Heizplatten mit Funktionen, die eh kaum ein Mensch braucht.
Ich für meinen Teil würde mich überhaupt nicht beschweren wenn sich bei meinem MA69G-S3 zwischen 690G und X1950 umschalten ließe, würde mir idle runde 20W einsparen.
Theoretisch müsste nicht mal der Grafiktreiber neu geladen werden da der Chipsatz ja ohnehin den parallelen Betrieb beider Grafikchips erlaubt.

mfG

denton

rpm8200
2007-08-20, 09:52:51
Also PatkIllA, so richtig verstehe ich Deine Argumentation nicht. Ein Deaktivieren sinnloser Komponenten ist immer von Vorteil. Wenn Die 8800GTX dann nur idle läuft und sich beim Darstellen des Desktops unendlich langweilt, dann versteh ich nicht, warum sie dafür 45 Watt verbrauchen dürfte.

Nebenbei habe ich keine Ahnung, wie Du auf diesen Wert kommst. Meines Wissens bewegt sich eine 8800 GTX in idle im dreistelligen Wattbereich. Wenn der Rechner also 10 Stunden pro Tag läuft, ist das 1 KWh Leistung für nix (sowohl für Umwelt als auch Geldbeutel nicht so richtig gut).

Wenn man es schon nicht hinbekommt, die größeren Grafikkarten unter idle sparsamer zu machen, dann sollte man doch als Minimalvoraussetzung eine Deaktivierung ermöglichen mit einem einfachen Switch auf die integrierte IGP (die dann irgendwas unter 10W verbraucht).

Und natürlich will kein Mensch die Kabel zwischen den Karten jedesmal umstecken. Aber hey, wir leben in einem hightech- Zeitalter. Wieso sollte das nicht möglich sein?

Ich habe schon vor Monaten hier im Bord mal angefragt, ob man die dedizierte Grafik durch deaktivieren im Gerätemanager wirklich ausschalten kann oder ob die weiter Power zieht. Die meisten Monitore haben ja schon zwei Eingänge (DVI und Sub), da könnte man dediziert an DVI anschliessen und Sub an die IGP, dann bräuchte man nicht mal Kabel umstecken, nur am Monitor das Signal umschalten.

Generell würde ich eine etwas professionellere Umsetzung sehr begrüßen (einfach im CP nen Schalter zum umschalten zwischen IGP und dedizierter GFX, muss ja nicht automatisch erfolgen). Durchschleifen des Signals dann eben über PCI Bus und Ausgabe über IGP.

Für meine Nutzungsgewohnheiten wäre das ideal. Würd auch ne 2900XT nehmen, wenn es damoit möglich wäre (auch wenn die 8800 GTX nochmal 25% schneller ist -> das wäre mir sowas von egal). Damit will ich sagen: Ich würde auch eine Leistungsmäßig unterlegene Karte nehmen, wenn die Energietechnisch intelligenter wäre.

dr.denton
2007-08-20, 10:27:49
Keine Grafikkarte verbraucht idle dreistellige Summen ;)
Die 45W für die 8800GTX sind ein sehr realistischer Wert, die kommt unter Last ja kaum über 120W hinaus.

mfG

denton

Wechselbalg
2007-08-20, 10:34:20
Hat sich denn da etwas in neueren Treibern geändert? Xbitlabs hatten ja mal so um die 70 Watt früher gemessen.
http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html#sect0

rpm8200
2007-08-20, 13:15:16
... 'tschuldigung... natürlich waren ja "nur" 70 Watt idle ... trotzdem für das "Nichtstun" in 2D Desktop ein Wert, der um den Faktor 5 zu hoch liegt (IMO). Ne integrierte GFX wird da wohl mit 5-10W zu buche schlagen denke ich.

Wobei ich noch nen anderen Vergleich gesehen habe mit Power Consumption Gesamtsystem mit einmal NV8800GTX und einmal 1900XT und da war der Unterschied zwischen beiden Karten idle höher als 70 Watt (wobei die 1900XT ja auch nicht 0 W unter idle braucht -> daher könnte man rückschließen, dass der idle Verbrauch der GTX höher liegt als 70 Watt (dass Wandlungsverluste dazu kommen und blablabla ist mir klar, als User interessiert mich aber eher wenig, was die Karte theoretisch alleine verbraucht als eben relativ zu anderen Karten gesehen, wieviel Watt da mehr aus der Dose gezogen werden)).

Hat sich denn nun tatsächlich was getan?

(45 W fürs "Nichtstun" ist mir zwar immer noch zu viel/ nicht optimal, aber nun nicht mehr sooo schlimm wie 70W+ wie man vorher mal gemessen hat)

PatkIllA
2007-08-20, 19:13:08
@rp8200
natürlich wäre es schön, wenn die Karten beim Nichtstun weniger verbrauchen würden.
An der 8800 wird sich aber nichts mehr ändern und einfaches Umstellen per Klick geht nicht. -> Ergo es gibt derzeit keine brauchbare Möglichkeit eine GF8800 zu haben und im Desktopbetrieb Strom zu sparen.

rpm8200
2007-08-21, 09:31:41
... -> Ergo es gibt derzeit keine brauchbare Möglichkeit eine GF8800 zu haben und im Desktopbetrieb Strom zu sparen.

Ja und genau das finde ich echt shice und ich denk man sollte das den Herstellern auch mal so kommunizieren. Solange nämlich auch Karten verkauft werden, die 70W+ in idle verbrauchen, werden die Hersteller glauben, dass dies akzeptiert wird, sofern niemand gegenteiliges behauptet/ bekannt gibt.

Nochmal die Frage: Hat sich an den 70W idle Verbrauch etwas getan (hier wurde behauptet, es sind "nur" 45W...?

MrMostar
2007-08-21, 22:28:40
Hier Messwerte aus der c't 17/2007:


Ptyp. in Watt 2D 3D PEAK
HD2900XT 58 152 208
8800GTS 59 99 149
8800GTX 74 139 213
8800Ultra 80 159 236

MrMostar
2007-08-21, 22:54:24
Eine nicht ganz ungefährliche Methode könnte es geben, den alten Turbodruckschalter (vom 386er) wieder zu Ehren kommen zu lassen:
Es genügt damit die Leitung zum Sensepin (Senst Masse) des 2. 6pol. Poweranschlusses zu unterbrechen. Das Board denkt bei Unterbrechung, der Stecker ist nicht eingesteckt und untertaktet (je nach Bios). Manche Boards starten aber ohne dieses Signal gar nicht (lautes Piepsen).
Boards, die mit Untertakten auf die fehlende Spannung reagieren (einfacher Test durch Abziehen des Steckers) könnten so zum Sparen getrimmt werden.
Leider wird der Status dieses Pins nur beim Einschalten des Rechners geprüft, würde man den Stecker im Betrieb abziehen, geht schlechtestenfalls das Motherboard in Flammen auf (230W statt 75 W über PCIe)
Aus obigem Grund möchte ich das nicht testen, es könnte ja irgendjemand aus Neugier den Turboknopf während des Betriebs drücken... ;)
edit: ebenso ist es denkbar, mit einem solchen Schalter den Spannungsteiler des Schaltreglers der Grafikkarte etwas herunterzuziehen, hier sollte die Grafikkarte aber nicht übertaktet sein.

RavenTS
2007-08-26, 15:07:28
...
Aus obigem Grund möchte ich das nicht testen, es könnte ja irgendjemand aus Neugier den Turboknopf während des Betriebs drücken... ;)...


Nur das der Turboknopf schon seit Jahren ausgestorben ist, müsste man sich also auch erstmal einen basteln ;)

Ansonst wäre doch vielleicht auch der Betrieb zweier Rechner per KVM-Switch interessant. Ein kleiner, auf minimalen Verbrauch getrimmten OfficePC und einen für Spiele... :confused:

rpm8200
2007-08-27, 07:32:23
Also das ist immer teuerer als einen zu haben. Ich hab selbst mehrere (und möchte wieder auf einen, max. zwei reduzieren, wobei ich ein anderes Anforderungsprofil hab als nur Game & Office).

Ressourcen/ Umwelttechnisch sind mehrere Rechner auch nicht günstig. Zwei Rechner werden wohl "immer" mehr verbrauchen als nur einen zu betreiben, es sei denn man hat ein ULV Notebook zum Surfen & Office (wem das genügt). Sollte dann aber Gaming das einzige sein, was auf dem PC noch laufen muss, dann ists wohl besser man holt sich n Notebook und irgend ne Konsole zum Zocken.

RavenTS
2007-08-27, 11:00:20
...
Ressourcen/ Umwelttechnisch sind mehrere Rechner auch nicht günstig. Zwei Rechner werden wohl "immer" mehr verbrauchen als nur einen zu betreiben, ...

Man soll die dann ja auch nicht gleichzeitig laufen lassen ;)
Generell gilt es wohl zu unterscheiden ob man einfach nur etwas Geld sparen will oder wirklich etwas für die Umwelt durch Reduzierung des Stromverbrauchs tut und dabei nicht wirklich auf das nicht mit der Natur verknüpfte Zahlungsmittel achtet...

Gast
2007-08-27, 11:07:52
Generell gilt es wohl zu unterscheiden ob man einfach nur etwas Geld sparen will oder wirklich etwas für die Umwelt durch Reduzierung des Stromverbrauchs tut und dabei nicht wirklich auf das nicht mit der Natur verknüpfte Zahlungsmittel achtet...

auch dann sind 2 rechner nicht die richtige wahl, die herstellung der ganzen komponenten kostet auch einiges an energie, das bekommt man nicht so schnell wieder rein.

AnarchX
2007-08-27, 12:13:25
Ab 2008 wird man sich dank Hybrid-SLI und den anderen Herstellern, die hoffentlich nachziehen, wohl weniger Sorgen über den Idle-Stromverbrauch seines PCs machen müssen.

Hybrid-SLI/Alternative + AM2+ (mit seinen neuen Stromsparfeatures) + SSD + effizientes NT, das dürfte definitiv einen neuen "Rekord" im Idleverbrauch für HighEnd-PCs ermöglichen. ;)

dr.denton
2007-08-27, 13:56:49
Ich bin in der Hinsicht auch zuversichtlich - gerade habe ich einen PC von 2001 mit einem Palomino 1400 und SiS730-Board (onboard-Grafik) hier stehen gehabt.
Die Tatsache, dass dieser PC idle runde 20W mehr (trotz CPU im HLT) verbraucht als mein aktueller Brisbane 5000+, X1950 Pro, 2 HDs und ein 690G Mainboard, dessen integrierte Grafik unter Last weniger verbraucht als eine 9800 Pro idle aber eine vergleichbare Leistung bietet, lässt mich da recht positiv in die Zukunft sehen.

mfG

denton

sklave_gottes
2007-08-27, 14:59:50
Ich bin in der Hinsicht auch zuversichtlich - gerade habe ich einen PC von 2001 mit einem Palomino 1400 und SiS730-Board (onboard-Grafik) hier stehen gehabt.
Die Tatsache, dass dieser PC idle runde 20W mehr (trotz CPU im HLT) verbraucht als mein aktueller Brisbane 5000+, X1950 Pro, 2 HDs und ein 690G Mainboard, dessen integrierte Grafik unter Last weniger verbraucht als eine 9800 Pro idle aber eine vergleichbare Leistung bietet, lässt mich da recht positiv in die Zukunft sehen.

mfG

denton

das wage ich ganz stark zu bezweifeln. Ist eher unterer 9600/x600 speed.

Gast
2007-09-04, 16:15:00
Eine nicht ganz ungefährliche Methode könnte es geben, den alten Turbodruckschalter (vom 386er) wieder zu Ehren kommen zu lassen.


aktuelle boards und grafikkarten untertakten, untervolten und deaktivieren ja jetzt schon nicht/wenig ausgelastete teile. der verbrauch ist aber halt trotzdem noch zu hoch da die chips einfach recht groß sind und leckströme usw ne menge verlustleistung verursachen. also hoff ich einfach mal das war n scherz ;)

StefanV
2007-09-04, 16:28:25
zumindest mit vista sollte es funktionieren, da dort der grafiktreiber on-the-fly gewechselt werden kann. ob die starke karte dann allerdings wirklich keinen strom verbraucht weiß ich nicht.
Ich hab das bisher nicht geschafft, warum auch immer...

Gast
2007-09-04, 16:34:28
Ich hab das bisher nicht geschafft, warum auch immer...


wenn man nicht die setup-methoden verwendet sondern den gerätemanager aktualisiert funktioniert es.

man kann auch im gerätemanager die grafikkarte deaktivieren und wieder aktivieren, was bei mir manchmal im notebook sogar notwendig ist da sonst die helligkeitseinstellung vom monitor nicht funktioniert.

myopF
2007-09-06, 07:37:58
der 690g is zwischen x300 und x600 anzusiedeln, mit tendenz zum x600.
graka umschalten hab ich bis jtzt nur bei notebooks gesehen und auch da nur bei einem amd sys was dick als innovation angepriesen wurde, im desktop wirste dich wohl bis hybrid sli gedulden müssen. und auch dann wirds wohl nur mit einer igp ökonomisch und ökologisch sinnvoll sein.