PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gegenbeitrag zum PC-Stromsparwahn


Django
2007-03-17, 19:22:27
Das man bei Office Rechnern die den ganzen Tag laufen nicht unnötig Strom vergeuden muss ist mir klar.

Aber warum fordern hier immer mehr im Board HighEnd Karten die Strom sparen? Ich meine wie soll das gehen bei 500mio Transistoren? Einige fordern sogar Leistungsverzicht!

Ich finde das unsinnig....eine Highendkarte ist wie gesagt HIGHEND...und das soll sie auch bleiben...wer Strom sparen will kann sich ja eine Geforce 2 MX in den Rechner hängen!

Das beste ist ja:
Ich kenn nen Bekannten, der regt sich darüber auf das sein PC 150W braucht, hat aber in seinem Wohnzimmer drei 100W Strahler!!!!!!!

Denkt mal nach wieviel eine popelige Glühbirne braucht, die wir sicher alle relativ oft verbaut haben!! Korrekt: Die braucht im normalfall 60-80W! Und was tut die? DUMM RUMLEUCHTEN! Und wieviel braucht eine Geforce 8800?
GENAUSOVIWEL! Und was tut die? Krasse 3D Welten zaubern!

Also liebe Freunde: Wenn ihr Strom sparen wollt tauscht erstmal all eure Birnen, und meckert nicht, wenn ein HighTech Wunderwerk gradmal soviel wie ne popelige Birne verbracht, und im Normalfall grad maln paar h pro Tag an ist!

StefanV
2007-03-17, 19:27:46
Tjo, nur dumm, das ich in meinem Raum eine 30W Röhre hab und auch ansonsten findet sich nur im Schlafzimmer meiner Mutter etwas das man noch Glühbirne schimpfen könnte, in dieser Wohnung...

sun-man
2007-03-17, 19:44:17
Unsinniger Beitrag.
90% der HighEnd User spielen vielleicht im Durchschnitt 2-3 stunden/Tag - den Rest der Zeit macht die Kiste nix anderes als....nix. Nenn mir doch mal nen Grund warum eine Karte der Firma XY fürs nichtstun z.B. (ausgedachte Zahl) 100W verbrauchen muß, warum muß der Lüfter laufen. Warum kann die Karte da nicht 400 Mio Transistoren abschalten. 500Mio Transistoren um ein 2D Bild darzustellen?

Django
2007-03-17, 19:46:51
Unsinniger Beitrag.
90% der HighEnd User spielen vielleicht im Durchschnitt 2-3 stunden/Tag - den Rest der Zeit macht die Kiste nix anderes als....nix. Nenn mir doch mal nen Grund warum eine Karte der Firma XY fürs nichtstun z.B. (ausgedachte Zahl) 100W verbrauchen muß, warum muß der Lüfter laufen. Warum kann die Karte da nicht 400 Mio Transistoren abschalten. 500Mio Transistoren um ein 2D Bild darzustellen?

Kannste doch runtertakten im 2D...mit dem CoolBit

sun-man
2007-03-17, 19:48:14
Ja? Warum ich? Sind die Firmen zu blöd sowas einzubauen?
außerdem wird es gerade auch in rechenzentren immer aktueller Strom zu sparen. Diese Kosten werden einfach mehr und wenn unserer Sf15K mit 15KW an den start geht ist das mal ne Marke an der man zu knabbern hat.

Letzendlich ist es doch so. Viel Strom = viel Abwärme. Das bedeutet das Highend Karten immer mehr zum Fön werden da sich die Kühllösungen einfach kaum noch wirklich optimieren lassen. Kommt dann einer mit ner guten Kühlung kostet die Karte gleich 50€ mehr und wird kaum verkauft....es mag zwar Menschen geben die auf laute Turbinen stehen, ich gehöre nicht dazu.

Ach ja, gerade gefunden....was für ein Lustiger Zufall, oder? schreib den Mann doch das das unsinn sei ;)
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/

Django
2007-03-17, 19:59:48
Ja ich gebe euch ja Recht, im Idle Modus sollte der Verbrauch wirklich nicht so hoch sein. Aber unter Load - wen juckts!

boxleitnerb
2007-03-17, 20:05:36
Full Ack!
Kann das nicht mal jemand in Riesenbuchstaben ins Forum schreiben, damit auch der letzte Depp rafft, dass das Hauptargument gegen stromhungrige Komponenten die leise und günstige Kühlbarkeit ist und NICHT die Stromkosten?
Klar, Strom sparen kann man schon, aber da stimme ich dem Threadersteller zu. Das, was der PC übermässig verbrät bekommt man allermeistens in Leistung umgesetzt, und es lässt sich zusätzlich durch Benutzung von Energiesparlampen und einer einigermassen nachhaltigen Lebensweise kompensieren.
Ich wiederhole nochmal:
Der PC ist, was das Strom sparen angeht, nur deshalb ein grosses Thema, weil ein hoher Verbrauch vermehrt laute und teure Kühllösungen mit sich bringt. DAS und nichts anderes ist das Argument FÜR das Sparen von Energie.

Es ist echt zum Kotzen: An jeder Ecke ein neuer Thread pro oder contra!

sun-man
2007-03-17, 20:12:22
Ja ich gebe euch ja Recht, im Idle Modus sollte der Verbrauch wirklich nicht so hoch sein. Aber unter Load - wen juckts!

Mich, und zwar ganz gewaltig. Wie schon erwähnt werden die sogenannten Kühllösungen immer mehr zu Turbinen die versuchen die imense Hitze aus dem PC zu schaffen. Reicht das nicht mehr kommen teure Heatpipe-Lösungen zum Einsatz. OK, HighEnd ist HighEnd und wird den paar Leuten auch entsprechend bezahlt. Nach 2 Jahren sind die Dinger so billig das jeder andere die sich auch kaufen kann ;) und dann gibt es auch Ersatzlösungen für die Standardkühlungen.
Ich würde mir z.B. auch ne waKü auf die Karte setzen - tja, wären da nicht irgendwelche blöde Spannungswandler oder was weiß ich die ohne Luft so irre heiss werden das sie abfackeln.

Wie auch immer. Ich denke das hier defintiv bald das Ende der Fahnenstange erreicht ist denn sonst sind wir bald bei Tripple-Lösungen oder sonstigen Mißgeburten.

Was ich nicht verstehe ist die Tatsache das man sich weiterhin an irgendwelche beknackte Normen hält. Auf der Rückseite im außenbereich der Karte sind keine Transistoren oder dergleichen im Weg, dennoch ist alles frei und wird nicht genutzt.

Don Vito
2007-03-17, 23:17:12
Das man bei Office Rechnern die den ganzen Tag laufen nicht unnötig Strom vergeuden muss ist mir klar.

Aber warum fordern hier immer mehr im Board HighEnd Karten die Strom sparen? Ich meine wie soll das gehen bei 500mio Transistoren? Einige fordern sogar Leistungsverzicht!

Ich finde das unsinnig....eine Highendkarte ist wie gesagt HIGHEND...und das soll sie auch bleiben...wer Strom sparen will kann sich ja eine Geforce 2 MX in den Rechner hängen!

Das beste ist ja:
Ich kenn nen Bekannten, der regt sich darüber auf das sein PC 150W braucht, hat aber in seinem Wohnzimmer drei 100W Strahler!!!!!!!

Denkt mal nach wieviel eine popelige Glühbirne braucht, die wir sicher alle relativ oft verbaut haben!! Korrekt: Die braucht im normalfall 60-80W! Und was tut die? DUMM RUMLEUCHTEN! Und wieviel braucht eine Geforce 8800?
GENAUSOVIWEL! Und was tut die? Krasse 3D Welten zaubern!

Also liebe Freunde: Wenn ihr Strom sparen wollt tauscht erstmal all eure Birnen, und meckert nicht, wenn ein HighTech Wunderwerk gradmal soviel wie ne popelige Birne verbracht, und im Normalfall grad maln paar h pro Tag an ist!
Korrekt......so sehe ich das auch......
Entweder volle Leistung oder Strom sparen......
Es gibt ja auch keinen Ferrari der 3 Liter Biodiesel braucht auf 100km:P

Scoff
2007-03-18, 16:30:57
Es gibt ja auch keinen Ferrari der 3 Liter Biodiesel braucht auf 100km:P

Wäre aber doch schön wenn es soetwas geben würde. Also was spricht dagegen etwas zu fordern. Bloss weil etwas Highend ist, muß das nicht heißen das gleich unnötig viel Strom gebraucht werden muss.
Eine Forderung nach weniger Stromverbrauch kann nie verkehrt sein.

mapel110
2007-03-18, 16:39:54
Auf einmal ist die Lautstärke das Kriterium. Ihr drehts euch, wie ihrs gerade braucht. Schon mal die Testberichte über die 8800 GTX gelesen? Da hat sich keine Seite über die Lautstärke des Standardkühlers beschwert.

Und wer 500 € für die Graka hat, der sollte sich auch nen Zweitrechner leisten können, der leise ist und den ganzen Tag idlen kann.

sun-man
2007-03-18, 16:52:26
Auf einmal ist die Lautstärke das Kriterium. Ihr drehts euch, wie ihrs gerade braucht. Schon mal die Testberichte über die 8800 GTX gelesen? Da hat sich keine Seite über die Lautstärke des Standardkühlers beschwert.


Na toll. 28cm und einen großen Dualslotkühler...was daran ist nun Fortschritt? Es wird immer wärmer und die Grenzen der normaen Luftkühlung sind fast erreicht. ATI kommt dann eben mit nem 30cm Monster und dann macht der Zweitrechner zum surfen auch Sinn .
Wenn ich mir die Anandtechwerte ansehe ist es zwar nett das das System im Idle 100W weniger verbraucht, wofür braucht die aber noch immer soviel Watt mehr als eine normale einfache 2dKarte? Sieht Webbrowsing oder Emails oder was weiß ich mit so nem highEnd-Geschoß etwas besser aus als auf ner popeligen 1950Pro? Ich denke nicht....
Im übrigen klingt das "dann kauft man sich nen zweitrechner" nach dem typischen hochnäsigen SUV Fahrer der meint die Welt dreht sich nur um sein Auto. die Karten werden älter und somit MidRange....und die Jungs die dafür dann statt 500 eben nur 250 hinlegen wollen sich sicherlich keinen Zweitrechner kaufen.
MFG

Don Vito
2007-03-18, 16:53:18
Auf einmal ist die Lautstärke das Kriterium. Ihr drehts euch, wie ihrs gerade braucht. Schon mal die Testberichte über die 8800 GTX gelesen? Da hat sich keine Seite über die Lautstärke des Standardkühlers beschwert.

Und wer 500 € für die Graka hat, der sollte sich auch nen Zweitrechner leisten können, der leise ist und den ganzen Tag idlen kann.
gut ausgedrückt :up:

mapel110
2007-03-18, 16:57:30
text
MFG
Die Leute, die 250 ausgeben, sollten besser auf aktuelles Mid Range warten und nicht altes High End nehmen.

sun-man
2007-03-18, 17:02:32
Die Leute, die 250 ausgeben, sollten besser auf aktuelles Mid Range warten und nicht altes High End nehmen.
Tja, man dreht es sich wie man es braucht....nicht wahr.

MFG

Alexander
2007-03-18, 17:39:50
Tja, man dreht es sich wie man es braucht....nicht wahr.

MFG
Sehr schön gekontert. :cool:


Als ob die Lautstärke immer erst dann hervorgeholt würde, wenn man mit dem Argument Stromverbrauch nicht weiter kommt. Beides geht Hand in Hand. Viele wollen sogar nur deswegen stromsparende Komponenten, weil dann die Lautstärke niedriger ausfallen kann. Das hat mapel110 natürlich nicht gewusst. Ist ja auch etwas völlig neues. :rolleyes:

mapel110
2007-03-18, 17:45:49
Tja, man dreht es sich wie man es braucht....nicht wahr.

MFG
Wo hab ich mich da gedreht?!
Altes High End hat keine Daseinsberechtigung in einem System, dass Kühl, leise und stromsparend sein soll...

/edit
Und außerdem ist generell aktuelles Mid Range die bessere Wahl gegenüber altem High End. Das war schon immer so.

sun-man
2007-03-18, 17:48:30
Ach so, also hat das stromfressende HighEnd von heute keine Daseinsberechtigung mehr wenn das noch stromfressendere MidRange der Zukunft kommen wird....oder ist Stromsparen doch eine Option die man trotz blumiger "HighEnd" Fasseleien nicht vergessen sollte.

Simon Moon
2007-03-18, 18:08:34
Ach so, also hat das stromfressende HighEnd von heute keine Daseinsberechtigung mehr wenn das noch stromfressendere MidRange der Zukunft kommen wird....oder ist Stromsparen doch eine Option die man trotz blumiger "HighEnd" Fasseleien nicht vergessen sollte.

Gabs schonmal eine Karte, die bei vergleichbarer Leistung mehr Strom benötigte, als die vorgängige HighEnd Karte?

boxleitnerb
2007-03-18, 19:21:57
Auf einmal ist das nicht. Mag sein, dass der G80 Kühler leise ist. Dafür kostet er auch sicherlich was.
Zweitrechner ist sicher eine Lösung, aber das behebt nur die Symptome, nicht die Ursache. Ich hätte schon gerne die maximale Leistung und toleriere den Saft und die Abwärme, die dabei gebraucht wird - aber bitte nur, wenn ich zocke! Und generell ist weniger immer besser, da wird mir doch keiner widersprechen können.

Zaffi
2007-03-18, 19:34:22
wieso muss es eigentlich immer der Grakahersteller sein ?
Die Mobos könnten ja auch eine eingebaute 2D-Lösung haben und bei 3D wird halt auf die eingebaute Dual 8800 GTXSLIsuperduperhyperlösung geschaltet, sollte doch zu machen sein oda ?

boxleitnerb
2007-03-18, 19:39:14
Kostet auch wieder Geld. Leider werden wohl die allermeisten nicht bereit sein, für sowas extra zu zahlen.

Zaffi
2007-03-18, 19:40:49
ja meine Güte, dann eben ne Art 2D/3D Weiche, hau ich mir halt ne alte Matrox Millennium mit 4 MB in die Kiste (PCI) und hab damit in 2D noch ein besseres Bild als mit dem ganzen neumodischen Kram...und für 3D---> switch to PCIe oder AGP ( greets 2 Stefan V :D )

phizz
2007-03-18, 19:41:40
es wär cool wenns bald sowas wie eine 2 karten lösung gäbe

Achtung dieser gedanke wird warscheinlich demnächst irgendwo auftauchen und jemand stinktreich machen :biggrin:

Es sollte eine lösung geben wo man ein mainboard mit onboardgraka hat und halt ne zocker graka pcie , und das man dann ein spezielles kabel entwickelt das wenn man eine 3D anwedung startet die Pcie Karte aktiviert und der Monitor ab dem zeitpunkt das Pcie Signal nimmt und sobald man in den 2d modus wechselt die pcie sich abschaltet und die onboardgraka die arbeit übernimmt.

Das wäre sehr leet
und eventuell umsetzbar.

Ich würds machen wenns so leicht funtzen würde.

Edit:
wieso muss es eigentlich immer der Grakahersteller sein ?
Die Mobos könnten ja auch eine eingebaute 2D-Lösung haben und bei 3D wird halt auf die eingebaute Dual 8800 GTXSLIsuperduperhyperlösung geschaltet, sollte doch zu machen sein oda ?

Skandal du hast meine Idee geklaut ^^

Zaffi
2007-03-18, 19:42:30
Das wäre sehr leet
und eventuell umsetzbar.

Yep, nannte sich auch 3dfx V1 und V2 ;D