PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stromrechnung? Schon irgendwelche Folgen durch 8800GTX


Gast
2007-09-19, 17:26:13
Hat wer schon ne höhre Stromrechnung bekommen? Alleine weil die 8800 GTX ja idle schon beachtlicht zieht. Oder ist es uverändert geblieben?

Gast
2007-09-19, 19:20:12
Ich scheiss dafür jetzt immer im dunkeln, also bleibt die Stromrechnung gleich.

Mal im Ernst, den Stromverbrauch kannst du dir selber ausrechnen, normalerweise gibt es eine Abrechnung einmal im Jahr.
Die paar Watt die eine 8800er mehr Verbraucht macht sicher keinen arm, kauf dir lieber weniger Drogen, dann ist das Geld an einem Tag wieder drin.

Fatality
2007-09-19, 19:25:59
naja wer weiß an was hartz4 empfänger so alles zu denken haben...
wobei wenn einer von denen sich einen rechner mit 88er gtx leisten konnte läuft eh was flasch..

don't feed the trolls.

TurricanM3
2007-09-19, 19:30:57
Das fällt in die Messtoleranz bei mir.
Außerdem: Wer sich darüber Gedanken macht, hat sich die falsche Karte gekauft. Meine Meinung.

Gast
2007-09-19, 19:31:05
naja wer weiß an was hartz4 empfänger so alles zu denken haben...
wobei wenn einer von denen sich einen rechner mit 88er gtx leisten konnte läuft eh was flasch..

don't feed the trolls.

was für eine lustige Bemerkung!

Gast
2007-09-19, 20:11:48
Als ob! Wieso soll das Unsinn sein? Andere Karten haben weniger gezogen. Anscheined interessiert keinen die Umwelt bzw. sein Geld.

Gast
2007-09-19, 20:13:06
was für eine lustige Bemerkung!
Ist wahrscheinlich ein Sozialneider. Denkt von morgens bis früh an die Almosenempfänger, nicht weil sie ihm am Herzen liegen, sondern weil er sich bewusst wird, diese mit seinen außergewöhnlichen Fähigkeiten mitdurchzufüttern.

DerböseWolf
2007-09-19, 20:25:39
Ich schätze mal das dürfte sich wenn überhaupt im bereich von 1-2% bewegen, von demher kaum einer erwähnung wert... ( messgenauigkeit etc...)

Wenn mich einer eines besseren belehren kann, dann nur zu....


Stromsparen mit einer billigen grafikkarte und dann so ein z.b. tischgeschirrspüler oder sonstige geräte über die hier häufig gesprochen wird kaufen ( betrifft nicht den threadersteller oder sonst jemand hier) ist sehr sinnvoll......

HisN
2007-09-19, 20:38:58
Seit dem ich nicht mehr jeden Tag ein paar Stunden in der Badwanne hänge (Durchlauferhitzer) und meinen Rechnerpark von sieben auf vier verringert habe ist von meinem ursprünglichen Stromverbrauch nur noch ein drittel übrig geblieben.
Die Graka ist mit ihren 120W so ein kleines Licht gegen den Durchlauferhitzer oder den Elektroherd. Ihr macht euch an der falschen Stelle den Kopp. Bei den großen Verbrauchern anfangen und zu den kleinen vorarbeiten.

-=Popeye=-
2007-09-19, 20:46:08
Hat wer schon ne höhre Stromrechnung bekommen? Alleine weil die 8800 GTX ja idle schon beachtlicht zieht. Oder ist es uverändert geblieben?

Selten so einen Schwachsinn gelesen, wer sich so ein Teil bzw. zwei davon leisten kann der wird wohl um seine Stromrechnung einen feuchten Kehricht scheren.
In diesem Sinne, ganz dumme Frage.

Angiesan
2007-09-19, 21:14:13
Seit dem ich nicht mehr jeden Tag ein paar Stunden in der Badwanne hänge (Durchlauferhitzer) und meinen Rechnerpark von sieben auf vier verringert habe ist von meinem ursprünglichen Stromverbrauch nur noch ein drittel übrig geblieben.
Die Graka ist mit ihren 120W so ein kleines Licht gegen den Durchlauferhitzer oder den Elektroherd. Ihr macht euch an der falschen Stelle den Kopp. Bei den großen Verbrauchern anfangen und zu den kleinen vorarbeiten.

Interessant;D

ein paar Stunden in der Badewanne :confused: ich hoffe für Dich nicht alleine
weil was macht man denn alleine ein paar Stunden in der Badewanne :D und dann auch noch jeden Tag :lol: ich meine natürlich die paar Stunden....
und wie muß ich das mit dem Herd verstehen hast du da auch jeden Tag ein
paar Stunden verbracht :biggrin:
Ich stells mir gerade bildlich vor zuerst mit einer Funktastatur und Maus in der
Badewanne und dann im Herd zum Trocknen;D;D;D.......
ich kann nicht mehr, ich lach mich weg.

PHuV
2007-09-19, 21:18:21
Seit dem ich nicht mehr jeden Tag ein paar Stunden in der Badwanne hänge (Durchlauferhitzer) und meinen Rechnerpark von sieben auf vier verringert habe ist von meinem ursprünglichen Stromverbrauch nur noch ein drittel übrig geblieben.


Wie hast Du das geschafft, bei mir ist jetzt noch ein Arbeitsnotebook (ein Asus G2 :biggrin:) mit dazugekommen.


Die Graka ist mit ihren 120W so ein kleines Licht gegen den Durchlauferhitzer oder den Elektroherd. Ihr macht euch an der falschen Stelle den Kopp. Bei den großen Verbrauchern anfangen und zu den kleinen vorarbeiten.

Korrekt, einmal den Wasserabkocher mit 1,5 Liter gestartet, und ich kann dafür zig Stunden spielen ;).

The_Invisible
2007-09-19, 21:31:46
und das kommt wahrscheinlich von den leuten die >10 jahre alte haushaltsgeräte besitzen.

zumindest saufe ich mir nicht jedes wochenende einen nieder, da habe ich in einem monat locker die mehrkosten für ein ganzes jahr drinnen.

mfg

try2fixit
2007-09-20, 03:19:07
Solche Fragen können wohl wirklich nur von Provokateuren kommen ;-)

Nein, wie sagt man doch so schön: Don´t feed the Troll.

Obwohl man ja die Trolle hier ein wenig reizen könnte mit folgenden Thesen:

-Stromverbrauch der Graka: Noch viel zu niedrig, ich wäre für die volle Ausreizung auch von 1000W Netzteilen

-Klimakatastrophe: Mir doch egal, dann wird´s wenigstens schön warm in Deutschland

-Mir war nicht bewusst, daß eine 8800GTX gar nicht im Hartz-4-Leistungspaket enthalten ist.

Sooo, und nun kann´s mal so richtig losgehen. Ich mache schon mal den Wein auf und hole mir Popcorn!

Greetz

Mario

Razor
2007-09-20, 06:05:29
Sorry... aber mit welcher Ignoranz hier einer durchaus interessanten Fragestellung begenet wird, ist schon ein gutes Beispiel für den Niveau-Verfall in diesem Forum... wirkliche Kompetenz ist hier kaum noch vorhanden und dafür der DummBatz-Kiddie-Anteil massiv gestiegen.

Und um zu den Kiddies zu kommen: die haben im Leben noch nie eine Stromrechnung gesehen!

Kommen wir mal zu einem Vergleich mit einer G80 (jetzt mal im Mittel die GTX) - im Idle verbraucht diese etwa 60-65W (übertaktet natürlich mehr, untertaktet dann ein wenig weniger). Meine 7900GT braucht so in etwa 17-20W, nehmen wir also mal die Differenz aus 20 zu 60W... also 40W.

Und wenn wir uns nun mal vorstellen, dass diese 40W Birne 24h am Tag leuchtet, obwohl es ABSOULT KEINEN SINN MACHT, diese leuchten zu lassen, dürfte auch dem größten Ignoranten klar werden, dass hier etwas falsch läuft. Des weiteren kann man sich bei permanent betriebenen Leuchtmitteln ganz hervorragend auf aktuelle Technologien stützen und eben Stromspar-Birnen einsetzen... 40W Leuchtstärke wird mit einer 8W-Birne erreicht (erleichterte Betrachtung ;-), welches so also glatte 5 - in Worten: FÜNF! - 8W-Stromspar-Birnen ergibt, die eine Leuchtstärke von satten 200W ergeben...

Nur ein Beispiel... aber:

Kapiert Ihr das nun endlich?
:confused:

'Moderne' Entwicklungen sollten mit Resourcen generell 'schonender' umgehen und das, was da von nVidia (und auch AMD) geliefert wurde, spottet in dieser (und auch mach anderer) Hinsicht jeder Beschreibung!

Sehr schön zu sehen bei den 'Kleinen' und wohl auch bei den 'Neuen' (G9x), dass es auch anders geht, aber die erste Alpha-Entwicklung (willig von den interessierten Kunden genommen) kam halt in vielerlei Hinsicht 'unfertig' in den Markt... und da viele einfach kein Geld haben (besagte Kiddies, Hartzies und andere) um sich aktuellere, 'vernünftigere' Hardware zu leisten, bleibts dann bei diesem Müll.

Egal, ich bin dieses Thema leid.

Wer nicht einsieht, dass die Entwicklung zu immer effizientere Technologie mit dem G80 ad aburdum geführt wurde, der tut mir einfach nur leid.
Mögen diese Leutz weiterhin Unsinn von sich geben...

Razor

P.S.: und ich rede hier ausschließlich (!) von dem Verbrauch unter 2D!
Das V/L unter 3D verdient zwar auch ein wenig Kritik... interessiert mich aber nun überhaupt nicht.

=Floi=
2007-09-20, 07:17:50
dein post ist aber auch nicht gerade brauchbar
wer seinen pc 24 std betreibt sollte sich einen 2. rechner anschaffen und in absehbarer zeit ist auch das problem mit dem 2d modus gelöst
durch untertakten kann man viel rausholen beim g80 und eine grundperformance braucht man eben auch noch für die 2d und video beschleunigung


das erste post erinnert einfach nur an einen sinnlosen bash und hisn hat absolut recht

BurnIn
2007-09-20, 07:39:28
Ich bin inzwischen bei 131€ pro Monat angekommen!
Liegt an der Ultra, was ist schon GTX

The_Invisible
2007-09-20, 07:40:43
also mein arbeits-nb frisst unter 20W im gesamten, sozusagen dürfte also keiner mehr einen desktop-pc einsetzen, weil da locker min 40W mehr verbraten werden.

außerdem, ihr wisst sicher was für die produktion einer karte an energie draufgeht, egal ob 8800 oder 7900er

mfg

Tomi
2007-09-20, 07:46:12
Richtig reinhauen tut es erst ab 2008 :D

Vielen deutschen Verbrauchern drohen zum Jahreswechsel erneut deutlich höhere Strompreise. Kunden des zweitgrößten deutschen Versorgers RWE müssten sich zum Jahreswechsel auf um zehn Prozent höhere Preise einstellen, berichtet die "Berliner Zeitung". Ein Sprecher des Konzerns habe bestätigt, dass der Vorstand in einer Sitzung am Dienstag beschlossen habe, von einer Preiserhöhung in diesem Jahr noch Abstand zu nehmen. Jedoch hätten die RWE-Regionaltöchter, die ihre Preise bereits zum 15. Oktober um rund zehn Prozent anheben wollten, nun ab Januar freie Hand.

Auch der größte deutsche Stromversorger Eon bereitet laut "Berliner Zeitung" zum Jahreswechsel eine neue Preiserhöhung vor. Dann laufe der freiwillige Preisstopp aus, zu dem sich Eon im vergangenen Jahr gegenüber den damals zuständigen Länder-Genehmigungsbehörden verpflichtet hatte.

Strom-Mafia lässt grüßen. Die 30 Cent/kWh sind bald Realität ;)

=Floi=
2007-09-20, 08:59:28
ihr wollt ja keinen atomstrom, sondern sauberen kohle-, solar- und windstrom

try2fixit
2007-09-20, 10:00:09
@Razor:

lies Dir doch noch mal das Ursprungsposting durch. Für mich persönlich klingt das auch eher ein wenig nach Bash / Schadenfreude von jemandem der sich vielleicht selber keine derartige Karte leisten kann.

Aber einmal davon abgesehen: Welche Wahl hat man denn heute noch, wenn man alle Games mit all dem Glamour zocken möchte - und das in hohen Auflösungen? Das ist doch das Problem an sich. Es gibt halt keine stromsparende Alternative, die unter 2D deutlich weniger Energie verbraucht. Sicher wäre das wünschenswert, aber ich sehe da (noch) nichts. Zu seiner Zeit entsprach der G80 bei dieser hohen Transistorenanzahl dem technisch machbaren. Vielleicht hätte eine Absenkung des Takts / und damit auch des Stromverbrauchs zu Instabilitäten oder anderen Effekten geführt. Wer weiß...

Kleinere Strukturbreiten, die Strom sparen hätten helfen können, waren wohl mit dieser hohen Transistorenanzahl (noch( nicht drin. Aber wenn es nicht derartige Speerspitzen der technischen Machbarkeit (natürlich auf Kosten höheren Stromverbrauchs in der "Alpha"-Phase) geben würde, dann würden wir immer noch mit 386ern - oder weniger - arbeiten und spielen. Jeder technische Vorteil muss halt leider häufig teuer erkauft werden.

Im übrigen halte ich den höheren Stromverbrauch im Vergleich zu alten Kühltruhen, Kühlschränken, Trocknern und ähnlichen sehr stromintensiven Verbrauchern für vernachlässigbar.

Mario

Gast
2007-09-20, 11:41:17
Tja, solche Überlegungen haben immer 2 Seiten. "Kleinere Strukturbreiten" o.ä. sind Anfangs nur mit sehr großem Ausschuß zu erkaufen. Das ist weder wirtschaftlich noch umweltfreundlich. Daher sollte immer ein gesundes Mittelmaß gefunden werden. Und das nicht nur bei Graka sondern auch in allen anderen Lebensbereichen. Wär beispielsweise wenig fährt und einen alten "Stinker" in gutem Zustand besitzt, sollte mal genau darüber nachdenken, ob er der Umwelt nicht einen Bärendienst erweist wenn er den Wagen nun verschrottet und sich einen Neuwagen holt. Beim Wassersparen ergeben sich ähnliche Probleme: zum einen hat D afaik keine Wasserprobleme (es fällt mehr Regen als wir Wasser verbrauchen) -> Wassersparen ist nicht wirklich nötig. Trotzdem wird es getan und was passiert? Abwasserkanäle, die für viele Jahre ausgelegt waren, versanden innerhalb kurzer Zeit wegen des zu geringen Durchflußes. Sobald dann die Baumaschinen anrücken, um das Rohr freizulegen, drängt sich wieder der Bärendienstverdacht auf. Abgesehen davon kann man langfristig mit Wassersparen kaum Geld sparen....

Aber um auf das Ursprungsthema zurückzukommen:
Ich finde es schade, dass NV nicht schon bei der Entwicklung auf Sparsamkeit gesetzt hat. Aber es ist auch nachvollziehbar, da es bei den genannten Karten nur um eins ging: Leistung! Ich würde mal behaupten, dass selbst in der Formel 1 aus Gründen der Konkurenzfähigkeit mehr auf den Verbrauch geachtet wird als bei den Highend-Grakas.
Ansonsten halte ich die Diskussion aus Ökologischen Gründen für schwachsinnig - es gibt an anderen Stellen viel größere Einsparchancen. Die Tatsache, dass man sich ein neues NT kaufen muß oder die Abwärme nicht oder nur mit hoher Lärmbelastung aus dem Rechner bekommt ist da imho sinnvoller.

Gast
2007-09-20, 11:43:18
Ups, falscher Thread.... :(

Gast
2007-09-20, 13:29:12
Ey ich finde es reicht langsam mit diesen sinnlosen gelaber über die stromrechnung mit highend karten.

Wer mehr als 300 eur in eine karte investiert sollte auch mit den folgekosten leben können.

Oh die x2900xt verbraucht zuviel strom, oh der g80 ist ja so schlimm...

Es reicht!

Ihr habt es euch schliesslich ausgesucht sollch eine karte zu kaufen, wenn ihr nicht damit leben könnt kauft euch eines der mittle schnellen grakas die dann auch weniger verbrauchen.

Ja mir geht auch dieses immer dumme gelaber über die umwelt auf den sack! Jeder steigt noch in seinen fetten benz den er vor der haustüre stehen hat ohne darüber nachzudenken wieviel das der umwelt schadet, aber so ein mistgelaber über pc usw..

Keiner weiss was der umwelt schadet schaut euch doch mal dokus darüber an und informiert euch erstmal richtig darüber bevor ihr so ein mist von euch gebt.
Aber immerhin gibt es bei der geschichte viele gewinner die konzerne die mit der umwelt masche schön viel geld scheffeln und die stromkonzerne die mehr geld verlangen wollen, weil die ja alle angeblich aufrüssten müssen.

Wenn ihr alle so an der umwelt interessiert seit dann zieht doch in ein haus wo ihr noch wasser aus einem brunnen schöpft und einer von der familie aufs fahrrad steigen muss um für ein paar mins kochen zu können und fern zu schaun.

Einfach nur rofl!

Gast
2007-09-20, 13:51:10
Kann man sich doch ausrechnen:

-Durchschn. 100 Watt Mehrverbrauch.
-10 Std. läuft der Rechner

Macht 1KW pro Tag MEHR.

1 KW kostet ca 18 Cent.

18 Cent x 30 Tage x 12 Monate = 64 Euro im Jahr.

boxleitnerb
2007-09-20, 14:10:02
Bei SLI könnte das im Idle hinkommen, unter Last für eine Karte werden es so 40W mehr sein als ne ältere Karte.
Mich nervt nur, dass das Ding mein Wasser unnötig heizt (Wakü).

Schrotti
2007-09-20, 16:03:53
Nein keine Folgen wobei sich das gut aufteilen sollte (hab aber nur eine 8800GTS 640mb).

Hier dürfte ich sparen
Pentium D 940 @ 3,8GHZ -> RAUS (nur C1E, kein EIST wegen Bug in der CPU)
Pentium E 2180 @2,66GHz -> REIN (EIST, C1E)

hier geht das Ersparte wieder drauf
Geforce 7800GT -> RAUS (nicht übertaktet)
Geforce 8800GTS -> REIN (auch nicht übertaktet)

Gast
2007-09-20, 16:39:06
zumindest saufe ich mir nicht jedes wochenende einen nieder, da habe ich in einem monat locker die mehrkosten für ein ganzes jahr drinnen.

Dieses Argument ist schwach.

Manche saufen weder am Wochenende, noch kaufen sie sich einen G80, noch können sie das Nichtrauchen einstellen...

Jeder steigt noch in seinen fetten benz den er vor der haustüre stehen hat

Nein.


Wer mehr als 300 eur in eine karte investiert sollte auch mit den folgekosten leben können.

Das ist ein weiteres Problem:
Der G80 ist:
zu teuer; die Billig 320MB Version kommt mir nicht in den Rechner
zu alt; fast ein Jahr ist sie jetzt alt und wie sieht der Markt aus ... mies, nichts neues
hoher Verbrauch; der Lastverbrauch ist zwar schlimm, aber der IDLE Verbrauch ist indiskutabel
einhergehend mit dem Verbrauch müss die Abwärme weg .... und wohin?
der VRAM Bug ist weiterhin nicht gefixt, ach der IDLE Verbrauch sollte doch gefixt werden :mad:

Gast
2007-09-20, 17:17:38
....Des weiteren kann man sich bei permanent betriebenen Leuchtmitteln ganz hervorragend auf aktuelle Technologien stützen und eben Stromspar-Birnen einsetzen... 40W Leuchtstärke wird mit einer 8W-Birne erreicht (erleichterte Betrachtung ;-), welches so also glatte 5 - in Worten: FÜNF! - 8W-Stromspar-Birnen ergibt, die eine Leuchtstärke von satten 200W ergeben...



Das Beispiel hinkt und du schreibst es ja selbst in deinem letzten Satz: "5 x 8W Birnen = Licht wie eine 200W Birne".
Nun will ich das übertragen in aktuell käufliche Grakas:

Bedarf: Oblivion in 1920x1200 (da TFT nativ diese Auflösung) soll mit möglichst allen im Spiel angebotenen Details flüssig laufen. Auch zukünftige Spiele laufen noch eine Weile flüssig.

Angebot: Um den Bedarf zu decken habe ich mir eine 8800GTX-SLI Gespann gekauft.

Frage: Welche alternative hätte ich gehabt? 6 x 7800GT (6x40W) die so flüssig darstellen wie 2 x 8800GTX (=200W)?

Und was ich generell nicht verstehe bie vielen hier: IDLE Leistung interessiert mich überhaupt nicht. Wenn ich eine 8800 GTX kaufe will ich zocken und nicht den "D Desktop im Windows anschaun, wie er sich langsam ins TFT einbrennt.

The_Invisible
2007-09-20, 17:40:57
Dieses Argument ist schwach.

Manche saufen weder am Wochenende, noch kaufen sie sich einen G80, noch können sie das Nichtrauchen einstellen...


dafür kaufen sie einen 46" lcd mit 2000€ und >200w, hab ich auch nix dagegen.

mfg

Blackpitty
2007-09-20, 17:51:28
hm, diese Disskusionen führen doch zu nichts. Kann doch jeder so machen wie er will, da es ja auch jeder zahlt, das ist doch wie mit nem teuren Sportwagen, der ist schon in der Anschaffung sehr teuer, und auch in der Unterhaktung, Spritverbrauch, Versicherung und co.

Überträgt man das nun auf den PC, ist ne GTX ein Porsche oder ka was, und den kann sich nun auch nicht jeder kaufen und unterhalten.

Mein Pc läuft nicht den ganzen Tag, und wenn, dann brauche ich im Winter nicht so viel heizen im Zimmer, da von meinem Radiator ein warmes Lüftchen weht:eek::D

tokugawa
2007-09-20, 17:56:11
Und wenn wir uns nun mal vorstellen, dass diese 40W Birne 24h am Tag leuchtet, obwohl es ABSOULT KEINEN SINN MACHT, diese leuchten zu lassen, dürfte auch dem größten Ignoranten klar werden, dass hier etwas falsch läuft. Des weiteren kann man sich bei permanent betriebenen Leuchtmitteln ganz hervorragend auf aktuelle Technologien stützen und eben Stromspar-Birnen einsetzen... 40W Leuchtstärke wird mit einer 8W-Birne erreicht (erleichterte Betrachtung ;-), welches so also glatte 5 - in Worten: FÜNF! - 8W-Stromspar-Birnen ergibt, die eine Leuchtstärke von satten 200W ergeben...


Aber wenn du dasselbe Mathespiel auf die 8800er umlegst, dann leuchtet eine 8800er ja auch heller als ein vergleichbarer Chip der Vergangenheit.

In Glühbirnenmetaphern gesprochen würde das heißen:
Die 8800 ist eine Glühbirne die immer noch 40W frißt. Dafür leuchtet sie wie mit 200W, während frühere Glühbirnen bei vielleicht 30W nur die Leuchtkraft einer 60W hatten.

Ich finde man muß Stromverbrauch auch in Relation zur Leistung sehen. Eine Grafikkarte mit der gleichen Leistung wie eine Karte von vor 3 Jahren verbraucht heutzutage deutlich weniger.

Gast
2007-09-20, 18:17:56
dafür kaufen sie einen 46" lcd mit 2000€ und >200w, hab ich auch nix dagegen.

Nein das tun "sie" auch nicht, weil "sie" es nicht einsehen für einen FERNSEHER! 2000€ hinzublättern. Damals waren Fernseher billiger und jetzt 2000€ für ein matschiges Bild und dann wo soll die Riesenkiste hin ....

Razor
2007-09-21, 06:33:35
Aber einmal davon abgesehen: Welche Wahl hat man denn heute noch, wenn man alle Games mit all dem Glamour zocken möchte - und das in hohen Auflösungen? Das ist doch das Problem an sich. Es gibt halt keine stromsparende Alternative, die unter 2D deutlich weniger Energie verbraucht. Sicher wäre das wünschenswert, aber ich sehe da (noch) nichts. Zu seiner Zeit entsprach der G80 bei dieser hohen Transistorenanzahl dem technisch machbaren. Vielleicht hätte eine Absenkung des Takts / und damit auch des Stromverbrauchs zu Instabilitäten oder anderen Effekten geführt. Wer weiß...
Der G80 war einfach noch nicht 'fertig', that's it!
So etwas hat man früher als Vorserien-Samples den Entwicklern zur Verfügung gestellt, nicht aber den End-Konsumenten.

Und... man hat IMMER eine Wahl.
Aber dem Druck der Medien zu wiederstehen ist halt nicht jedermanns Sache...

Kleinere Strukturbreiten, die Strom sparen hätten helfen können, waren wohl mit dieser hohen Transistorenanzahl (noch( nicht drin. Aber wenn es nicht derartige Speerspitzen der technischen Machbarkeit (natürlich auf Kosten höheren Stromverbrauchs in der "Alpha"-Phase) geben würde, dann würden wir immer noch mit 386ern - oder weniger - arbeiten und spielen. Jeder technische Vorteil muss halt leider häufig teuer erkauft werden.
Falsch.
Es ging einzig um die Leistung und das Ausstechen des Hauptkonkurrenten - nicht mehr, aber auch nicht weniger.
Das haben sie zeifelsohne geschafft, gezahlt haben dafür die Konsumenten...
(die sich jetzt ironischer weise über mangelnde Konkurrenz beschweren... oh mann :rolleyes:)

Im übrigen halte ich den höheren Stromverbrauch im Vergleich zu alten Kühltruhen, Kühlschränken, Trocknern und ähnlichen sehr stromintensiven Verbrauchern für vernachlässigbar.
Ganz schlechtes Beispiel... schließlich willst Du hier ja wohl nicht Äpfel mit Birnen vergleichen, oder?
Wir reden hier von niegel-nagel-neuen Produkten und nicht von irgendwelchen Uralt-Teilen!

Und mal davon ab... Du bekommst für den Preis EINER GTS640 eine Kühltruhe, einen Trockner UND einen Kühlschrank!
Die CPU-Hersteller machen es doch vor: immer höhere Leistung bei moderat steigender Leistungsaufnahme.

Darüber, wieviel Sinn jetzt QuadCores bei Endconsumern machen, lasse ich mich jetzt lieber nicht aus.

Ansonsten halte ich die Diskussion aus Ökologischen Gründen für schwachsinnig - es gibt an anderen Stellen viel größere Einsparchancen. Die Tatsache, dass man sich ein neues NT kaufen muß oder die Abwärme nicht oder nur mit hoher Lärmbelastung aus dem Rechner bekommt ist da imho sinnvoller.
DAS kommt ja noch dazu!

Deswegen wird die "Diskussion" über ökologische Gesichtspunkte von Produkten aber wbei weitem nicht schwaxchsinnig. JEDER hat sich damals über die exorbitante Lärmbelästigung einer FX5800 aufgeregt (und den 'Verbrauch', wie auch die 'Unhandlichkeit')... dann hat ATI etwas aähnliches gemacht und kein Hahn kräht mehr danach... OK, Menschen sind halt 'vergeßlich'... oder ist es vielleicht einfach 'normal', dass die Karten so sind? Nein, aber akzeptiert wird es trotzdem... und schon geht ein "Wett-Rüsten" um JEDEN Preis los... welches mut G80 und R600 seinen Höhepunkt gefunden hat... und der "Sieger" ist: nVidia.

Sorry, aber mehr ist es nicht.

Es wurden einfach Produkte auf den Markt gebracht, die so gar nicht hätten kommen dürfen.
Da aber der "Markt", bzw. der manipulierte Endkunden-Teil so 'geil' auf Neues, Schnelleres war, hat man das trotzdem gemacht...
...und sich vermutlich dabei sogar kopfschüttelnd ausgeschüttet vor Lachen.

Der Witz ist ja, dass die Produkte von nVidia gar nicht mal besser sind, als die von AMD, sie sind nur 'schneller', welches man sich mit total überzogenem Takt und damit verbunden etsprechender Leistungsaufnahme 'erkaufte'.

"Kleinere Strukturbreiten"?
Ich möchte nicht wissen, wie hoch der Ausfall an G80 Chips war, die selbst den minimalen Takt grundsätzlich nicht schafften...

Es reicht!
Mir auch... wenn ich solch stupiden Kommentare lese.

CO2 hin oder her (ist mir total wurscht, das Thema - weil durch), Ökologie aus den Augen zu verlieren, heißt letztlich in einer Btonwüste zu leben und sich von "Plastik" zu ernähren.

Wenn Du das also willst, mach nur weiter so... und es wird viel schneller so werden, wie es sich jetzt bereits schon andeutet!

Bedarf: Oblivion in 1920x1200 (da TFT nativ diese Auflösung) soll mit möglichst allen im Spiel angebotenen Details flüssig laufen. Auch zukünftige Spiele laufen noch eine Weile flüssig.

Angebot: Um den Bedarf zu decken habe ich mir eine 8800GTX-SLI Gespann gekauft.

Frage: Welche alternative hätte ich gehabt? 6 x 7800GT (6x40W) die so flüssig darstellen wie 2 x 8800GTX (=200W)?
Ganz einfach: keinen TFT mit 1920x1200 Bildpunkten...
Und schon hätte ein 400W-Netzteil ohne G80 (SLI ist IMO der letzte Scheiß!) vollkommen gereicht.

Erinnerst Du Dich?
"Man hat immer eine Wahl!"
Aber klar, wer vollkommen überzogene Ansprüche hat, dem ist 'eh nicht zu helfen...

Und was ich generell nicht verstehe bie vielen hier: IDLE Leistung interessiert mich überhaupt nicht. Wenn ich eine 8800 GTX kaufe will ich zocken und nicht den "D Desktop im Windows anschaun, wie er sich langsam ins TFT einbrennt.
Du stellst Deinen Computer also AUSSCHLIESSLICH zum "3D-Spielen" an?
Bravo!
:up:

Wenn das so ist und Du auch auf "Dauerbrenner", wie WoW verzichtest (DAS wäre dann tatasächlich der absolute Hohn!), dann bist Du mit meinen Kommentaren nicht angesprochen.

dafür kaufen sie einen 46" lcd mit 2000€ und >200w, hab ich auch nix dagegen.
Es 'reichen' durchaus 32" und erhöhe das mal auf locker 300W.
Und ja, DA habe ich ebenfalls etwas dagegen!

Aber auch hier gilt: wenn die Nutzung im Rahmen bleibt, ist es OK.
Wenn "Hartzi" das Ding aber den ganzen Tag laufen läßt, ist es dan nicht...

Der Verbrauch von LCDs hat mich (bzw. uns ;-) dazu geführt, bis dato auf solche "Stromfresser" zu verzichten.
(eine gute alte 16:9-Röhre tut es auch... obwohl das Ding schon heftig in die Tiefe geht ;-)

Und wer für "Fernsehen" tatsächlich 2T€ hinblättert, muss wirklich einen an der Waffel haben.
Aber das steht auf einem vollkommen anderen Blatt...

hm, diese Disskusionen führen doch zu nichts. Kann doch jeder so machen wie er will, da es ja auch jeder zahlt...
Grundlegend falsch, sorry!

Vergiß doch mal das Geld... hat heutzutage sowieso mehr mit Monopoly zu tun, als mit irgendwelchen "Gegenwerten".
Von dem, was eine Durchschnittsfamilie hier in D pro Monat für Strom ausgibt...
...können Familien in anderen Teilen der Erde locker ein ganzes Jahr leben.

Aber das ist wie mit dem Supermarkt: alle essen Fleisch und kaufen sich das aus Supermarkt-Regalen auf allen Kontinenten dieser Welt... und das bei > 6 Milliarden Menschen... und keiner fragt, woher das eigentlich kommt... aber es wird ja dafür "bezahlt".

Das mit "bezahlen" nicht nur der monetäre Teil einer solchen Transaktion gemeint sein könnte, scheint einigen lanbgsam zu dämmern... es geht eben um "Bewußtsein" im Umgang mit Ressourcen... und da ist gerade hier in D großer Nachholbedarf... aber auch in vielen anderen Teilen der Erde.

Mit "Geld" kann man sich von der eigentlichen Verantwortung nicht frei kaufen.
Und Dein Post ist ein perfektes Beispiel dafür, wie ignorant man in einer Marktwirtschaft doch sein kann!

Aber ich drifte hier langsam ab...
;D

Ich finde man muß Stromverbrauch auch in Relation zur Leistung sehen. Eine Grafikkarte mit der gleichen Leistung wie eine Karte von vor 3 Jahren verbraucht heutzutage deutlich weniger.
Falscher geht es ja überhaupt nicht mehr...
Die Leistungsaufnahme von G80 & Co. ist Rekord!
Und das über alles, was JEMALS dagewesen ist...

Aber über den 3D-Verbrauch rede ich hier ja nicht... und sicher ist es tatsächlich schlimm, wenn jemand mit 2 160W-Monstern locker 8 Stunden am Tag WoW 'spielt'... und das in Super-Dolli 1920 Pünktchen.

Aber es geht hier um den Verbraich, wenn die Karte nix tut... und das hat sie dann leistungsseitig mit allen gemein: nix. Früher, wie heute tun die Karten mit dem Desktop genau das, was sie schon immer getan haben... und die G80 nehmen sich da nicht aus, denn sie können, wollen oder sollen es ja auch nicht. Trotzdem ist der Verbrauch locker 3-4 mal so hoch, wie noch bei der vorherigen Generation und es wurde schon angekündigt, dass dies auch beim Nachfolger des G80 nicht mehr so sein wird... defakto ja schon jetzt bei den "Kleinen" ja nicht mehr so ist.

Nein, ein G80 tut unter 2D bei weiten kein bischen mehr als alle anderen Karten, die sich so seit 5-10 Jahren am Markt tummeln (OK, 10 Jahre ist ein wenig übertrieben... obwohl... 1997?... hmmm... ;-).

Nochmal: die 3D-Leistung (saufnahme) iteressiert mich nicht... nur bei solchen Typen, wie den WoW-Spielern.

-

Schlußendlich 'werbe' ich nur für ein bischen mehr... oder überhaupt ein wenig Verantwortung. Ein wenig Verantwortung Dir selbst, Deinen Mitmenschen gegenüber und der Natur "drumherum"... und damit auch denen gegenüber, die folgen werden.

Alle reden über das Klima und faseln etwas von Co2-Reduktion... und im Prinzip ist das auch OK... nur ist es für das, was jetzt geschieht vollkommen zu spät. Und wenn die Menschen tatsächlich so ignorant geworden sind, zu glauben, dass sie auf so etwas wie einen Klimawandel überhaupt IRGENDEINEN Einfluß haben, dann tun sie mir wirklich leid... kein Einfluß... weder im Positiven, wie im Negativen... und das ist Fakt.

Aber die menschliche Natur sagt immer gerne "ist mir egal" oder "das kriegen wir schon wieder hin"...
...und auch das ist "falsch", wie schon sooooo oft in der Geschichte 'gelernt', wenn man denn wollte.

Auf das Klima haben wir keinen Einfluß, wohl aber auf unsere direkten Mitmenschen und die Natur "drumherum". Es wird also Zeit, dass sich ALLE Menschen darüber bewußt werden und anfangen, entsprechend zu handeln. Vielleicht wird dann ja auch das eigene Leben lebenswerter und vielleicht braucht es dann ja auch keine "Lückenfüller" mehr, wie
- 42" Plasma Glotze
- Doppel-Moppel-SLI-Ungeheuer
- booooaaahhhhh 1920 "HighDef" gucki

Aber es wird viele geben, die das wieder mit dem 'leichtesten' Argument, das möglich ist... man muss dann einfach nicht nachdenken... "ach, der kann sich das doch gar nicht leisten - der ist wohl neidisch".

Aber diejenigen, die mich kennen wissen ganz genau, dass dem nicht so ist - ganz im Gegenteil.

Razor

P.S.: wer Rechtschreibfehler sucht und vermutlich auch findet, darf sie gerne behalten ;)

=Floi=
2007-09-21, 07:12:31
dein post ist ja nur noch schlimm :(

Grestorn
2007-09-21, 07:20:16
Woah, Razor...

Ab und zu übertreibst Du es. Akzeptier doch auch mal, dass es Menschen gibt, mit anderen Prioritäten als Du. Ich muss ja auch damit leben ... :)

tokugawa hat es genau auf den Punkt gebracht. Es zählt die aufgenommene Leistung in der Relation zum daraus erzielten Nutzen.

Bei der von Dir erwähnten Energiesparlampe, die mit 8 Watt so hell ist wie eine 60 Watt Glühbrine (dafür aber kaum Wärme erzeugt) ist das genauso positiv, wie die G80GTX, die alleine locker so viel Grafikleistung erbringt, wie 4 6800Ultras. Dabei aber deutlich weniger Leistung als 2 6800Ultras aufnimmt.

mapel110
2007-09-21, 07:23:37
ist das genauso positiv, wie die G80GTX, die alleine locker so viel Grafikleistung erbringt, wie 4 6800Ultras. Dabei aber deutlich weniger Leistung aufnimmt.
Sag schnell noch dazu "weniger Leistung als 4 6800 Ultras", sonst sieht er das Argument wieder nicht.

Razor zielt obendrein mehr auf den 2D-Verbrauch ab in seiner Argumentation. Und da bleibt den Maxleistungsfetischisten nur zu sagen "Wir müssen vorerst damit leben, bis was besseres kommt!"

Okay, via Rivatuner und Runtertakten kann man ja auch einiges rausholen.

Grestorn
2007-09-21, 07:37:56
Razor zielt obendrein mehr auf den 2D-Verbrauch ab in seiner Argumentation. Und da bleibt den Maxleistungsfetischisten nur zu sagen "Wir müssen vorerst damit leben, bis was besseres kommt!"

Das stimmt sicher.

Man kann Leuten wie Razor auch dankbar sein, selbst wenn man die Sache selbst nicht so eng sieht und die 3D-Grafikleistungsvorteile höher priorisiert als die 2D-Stromaufnahmenachteile.

Schließlich könnte es ja sein, dass die Hersteller aufgrund der Kritik tatsächlich stromsparende Maßnahmen ergreifen. Grüne, klimaschonende Karten sozusagen, auf den Markt bringen.

Für mich würde ich nie auf die Idee kommen, wegen 50-100 Euro Mehrbelastung im Jahr auf die Vorteile der G80 zu verzichten. Aber das soll eben jeder für sich entscheiden, und es steht niemandem an, über dem anderen deswegen den Stab zu brechen.

P.S.: Wo es geht setze ich übrigens Energiesparlampen ein. Da sie außer dem Kaufpreis keine mir bekannten Nachteile ggü. Glühlampen haben.

Wie sieht es eigentlich mit der Energiebilanz auf Energiesparlampen aus, wenn man den Herstellungsprozess mit berücksichtigt?

=Floi=
2007-09-21, 08:25:30
http://www.dellekom.de/info/energiesparlampen-faq
unter energiebilanz

NickDiamond
2007-09-21, 08:34:42
So richtig sehe ich das Problem jetzt gar nicht.
Ich für meinen Teil habe eine Graka die wenig Strom zieht, da geht es aber erst in zweiter Linie um den Stromverbrauch,denn bei mir steht die Lautstärke (leise muss es sein) im Vordergrund.

Aber wieso soll ich hier jemanden anfahren der ganz anders vorgeht ?
Wenn jemand meint sich ne gtx/Ultra/xt/o.ä. kaufen zu müssen, dann soll er dass eben tun. Das heisst ja eigentlich nur dass er das Zocken zu seinem Hobby erklärt hat (soll nicht negativ klingen), und dafür kann man doch mal was ausgeben (ich zähle die Stromkosten einfach als Nebenkosten zu dem sehr hohen Anschaffungspreis)...

Ob das Verhältnismäßig oder Umweltfreundlich ist, muss jeder selber entscheiden. Aber ich bin mir sicher in dieser Hinsicht gibts "schlimmere" Hobbies ;)

Grestorn
2007-09-21, 08:44:38
http://www.dellekom.de/info/energiesparlampen-faq
unter energiebilanz

Danke!

PHuV
2007-09-21, 09:08:04
Du stellst Deinen Computer also AUSSCHLIESSLICH zum "3D-Spielen" an?
Bravo!
:up:


Yup, mache ich, und das ist u.a. der Grund, warum ich mittlerweile einen Spielerechner, Anwendungsrechner und separaten Server habe. Ist zwar eine große Investition, aber es lohnt sich aus mehreren Gründen:


Man hat keine Probleme, unterschiede Anforderungen unter einem Hut zu bekommen, den Spielerechner kann ich auf Leistung tunen, den Anwendungsrechner auf Zuverlässigkeit
Zu oft mußte ich erleben, daß sich gewisse Hardware einfach beißt. Ich nenne dazu mal professionelle Audiokarten mit einer Creative-Karte
Ebenso kann man entsprechende Programme installieren, die Rechner werden nur mit dem versorgt, was wirklich nötigt ist, es wirklich nicht überladen
Seitdem ich die strikte Trennung habe, habe ich keinen nennenswerte Probleme mit inkompatiblen Treibern, sich in die Quere kommenden Programmen und Hardware.
Falls ich Probleme mit einem Rechner habe, kann ich immer auf entsprechender Hardware testen, und quertesten. Für die Fehlersuche ein großer Vorteil


Den Spielerechner schalte ich wirklich nur zum Spielen ein, somit ist die Strombilanz für mich wirklich vernachlässigbar. Für den Betrieb eines Allround-PCs ist eine 8800 GTX wirklich ungeeignet.

AnarchX
2007-09-21, 09:26:20
Der G80 war einfach noch nicht 'fertig', that's it!
So etwas hat man früher als Vorserien-Samples den Entwicklern zur Verfügung gestellt, nicht aber den End-Konsumenten.


Möglich, aber auch möglich ist einfach, dass NV somit ihr Hybrid-SLI den Kunden aufdrängen möchte und da die Konkurrenz auch nicht viel besser ist in diesem Punkt, kann man es sich halt leisten. ;)

=Floi=
2007-09-21, 09:31:01
wdragon, das ist echt ein schönes post
man sollte auch bedenken, dass man selbst mit den stromsparmodi NICHT an ein sparsames lowend system rankommt!

SpielKind
2007-09-21, 09:42:06
Und mal davon ab... Du bekommst für den Preis EINER GTS640 eine Kühltruhe, einen Trockner UND einen Kühlschrank!

Ahja, nenne mir doch bitte mal deine Quelle für weiße Ware also Haushaltsgeräte, ich wüsste gerne wo du für umme 300€ Kühltruhe, Kühlschrank (oder meinetwegen Kühlgefrierkombi, was günstiger ausfällt) in brauchbaren größen, der zumindest mal für einen 2personen haushalt, einen wochen vorrat auffnimmt und noch einen Trockner oder WaMa oder oder bekommst. bitte jetzt nicht mit in die jahre gekommenen gebrauchtware kommen(neu zu neu). Markengeräte zu dem Preis glaub ich erst wenn ich es sehe und selbst die "B/C-Ware" umgelabelt die es auch tut, neu zu diesen preisen, wo bitte??? Ahja und da Großgeräte mal eben nicht in jedes Privat gefahrene Auto passt die Speditions(Liefer)kosten net vergessen..

Alles rein aus interesse, günstige bezugsquellen sind mir immer willkommen auch wenn es hier net passt, OT ist.

Grestorn
2007-09-21, 09:43:35
Andererseits kann man einiges an Strom verbraten, bis man die Umwelt genauso belastet hat, wie durch die Herstellung eines Zweit- oder gar Drittrechners...

Ich bin sicher, dass ich das selbst mit mehreren Jahren Dauerbetrieb einer 8800GTX nicht annähernd schaffe.

Es ist eben alles nicht so einfach!

Gast
2007-09-21, 10:31:16
@ Razor:
So wahr und richtig dein langer Beitrag zu dem Thema sein mag, Sinn macht er in diesem Fall dennoch nicht. Im Gegenteil, es kommt mir zusehr der anklagende "Gutmensch" durch. Mir fallen so aus dem stehgreif mindestens 10 Theman ein, bei denen man genauso argumentieren kann, die Einsparmöglichkeiten jedoch weitaus größer sind...
Wenn ich nur kurz an den Automarkt und die von den Kunden geforderten (teilw. eingeredeten) Attribute an moderne Autos denke, fängt das Adrenalin an meinen Körper zu durchfluten! Wenn dort nur eine Spur mehr Vernunft herrschen würde, könnten wahrscheinlich alle GTX-Nutzer ihren Rechner 50 h/Tag unter Volllast betreiben.
Und so hat halt jeder sein Steckenpferd, über das er sich echauffiert und bestimmt auch Bereiche, in denen er sich nicht grade vorbildlich verhält. Erbost auf andere zeigen ist leicht, seine eigenen Gewohnheiten und Ansprüche zu ändern dagegen schwer.

Armaq
2007-09-21, 11:36:14
Yup, mache ich, und das ist u.a. der Grund, warum ich mittlerweile einen Spielerechner, Anwendungsrechner und separaten Server habe. Ist zwar eine große Investition, aber es lohnt sich aus mehreren Gründen:


Man hat keine Probleme, unterschiede Anforderungen unter einem Hut zu bekommen, den Spielerechner kann ich auf Leistung tunen, den Anwendungsrechner auf Zuverlässigkeit
Zu oft mußte ich erleben, daß sich gewisse Hardware einfach beißt. Ich nenne dazu mal professionelle Audiokarten mit einer Creative-Karte
Ebenso kann man entsprechende Programme installieren, die Rechner werden nur mit dem versorgt, was wirklich nötigt ist, es wirklich nicht überladen
Seitdem ich die strikte Trennung habe, habe ich keinen nennenswerte Probleme mit inkompatiblen Treibern, sich in die Quere kommenden Programmen und Hardware.
Falls ich Probleme mit einem Rechner habe, kann ich immer auf entsprechender Hardware testen, und quertesten. Für die Fehlersuche ein großer Vorteil


Den Spielerechner schalte ich wirklich nur zum Spielen ein, somit ist die Strombilanz für mich wirklich vernachlässigbar. Für den Betrieb eines Allround-PCs ist eine 8800 GTX wirklich ungeeignet.
Damit führst du aber das Prinzip PC ad absurdum. Der PC soll ja ein Alleskönner sein. Eine Maschine für alle Belange. So wie du es machst, bräuchte man keinen PC, sondern eine Konsole, eine Art Laptop und eine StorageBox die erweiterbar ist.

Mr.Magic
2007-09-21, 11:56:18
Damit führst du aber das Prinzip PC ad absurdum. Der PC soll ja ein Alleskönner sein. Eine Maschine für alle Belange. So wie du es machst, bräuchte man keinen PC, sondern eine Konsole, eine Art Laptop und eine StorageBox die erweiterbar ist.

Es gibt ein festes Prizip für Personal Computer? Blödsinn! Individualität ist trumpf!
Sicher könnte ich statt Spiele-PC, File-Server und Laptop auch Konsole, Stromspar-PC und Laptop verwenden, will ich aber nicht.

mal was zum eigentlichen Thema:
Wer nicht absolut unbeleckt ist kann der GTX ein BIOS mit niedrigerer Spannung und Takt im 2D-Betrieb verpassen.

Gast
2007-09-21, 12:19:49
Es gibt ein festes Prizip für Personal Computer? Blödsinn! Individualität ist trumpf!
Sicher könnte ich statt Spiele-PC, File-Server und Laptop auch Konsole, Stromspar-PC und Laptop verwenden, will ich aber nicht.

mal was zum eigentlichen Thema:
Wer nicht absolut unbeleckt ist kann der GTX ein BIOS mit niedrigerer Spannung und Takt im 2D-Betrieb verpassen.
Taktraten ja, Spannung nein. Kann man zwar eintragen, aber der Karte ist das schnurz. Alleine durch Taktratensenkung lässt sich einsparen, bei meiner GTS sinds ca. 16 Watt, was das Gesamtsystem durch Untertaktung auf 200 / 200 weniger braucht. Nichts weltbewegendes aber besser als gar nix.

Mr.Magic
2007-09-21, 12:26:05
Taktraten ja, Spannung nein. Kann man zwar eintragen, aber der Karte ist das schnurz. Alleine durch Taktratensenkung lässt sich einsparen, bei meiner GTS sinds ca. 16 Watt, was das Gesamtsystem durch Untertaktung auf 200 / 200 weniger braucht. Nichts weltbewegendes aber besser als gar nix.

Und warum ist meine GTX dann im Idle kälter, seit ich zur niedrigeren Taktrate noch die Spannung senkte?

Gast
2007-09-21, 12:32:43
Damit führst du aber das Prinzip PC ad absurdum. Der PC soll ja ein Alleskönner sein. Eine Maschine für alle Belange. So wie du es machst, bräuchte man keinen PC, sondern eine Konsole, eine Art Laptop und eine StorageBox die erweiterbar ist.

Alleskönner sind meisten aber wesentlich ineffektiver als Spezialisierungen. Wenn ich mit meinem PC in hohen Auflösungen mit AA/AF spielen will, muss eben beim Stromverbrauch mit Nachteilen gerechnet werden.

PHuV
2007-09-21, 13:31:25
Wenn man es genau nimmt, kann man auch gleich auf einen PC verzichten, und für die paar Mails geht man ins Internetcafe. Ebenso verzichte man auf den Fernseher, kommt ja eh nur Grütze, und für die guten Filme geht man ins Kino, ist im Endeffekt billiger und schlägt jeden XXL-TFT/Beamer/Plasma-Fernseher. Dann natürlich nur Nachrichten etc., so wie in der Wochenschau früher, kollektiv im Kino schauen, spart auch ne Menge Energie, und man kann sich gleich mit den Nachbarn über die Zustände der aktuellen Politik aufregen. So fördert man auch gleich den kollektiven Gemeinschaftssinn.

Tja, so kann man wirklich Energie sparen. Und wers noch ganz gut machen möchte, läuft und radelt als sportlichen Ausgleich auf einem Laufband bzw. Ergonometer, welches gleich in das öffentliche Netz eingespeist wird. Dann spart man auch gleich ein paar Atom- und Kohlekraftwerke, tut was für die Volksgesundheit, und die Leute werden nicht mehr so fett. Wenn die Leute gesünder werden, braucht man auch nicht mehr so eine aufwendige medizinische Versorgung, und wir werden alle glücklicher. :)

Wer die Ironie nicht findet, soll sie behalten ;).

So, und jetzt gehts ins Wochenende.

PHuV
2007-09-21, 13:36:35
Damit führst du aber das Prinzip PC ad absurdum. Der PC soll ja ein Alleskönner sein. Eine Maschine für alle Belange. So wie du es machst, bräuchte man keinen PC, sondern eine Konsole, eine Art Laptop und eine StorageBox die erweiterbar ist.

Wovon träumst Du sonst noch nachts? Der Amiga war so ein Alleskönner. Mit dem PC gibt es, wenn Du eine anspruchsvolle Konfiguration hast, immer Ärger. Ich betreibe beispielsweise ein kleines Heimstudio, hab zig Audiokarten, Spezialkarten etc. dran, ebenso viel andere Hardware, und ich habe einfach festgestellt, daß sie viel Hardware einfach beißt. Dafür kann ich nichts, da muß man sich bei den Erfindern des PC-Konzeptes beschweren. Natürlich ist ein PC ein Allrounder, aber Spielekonfiguration und Anwendungskonfiguration kommt sich einfach in die Quere, und der PC wird entsprechend langsamer und instabiler. Dann will man auch noch programmieren, scannen, malen, Videobearbeitung etc etc.

Wer das alles gleichzeitig in einen PC optimiert bekommt (ohne separate Boot-Partition für die entsprechenden Anwendungsfälle), bekommt einen Nobelpreis.

Gast
2007-09-21, 14:18:05
wdragon: um das beim Strom eingesparte Geld für deinen Mehr-PC-Haushalt wieder rein zu bekommen, musst Du mind. 480 Jahre alt werden.

So ne blöde Rechnung von wegen, ich spare Strom (Geld) hab ich ja noch nie gesehen.

Gast
2007-09-21, 14:56:39
Man kann Strom nicht sparen!

Gast
2007-09-21, 15:08:42
im Sinne von einsparen schon :)

Mr.Magic
2007-09-21, 15:11:29
Man kann Strom nicht sparen!

Sicher kann man das.
Wenn man weniger Arbeitszeit, Nägel, Knöpfe, Strom braucht, spart man Aufwendungen.

ps: Weniger Stromlast auf den Kraftwerken beudeutet gleichzeitig eine Einsparnis bei den Rohstoffen.

Gast
2007-09-21, 15:17:19
ps: Weniger Stromlast auf den Kraftwerken beudeutet gleichzeitig eine Einsparnis bei den Rohstoffen.

Dann spart man immernoch kein Strom sondern Rohstoffe. Erzeugter Strom kann nie gespart werden.

Mr.Magic
2007-09-21, 15:21:53
Dann spart man immernoch kein Strom sondern Rohstoffe. Erzeugter Strom kann nie gespart werden.

Nein? Was ist mit Batterien?

damit habe ich eingespart:
weniger Strombedarf am Verbraucher -> weniger hohe Last am Generator -> Diesel hält länger -> ich habe länger Strom

und aufgespart:
packe Strom in Behälter -> habe Strom im Bedarfsfall

Gast
2007-09-21, 17:34:25
Und warum ist meine GTX dann im Idle kälter, seit ich zur niedrigeren Taktrate noch die Spannung senkte?
Keine Ahnung. Vielleicht liegts daran, dass du ne GTX hast. Bei meiner GTS konnte ich Spannungen reduzieren wie ich wollte, auf dem Leistungsmesser war keine Reaktion zu vernehmen. Kannst du deine Spannung eigentlich auch erhöhen? Falls ja, wärs afaik die erste GTX, an der man ohne Harwaremod die Voltage ändern kann.

Mr.Magic
2007-09-21, 17:58:23
Das BIOS stammt von einer Ultra. Beim Original-BIOS lies sich in der VID-Table generell nur die Standardspannung einstellen.
Meines Wissens funktioniert nur eine Spannungserhöhung nicht ohne Lötkolben.

Ph0b0ss
2007-09-21, 18:08:13
@Mr.Magic

Hast du die Spannung der GPU mal mit einem Multimeter überprüft?

Mr.Magic
2007-09-21, 18:19:04
Dazu bin ich viel zu faul. Ich habe vorher und nachher die Temperatur im Idle beobachtet. Waren irgendwo zwischen 5 und 10°C weniger als mit der reinen Taktabsenkung. Die Zimmertemperatur war konstant, und RivaTuner in beiden Fällen offen (Taktanzeige).
Sollte die Spannung nicht gesenkt sein liegt es eben an [insert incredible story here].

Razor
2007-09-22, 11:22:21
tokugawa hat es genau auf den Punkt gebracht. Es zählt die aufgenommene Leistung in der Relation zum daraus erzielten Nutzen.
Und genau darum geht es hier:
Unter 2D bringt sie KEINEN Nutzen, verbraucht aber locker 3x soviel.
Auf den Punkt gebracht...

Oder wie oft soll ich noch schreiben, dass mich der 3D-'Verbrauch' einer Grafikkarte rein gar nicht interessiert?
(von Dauer-Online-Dingern wie Wow mal abgesehen, aber dafür 'brauchts' ganz sicher keinen G80 ;-)

Razor zielt obendrein mehr auf den 2D-Verbrauch ab in seiner Argumentation. Und da bleibt den Maxleistungsfetischisten nur zu sagen "Wir müssen vorerst damit leben, bis was besseres kommt!"
Danke.

Und selbst ein um 20W reduzierter 'Verbrauch' unter 2D ist noch viel zu viel... und eben "Herumgespiele"... nicht vom Hersteller ermöglicht. Und solches "Herumgeflicke" hasse ich wie die Pest... wie auch das permanente Gepatche für irgendwelche neue Games, dem offenbar alle G80-Besitzer hinterher hecheln, der Hersteller-Abhängigen D3D10-Performance oder das 'Abmildern' des VRAM-Bugs... oder die schlechte Video-Decoder-Performance, oder... oder... oder...

Der G80 ist ganz einfach großer Mist... großer Mist mit ordentlicher Performance allerdings.
That's it.

Und mit "etwas leben" muss ich (und ich meine ausschluißlich mich damit) ganz sicher nicht!
Bin mal gespannt, ob der G92 zumindest die gravierensten Mägel beheben wird...

Für mich würde ich nie auf die Idee kommen, wegen 50-100 Euro Mehrbelastung im Jahr auf die Vorteile der G80 zu verzichten. Aber das soll eben jeder für sich entscheiden, und es steht niemandem an, über dem anderen deswegen den Stab zu brechen.
Selbstverständlich steht es mir zu, diese Deine Ansicht sogar ganz entscheidend zu verurteilen!
Du hast es offenbar noch immer nicht verstanden...

Geld ist für mich vollkommen uninteressant!
(zumindest wenn es um Computer geht, die sich in JEDER Ausprägung im absolut 'normalen' Rahmen bewegen)

Es ist schlicht und ergreifend eine absolute 'Frechheit', dass es ein Hersteller hinbekommt, ein Produkt auf den Markt zu bringen, welches KEINERLEI Vorteile ggü. den Vorgängern bringt, trotzdem aber locker das 3-fache (und mehr!) verbraucht. Und der unkritische 'Markt' akzeptiert dies einfach... und DAS kreide ich an.

Yup, mache ich, und das ist u.a. der Grund, warum ich mittlerweile einen Spielerechner, Anwendungsrechner und separaten Server habe.
Einerseits lobenswert, andererseits allerdings ein "Bärendienst", wie hier schon von einem Mitposter geschrieben...

Es 'braucht' NIEMAND einen separaten Spiele- und Anwendungsrecher und schon gar keinen "Server". Firmen bewegen sich in solch horriblen Energie-Bilanzen... dort ist es allerdings Produktionsbasis und dies möchte ich bei Consumer-Betrachtungen ausgeklammert sehen.

Ich z.Bsp. nutze ein Triple- bzw. sogar Quadrouple Boot-System... (DOS)/WinXP/Vista/Ubuntu und unter WinXP dann auch VMWare, welches mir JEGLICHE Konstellation von Rechner-Kombinationen bis hin zu komplexen Netzwerken ermöglicht. Und das ist EIN Rechner... die Vorstellung hier gleich mehrere Rechner am Laufen haben zu müssen, jagt mir einen regelrechten Schauer über den Rücken... das ist bei weitem Schlimmer, als einen G80 mit hohem 2D-Verbrauch in den Rechner zu stecken.

Ganz davon ab, dass der Energie-Verbrauch sich vervielfacht, der Energie-Aufwand für die Produktion kommt hier noch oben drauf, inkl. dem Transport und der Fertigung in allen Bereichen.

Sorry... aber das ist der gröbste Unfug, den Heimnutzer (ohne berufliche Notwendigkeit, auch wenn es selbst hier 'anders' geht, wie man sieht) so treiben können... noch vor der völlig überflüssigen Verwendung von Technologien wie "Crossfire" oder "SLI".

Andererseits kann man einiges an Strom verbraten, bis man die Umwelt genauso belastet hat, wie durch die Herstellung eines Zweit- oder gar Drittrechners...

Ich bin sicher, dass ich das selbst mit mehreren Jahren Dauerbetrieb einer 8800GTX nicht annähernd schaffe.
Hier stimme ich Dir schlicht zu 100% zu!
:up:

Wenn ich nur kurz an den Automarkt und die von den Kunden geforderten (teilw. eingeredeten) Attribute an moderne Autos denke, fängt das Adrenalin an meinen Körper zu durchfluten! Wenn dort nur eine Spur mehr Vernunft herrschen würde, könnten wahrscheinlich alle GTX-Nutzer ihren Rechner 50 h/Tag unter Volllast betreiben.
Was genau willst Du mir jetzt damit sagen?
:confused:

Nur weil es in anderen Bereichen noch weitaus schlimmer ist, soll man andere vollkommen aus dem Blickfeld verlieren?
Ist es das, was Du 'meinst'?

Sorry, aber dieser "Scheuklappen-Blick", obliegt vielleicht Tieren, aber Menschen (ja, auch Männer ;-) sind durchaus in der Lage, mehrere Dinge gleichzeitig ins Auge zu fassen. Klar sollte man den Lobby'ismus in der Autoindustrie ebenfalls nicht unberücksichtigt lassen... aber das erledigt sich 'eh gerade von selbst, wenn man sich die konjunkturelle Lage dieser 'Industrie' anschaut. Könnte mir gut vorstellen, dass sich gerade dort bald ganz erheblich etwas tut...

...trotzdem hat dies REIN GAR NICHTS mit dem Thema zu tun!

Ganz im Gegenteil lenkt es nur ab und das ist genau die 'Methode', die Politiker so gerne nutzen. Hier heht es um G80, den Endkonsumenten und das, für was er Verantwortung übernimmt... oder eben auch nicht.

Wie Grestorn schon schrieb... das Thema ist bei weitem nicht einfach.
Als Konsequenz aber nichts zu tun und lieber auf einen Bereich zu schaun', bei dem man selber sowieso nichts tun kann... NIE... keinesfalls!.

Razor

Gast
2007-09-22, 11:35:07
Die CPU-Hersteller machen es doch vor: immer höhere Leistung bei moderat steigender Leistungsaufnahme.

Darüber, wieviel Sinn jetzt QuadCores bei Endconsumern machen, lasse ich mich jetzt lieber nicht aus.

Genau da liegt aber der große Unterschied. Die CPU-Hersteller machen jetzt keine großen Sprünge mehr in der Leistungsaufnahme, sind dafür aber extrem auf perfekt angepasst Software angewiesen, denn sonst ist dein 130-Watt-Quad-Core nur marginal schneller als dein 65-Watt-Dual-Core. Vorher schoss die Leistungsaufnahme auch wie blöd in die Höhe, als Netburst und MHz-Wahn den Alltag bestimmten.

Diesen Schritt haben die GPU-Hersteller seit ~1999 hinter sich - da wird's zusehend paralleler neben dem Takt.

Bei Grafikkarten hast du das Problem nicht - eine 8800 GTS ist mal locker >2x so schnell wie eine 7900 GT, wenn man nicht Lego-Quaker ist.

Razor
2007-09-22, 11:37:37
:confused:

Über die Unsinnigkeit von QuadCPU's habe und werde ich nich nicht aus(ge)lassen (haben).
Insofern verstehe ich Deinen Post leider überhaupt nicht...

Razor

Gast
2007-09-22, 11:41:36
Von dem, was eine Durchschnittsfamilie hier in D pro Monat für Strom ausgibt...
...können Familien in anderen Teilen der Erde locker ein ganzes Jahr leben.
Was kosteten dein C2D und deine 7900 GT? Wieviel braucht die dank vMod mehr an Strom? Wer im Grashaus sitzt, sollte nicht mit Schweinen werfen.



Nein, ein G80 tut unter 2D bei weiten kein bischen mehr als alle anderen Karten, die sich so seit 5-10 Jahren am Markt tummeln (OK, 10 Jahre ist ein wenig übertrieben... obwohl... 1997?... hmmm... ;-).
Du sagtest vorhin, deine 7900 GT frisst 17-20 Watt im Idle. Allein die Karte.

Mein NB frisst ~12 Watt ("mit alles und schaaf") und kann im 2D alles, was deine GF auch kann (außer die verschwenderischen 1920-Pünktli und aufwärts bedienen) - Du bist also ebenfalls ein Verschwender wie du es bei anderen anprangerst.

Gast
2007-09-22, 11:44:30
:confused:

Über die Unsinnigkeit von QuadCPU's habe und werde ich nich nicht aus(ge)lassen (haben).
Insofern verstehe ich Deinen Post leider überhaupt nicht...

Razor
Du sagst es doch selbst:
Die CPU-Hersteller machen es doch vor: immer höhere Leistung bei moderat steigender Leistungsaufnahme.
Das ist halt Blödsinn. Die Leistung steigt seit gut anderhalb Jahren nicht mehr. Spitzen-Dual-Core-Modell ist der X6800 (nagut, X6850 mit +2,3% Leistung).

Die Steigerung seitdem wird nur noch über zusätzliche Kerne erreicht und das ist eben der, deiner Aussage nach, sinnlose Quad-Core. Insofern ein ganz schlechter Vergleich.

Gast
2007-09-22, 11:50:36
Es ist schlicht und ergreifend eine absolute 'Frechheit', dass es ein Hersteller hinbekommt, ein Produkt auf den Markt zu bringen, welches KEINERLEI Vorteile ggü. den Vorgängern bringt, trotzdem aber locker das 3-fache (und mehr!) verbraucht.
Damit meinst du jetzt aber nicht GF8 vs. GF7, oder etwa doch?

Gast
2007-09-22, 12:15:53
Sorry, aber dieser "Scheuklappen-Blick", obliegt vielleicht Tieren, aber Menschen (ja, auch Männer ;-) sind durchaus in der Lage, mehrere Dinge gleichzeitig ins Auge zu fassen. Klar sollte man den Lobby'ismus in der Autoindustrie ebenfalls nicht unberücksichtigt lassen... aber das erledigt sich 'eh gerade von selbst, wenn man sich die konjunkturelle Lage dieser 'Industrie' anschaut. Könnte mir gut vorstellen, dass sich gerade dort bald ganz erheblich etwas tut...

...trotzdem hat dies REIN GAR NICHTS mit dem Thema zu tun!

Ganz im Gegenteil lenkt es nur ab und das ist genau die 'Methode', die Politiker so gerne nutzen. Hier heht es um G80, den Endkonsumenten und das, für was er Verantwortung übernimmt... oder eben auch nicht.
Razor
Nein, keine Scheuklappen aufsetzen oder mit den Finger auf andere zeigen (ich dachte, ich hätte das in meinem Post deutlich gemacht), sondern dem Thema nicht mehr Aufmerksamkeit, Nerven und Adrenalin opfern als nötig und vor allem nicht die Kartenbesitzer verurteilen. Einfach Hirn einschalten und bei allem was man "für die Umwelt" tut 2 mal nachdenken, inwieweit die Kosten-/Nutzenrelation (auch eventuelle pers. Einschränkungen) Sinn macht oder eben nicht (Stichwort: Bärendienst).
Erwähnt wurde das Thema im 3DC bisher jedenfalls oft genug.

Gast
2007-09-22, 12:29:47
Und selbst ein um 20W reduzierter 'Verbrauch' unter 2D ist noch viel zu viel... und eben "Herumgespiele"... nicht vom Hersteller ermöglicht. Und solches "Herumgeflicke" hasse ich wie die Pest... wie auch das permanente Gepatche für irgendwelche neue Games, dem offenbar alle G80-Besitzer hinterher hecheln, der Hersteller-Abhängigen D3D10-Performance oder das 'Abmildern' des VRAM-Bugs... oder die schlechte Video-Decoder-Performance, oder... oder... oder...

Der G80 ist ganz einfach großer Mist... großer Mist mit ordentlicher Performance allerdings.
That's it.

Und mit "etwas leben" muss ich (und ich meine ausschluißlich mich damit) ganz sicher nicht!
Bin mal gespannt, ob der G92 zumindest die gravierensten Mägel beheben wird...

Schön zusammen gefasst. :up:

Razor
2007-09-22, 14:35:36
Du bist also ebenfalls...
Nein.
Aber vielleicht wird auch dem letzten Ignoranten hier aufgehen, dass es um den Mehr-Verbrauch geht und nicht um den absoluten.
Und über ein Notebook als Basis für Multimedia, Spiele, sonstige Unterhaltung und Arbeit kann ich nur lachen...
Aber faselt nur weiter einen solchen Unsinn.

Damit meinst du jetzt aber nicht GF8 vs. GF7, oder etwa doch?
Klar meine ich das... unter 2D!
Aber ich wiederhole mich natürlich immer wieder gern...

...sondern dem Thema nicht mehr Aufmerksamkeit, Nerven und Adrenalin opfern als nötig...
Es geht darum, dass dem hier einige offensichtlich keine "Aufmerksamkeit" schenken...

Und inwieweit ein konkreter "Kosten/Nutzen"-Faktor bei solch "überflüssigen" Dingen, wie Naturschutz und Ökologie eine Rolle spielen kann, ja überhaupt spielen 'darf', musst Du mir auch mal erklären. Die vollkommen unsinnige Annahme, dass Luft, Boden und Wasser als Basis unser kapitalistisch basierten Zivilisation in unbegrenztem Umfang 'vorhanden' sind, hat sich in modernen Zeiten ja schon erledigt... jetzt müssen wir 'nur' noch in uns kehren und "aufräumen"... oder eben wieder "zurück geben", was wir genommen haben... allerdings haben es die meisten (besonders in D) nicht so mit dem "Geben"... ganz im Gegenteil eher mit absolut egoistischem "Nehmen".

Aber das ist eher ein Thema für eine andere Sparte hier im Forum.

Fakt ist, dass nVidia mit dem G80 eine 'Lösung' auf den Markt gebracht hat, die ohne Mehrnutzen unter 2D mal eben 3mal soviel benötigt, wie vorherige Lösungen. Auch werden sie wohl zukünftig auch wieder dahin zurück finden...

Was es an dieser Feststellung zu bemängeln gibt, mag mir wirklich mal jemand erklären, ohne unsinnige Dinge von sich zu geben und ohne zu versuchen, auf andere Thematiken abzulenken.

Razor

Gast
2007-09-22, 15:30:22
Und inwieweit ein konkreter "Kosten/Nutzen"-Faktor bei solch "überflüssigen" Dingen, wie Naturschutz und Ökologie eine Rolle spielen kann, ja überhaupt spielen 'darf', musst Du mir auch mal erklären. Die vollkommen unsinnige Annahme, dass Luft, Boden und Wasser als Basis unser kapitalistisch basierten Zivilisation in unbegrenztem Umfang 'vorhanden' sind, hat sich in modernen Zeiten ja schon erledigt...

Was es an dieser Feststellung zu bemängeln gibt, mag mir wirklich mal jemand erklären, ohne unsinnige Dinge von sich zu geben und ohne zu versuchen, auf andere Thematiken abzulenken.

Razor
Mit Kosten/Nutzen war nicht primär Geld gemeint. Es heißt ja auch "auf Kosten der Umwelt" und ich glaube nicht, dass Mutternatur dabei perönlich irgendwem Geld überweist...

An deiner Fragestellung ist nichts Falsches und nichts auszusetzen, ausser der Verzerrung der Wirklichkeit. Was ich damit meine, solltest du mittlerweile verstehen.
Und das dem Thema zuwenig Aufmerksamkeit geschenkt wird, glaube ich immernoch nicht. Diverse Fragen zu Netzteilen, Läm- und Hitzeproblemen würde ich nämlich durchaus dazuzählen.

try2fixit
2007-09-23, 06:40:26
@Razor:

Also ich bin mit der 8800GTX gerade ziemlich zufrieden. Wärmt auch schön meine Füße, die ich neben dem Rechner geparkt habe. Ist doch absolut prima! Wenn die in 2D nicht so heizen würde, dann wären jetzt meine Zehen ganz kalt.:biggrin:

Ach so: Mit dem "Geben ist nicht so in Deutschland"....ist doch kein Problem. Du fängst einfach mal an und gibst mir (natürlich kostenlos) Deinen Rechner. Damit hätte ich mein Serverproblem gelöst und Du Dein schlechtes Gewissen als Umweltsünder. Eigentlich wäre uns da beiden viel geholfen. Außerdem hat mich der andere User hier (der mit den verschiedenen Systemen) echt auf eine tolle Idee gebracht. In sofern ist der Thread hier doch noch nützlich!;D

PS: Kleine Nachhilfe in Gesellschaftskunde. In Deutschland herrscht nicht der Kapitalismus sondern die Soziale Marktwirtschaft. Zumindest, wenn ich das im Grundgesetz so richtig interpretiert habe.....wobei die Gesellschaftsform ja eigentlich nicht ganz genau dort festgeschrieben steht....:rolleyes:

Letzter Punkt sagt mir aber schon, in Verbindung mit den anderen Kernpunkten Deiner Argumentation, mit welchem Kaliber ich es hier zu tun habe.

Dazu fällt mir gerade ein Gleichnis ein:
"Kann auch ein Blinder einem Blinden den Weg weisen? Werden sie nicht alle beide in die Grube fallen?"

oder auch folgendes

"Was siehst du aber den Splitter in deines Bruders Auge, und den Balken in deinem Auge nimmst du nicht wahr? Wie kannst du sagen zu deinem Bruder: Halt still, Bruder, ich will den Splitter aus deinem Auge ziehen, und du siehst selbst nicht den Balken in deinem Auge? Du Heuchler, zieh zuerst den Balken aus deinem Auge und sieh dann zu, dass du den Splitter aus deines Bruders Auge ziehst!"

Lk. 6, 36 - 42

Gruß

Mario

-GENO-
2007-09-23, 11:53:51
naja wer weiß an was hartz4 empfänger so alles zu denken haben...
wobei wenn einer von denen sich einen rechner mit 88er gtx leisten konnte läuft eh was flasch..

Hast recht, ich bekomme HartzIV und darum war leider nur ne 8800GTS drin. :(

Wobei "einer von denen" sich doch sehr abfällig anhört. Nicht jeder HartzIV Empfänger steht den ganzen Tag am Supermarkt und säuft Bier.

Gast
2007-09-23, 14:40:44
Hast recht, ich bekomme HartzIV und darum war leider nur ne 8800GTS drin. :(

Wobei "einer von denen" sich doch sehr abfällig anhört. Nicht jeder HartzIV Empfänger steht den ganzen Tag am Supermarkt und säuft Bier.
Du dürftest damit jetzt Fatality's Weltbild erschüttert haben. ;)
Er könnte jetzt noch gehässiger werden.

Gast
2007-09-23, 16:50:09
Bei mir ist es unwahrscheinlich, daß ich durch meine Geforce 8800 GTS einen höheren Stromverbrauch habe.

Denn das, was ich jetzt durch meine Geforce kaputt mache, habe ich durch die sparsame Intel CPU wieder gewonnen.

Mein Rechner bleibt also bei 140 W.
Und das hat der alte Rechner auch gebraucht, da ging der größte Teil des Stromverbrauchs aber an die CPU und nicht an die GPU.

3DoMan
2007-09-23, 19:44:42
Ich finde es nicht in Ordnung, dass der Stromverbrauch kleingeredet wird. Es ist absolut nicht zu tolerieren, das eine 8800er in Idle für 2D-Darstellung so viel Strom zieht! Weil Angeber das immer klein reden, wird Nvidia wohl kaum seinen Hintern bewegen um etwas daran zu ändern .Deswegen währe es wünschenswert, das die EU Richtlinien und Grenzwerte festlegt, was so ein PC in Idle verbrauchen darf (war schon mal in Diskussion). Das kann ja echt nicht mehr angehen, dass sich einige Rechner schon an der 0,5 KW Grenze und mehr bewegen.
Der Markt sollte auch die Bemühungen eines Herstellers bezüglich des Stromverbrauchs belohnen. Ich werde in Zukunft darauf achten, dann hätte ich mir meine 8800 GTS auch sparen können.
Nein, meine Portokasse erlaubt auch zwei GTXen, aber wozu?

whtjimbo
2007-09-25, 11:10:35
Hast recht, ich bekomme HartzIV und darum war leider nur ne 8800GTS drin. :(


Es ist doch super, dass sich ein sparsamer Mensch auch mit wenig verfügbaren Geld etwas schönes leisten kann. Es komt zwar seltener vor, als bei der Masse der Beschäftigten, aber es ist ein Zeichen dafür, dass bei uns immer noch soziale Marktwirtschaft herrscht und man nicht nur den primitiven Ansatz des Kapitalismus verfolgt.

Mr.Magic
2007-09-25, 11:27:58
Ich finde es nicht in Ordnung, dass der Stromverbrauch kleingeredet wird. Es ist absolut nicht zu tolerieren, das eine 8800er in Idle für 2D-Darstellung so viel Strom zieht! Weil Angeber das immer klein reden, wird Nvidia wohl kaum seinen Hintern bewegen um etwas daran zu ändern .Deswegen währe es wünschenswert, das die EU Richtlinien und Grenzwerte festlegt, was so ein PC in Idle verbrauchen darf (war schon mal in Diskussion). Das kann ja echt nicht mehr angehen, dass sich einige Rechner schon an der 0,5 KW Grenze und mehr bewegen.
Der Markt sollte auch die Bemühungen eines Herstellers bezüglich des Stromverbrauchs belohnen. Ich werde in Zukunft darauf achten, dann hätte ich mir meine 8800 GTS auch sparen können.
Nein, meine Portokasse erlaubt auch zwei GTXen, aber wozu?

:crazy:

Wenn jemand sich einen Computer hinstellen will, der 5MW braucht, darf er das gerne machen.
Genau wie dir keiner vorschreibt einen Stromfresser kaufen zu müssen.

Eine EU-Richtlinie würde sowieso nur Fertigkisten betreffen. Das haben wohl sogar die Politiker, oder zumindest deren Berater, gerafft.

PHuV
2007-09-25, 12:48:44
Es 'braucht' NIEMAND einen separaten Spiele- und Anwendungsrecher und schon gar keinen "Server". Firmen bewegen sich in solch horriblen Energie-Bilanzen... dort ist es allerdings Produktionsbasis und dies möchte ich bei Consumer-Betrachtungen ausgeklammert sehen.


Weißt Du Razor, es ist immer recht schwierig mit Dir zu diskutieren, weil Du Dich immer wieder auf den Standpunkt stellst, das Deine Meinung das Maßgebende ist. Es ist mittlerweile angesichts der Bedürfnisse für beispielsweise durchaus angebracht, gewisse Dinge zu trennen. Es hängt vom Anspruch ab. Und es gibt nun mal Hardware, die sich beißt, ich nenne hier nur mal professionelle Audiokarten und Creative-Karten. Ebenso habe ich festgestellt, daß Spielekonfigurationen und Anwendungskonfigurationen in anspruchsvoller Umgebung sehr wohl beißen.


Ich z.Bsp. nutze ein Triple- bzw. sogar Quadrouple Boot-System... (DOS)/WinXP/Vista/Ubuntu und unter WinXP dann auch VMWare, welches mir JEGLICHE Konstellation von Rechner-Kombinationen bis hin zu komplexen Netzwerken ermöglicht. Und das ist EIN Rechner... die Vorstellung hier gleich mehrere Rechner am Laufen haben zu müssen, jagt mir einen regelrechten Schauer über den Rücken... das ist bei weitem Schlimmer, als einen G80 mit hohem 2D-Verbrauch in den Rechner zu stecken.


Und, es ist Dein Problem, wenn Du das so siehst, aber andere sehen das anders. Deine Meinung ist nicht allerwelttauglich, und mit dem Mehrfachboot (welches ich früher auch betrieben habe) löst man zwar einige, aber nicht alle Probleme. Und da ich zufällig auch mit den Rechnern entsprechend arbeitete, war mit die Aufteilung und die Erhöhung der Sicherheit wichtiger.

Hast Du Kinder und eine technikunbegabte Frau? In dem Moment, wo noch andere auf Deinen Rechner zugreifen wollen, hast Du wieder ein Problem.


Sorry... aber das ist der gröbste Unfug, den Heimnutzer (ohne berufliche Notwendigkeit, auch wenn es selbst hier 'anders' geht, wie man sieht) so treiben können... noch vor der völlig überflüssigen Verwendung von
Technologien wie "Crossfire" oder "SLI".


Das ist Deine Meinung, und meine Lösung ist beileibe kein Unfug, so wie Du es hinstellen möchest. Wenn man danach geht, kann ich Dir sicher nachweisen, daß Deine Sichtweise auch Unfug ist? Vielleicht ist es sogar Unfug, überhaupt kein Computer zu haben.

Fakt ist, Du kennst weder meine Umgebung, noch meine Bedürfnisse, und das ist das Wichtigste, meine Erfahrungen auf diesem Gebiet. Jedoch maßt Du es Dir an, ohne alle Kenntnisse meine Lösung als Unfug hinzustellen.

Gerade jetzt sieht man doch den Trend zu einem Heimserver. Sicher, für ein oder zwei Personen sicherlich uninteressant. Aber in dem Moment, wo man Familie hat, und mehrere Leute auf mehrere Resourcen gleichzeitig zugreifen wollen (sei es Hardware oder Dateien), ist ein Server wirklich toll. Jeder kann auf den gemeinsamen Pool von beispielsweise gemachten Fotos zugreifen, ebenso auf Musikdateien etc. Ich finde die Idee gut, und sie hat diverse Vorteile (vorausgesetzt, man hat das Geld und die Muße).

Gut, vielleicht ist es übertrieben oder sonstwas, aber andere Meinungen sind mir hier recht egal, weil ich eines habe, Gewissheit. Seitdem ich diese Lösung der Trennung habe, lebe ich viel entspannter, und muß mich nicht immer wieder mit dem Aufwand von der Integration von diverser Hardware auf einem Rechner rumärgern, und das hat mich im Leben sehr viel Zeit gekostet. Vor allen Dingen habe ich den Vorteil, daß ich immer auf meine Rechner zugreifen kann, selbst wenn mal einer ein Problem macht. Wenn Du ein gewaltiges Problem hat mit einem Rechner, der gerade nicht läuft, und Du willst mal nach dem Problem googlen, neue Treiber laden etc., wie machst Du das? Gehst Du zum Nachbarn? ;)
Ein vermeidliches Virenproblem/Sicherheitsproble habe ich auch nicht, da ich nur mit einem Rechner ins Internet gehe, von dem her brauche ich nur einen Virenscanner oder andere Programme, und auf den anderen Rechner brauche ich das bremsende Zeugs nicht, und kann diese optimal abstimmen.

Wenn mein Spielerechner mal nicht geht, kann ich immer noch auf den Server oder auf den Anwendungsrechner zugreifen. Ich kann testen, HW austauschen, usw., und ich kann Fehler wesentlich schneller und effizienter lokalisieren. Natürlich hat nicht jeder diesen Anspruch. Aber seltsamerweise kommen alle immer zu mir, wenn sie Probleme mit ihren Rechnern haben. ;)

Klar geht alles mit einem Rechner auch, keine Frage. Jedoch ist meine Feststellung, leider nur suboptimal, man muß immer Kompromisse machen.

Dafür fährst Du doch bestimmt ein Auto, oder? Siehste, so etwas leiste ich mir nicht, weil ich sage, daß ein Auto in dem meisten Fällen unnötig ist. Tja, und schon sind wir wieder bei dem Thema, was sind die Prioritäten? Wetten, Deine sind anders als meine? ;)

Du kannst jedoch nicht Deine Prioritäten für alle verallgemeinern, gelle? ;)

Gast
2007-09-25, 13:33:21
Warum muss der hohe IDLE Verbrauch überhaupt diskutiert werden?

Der Verbrauch fürs Nichtstun ist einfach indiskutabel hoch!

Das der Load Verbrauch auch einen neuen Rekord erreicht ist zwar schade, ich kann mich noch an die FX5800Ultra erinnern, im Vergleich ein Stromsparwunder...

Mr.Magic
2007-09-25, 13:45:42
Mehr als die Spannung und die Taktrate senken kann man ohne seperaten 2D-Chip nicht. Selbst dann muss man noch den Speicher und den 3D-Chip (Standby) mit Strom füttern.
Dabei finde ich einige Reaktionen interessant. Ende der 90er wurde groß gefeiert, weil der 3D und der 2D-Teil verschmolzen, nun wollen ihn viele wieder getrennt haben.

Gast
2007-09-25, 13:56:25
Ich will keine Trennung. Ich will nur einen niedrigeren Verbrauch im Idle.
Warum muss zb. der komplette Chip aktiv sein?
warum ist nv unfähig die Spannung, wie früher zu senken?

Mr.Magic
2007-09-25, 14:42:26
Weil das Ding eine Einheit darstellt, die insgesamt angesteuert bzw. mit Strom versorgt wird. Teile INNERHALB des Chips abzuschalten wäre... ungeheuer schwierig. Wäre das so einfach, würden sich bei Multi-Core-CPUs nicht benötigte Kerne auch einfach komplett ausknipsen.

Warum bei aktuellen Karten Spannung und Takt nicht mehr standardmäßig gesenkt werden? Weiß ich auch nicht.

Gast
2007-09-25, 14:52:58
Warum bei aktuellen Karten Spannung und Takt nicht mehr standardmäßig gesenkt werden? Weiß ich auch nicht.
Weil der g80 verbugt ist. In vielen Bereichen.

Gast
2007-09-25, 14:54:41
Weil der g80 verbugt ist. In vielen Bereichen.

Und die Bereiche wären?

LovesuckZ

Gast
2007-09-25, 15:04:58
VRAM
Idle Verbrauch
Last Verbrauch (die erste Single GPU Karte mit 2! Stromanschlüßen)
Länge
Kosten (1 Jahr nach Release sollte die Karte wertlos sein)
schlechte Video-Decoder-Performance
....

Für mehr frag Razor.

Mr.Magic
2007-09-25, 15:33:35
VRAM
Idle Verbrauch
Last Verbrauch (die erste Single GPU Karte mit 2! Stromanschlüßen)
Länge
Kosten (1 Jahr nach Release sollte die Karte wertlos sein)
schlechte Video-Decoder-Performance
....

Für mehr frag Razor.

Ich weiß immer noch nicht ob wirklich so viele Leute einen VRAM-Bug unterliegen, oder ob da nicht bei einigen einfach der Speicher voll ist. Soll nicht heißen er existiert nicht. Soll heißen er ist möglicherweise nicht so verbreitet wie geglaubt wird. Viele beschweren sich nämlich z.B. bei Oblivion mit Texturmods. Bei mir benötigt das Spiel direkt nach dem Start ein gutes GB GRAM.

Idle Verbrauch - Es ist zwar viel, aber viel weniger verbraucht meine 7950GX2 im Idle auch nicht.

Länge - Nichts wirklich Außergewöhnliches, und absolut innerhalb des Standards. Da habe ich früher schon längere Karten gesehen (80er/90er Jahre).

Kosten - Genau meine Meinung! Nach einem Jahr muss einem ein Produkt praktisch hinterhergeworfen werden. Wo kann ich meine 2006er Mercedes S-Klasse für 10.000€ abholen? Der Preis wird sinken. Und zwar, wie bei fast jedem Luxusartikel, wenn das Modell ausläuft.

Schlechte Video-Decoder-Performance - Kann gar nicht sein! Wie soll die GF8 eine schlechte Decoder-Performance haben, wenn der Decoder nichtmal (richtig) funktioniert. Ja, das ist schlecht.

Wenn einem das wichtig ist, dann sollte man aber sowieso keine Highend-Produkte kaufen. Eine Quad-Core-CPU ist z.B. auch kein Stromsparer, und die Preise der X-Fi sind ebenfalls relativ stabil. Man bekommt eine gewaltige Portion Bildqualität und/oder Leistung, bzw. Bildqualität durch Leistung. Wie auch immer.
Jeder muss die Vor- und Nachteile für sich abwägen und danach seine Entscheidungen treffen.

Für die Philosophen: Warum reiten so viele Menschen immer auf den schlechten Dingen rum, und verlieren dabei die Guten komplett aus den Augen.

Wenn ihr z.B. eine wunderschöne Frau (ich meine damit nicht nur das Aussehen) kennenlernt, und dann nach einer Weile feststellt, dass ein Bein kürzer ist als das Andere. Denkt ihr dann die ganze Zeit an den Makel, oder geniest ihr die Zeit mit ihr?

LovesuckZ
2007-09-25, 15:42:13
VRAM
Idle Verbrauch
Last Verbrauch (die erste Single GPU Karte mit 2! Stromanschlüßen)
Länge
Kosten (1 Jahr nach Release sollte die Karte wertlos sein)
schlechte Video-Decoder-Performance
....



Vram Bug - Betrifft nur die kleinen Karten. Die GTS640 und die GTX scheinen wesentlich geringer von dem Problem betroffen zu sein. Selbst bei 8xAA bricht die GTX nicht annährend so ein wie die GTS320.
Idle Verbrauch - Kein Bug.
Länge - Kein Bug.
Kosten - Kein Bug.
Schlechte Video-Decoder-Performance - Kein Bug. Die Leistung ist in einigen Bereichen besser als bei den vorigen Grafikkarte und auch in einigen Bereichen besser als bei der Konkurrenz.


Ja, da haben wir nur den Vram-Bug, der sich nur auf 1/3 der Hardware der G80 bezieht.

Mr.Magic
2007-09-25, 15:49:18
Der Video-Decoder funktioniert besser? Ist das sicher? Ich hatte Ruckler mit der GF8, die bei der GF6, oder deaktiviertem DXVA, nicht vorhanden sind -> PowerDVD, 1080er h264-Video und DXVA.

Ich dachte es ginge (in diesem Thread) ausschließlich um die 8800GTX.

Gast
2007-09-25, 15:52:32
[LIST]
Vram Bug - Betrifft nur die kleinen Karten. Die GTS640 und die GTX scheinen wesentlich geringer von dem Problem betroffen zu sein. Selbst bei
Falsch, der VRAM-Bug betrifft auch die Großen.
Auch wenn es dir nicht auffällt, weil genug Speicher vorhanden ist.
Du schreibst etwas vom allgemeinen Problem der 320GTS, das der VRAM ausgeht, das ist nicht der VRAM-Bug.



Idle Verbrauch - Es ist zwar viel, aber viel weniger verbraucht meine 7950GX2 im Idle auch nicht.
Aber sie Verbraucht weniger, die 7900GTX braucht noch weniger, die 7800GTX noch weniger, ... Fählt dir was auf? Der Verbrauch steigt regelmäßig weiter an.



Länge - Nichts wirklich Außergewöhnliches, und absolut innerhalb des Standards. Da habe ich früher schon längere Karten gesehen (80er/90er Jahre).

Diese Jahre sind Vorbei. Nicht das ich hier Probleme mit 40cm Karten hätte.


Kosten

Schlechtes Beispiel.
Wie war das sonst?
Nach einem Jahr gibt es den Nachfolger, das alte Highend kommt zum Mittelklassenpreis raus.


X-Fi sind ebenfalls relativ stabil.

Bei der X-Fi war es klar, das sie stabil bleibt, schonmal beobachtet wie sich die Audigy Preise entwickelt haben? - Genauso.

Gast
2007-09-25, 15:54:06
Der Video-Decoder funktioniert besser? Ist das sicher? Ich hatte Ruckler mit der GF8, die bei der GF6 nicht vorhanden sind -> PowerDVD, 1080er h264-Video und DXVA.
Bei NV ist gab es bei High-End Chips schon öfter Probleme in dem Bereich. Stichwort NV40 defekter Videoprozessor.

Mr.Magic
2007-09-25, 15:58:52
Aber sie Verbraucht weniger, die 7900GTX braucht noch weniger, die 7800GTX noch weniger, ... Fählt dir was auf? Der Verbrauch steigt regelmäßig weiter an.



Diese Jahre sind Vorbei. Nicht das ich hier Probleme mit 40cm Karten hätte.



Schlechtes Beispiel.
Wie war das sonst?
Nach einem Jahr gibt es den Nachfolger, das alte Highend kommt zum Mittelklassenpreis raus.



Bei der X-Fi war es klar, das sie stabil bleibt, schonmal beobachtet wie sich die Audigy Preise entwickelt haben? - Genauso.

Sicher braucht sie weniger. Sie hat bei halber Leistung aber nicht nur den halben Strombedarf.
ps: Ich meine die GX2. Bei der 7900GTX ist es etwas mehr als ein Viertel der Leistung, aber trotzdem mehr als ein Viertel Stromverbrauch.

Diese Jahre kommen wieder. Ist doch gut das du damit kein Problem haben wirst. ;)

Wie es sonst war spielt keine Rolle. Hat es auch nie irgendwo. Wer nicht anpassungsfähig hat das Nachsehen, so ist das nunmal (nicht nur bei Darwin).
Übrigens waren die alten Modelle ebenfalls preisstabil, bis jemand etwas besseres für den Preis anbietet. Dann gibt es noch so ein Kleinigkeit namens Angebot und Nachfrage. Life's a bitch!

LovesuckZ
2007-09-25, 16:01:39
Der Video-Decoder funktioniert besser? Ist das sicher? Ich hatte Ruckler mit der GF8, die bei der GF6, oder deaktiviertem DXVA, nicht vorhanden sind -> PowerDVD, 1080er h264-Video und DXVA.

Hier wird eher ein Konfigurationsproblem vorhanden sein. Der "Videoprozessor" des G80s ist dem der GF6 mindesten ebenbürtig, wenn nicht sogar überlegen.


Aber sie Verbraucht weniger, die 7900GTX braucht noch weniger, die 7800GTX noch weniger, ... Fählt dir was auf? Der Verbrauch steigt regelmäßig weiter an.

Die Karten haben nur die Hälfte an Transistoren und weniger Speicher. Es ist wohl klar, dass sich dies auch auf die Leistungsaufnahme auswirkt.

Mr.Magic
2007-09-25, 16:06:28
Müsste dann schon ein Treiberproblem sein. Der Rest war auf allen drei Rechnern gleich konfiguriert (bei der GX2 funktionierte das Abspielen ebenfalls problemlos).
Das der Decoder, zumindest bei den "großen" 8800ern, deaktiviert ist stand in mehreren Videoforen. Daher, und weil es bei mir ebenfalls nicht funktioniert, glaube ich das mal.

Gast
2007-09-25, 16:10:02
Das es ok ist das die 8800 mehr saugt als die Vorgänger, weil sie mehr Leistung bietet ist doch auch kacke.


Nehmen wir die 6800Ultra und die 7800GTX:

Trotz mehr Leistung und mehr Transistoren ist der Stromverbrauch gesunken. =)

The_Invisible
2007-09-25, 16:11:33
oje, jetzt werden "schlechte" eigenschaften schon als bug betitelt.

der thread wird immer sinnloser.

mfg

Gast
2007-09-25, 16:15:37
Wenn man schon keine Argumente bringt ....

Irgendwie musst du auch deine 8800 in Schutz nehmen.

Gast
2007-09-25, 16:17:46
Das der Decoder, zumindest bei den "großen" 8800ern, deaktiviert ist stand in mehreren Videoforen. Daher, und weil es bei mir ebenfalls nicht funktioniert, glaube ich das mal.

Der Decoder funktioniert. Es gibt genug Test, die dies beweisen.


Das es ok ist das die 8800 mehr saugt als die Vorgänger, weil sie mehr Leistung bietet ist doch auch kacke.
Nehmen wir die 6800Ultra und die 7800GTX:
Trotz mehr Leistung und mehr Transistoren ist der Stromverbrauch gesunken.

Die 7800 bot nur mehr Leistung zur 6800Ultra. Die 8800 hat wesentliche Fortschritte verzeichnet. bessere Bildqualität, mehr Features, bis zu 4-mal mehr Leistung...
Ausserdem ist der Stromverbrauch nicht gesunken, sondern lag auf dem selben Niveau.

Sonyfreak
2007-09-25, 18:05:39
Mir geht der Stromverbrauch meiner 8800 gelinde gesagt am Popo vorbei. Mein PC läuft so und so nur, wenn ich ihn auch wirklich Spielen will. Für alles Andere habe ich meinen Mac Mini, der im Normalfall nur knapp 20W schluckt. Im Übrigen habe ich letze Weihnachten meinen Monitor gewechselt. Von einem 19" CRT zu einem 22" TFT, der grade mal 40W verbraucht. Im Endeffekt verbrauche ich dadurch viel viel weniger Strom als früher.
Da kann ich nur milde lächeln, wenn sich jemand über den Stromverbrauch des G80 mokiert, und gleichzeitig die ganze Zeit an einem Rechner sitzt, der 150-200W im Leerlauf schluckt. ;)

mfg.

Sonyfreak

Gast
2007-09-25, 18:12:14
Und ich kann nur darüber lächeln das bei Einigen der Rechner zum Leerlauf kommt. ;)
Die CPU ständig auszulasten ist einfach, nur die GFX hängt noch drin und saugt ohne Last.

Snoopy69
2007-09-27, 11:02:38
Ich werde wohl im Frühjahr nach der Ablesung eine Überraschung erleben.
Ich hab mit den 2x 8800GTX ca. 200-250W mehr Verbrauch und einen Ultra 1500 bekomme ich ja auch bald. Und der 24" zieht auch 60W mehr als der alte 19". Oje... :ulol:

TobiWahnKenobi
2007-09-27, 11:05:21
selbst leute, die gleichviel oder weniger wie im vorjahr verbraucht haben, werden eine überraschung erleben.


(..)

mfg
tobi

Snoopy69
2007-09-27, 11:07:42
Die Strompreise steigen weiter, ist klar.

Gast
2007-09-27, 12:14:31
Die Strompreise steigen weiter, ist klar.
Vor allem in Deutschland. Da ist das zu einem Naturgesetz dank korrupter Politiker geworden. Zusätzlich die hohen Steuern drauf. Im Vergleich zu Österreich und Schweiz tanzt Deutschland kräftig aus der Reihe bzgl. des Preises einer Kilowattstunde.
Böse Zungen behaupten. dass jedes Volk bekommt, was es verdient.
Bin mal gespannt, wann der "Sweetspot" erreicht ist und es heißt: "Nichts geht mehr."

ataridelta9
2007-09-27, 14:36:35
Böse Zungen behaupten. dass jedes Volk bekommt, was es verdient.
Bin mal gespannt, wann der "Sweetspot" erreicht ist und es heißt: "Nichts geht mehr."


doch da ist schon was dran.

aber bei mir hat sich die Geforce 8 noch nicht bemerkbar gemacht auf
der stromrechnung. dafür erzeugt mein PC im moment genug wärme
fürs ganze zimmer dank der G8. :biggrin:

Razor
2007-10-01, 07:58:04
PS: Kleine Nachhilfe in Gesellschaftskunde. In Deutschland herrscht nicht der Kapitalismus sondern die Soziale Marktwirtschaft. Zumindest, wenn ich das im Grundgesetz so richtig interpretiert habe.....wobei die Gesellschaftsform ja eigentlich nicht ganz genau dort festgeschrieben steht...Gut, dass Du den 'kleinen' Nachsatz noch gebracht hast...
Es handelt sich um eine Wirtschaftsform, nicht um eine Gesellschaftsform.
Und... das ist viel wichtiger... die Marktwirtschaft (auch die 'soziale' ;-) basiert natürlich auf dem Kapitalismus.
Wie auch sonst?

Ich empfehle Dir hier also dringende Nachhilfe... ist nicht böse gemeint.
Anfangen kannst Du hier: Wiki hilft immer ;-) (http://de.wikipedia.org/wiki/Soziale_Marktwirtschaft#Soziale_Marktwirtschaft)
Insofern die "soziale Marktwirtschaft" selbstverständlich eine Ausprägung des Kaptialismus (http://de.wikipedia.org/wiki/Kapitalismus) ist.

Zu dem Rest des von Dir geposteten kann ich nur sagen: <HexNull>
;)

Und es gibt nun mal Hardware, die sich beißt, ich nenne hier nur mal professionelle Audiokarten und Creative-Karten. Ebenso habe ich festgestellt, daß Spielekonfigurationen und Anwendungskonfigurationen in anspruchsvoller Umgebung sehr wohl beißen.
Oh ha...
1) schmeiß die Creative-Karte weg
2) Anwendungs- und Spiele-Konfiguration beißen sich nicht... auch in anspruchsvollen Umgebungen nicht
(ein Beispiel von Dir wäre hier wohl angebracht)

...und mit dem Mehrfachboot (welches ich früher auch betrieben habe) löst man zwar einige, aber nicht alle Probleme...
Ich löse damit überhaupt keine 'Probleme'... die sind allesamt unter meinem Hauptsystem mit WinXP (32Bit) 'gelöst'.

Um allerdings Betriebssysteme in ihrer 'echten' Umgebung zu 'testen' benötigt es eben eine solche... deswegen TripleBoot...Dos ist nur für Wartungszwecke gedacht. Den Platz von Vista64 und/oder Ubuntu32 kann auch jedes andere Betriebssystem besetzen... WinXP-Testsysteme, MS-Server-Systeme (aktuell Server 2008 ;-), OS-X Tiger und auch alle anderen...

So vermute ich einfach, dass Du mich einfach mißverstanden hast...
(komplexe Netzwerke werden über Simulationsprogramme oder eben VMWare abgebildet)

Und was "Frau und Kinder" angeht... was meinst Du, wie das in komplexen (nicht simulierten ;-) Netzwerken gehandhabt wird?
Bei mir: DBox2 im WoZi... 'braucht' nix und man kann damit 'surfen'.

Und dass es für mehrere Personen auch mehrere Rechner braucht (simultane Nutzung voraus gesetzt ;-), sollte niemanden wirklich verwundern... nur "Server" braucht es nicht und Dein Ansatz war auch ein anderer... ich vermute, dass Du Dich jetzt raus reden willst.

Ich bleibe dabei: Netzwerke (i.e. Client/Server-Umgebungen) sind für Privatpersonen absoluter Unfug.
Und für zentrale Ablagen reicht 'ne Festplatte... da brauchts ganz sicher keinen "Server".

Für 'Notfälle' habe ich noch immer mein Notebook... allerdings laufen Hauptrechner und dies kleine Dingelchen nie 'simultan'.

Schlechte Video-Decoder-Performance - Kann gar nicht sein! Wie soll die GF8 eine schlechte Decoder-Performance haben, wenn der Decoder nichtmal (richtig) funktioniert. Ja, das ist schlecht.
Danke... Du bestätigt dies wenigstens.
Alle anderen scheinen diese "Unwichtigkeit" eher tot zu schweigen.

Ansonsten sind "QuadCore" und "X-Fi" wirklich gute Beispiele für entweder vollkommen überflüssige oder auch vollkommen verbugte Produkte am Markt. So etwas muss sich niemand antun, vor allem, weil man gut darauf verzichten kann und einem rein gar nichts fehlt...

Warum reiten so viele Menschen immer auf den schlechten Dingen rum, und verlieren dabei die Guten komplett aus den Augen.
Was ist denn daran 'gut', wenn ein Alpha-Produkt auf den Markt los gelassen wird?
Den einzigen Effekt, den dies hat: das 'richtige' Produkt verzögert sich...
(hängt mit diversen Wirtschafts-Prinzipien zusammen und ist Fakt)

Im Endeffekt hat also der Konsument in JEDER Hinsicht das Nachsehen.

Wenn ihr z.B. eine wunderschöne Frau (ich meine damit nicht nur das Aussehen) kennenlernt, und dann nach einer Weile feststellt, dass ein Bein kürzer ist als das Andere. Denkt ihr dann die ganze Zeit an den Makel, oder geniest ihr die Zeit mit ihr?
Wenn man eine "wunderschöne Frau" kennen lernt und dann fest stellt, dass ein Bein fehlt (VideoDecoder), maßlose Freßsucht mit ihr einher geht (hoher Verbrauch), dieses dann aber mit großer Leistung (Sport?) wieder 'kompensiert' wird und die Dame dann zumindest in der Disko ein "gute Figur" macht, wo von alledem nichts zu 'sehen' ist... fallen mir viele Dinge dazu ein... aber ganz gewiß nicht "Genuß".

Zu viele Nachteile, also weg damit!
(oder besser: gar nicht erst her damit ;-)

Sicher braucht sie weniger. Sie hat bei halber Leistung aber nicht nur den halben Strombedarf.
ps: Ich meine die GX2. Bei der 7900GTX ist es etwas mehr als ein Viertel der Leistung, aber trotzdem mehr als ein Viertel Stromverbrauch.
Unter 2D?
Nochmal: nur darum geht es hier!

Unter 2D bringt Deine tolle Karte NIX 'mehr'... im Gegenteil... sogar 'weniger'.
Und jetzt wieder SLI (egal, ob Onboard oder Dual) ins Feld zu ziehen zeigt wieder das von mir bereits erwähnte "Ablenkungsverhalten".

Hier wird eher ein Konfigurationsproblem vorhanden sein. Der "Videoprozessor" des G80s ist dem der GF6 mindesten ebenbürtig, wenn nicht sogar überlegen.
Theoretisch ja, praktisch nein.
Bei den G8x mit Ausnahme des G80 stimmt dies sogar... aber der VP des G80 scheint einfach defekt.

In letzter Zeit versucht nVidia eine ähnliche Funktionalität über die Shader zu realisieren (auch hier läßt der NV40 grüßen), dies scheint aber nur mäßig zu funktionieren und man muss das Thema "VideoProcessing" beim G80 wohl abhaken... bleibt eben noch die reine Software-Lösung, die in Zeiten von DualCore-CPU's zumindest in Punkto Leistung nicht mehr wirklich ein Problem darstellt.

Auch hier zeigt sich recht deutlich: der G80 ist ein Alpha-Produkt!
Die nVidia-Ingeneure habe ganz sicher davon gewußt.
Und da bei diesem Chip ja noch so einiges andere "im Argen" liegt...

selbst leute, die gleichviel oder weniger wie im vorjahr verbraucht haben, werden eine überraschung erleben.
Auch wenn es wenig mit der eigentlichen Thematik zu tun hat...
...DAS ist leider mehr als wahr!

DANKE Deutschland!

-

An die anderen hier zu Thema "Sparen durch Prozzi + Verschwendung mit GPU = hebt sich auf!"
Suuuuper... echt.
:uclap:

Razor

desert
2007-10-01, 09:57:26
sagmal razor musst du irgendwas kompensieren, das du den g80 so schlecht machst und deine 7950 in den himmel lobst?

ich kaufe keine grafikkarte um sie mir im 2d modus anzuschauen, und auch wenn sie mehr verbraucht, meine gts verbraucht ca 30 watt mehr als meine 7900 gtx jeweils last und idle.

Da scheiss ich ehrlich gesagt drauf, und wer sich eine gf8800 gt... für einen htpc kauft nur um videos zuschauen hat entweder zuviel geld oder einen statusproblem.

Ich habe meinen g80 jetzt seit november letzten jahres und bereue den kauf nicht eine sekunde. z.b. gothic 3 läuft um welten besser genauso oblivion mit 8xs. Aber wahrscheinlich bin ich auch blöde das ich mir das verbuggte gothic3
gekauft habe und nicht über 100 stunden spielspass in myrtana gehabt habe, weil es ja angeblich unspielbar ist mit den bugs;)

Fatality
2007-10-01, 10:04:13
er kann sich doch nur keine besserer hardware leisten, seit wayne interessiert uns das ;)

vax
2007-10-01, 10:15:04
zum stromspar thema:

da ich mir vor kurzem auch eine 8800 GTS angeschafft habe, wollte ich mal wissen ob es für besagtes untertakten gute tools gibt. dieses tool sollte dann automatisch merken das kein 3D gebraucht wird und die karte dementsprechend runtertakten aufs minimum für 2D. sobald ich jedoch ein spiel starte sollte das tool dies merken und wieder automatisch hochtakten. gibt es sowas?

gruß, vax

Snoopy69
2007-10-01, 10:18:13
Warum auch über den Verbrauch nachdenken, wenn man sich schon so dicke HW (8800GTX/Ultra oder HD2900XT) leisten kann? Das verdirbt einem doch den Spass, wenn man ständig Angst vor zu hoher Nachzahlung haben muss. Den Verbrauch kann sich jeder vorher ausrechnen und danach dann seine HW kaufen.

Wenn ich die beiden 8800GTX gemoddet hab und der Quad und der Ultra 1500 da ist wird mein Verbrauch nochmals um 0,1-0,2kW/h steigen. Interessieren tut es mich nicht. Es gibt teurere Hobbies... :wink:

-=Popeye=-
2007-10-01, 10:21:51
zum stromspar thema:

da ich mir vor kurzem auch eine 8800 GTS angeschafft habe, wollte ich mal wissen ob es für besagtes untertakten gute tools gibt. dieses tool sollte dann automatisch merken das kein 3D gebraucht wird und die karte dementsprechend runtertakten aufs minimum für 2D. sobald ich jedoch ein spiel starte sollte das tool dies merken und wieder automatisch hochtakten. gibt es sowas?

gruß, vax

Rivatuner-Anleitung für den G80 (Unter-/Übertaktung, Lüftersteuerung usw.) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363264)

Gast
2007-10-01, 11:01:41
Danke... Du bestätigt dies wenigstens.
Alle anderen scheinen diese "Unwichtigkeit" eher tot zu schweigen.
...
Was ist denn daran 'gut', wenn ein Alpha-Produkt auf den Markt los gelassen wird?
Den einzigen Effekt, den dies hat: das 'richtige' Produkt verzögert sich...
(hängt mit diversen Wirtschafts-Prinzipien zusammen und ist Fakt)
...
Unter 2D bringt Deine tolle Karte NIX 'mehr'... im Gegenteil... sogar 'weniger'.
Und jetzt wieder SLI (egal, ob Onboard oder Dual) ins Feld zu ziehen zeigt wieder das von mir bereits erwähnte "Ablenkungsverhalten".
...
Theoretisch ja, praktisch nein.
Bei den G8x mit Ausnahme des G80 stimmt dies sogar... aber der VP des G80 scheint einfach defekt.
...
Auch hier zeigt sich recht deutlich: der G80 ist ein Alpha-Produkt!
Die nVidia-Ingeneure habe ganz sicher davon gewußt.
Und da bei diesem Chip ja noch so einiges andere "im Argen" liegt...


- Was ist am VP des G80 "defekt"?
- Was ist am G80 insgesamt "alpha"?
- Was liegt beim G80 noch so anders "im Argen"?

TobiWahnKenobi
2007-10-01, 11:33:40
- Was ist am VP des G80 "defekt"?

keine ahnung. in powerDVD (hier mit einem 1080p-film unter vista) gibt es keine sorgen, was die beschleunigung angeht. alles andere sollte unwichtig sein, denn SD-material stellt eh null anspruch an die hardware.

http://img372.imageshack.us/img372/243/screenshot002dd8.th.jpg (http://img372.imageshack.us/my.php?image=screenshot002dd8.jpg)http://img258.imageshack.us/img258/1273/screenshot001hi0.th.jpg (http://img258.imageshack.us/my.php?image=screenshot001hi0.jpg)
Quelle: 1x Vista 1x XP-MCE
HD DVD 1080p VC1 auf GF8800GTX (Vista FW:163.69; XP FW:163.71), Intel C2D E6600, 4GByte RAM


- Was ist am G80 insgesamt "alpha"?
- Was liegt beim G80 noch so anders "im Argen"?

glaube nicht, dass er alpha ist. viele transistoren brauchen auch mehr saft, als wenige transistoren. wenn ich mir angucke, dass selbst die kleine X1950Pro in meinem zweitrechner, mit idle-temps um die 50-60°C zu kämpfen hat, finde ich die 65-70°C der GTX auch nicht zu warm.. ist wohl vieles ansichtssache.


(..)

mfg
tobi

Snoopy69
2007-10-01, 11:54:15
So ist es...
Mit 680Mio. Transistoren hat die G80 mehr Transistoren als CPU´s und die brauchen halt Strom.
Die HD2900XT braucht verhältmäßig (Spieleleistung/Verbrauch) wesentlich mehr als eine 8800GTX/Ultra.

Gast
2007-10-01, 11:54:28
Meine ich ja auch, aber Razor scheint ja nicht dieser Ansicht zu sein...

btw:
VP-Performance:http://www.xbitlabs.com/articles/video/display/video-playback2_6.html#sect1
Da scheint eher was an den GF7ern "defekt" (nein, natürlich nicht. Nur eben nicht dafür ausgelegt), besonder in FullHD.

Gast
2007-10-01, 11:55:30
So ist es...
Mit 680Mio. Transistoren hat die G80 mehr Transistoren als CPU´s und die brauchen halt Strom.
Die HD2900XT braucht verhältmäßig (Spieleleistung/Verbrauch) wesentlich mehr als eine 8800GTX/Ultra.
Genau. Hab's hier nochmal vorgerechnet: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5891324#post5891324

Nur falls Razor gleich wieder mit seinem hahnebüchenen Zeugs hier schwadroniert.

Gast
2007-10-01, 13:03:50
Die 7800 bot nur mehr Leistung zur 6800Ultra. Die 8800 hat wesentliche Fortschritte verzeichnet. bessere Bildqualität, mehr Features, bis zu 4-mal mehr Leistung...
Ausserdem ist der Stromverbrauch nicht gesunken, sondern lag auf dem selben Niveau.
Sicher braucht sie weniger. Sie hat bei halber Leistung aber nicht nur den halben Strombedarf.
ps: Ich meine die GX2. Bei der 7900GTX ist es etwas mehr als ein Viertel der Leistung, aber trotzdem mehr als ein Viertel Stromverbrauch.

Merkt ihr nichts?

Eine neue Generation, mehr Leistung und mehr Stromverbrauch.
Dann kommt die nächste neue Generation, noch mehr Leistung, noch mehr Stromverbrauch.... das geht so nicht!


Außerdem von 6800 zu 7800 ist der Stromverbrauch gesunken! http://www.behardware.com/articles/574-6/nvidia-geforce-7800-gtx.html

LovesuckZ
2007-10-01, 14:08:57
Eine neue Generation, mehr Leistung und mehr Stromverbrauch.
Dann kommt die nächste neue Generation, noch mehr Leistung, noch mehr Stromverbrauch.... das geht so nicht!

Es gibt immer gewisse Zyklen, wo der Stromverbrauch ansteigt. Die Leistung der 8800 gegenüber der 7900GTX ist um bis zu vierfach gestiegen. Dazu kommt das bessere Featurepaket und die unglaublich gute Bildverbesserungsmöglichkeiten. Das gab es lange nichtmehr.


Außerdem von 6800 zu 7800 ist der Stromverbrauch gesunken! http://www.behardware.com/articles/574-6/nvidia-geforce-7800-gtx.html

5 Watt im Idle sind kein "gesunken". Das ist eine Abweichung von ca. 5%, was auch als Messungenauigkeit gelten könnte.

Gast
2007-10-01, 15:32:21
Dazu kommt das bessere Featurepaket

Meinst du denn deaktivierten Videodecoder?
Oder den VRAM-Bug?

Die Leistung der 8800 gegenüber der 7900GTX ist um bis zu vierfach gestiegen.

Auch unter 2D?

Die Zeit war einfach noch nicht reif für eine 8800, ein kleinerer Sprung und ensprechend eine ausgereifte Karte wäre toll gewesen.
Dann im Frühling 07 ein Refresh in 65/80nm mit mehr Leistung + weniger Verbrauch...

Du versuchst immer nur auf der Schiene "mehr Leistung = höherer Verbrauch" ...

Gast
2007-10-01, 15:49:05
Meinst du denn deaktivierten Videodecoder?
Oder den VRAM-Bug?

"Deaktivierten Videodecoder"? Komm, erzähl keinen Blödsinn.
"VRam-Bug"? Komm, erzähl keinen Blödsinn
Beweise beides bitte oder lass die Erwähnung in diesem Kontext sein.


Die Zeit war einfach noch nicht reif für eine 8800, ein kleinerer Sprung und ensprechend eine ausgereifte Karte wäre toll gewesen.
Dann im Frühling 07 ein Refresh in 65/80nm mit mehr Leistung + weniger Verbrauch...

Du weißt schon, dass der G71 der kleine Sprung war? Nein, gut, dann hast du heute wieder was gelernt. 80nm Prozeß ist nicht annährend so gut wie der 90nm - sieht man ja sehr schön bei dem r600.
Und 65nm war in keinster Weise bereit für solch ein Monster als man angefangen hat die Karte zu entwickeln.


Du versuchst immer nur auf der Schiene "mehr Leistung = höherer Verbrauch" ...

Dann kaufe dir die Karte nicht. Ich sehe hier kein Problem. Nur dumme Menschen beschweren sich über etwas, was sie nicht kaufen müssen.

LovesuckZ

Gast
2007-10-01, 15:56:16
"Deaktivierten Videodecoder"? Komm, erzähl keinen Blödsinn.
"VRam-Bug"? Komm, erzähl keinen Blödsinn
Beweise beides bitte oder lass die Erwähnung in diesem Kontext sein.

Blätter ein paar Seiten zurück.


Dann kaufe dir die Karte nicht. Ich sehe hier kein Problem. Nur dumme Menschen beschweren sich über etwas, was sie nicht kaufen müssen.

Es fehlt eine ensprechende Mittelklasse. bzw die 8800GTS, preislich interessant ist an falscher Stelle verkrüppelt, zudem hat sie die selben Nachteile wie die großen Karten.

LovesuckZ
2007-10-01, 16:00:52
Blätter ein paar Seiten zurück.

Problem eines User ist kein Beweis für einen allgemeinen defekten Videodecoder.
Genauso auch das VRam Problem, der ironischer Weise nur dann auftritt, wenn man auf Teufel komm raus den Speicher mit Informationen zumüllt.
Ich will gerne handfeste Beweise für beide angeblichen "Defekte" sehen.

Es fehlt eine ensprechende Mittelklasse. bzw die 8800GTS, preislich interessant ist an falscher Stelle verkrüppelt, zudem hat sie die selben Nachteile wie die großen Karten.

Wo wäre die 8800GTS an falscher Stelle verkrüppelt?
Wie gesagt, warte einfach auf die nächsten Karten.

lilgefo~
2007-10-01, 16:13:35
"VRam-Bug"? Komm, erzähl keinen Blödsinn


Richtig! Wer braucht schon den VramBug wenns auch ohne ruckelt. :)

Gast
2007-10-01, 16:15:20
Ich will gerne handfeste Beweise für beide angeblichen "Defekte" sehen.

Zumindest der VRAM-Bug wurde in zahllosen Freds und Foren ausdiskutiert.
Nur kurz:
Wenn etwas flüssig läuft, beim Spielen sich der VRAM immer weiter füllt, um dann ausgelagert zu werden, dann hat das nichts mit zu hohen Einstellungen zu tun.


Wo wäre die 8800GTS an falscher Stelle verkrüppelt?
Ich meine die 320MB Version; sie hat alle Nachteile der großen G80 Karten + zu wenig VRAM.

Wie gesagt, warte einfach auf die nächsten Karten.
Das werde ich wohl müssen.

Du weißt schon, dass der G71 der kleine Sprung war?
Der G71 war eine sinnvolle Evolution.
bzw. kleiner Sprung? Von 24pipes @ 430Mhz auf 650Mhz + mehr VRAM + mehr Bandbreite. Das ist schon ok, gerade so etwas würde dem G80 gut stehen.

TobiWahnKenobi
2007-10-01, 16:23:06
Problem eines User ist kein Beweis für einen allgemeinen defekten Videodecoder.


zumal es hier ja augenscheinlich funktioniert. habe das jetzt unter XP und unter Vista getestet. läge da etwas im argen, hätte ich probleme mit den filmen und auch eine höhere auslastung als 20-30% bei HD DVD.

http://img372.imageshack.us/img372/243/screenshot002dd8.th.jpg (http://img372.imageshack.us/my.php?image=screenshot002dd8.jpg)http://img258.imageshack.us/img258/1273/screenshot001hi0.th.jpg (http://img258.imageshack.us/my.php?image=screenshot001hi0.jpg)
Quelle: 1x Vista 1x XP-MCE
HD DVD 1080p VC1 auf GF8800GTX (Vista FW:163.69; XP FW:163.71), Intel C2D E6600, 4GByte RAM


(..)

mfg
tobi

LovesuckZ
2007-10-01, 16:33:19
Zumindest der VRAM-Bug wurde in zahllosen Freds und Foren ausdiskutiert.
Nur kurz:
Wenn etwas flüssig läuft, beim Spielen sich der VRAM immer weiter füllt, um dann ausgelagert zu werden, dann hat das nichts mit zu hohen Einstellungen zu tun.

Und genau hier ist das Problem: Es tritt nicht jedem Spiel auf. Und nun?
Jemand beschreibt das Problem bei einer modifizierten Oblivionversion, wo die Mod schon mindesten 700mb Speicher benötigt. Das der Karte einfach der Speicher ausgehen könnte, scheint für viele ein "NoGo" zu sein.
Ich spiele zum Beispiel zur Zeit ausgiebig die Quake Wars Demo. Und ich habe in 1680*1050 alles auf "maximum" und 16xCSAA kein Vram-Problem auf meiner GTX. Wie kann das sein?


Ich meine die 320MB Version; sie hat alle Nachteile der großen G80 Karten + zu wenig VRAM.

Welche Probleme?

Der G71 war eine sinnvolle Evolution.
bzw. kleiner Sprung? Von 24pipes @ 430Mhz auf 650Mhz + mehr VRAM + mehr Bandbreite. Das ist schon ok, gerade so etwas würde dem G80 gut stehen.

Das wird mit den neuen Karten im November erfolgen. Ich sehe also immer noch kein Problem mit dem G80.
Und TobiWahnKenobi zeigt ja schon, dass die Decoderfunktionalitäten des G80s nicht defekt oder deaktiviert wären.

Razor
2007-10-01, 19:31:28
zumal es hier ja augenscheinlich funktioniert. habe das jetzt unter XP und unter Vista getestet. läge da etwas im argen, hätte ich probleme mit den filmen und auch eine höhere auslastung als 20-30% bei HD DVD.
Oh, oh...

Hast Du das wenigstens mal mit 'nem anderen Unterbau gecheckt?
Offenbar nicht...

Selbst die schrullige 7900GT 'schafft' bei nem 20Mps VC1 und 'nem C2D@2,4GHz (läuft im idle) gerade mal 25% CPU-Last... und das Video von Dir ist grad' mal 'nen 12Mps Vid.

Hier mal die erzeugten Lasten bei der 7900GT im Treiber-Vergleich:
Video- 163.15 162,50 162.50 163.67 163.69 163.71
Beschl. (dev) WHQL PD73/P35 beta beta WHQL

MPEG2-HD 11* 11* 20* 17 16 16
(HW) 5/30 8/16 15/36 11/33 11/21 12/22
MPEG2-HD 16 18 21 21 20 20
(soft) 12/22 14/22 15/36 16/32 16/23 16/22

H.264 13* 13* 18* 17 17 17
(HW) 8/29 9/23 11/32 10/33 12/23 9/28
H.264 29 30 28 28 28 27
(soft) 11/39 21/41 18/45 20/40 17/45 18/38

VC1 21 22 27 27 27 25
(HW) 16/27 16/27 20/42 20/40 20/34 20/33
VC1 38 39 40 41 38 40
(soft) 32/44 33/46 32/50 34/48 33/44 33/46

WMV-HD 10* 10* 19 19 19 19
(PD7-HW) 6/15 7/13 9/31 9/38 9/30 11/27
WMV-HD 11* 11* 20 19 18 18
(PD7-soft) 6/14 6/14 10/33 12/39 8/28 9/25
WMV-HD 15 15 16 15 15 15
(WMP11) 7/27 9/22 8/30 7/29 8/24 5/25

(01) (02) (03) (04)
'Wichtig' wäre zudem, ob Deine 3,6GHz CPU dabei in den Last-Modus wechselt, oder nicht, denn es sieht so aus, dass die GPU bei Dir rein gar nichts beim decoden des VC1 'tut'. Auf jeden Fall... aber was erzähle ich hier?

Schau' einfach mal bei nVidia selbst vorbei:
http://www.nvidia.com/page/purevideo_hd.html

Da gibt es ein ganz nettes Vergleichstableau:
http://www.nvidia.com/object/IO_43029.html

Darin wird explizit gezeigt, dass die Features des G80 ggü. den anderen G8x 'eingeschränkt' sind... und wer dann nicht einmal nVidia selbst 'glauben' mag, der tut mir leid.

Folgendes 'kann' der G80 nicht:
- HD: H.264 Decode Acceleration with IDCT and CAVLC/CABAC
- HD: VC-1/WMV Decode Acceleration with IDCT
- SD: H.264 Decode Acceleration with IDCT and CAVLC/CABAC
- SD: VC-1/WMV Decode Acceleration with IDCT

Und der 'Rest' scheint über die Shader realisiert...
Apropos Shader... hast Du Dir schon mal den RT-Monitor angeschaut, wenn Du 'nen Video anschaust?
Du würdest eine Überraschung erleben...

Razor

P.S.: und an diejenigen, die hier monetäre Gründe für meine 'Abneigung' vermuten: weeeeeeiiiiit gefehlt! ;)

Razor
2007-10-01, 19:33:27
- Was ist am VP des G80 "defekt"?
- Was ist am G80 insgesamt "alpha"?
- Was liegt beim G80 noch so anders "im Argen"?
Benutz die Suchfunktion oder denk' Dir was aus...
...ich werde das Ganze sicher nicht noch einmal herunter 'seiern'.

Außerdem von 6800 zu 7800 ist der Stromverbrauch gesunken! http://www.behardware.com/articles/574-6/nvidia-geforce-7800-gtx.html
Danke... und so ist es auch korrekt.
Aber das wird gewisse... "Natur-Intelligenzen" ganz sicher nicht davon abhalten, hier weiter Unfug zu posten.

...und die unglaublich gute Bildverbesserungsmöglichkeiten. Das gab es lange nichtmehr.
Selbstverständlich gab es das sogar schon laaaaaaaange vor dem G8x.
Aber das Gedächtnis reicht offenbar nicht so weit zurück... oder wie ist dieser "Verlust" zu erklären?

Ich will gerne handfeste Beweise für beide angeblichen "Defekte" sehen.
Die wird Dir nur der Hersteller selber geben können... und da dieser daran nicht wirklich interessiert ist...
Man kann nur beobachten und schlußfolgern.

Das ist allerdings offenbar nicht jedem gegeben.

Das werde ich wohl müssen.
Ich auch... aber vielleicht dauert es ja nicht mehr lange!?
Anfang November könnte sich das Blatt schon anfangen zu wenden...

Ein 512MB Kärtchen mit der Leistung eines G80 GTS und ohne VRAM-Bug mit funktionierendem VP für gerade mal 249$ (MSRP)... *majm*
:up:

We'll see... if we're not blind!

Razor

Gast
2007-10-01, 19:42:58
Schau' einfach mal bei nVidia selbst vorbei:
http://www.nvidia.com/page/purevideo_hd.html

Da gibt es ein ganz nettes Vergleichstableau:
http://www.nvidia.com/object/IO_43029.html

Darin wird explizit gezeigt, dass die Features des G80 ggü. den anderen G8x 'eingeschränkt' sind... und wer dann nicht einmal nVidia selbst 'glauben' mag, der tut mir leid.

Folgendes 'kann' der G80 nicht:
- HD: H.264 Decode Acceleration with IDCT and CAVLC/CABAC
- HD: VC-1/WMV Decode Acceleration with IDCT
- SD: H.264 Decode Acceleration with IDCT and CAVLC/CABAC
- SD: VC-1/WMV Decode Acceleration with IDCT

Und der 'Rest' scheint über die Shader realisiert...
Apropos Shader... hast Du Dir schon mal den RT-Monitor angeschaut, wenn Du 'nen Video anschaust?
Du würdest eine Überraschung erleben...

Razor

P.S.: und an diejenigen, die hier monetäre Gründe für meine 'Abneigung' vermuten: weeeeeeiiiiit gefehlt! ;)

Und wo liegt der Unterschied zu den vorigen und den Konkurrenzkarten?
Nur für dich: Das der G80 einen schlechteren Videodecoder als die neueren G84/6 Karten hat, hat nVidia nie bestritten.

Selbstverständlich gab es das sogar schon laaaaaaaange vor dem G8x.
Aber das Gedächtnis reicht offenbar nicht so weit zurück... oder wie ist dieser "Verlust" zu erklären?

Die letzten Karten, die die so ein Featureset hatten war die GF3 und vielleicht der r300. Endlich gibt es kein gemuddel mehr beim Ansiotropen Filter, die AA Stufen und Qualität haben einen deutlichen Schritt nach vorne gemacht.

Das ist allerdings offenbar nicht jedem gegeben.

Ich schlussfolgere keinen "Defekt" bei der Decoderfunktionalität und keinen "Defekt" mit dem Speicher.

LovesuckZ

Razor
2007-10-01, 19:52:34
Und wo liegt der Unterschied zu den vorigen und den Konkurrenzkarten?
Nur für dich: Das der G80 einen schlechteren Videodecoder als die neueren G84/6 Karten hat, hat nVidia nie bestritten.
Wie ich gerade schrieb...

Für diejenigen, die zu faul zum Klicken sind:
Revolutionary New Video Processing Architecture
NVIDIA GeForce 8400, 8500, and 8600 GPUs for Desktop and GeForce 8400M and 8600M for Notebooks, incorporate a revolutionary new video processing architecture, making them the world’s first GPU video processors to offload 100% of Blu-ray and HD DVD H.264 video decoding from the CPU.** This added processing power gives PureVideo HD technology the ability to support more complex features as they are added to Blu-ray and HD DVD movies, including “picture-in-picture” movies, interactive games and menus, and higher bit-rate / higher quality movie pictures.
**Currently supported in Windows Vista only
Insofern wird dem G80 - wenn überhaupt - das Featureset, der 'alten' Karten zugeschrieben (was wiederum den Alpha-Status unterstreicht) und auch dieses scheint bei weitem nicht so effizient, wie noch bei den G7x.

Die letzten Karten, die die so ein Featureset hatten war die GF3 und vielleicht der r300. Endlich gibt es kein gemuddel mehr beim Ansiotropen Filter, die AA Stufen und Qualität haben einen deutlichen Schritt nach vorne gemacht.
Bei nVidia war die letzte Karte die FX-Serie... begonnen mit FX 5800 oder eben NV30.
Und die Installationsroutine des Treibers (wie auch der Bassis-Pfad in der Runtime) basiert noch immer auf diesem.
nVidia hat lediglich korrigiert, was schon längst da gewesen war...
(nur 2 Generationen gingen hinsichtlich der Anisotropie 'daneben' - NV4x und G7x)

Ich schlussfolgere keinen "Defekt" bei der Decoderfunktionalität und keinen "Defekt" mit dem Speicher.
Setzen 'Sechs'.
Schlussfolgerungen sind halt nicht Jedermanns Sache.

Razor

TobiWahnKenobi
2007-10-01, 19:55:51
Oh, oh...

Hast Du das wenigstens mal mit 'nem anderen Unterbau gecheckt?
Offenbar nicht...
du erwartest jetzt nicht ernsthaft, dass ich mir hier zwei rechner hinstelle, um eine einzelne HD DVD zu gucken, oder?

Selbst die schrullige 7900GT 'schafft' bei nem 20Mps VC1 und 'nem C2D@2,4GHz (läuft im idle) gerade mal 25% CPU-Last... und das Video von Dir ist grad' mal 'nen 12Mps Vid.

HD DVD sind i.d.R. mit varriabler bitrate kodiert.

Hier mal die erzeugten Lasten bei der 7900GT im Treiber-Vergleich:
Video- 163.15 162,50 162.50 163.67 163.69 163.71
Beschl. (dev) WHQL PD73/P35 beta beta WHQL

MPEG2-HD 11* 11* 20* 17 16 16
(HW) 5/30 8/16 15/36 11/33 11/21 12/22
MPEG2-HD 16 18 21 21 20 20
(soft) 12/22 14/22 15/36 16/32 16/23 16/22

H.264 13* 13* 18* 17 17 17
(HW) 8/29 9/23 11/32 10/33 12/23 9/28
H.264 29 30 28 28 28 27
(soft) 11/39 21/41 18/45 20/40 17/45 18/38

VC1 21 22 27 27 27 25
(HW) 16/27 16/27 20/42 20/40 20/34 20/33
VC1 38 39 40 41 38 40
(soft) 32/44 33/46 32/50 34/48 33/44 33/46

WMV-HD 10* 10* 19 19 19 19
(PD7-HW) 6/15 7/13 9/31 9/38 9/30 11/27
WMV-HD 11* 11* 20 19 18 18
(PD7-soft) 6/14 6/14 10/33 12/39 8/28 9/25
WMV-HD 15 15 16 15 15 15
(WMP11) 7/27 9/22 8/30 7/29 8/24 5/25

(01) (02) (03) (04)
aha. wenn ich die 7900GTX nicht anno dazumal (ist locker ein jahr her) rausgeworfen hätte, würde ich mich jetzt freuen, dass man damit auch HD DVD gucken kann.

'Wichtig' wäre zudem, ob Deine 3,6GHz CPU dabei in den Last-Modus wechselt, oder nicht, denn es sieht so aus, dass die GPU bei Dir rein gar nichts beim decoden des VC1 'tut'. Auf jeden Fall... aber was erzähle ich hier?

meine 2,4GHz CPU taktet während des HD DVD schauens mit 1.6GHz.

btw,
was hast du eigentlich am G70 oder G71 gefressen? das ding war nun wirklich weder in sachen darstellungsqualität noch leistungstechnisch ein überflieger. wenn's dir ums stromsparen geht und zocken unwichtig ist, nimm doch zum filmegucken einen streaming-client oder festplattenspieler (~15W last) und zum officen onboard-grafik..


(..)

mfg
tobi

LovesuckZ
2007-10-01, 20:02:03
Wie ich gerade schrieb...
Für diejenigen, die zu faul zum Klicken sind:
Insofern wird dem G80 - wenn überhaupt - das Featureset, der 'alten' Karten zugeschrieben (was wiederum den Alpha-Status unterstreicht) und auch dieses scheint bei weitem nicht so effizient, wie noch bei den G7x.

Das ist seit dem Erscheinen des G80 bekannt. Seit wann sind Neuerungen bei neueren Karten "defekte" bei älteren Karten?!
Nur für dich: Der G80 hat genau den Videoprozessor, den nVidia für ihn vorhatte. Es gab keine Ankündigungen nach Ünterstützung bestimmter Formate oder sonst was.


Bei nVidia war die letzte Karte die FX-Serie... begonnen mit FX 5800 oder eben NV30.
Und die Installationsroutine des Treibers (wie auch der Bassis-Pfad in der Runtime) basiert noch immer auf diesem.
nVidia hat lediglich korrigiert, was schon längst da gewesen war...
(nur 2 Generationen gingen hinsichtlich der Anisotropie 'daneben' - NV4x und G7x)

Wow. Installationsroutinen. Was für ein Argument, dass der G80 kaum Verbeserungen brachte.
Der G80 hat nichts korrigiert, er hat keine Ähnlichkeiten mehr mit dem CineFX Design. Er ist neu. Und sowas gab es lange nicht mehr.
Du solltest erstmal deine "Defekte" beweisen, bevor du mir meine Fähigkeit zu Schlussfolgerungen absprichst.

Razor
2007-10-01, 20:07:17
du erwartest jetzt nicht ernsthaft, dass ich mir hier zwei rechner hinstelle, um eine einzelne HD DVD zu gucken, oder?
Mal 'ne andere GraKa rein stecken würde schon helfen...
Immerhin hast Du es ja auch geschafft, den Rechner für das 2. OS neu zu starten...

HD DVD sind i.d.R. mit varriabler bitrate kodiert.
Ich kann nur nach Deinen Screenies gehen und das Video, mit dem ich teste 'sackt' eigentlich nie unter 18Mps und im Schnitt sind es halt 20Mps.

aha. wenn ich die 7900GTX nicht anno dazumal (ist locker ein jahr her) rausgeworfen hätte, würde ich mich jetzt freuen, dass man damit auch HD DVD gucken kann.
:confused:

meine 2,4GHz CPU taktet während des HD DVD schauens mit 1.6GHz.
Dann wäre das geklärt... das erklärt auch dann, warum Dein 12Mpd Vid mit 'nur' 22% CPU-Last daher kommt.
Der Video-Decoder Deiner GraKa ist da dann aber nicht im Spiel... zumindest nicht wesentlich.

Razor

P.S.: @Love... EOD, denn von Dir kommt nichts, was diskussionswürdig ist.

Coda
2007-10-01, 20:23:37
P.S.: @Love... EOD, denn von Dir kommt nichts, was diskussionswürdig ist.
So ein Schwachsinn.

Gast
2007-10-01, 21:44:34
Benutz die Suchfunktion oder denk' Dir was aus...

Nun sag schon - büdde büdde…
Sonst könnte noch jemand auf die Idee kommen, du hättest dir das mit dem Alpha-Status, den Bugs und was sonst noch alles nur etwas ausgedacht. ;-)

Gast
2007-10-01, 21:46:11
Selbst die schrullige 7900GT 'schafft' bei nem 20Mps VC1 und 'nem C2D@2,4GHz (läuft im idle) gerade mal 25% CPU-Last... und das Video von Dir ist grad' mal 'nen 12Mps Vid.

Lass das mal lieber die Pros beurteilen:
http://www.xbitlabs.com/articles/video/display/video-playback2_6.html#sect1

Gast
2007-10-01, 21:47:58
Insofern wird dem G80 - wenn überhaupt - das Featureset, der 'alten' Karten zugeschrieben (was wiederum den Alpha-Status unterstreicht) und auch dieses scheint bei weitem nicht so effizient, wie noch bei den G7x.

Das ist jetzt nicht dein ernst, oder?
Dann muss der 3D-Teil des G7x ja auch ziemlich "alpha" sein, entspricht er doch lediglich dem der GF6 und die neueren GF8 sind da meilenweit voraus.

Merkst du jetzt, wie lächerlich deine Argumentation ist?

Razor
2007-10-02, 04:48:43
Lass das mal lieber die Pros beurteilen:
http://www.xbitlabs.com/articles/video/display/video-playback2_6.html#sect1
Interessant... bestätigt doch aber nur meinen Ansatz.
Wo sind darin noch gleich die anderen G8x?
:confused:

@andere (inkl. Coda)

Macht den Kopf zu.

Razor

Snoopy69
2007-10-02, 06:33:22
Ist mit dem V-Ram-Bug der Bug unter Vista gemeint, den man mit KB940105 patchen kann?

Gast
2007-10-02, 07:38:00
O man les den Fred "GF8 "VRAM-Bug" gefixt?" durch. :rolleyes:

Gast
2007-10-02, 08:15:48
Interessant... bestätigt doch aber nur meinen Ansatz.
Wo sind darin noch gleich die anderen G8x?
:confused:
Ich hatte deinen Ansatz so verstanden, dass G8x "alpha" sei und G7x das Gelbe vom Ei. Warum versägt G8x dann in der Regel den G7x bei der Videobeschleunigung?

Gast
2007-10-02, 08:18:01
Ich hatte deinen Ansatz so verstanden, dass G8x "alpha" sei und G7x das Gelbe vom Ei. Warum versägt G8x dann in der Regel den G7x bei der Videobeschleunigung?
Zur Illustration:
http://www.xbitlabs.com/images/video/video-playback2/vc1_high.gif
http://www.xbitlabs.com/images/video/video-playback2/wmvhd_high.gif
Wenn du natürlich meinst, dass der G80 trotz angeblichen Alpha-Status' noch immer dem G7x um Meilen voraus ist, gebe ich dir natürlich hinsichtlich des "um Meilen voraus" Recht.

TobiWahnKenobi
2007-10-02, 08:20:27
Interessant... bestätigt doch aber nur meinen Ansatz.
Wo sind darin noch gleich die anderen G8x?
:confused:

@andere (inkl. Coda)

Macht den Kopf zu.

Razor

ich sehe da nichts ungewöhnliches oder beunruhigendes.

http://www.xbitlabs.com/images/video/video-playback2/mpeg2_high.gif
http://www.xbitlabs.com/images/video/video-playback2/vc1_high.gif
http://www.xbitlabs.com/images/video/video-playback2/h264_high.gif
http://www.xbitlabs.com/images/video/video-playback2/divx_high.gif
http://www.xbitlabs.com/images/video/video-playback2/wmvhd_high.gif

dass ggf. die neueren G8x-chips anders oder mehr beschleunigen finde ich nicht ungewöhnlich. die sind neuer und stecken meist in systemen mit weniger starken CPUs. bei mir hier kamen HD-inhalte auch erst 6 monate nach G80-kauf. zum release hätte ich nicht daran gedacht, auf dieses zug so schnell aufzuspringen. ich finde jedenfalls, dass es schnulli ist, ob da jetzt beim filme-gucken 25 oder 35% CPU-last anfallen.

btw.
ich habe den eindruck, dass die CPU-last unter vista immer recht ähnlich ist - egal was man guckt. XP ist mir nicht mehr wichtig - das boote ich nur noch, um treiber und software zu aktuallisieren.


(..)

mfg
tobi

Snoopy69
2007-10-02, 08:24:41
Bin ich jetzt im falschen Thread :uconf2:

Razor
2007-10-02, 20:09:12
dass ggf. die neueren G8x-chips anders oder mehr beschleunigen finde ich nicht ungewöhnlich. die sind neuer und stecken meist in systemen mit weniger starken CPUs. bei mir hier kamen HD-inhalte auch erst 6 monate nach G80-kauf. zum release hätte ich nicht daran gedacht, auf dieses zug so schnell aufzuspringen. ich finde jedenfalls, dass es schnulli ist, ob da jetzt beim filme-gucken 25 oder 35% CPU-last anfallen.
Mich würde mal interessieren, wieso da eine GX2 überhaupt auf 55% CPU-Last kommen kann, wenn ein H.264 1080p abgespielt wird. Meine 7900GT geht in den 3D-Modus (ja sie taktet hoch, wie bei beschleunigtem MPEG2-HD), wird aber nicht wärmer und 'sorgt' dafür, dass die CPU-Last (CPU idelt weiterhin vor sich hin) nicht über 28% steigt... im schitt aber bei 17% pendelt. Ich vermute mal, dass da bei den Jungs ein bissel was in die Hose gegangen ist...

Überhaupt habe ich die 8800GTS hier bei mir nirgendwo in die Regionen der 7900GT kommen sehen... egal mit welchem Treiber. Von den G84/86 aber war ich begeistert... IMO noch ein Tick bessere BQ und eine nochmals wesentlich geringere CPU-Last - sauber! Wenn die Teile beim Gamen nur nicht so elendig lahm wären...

Ich freu' mich schon auf den G92!
Und wenn das nix wird, dann behalte ich vielleicht doch die HD2900pro, die hier noch rum liegt.
Muss mir nur überlegen, wie man das Teil dann 'gebändigt' bekommt... ;)

ich habe den eindruck, dass die CPU-last unter vista immer recht ähnlich ist - egal was man guckt. XP ist mir nicht mehr wichtig - das boote ich nur noch, um treiber und software zu aktuallisieren.
Genauso geht es mir mit Vista64... mal ein bissi aktualisieren oder was ausprobieren... zu mehr taugt es IMO noch nicht. Viel interessanter finde ich da derzeit Ubuntu in das ich mich grad' so richtig rein kniee. Mein Hauptsystem ist allerdings noch immer WinXP32... und wird es vermutlich auch noch eine ganze Zeit bleiben.

Razor

Razor
2007-10-02, 20:10:33
Ist mit dem V-Ram-Bug der Bug unter Vista gemeint, den man mit KB940105 patchen kann?
Nein.

Bin ich jetzt im falschen Thread :uconf2:
Das wirst Du wohl nur selbst beantworten können...
...wo wolltest Du denn 'hin'?
:confused:

Razor

Gast
2007-10-02, 22:45:09
Mich würde mal interessieren, wieso da eine GX2 überhaupt auf 55% CPU-Last kommen kann, wenn ein H.264 1080p abgespielt wird. Meine 7900GT geht in den 3D-Modus (ja sie taktet hoch, wie bei beschleunigtem MPEG2-HD), wird aber nicht wärmer und 'sorgt' dafür, dass die CPU-Last (CPU idelt weiterhin vor sich hin) nicht über 28% steigt... im schitt aber bei 17% pendelt. Ich vermute mal, dass da bei den Jungs ein bissel was in die Hose gegangen ist...
Lenk nicht ab - die GX2 erreicht i.d.R. dieselben Werte wie die GT. Brauchst bei XBit nur nach Mainstream-Karten in dem Video-Test schauen (jeweils eine Seite dahinter...)

Überhaupt habe ich die 8800GTS hier bei mir nirgendwo in die Regionen der 7900GT kommen sehen... egal mit welchem Treiber.
Gut, dass das allein dein Problem ist und die Pros von Xbitlabs es hinbekommen, einen Treiber und Video-Codec ordentlich zu installieren. :)

Razor
2007-10-03, 05:09:58
Gut, dass das allein dein Problem ist und die Pros von Xbitlabs es hinbekommen, einen Treiber und Video-Codec ordentlich zu installieren. :)
Klar... deswegen kommen die "Pros" mit der GX2 ja auch auf über 55% Last, während es bei mir gerade mal 28% sind...

Genau H.264 1080p
GX2 'Pros': 31/41/55
GT 'R.': 9/17/28

Also irgendetwas scheint da bei den 'Pros' mächtig in die Hose gegangen zu sein... ist wohl doch nicht so weit her, mit dem Treiber installieren, oder? Auch schrieben sie leider nicht dazu, ob die CPU jetzt im Sparmodus (dort 6x366=2,2GHz) oder unter Volldampf (eben 3,0GHz) lief, als die Tests gemacht wurden.

So würde ich den Test also reichlich 'wertlos' einstufen... leider.
Könnte allerdings auch an der Kombo PDVD7.3-2911 und 158.24 liegen... *urgs*.
Und der 'Test' soll vom 14.9. sein?

Razor