PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : wie schauts denn nu mit dem stromverbauch aus in 2d


Ronin2k
2007-01-15, 13:53:45
hat sich was getan bei den treibern oder immer noch so abartig hoch im 2d betrieb?

PCGH_Carsten
2007-01-15, 14:05:37
Keine Veränderung

Gast
2007-01-15, 14:34:23
Ich fürchte, da wird sich auch nix mehr großartig dran ändern.

PCGH_Carsten
2007-01-15, 15:29:21
Ich fürchte, da wird sich auch nix mehr großartig dran ändern.
So sieht es wohl aus. Mal sehen, ob das eine Designschwäche ist oder ob Atis R600 dasselbe 2D-Schicksal teilen wird.

Gast
2007-01-15, 15:41:07
So sieht es wohl aus. Mal sehen, ob das eine Designschwäche ist oder ob Atis R600 dasselbe 2D-Schicksal teilen wird.
Ich denke in 2D wird der R600 weniger verbrauchen.
Das Verhältnis von Idle zu Last war ja schon beim R520/580 vorbildlich während sich der G70 da auch nicht gerade mit Ruhm bekleckert hat.

James Ryan
2007-01-15, 15:58:45
Dieses Problem ist für mich ein Grund die G80 Generation komplett zu überspringen und auf den G81 zu warten.
Darum ist meine neue Karte auch eine Gf 7900 GTO statt eine Gf 8800 GTS geworden.
Verstehe sowieso nicht wie so ein "Feature" welches NVIDIA seit der Gf FX anbietet einfach gestrichen wird. :|

MfG :cool:

Gast
2007-01-15, 16:25:30
Dieses Problem ist für mich ein Grund die G80 Generation komplett zu überspringen und auf den G81 zu warten.
Darum ist meine neue Karte auch eine Gf 7900 GTO statt eine Gf 8800 GTS geworden.
Verstehe sowieso nicht wie so ein "Feature" welches NVIDIA seit der Gf FX anbietet einfach gestrichen wird. :|

MfG :cool:
Das liebe Geld wird's sein. Die Spannung und die Taktraten müssen absenkt werden und gleichzeitig unter Last wieder angehoben werden. Die Hardwarelogik haben sie sich dann gespart.
Nach dem Motto, ist ja sowieso ne High End Graka, wer achtet auf den Stromverbrauch sei es im Idle oder unter Last. Und sie dürften damit größtenteils rechthaben. Bin mir aber sicher, dass der Refresh und die kommenden Mainstreamkarten das besser machen werden.

dargo
2007-01-16, 00:08:57
Gibt es mittlerweile auch kein externes Tool um die Taktraten und Spannungen beim G80 in Idle zu senken?


Das Verhältnis von Idle zu Last war ja schon beim R520/580 vorbildlich während sich der G70 da auch nicht gerade mit Ruhm bekleckert hat.
Beide nehmen sich nichts.
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html

Ulver
2007-01-16, 17:54:54
Passt vielleicht auch hier rein: Gibts für Nvidia-Karten ein ähnliches Tool wie das ATI-Tool, wo man für 2D oder 3D Anwendungen einen separaten Takt einstellen kann? So könnte man in 2D untertakten, in 3D übertakten, und das alles automatisch... :biggrin:

Zocker_28
2007-01-16, 18:08:09
Ich denk nicht das es funzt, mit dem Takt vieleicht schon, aber die Spannungen bleiben ja gleich.

ollix
2007-01-23, 11:15:50
Wo die GTS langsam günstig werden, habe ich auch überlegt mir eine zu holen. Der Stromverbrauch im Idle Betrieb hält mich noch davon ab - so selten wie die Karte sonst unter Volllast laufen müsste, stört dieses Verhalten einfach zu sehr. :(

Gast
2007-01-23, 17:54:52
Ich kaufe mir so eine Monster um zu spielen nicht um Word auf und zu zumachen....Dein Kommentar ist so überflüssig wie ein Kropf!

ollix
2007-01-23, 18:14:33
Aber man spielt ja nicht den ganzen Tag rum :rolleyes: Ich will mich nicht die ganze Zeit ärgern, nur um vielleicht 5-10h die Woche gute Qualität beim Spielen zu haben.

Gast
2007-01-23, 18:28:50
für 5-10Std.Gamen die Woche brauch man so eine Karte nicht außer "manwill" unbedingt eine und dann isses wurscht was das Teil verbraucht.

Virtuo
2007-01-23, 18:49:26
für 5-10Std.Gamen die Woche brauch man so eine Karte nicht außer "manwill" unbedingt eine und dann isses wurscht was das Teil verbraucht.

Die Logik dahinter verstehe ich jetzt ehrlich gesagt nicht!

Razor
2007-01-23, 19:09:05
Ich auch nicht...
Aber offenbar ist für viele hier das Wort "Vernunft" ein Begriff ohne Bedeutung geworden.

Sollte nVidia dieses Problem beim G80 oder dessen Nachfolger in den Griff bekommen, werde ich es mir überlegen, ob ich solch ein Teil im meinem Rechner dulde... überlegen deswegen, weil dann vermutlich schon Alternativen aus dem Hause AMD/ATI verfügbar sein werden.

Bin wirklich mal gespannt, wie sich das entwickelt...

Razor

LovesuckZ
2007-01-23, 19:31:51
Ich auch nicht...
Aber offenbar ist für viele hier das Wort "Vernunft" ein Begriff ohne Bedeutung geworden.


Nein.
Nur mache ich nicht aus jeder Fliege gleich den Teufel.
Diese ganze Diskussion ist sowieso langweilig, da jeder von ein Laster hat, welches mehr für die Umwelt und den Geldbeutel bringt als die Stromaufnahme einer Grafikkarte, die nicht unter Last steht.

reunion
2007-01-23, 19:59:32
Gibt es mittlerweile auch kein externes Tool um die Taktraten und Spannungen beim G80 in Idle zu senken?


Wenn die Funktion vorhanden wäre, hätte sie wohl auch nV im Treiber eingebaut.


Beide nehmen sich nichts.
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html

Absolut gesehen nicht. Aber das Verhältnis idle/Last ist schon bei R580 wesentlich besser als bei G71. Was daran liegt, dass ATi Spannung und Taktraten im 2D-Betrieb deutlich senkt. G71 kann das allerdings durch seinen niedrigen Stromverbrauch unter Last ausgleichen. Bei G80 siehts hier natürlich nicht mehr so prickelnd aus.

Razor
2007-01-23, 20:08:26
Nur mache ich nicht aus jeder Fliege gleich den Teufel.Klar, dass so etwas von 'einem' G80-User kommt...
Da finde ich solche Kommentare schon ehrlicher, die sagen:
"Der Stromverbrauch spottet jeder Beschreibung, aber die Karte ist einfach geil!"

Du versuchst Dich offenbar zu erklären, was scheitern muss!

Nochmal: was die Karte verbraucht, wenn sie "voll unter Strom" steht, ist mir vollkommen wurscht!
Wenn sie aber nichts anderes tut, als JEDE Karte, die schon vor 5 Jahren (und mehr) vor sich hier werkeln, um einen bunten (2D) Desktop zu zeigen, dann erwarte ich Wirtschaftlichkeit... und das ist hier nicht gegeben.

Ein G80 ist heute (!) Unvernunft pur... und wer das nicht zugeben mag, hat echte Identitätsprobleme.

Razor

ollix
2007-01-23, 21:20:53
für 5-10Std.Gamen die Woche brauch man so eine Karte nicht außer "manwill" unbedingt eine und dann isses wurscht was das Teil verbraucht. Ich glaube, daß kann jeder selbst entscheiden :rolleyes: und wenn ich vielleicht vergleichsweise wenig spiele, dann mache ich ich bei der wenigen Zeit ,die einem dafür bleibt, auch nicht gerne Kompromisse.

Und brauch es aber auch nicht auf "Teufel komm raus" - ich werde mir aber gerne diese schöne Karte holen, wenn dieser Qualitätsmangel behoben ist.

LovesuckZ
2007-01-23, 21:59:20
Du versuchst Dich offenbar zu erklären, was scheitern muss!


Noe, ich erkläre garnichts.
Wenn es dich stört. Schön.
Nur weil du dich daran erhängen kannst, muss ich es nicht auch machen.
Unsere Welt geht nicht früher zu Grunde, weil ich mir einen G80 gekauft habe. Genauso gut überlebt sie nicht länger, weil du dir keinen gekauft hast.
Deine Aussagen als "objektiv" hinzustellen, ist jedoch vollkommen falsch.

Lawmachine79
2007-01-23, 23:22:48
Vielleicht kann mir das ja mal ein Experte erklären.
Was spricht dagegen, im 2D-Betrieb, die Karte auf 100Mhz runterzutakten und die Spannung auf 0,4V zu senken?

Moralelastix
2007-01-23, 23:48:18
Vielleicht kann mir das ja mal ein Experte erklären.
Was spricht dagegen, im 2D-Betrieb, die Karte auf 100Mhz runterzutakten und die Spannung auf 0,4V zu senken?


Nix!

Is halt nur en G80 Bug.

Sowas is halt mittlerweile normal bei einer neuen Generation. Zumindest bei NV.:biggrin:

Die entwickelten 5 Jahre. Das is ne lange harte Zeit.
Da kann ja auch mal das ein oder andere Feature vom Tisch, ähh vom Wafer fallen.

blackbox
2007-01-23, 23:55:11
Nix!

Is halt nur en G80 Bug.

Sowas is halt mittlerweile normal bei einer neuen Generation zumindest bei NV.:biggrin:

Unsinn. Die Karten (und damit meine ich sämtliche Karten) sind nicht dafür geeignet, außerhalb ihrer Spezifikation zu arbeiten.

Selbst erlebt mit einer Radeon 9800. Irgendwann ist halt Schluss mit dem Herabsetzen der MHZ und Volt.

Zum "BUG":
Ich glaube nicht mehr an einem BUG. Ich glaube, dass die hohe Stromaufnahme unter IDLE beabsichtigt ist.

Moralelastix
2007-01-23, 23:59:01
.....
Zum "BUG":
Ich glaube nicht mehr an einem BUG. Ich glaube, dass die hohe Stromaufnahme unter IDLE beabsichtigt ist.


Also sogar en Feature! WOW!

Ich hab schon so ne Ahnung gehabt!:biggrin:

Na dann müssen ich und Razor halt ATI kaufen. Stimmts Razor?

Coda
2007-01-24, 01:07:19
Is halt nur en G80 Bug.

Was ist daran ein "Bug" wenn man die Logik auf der Karte spart um die Spannung dynamisch zu regulieren?

Also sogar en Feature! WOW!

Ich hab schon so ne Ahnung gehabt!:biggrin:

Es ist einfach so. Nicht mehr und nicht weniger. Genauso wie bei manchen Autos die Klimaanlage fehlt. Ist auch kein Fehler, oder?

nVIDIA war's wohl einfach schnuppe. Wer High-End kauft dem ist das normalerweise reichlich egal.

James Ryan
2007-01-24, 08:44:02
nVIDIA war's wohl einfach schnuppe. Wer High-End kauft dem ist das normalerweise reichlich egal.

Komisch dass NVIDIA dass anscheinend seit der FX-Reihe (immerhin auch schon 5 Jahre her) nicht egal war.
Ihr könnt mir erzählen was ihr wollt, aber gewollt ist das von NVIDIA nicht. Die entsprechende Logik ist mit ziemlicher Sicherheit schlicht defekt und es wird mal wieder nichts dazu gesagt, sondern still und leise wird der G81 sich im Idle wieder runtertakten.

MfG :cool:

Gast
2007-01-24, 09:44:29
nVIDIA war's wohl einfach schnuppe. Wer High-End kauft dem ist das normalerweise reichlich egal.

Also sorry...ich kaufe Highend und mir ist das nicht egal. Wieso soll ich bei meinem Netzteil auf Effizienz achten (die ja besonders bei Highend-Netzteilen gegeben sein soll) und die Graka verbläst wieder alles? Wieso implementieren MB-Hersteller Modi wie STD und STR und die Graka verbläst wieder alles? Wieso haben auch Highend-Prozessoren wie ein FX-62 (jaaaaa oder ein E6800 oder was auch immer) trotzdem Cool & Quiet / EIST - und die Graka verbläst wieder alles? Ich habe hier die Tage einen interessanten Thread gesehen, der 100 Watt PC...der spieletauglich sein soll...die Idee scheitert hauptsächlich an der Graka. Wie gesagt, unter 3D kann ich das verstehen, aber unter 2D reicht eine Matrox Mystique aus, die dürfte ja irgendwo bei 10 Watt liegen. Also...warum klappt das mit dem Strom sparen bei ALLEN Komponenten außer der GraKa? Wäre glatt eine Überlegung wert, zum alten Konzept 2D Karte + zusätzliche 3D Karte zurückzukehren.

Chris-the-Big
2007-01-24, 10:11:53
also ich finde das 22W bei einer 7900GT nit gerade viel sind im 2D Betrieb

LovesuckZ
2007-01-24, 11:43:19
Zum "BUG":
Ich glaube nicht mehr an einem BUG. Ich glaube, dass die hohe Stromaufnahme unter IDLE beabsichtigt ist.

Es sind im BIOS keine Angaben für unterschiedliche Taktraten hinterlegt.
Auch eine Änderung mit der Volt-Anzahl im BIOS greift nicht.
Imo scheint der Treiber es zu verhindern, oder aber die GPUs scheinen vor Spannungsänderung gesichert zu sen.
Das Heruntertakten mit dem ATi-Tool funktioniert dagegen.

jojo4u
2007-01-24, 12:26:49
Ich habe hier die Tage einen interessanten Thread gesehen, der 100 Watt PC...der spieletauglich sein soll...die Idee scheitert hauptsächlich an der Graka.

Das sollte definitiv machbar sein. Eine AM2 Konfiguration ist unter 50 W zu bekommen, dazu dann halt noch die Grafikkarte. Mit mobilen Intel CPUs geht's ähnlich weit runter. Das ganze mit einem schönen SFX Netzteil garnieren (http://www.silentpcreview.com/article286-page4.html).

AMD: http://www.silentpcreview.com/forums/viewtopic.php?p=300802
AMD: http://www.silentpcreview.com/forums/viewtopic.php?p=304441#304441
Intel: http://www.silentpcreview.com/forums/viewtopic.php?t=33733

bushMills
2007-01-24, 15:33:59
Schön.
Nur weil du dich daran erhängen kannst, muss ich es nicht auch machen.
Unsere Welt geht nicht früher zu Grunde, weil ich mir einen G80 gekauft habe. Genauso gut überlebt sie nicht länger, weil du dir keinen gekauft hast.
Deine Aussagen als "objektiv" hinzustellen, ist jedoch vollkommen falsch.

Solange es Leute gibt, denen unsere Umwelt und die ökologischen Konsequenzen, die wir früher deshalb haben, nicht im entferntesten interessieren, solange müssen wir uns solche Kommentare wie von Lovesuck anhören. Das diese kommentare für eine Welt von gestern und ebenso für die Kurzsichtigkeit und Ignoranz stehen, sollte jedem vernunftbegabten Leser dieses Threads klar sein.

Ausserdem muss man einfach gegen solche Postings Stellung beziehen, da diese weder cool noch sonstwas sind, eher das ganze Gegenteil.

Auch ich werde keinen G80 kaufen

LovesuckZ
2007-01-24, 15:40:54
Das diese kommentare für eine Welt von gestern und ebenso für die Kurzsichtigkeit und Ignoranz stehen, sollte jedem vernunftbegabten Leser dieses Threads klar sein.

Ich kette mich wenigsten nicht an Schienen...
Vielleicht sollten wir einfach mal weiter überlegen: Nicht wir in Deutschland können den Untergang der Welt in Sachen Umwelt verhindern, sondern nur Länder wie China.
Was bringt es der Umwelt, wenn wir hier keinen G80 kaufen und die Leute in China weiter Autos verwenden, die hier niemand geschenkt haben will?


Ausserdem muss man einfach gegen solche Postings Stellung beziehen, da diese weder cool noch sonstwas sind, eher das ganze Gegenteil.


Ich hoffe echt für dich, dass du neben der Umwelt auch nicht die Sozialkassen belastest.
Solche Aussagen von dir, kann sich niemand leisten. Außer er ist perfekt.

Akira20
2007-01-24, 16:07:20
Solange es Leute gibt, denen unsere Umwelt und die ökologischen Konsequenzen, die wir früher deshalb haben, nicht im entferntesten interessieren, solange müssen wir uns solche Kommentare wie von Lovesuck anhören. Das diese kommentare für eine Welt von gestern und ebenso für die Kurzsichtigkeit und Ignoranz stehen, sollte jedem vernunftbegabten Leser dieses Threads klar sein.

Ausserdem muss man einfach gegen solche Postings Stellung beziehen, da diese weder cool noch sonstwas sind, eher das ganze Gegenteil.

Auch ich werde keinen G80 kaufen
Sorry, aber gehts noch? Nur weil ich eine 8800GTX im Rechner habe heißt das nicht, dass mir die Umwelt egal ist. Ich fahre schon ein umweltfreundliches Auto, schalte meine Geräte nachts immer schön per Steckerleiste aus, trenne meinen Müll, lasse den PC nicht 24 Stunden laufen (Rechner ist nur an wenn er benutzt wird) und versuche auch sonst einigermaßen umweltfreundlich zu leben. Und du willst mir erzählen, nur weil ich eine G80-Karte im Rechner habe, sei ich umwelttechnisch kurzsichtig etc.?
Sorry, aber selten so einen Bockmist gelesen...

MfG
Akira20

Geist
2007-01-24, 18:48:00
Umwelt und Computer, das ist so ein Thema. Wenn man es genau nimmt, dann dürfte aus Umweltschutzgründen keine Computer mehr produziert werden, da bei der Herstellung der Hardware unmengen an Energie und Ressourcen verpulvert werden. Von den giftigen Abfallstoffen, die bei der Produktion anfallen, ganz zu schweigen.

Das trifft im übrigen nicht nur auf Computer zu, sondern auf alle hochtechnisiert industriell gefertigten Güter.

Wenn man gegenüberstellt, was an Energie und Ressourcen bei der Herstellung einer 8800er Karte aufgewendet werden muss, dann ist der hohe Stromverbrauch im 2D Betrieb aus Umweltsicht eine Nebensächlichkeit.

Der Punkt der für mich zählt ist der, das nVidia was den Stromverbrauch insgesamt angeht einfach nachlässig ist, was im Großen und Ganze genauso auf ATI zutrifft. Das einzige was zählt ist Leistung, alles andere tritt in den Hintergrund. Da die Entwicklungszyklen immer kürzer werden, wird sich nur noch auf das vermeintlich Wesentliche konzentriert und verliert dabei andere Aspekte aus den Augen.

LovesuckZ
2007-01-24, 19:37:56
Der Punkt der für mich zählt ist der, das nVidia was den Stromverbrauch insgesamt angeht einfach nachlässig ist, [...]

Das stimmt nicht.
Zwar verbraucht die Karte im IDLE - Zustand mehr als die Konkurrenz, aber in Hinsicht von Performance/Watt (oder so) ist sie deutlich besser als der G71 und erst recht als der r580.
Ein ansteigender Stromverbrauch ist jedoch unabdingbar, wenn man auch in Sachen Leistungs eine Verbesserung haben will.

Wuge
2007-01-24, 22:29:27
Die Spannung ist ja schon recht niedrig (~ 1.25V). Da der Fertigungsprozess gewiss nicht auf low-voltage Betrieb getrimmt wurde, ist nach unten vielleicht nicht mehr viel Platz.

Wenn man nur von 1.25V auf 1.20V runter könnte, kann man sich den Aufwand wirklich sparen.

Ist natürlich nur eine Vermutung.

patrese993
2007-01-25, 02:51:01
......Performance/Watt (oder so) ......
Ein ansteigender Stromverbrauch ist jedoch unabdingbar, wenn man auch in Sachen Leistungs eine Verbesserung haben will.

soso.... :rolleyes:

Früher oder später, wird es auch bis in den Grafik-Bereich durchdringen, daß mehr Performance nicht immer mehr Leistung verbrauchen muß..... EE läßt grüßen.

Coda
2007-01-25, 03:30:10
Komisch dass NVIDIA dass anscheinend seit der FX-Reihe (immerhin auch schon 5 Jahre her) nicht egal war.
Ihr könnt mir erzählen was ihr wollt, aber gewollt ist das von NVIDIA nicht. Die entsprechende Logik ist mit ziemlicher Sicherheit schlicht defekt und es wird mal wieder nichts dazu gesagt, sondern still und leise wird der G81 sich im Idle wieder runtertakten.

MfG :cool:

Natürlich gibt es Probleme. Aber es kann auch gut sein, dass schlicht und einfach die Double-Pumped-ALUs bei einer Spannungsreduzierung nicht mitmachen oder ähnliche komische Phänomene. Sorry, ich will's jetzt echt nicht schön reden. Klar ist das eine Sache, die nVIDIA in den Griff bekommen sollte, aber ich sehe da drin keinen Fehler, sondern evtl. auch eine Designentscheidung um das Ding einfach möglichst bald auf den Markt zu bringen. Da können solche "Nebensächlichkeiten" schonmal auf der Strecke bleiben.

Die reine Taktreduzierung funktioniert ja, bringt aber ohne Spannungsreduzierung leider nichts.

LovesuckZ
2007-01-25, 07:21:42
Früher oder später, wird es auch bis in den Grafik-Bereich durchdringen, daß mehr Performance nicht immer mehr Leistung verbrauchen muß..... EE läßt grüßen.

Ich sehe gerade nicht das Problem.
AMDs EE Prozessoren befinden sich in den untersten bis mittleren Leistungsbereichen.
Eine 8800GTX ist daher eher ein FX-62. Und der erreicht eine deutlich schlechtere Leistung/Watt.

patrese993
2007-01-25, 10:58:04
1.
der 80er ist gerade mal raus. Die Architektur der AMD Prozzies hat schon ein paar Jährchen auf dem Buckel. Warte doch erstmal die Derivate ab, da wird sich sicher noch was tun.

2.
AMD hatte auch nicht immer "stromsparende" Prozessoren im Angebot. Aber genau wie Intel haben sie gemerkt, daß es den Käufern wichtig ist, daß sowohl die Leistung als auch der Verbrauch stimmt, ich bin mir sicher, daß sowas bei ATI/nV auch noch festgestellt wird.

bushMills
2007-01-25, 13:29:43
Sorry, aber gehts noch? Nur weil ich eine 8800GTX im Rechner habe heißt das nicht, dass mir die Umwelt egal ist. Ich fahre schon ein umweltfreundliches Auto, schalte meine Geräte nachts immer schön per Steckerleiste aus, trenne meinen Müll, lasse den PC nicht 24 Stunden laufen (Rechner ist nur an wenn er benutzt wird) und versuche auch sonst einigermaßen umweltfreundlich zu leben. Und du willst mir erzählen, nur weil ich eine G80-Karte im Rechner habe, sei ich umwelttechnisch kurzsichtig etc.?
Sorry, aber selten so einen Bockmist gelesen...

MfG
Akira20

Schön das du mitreden möchtest, leider ging mein Statement in Richtung Lovesuck und zwar mit Zitat. Das du sonst sehr umweltfreundlich dich verhälst ist löblich und genau deswegen warst du auch nicht der Adressat.


Ich kette mich wenigsten nicht an Schienen...
Vielleicht sollten wir einfach mal weiter überlegen: Nicht wir in Deutschland können den Untergang der Welt in Sachen Umwelt verhindern, sondern nur Länder wie China.
Was bringt es der Umwelt, wenn wir hier keinen G80 kaufen und die Leute in China weiter Autos verwenden, die hier niemand geschenkt haben will?

Ich hoffe echt für dich, dass du neben der Umwelt auch nicht die Sozialkassen belastest.
Solche Aussagen von dir, kann sich niemand leisten. Außer er ist perfekt.

Um mal in die selbe Kerbe zu schlagen, wer hat mehr Postings und belastet eventl die Sozialkassen, bei kürzerer Mitgliedschaft hier im 3dc?

Aber das ist nicht der Punkt, wenn in einem neuen Grafikchip keine oder kaputte oder sonstwas Energiesparfunktionen eingebaut sind um den Takt sinnvoll zu drosseln, sollte man dazu stehen und Kritik akzeptieren und nicht mit unsachlichen Beiträgen wie Sozialkassen daherkommen oder Leute die genau diese Meinung haben ins lächerliche ziehen (siehe Razor).

Werd erwachsen kann ich dazu nur sagen und das hat nichts mit Alter oder Grösse zu tun.

LovesuckZ
2007-01-25, 13:43:40
Um mal in die selbe Kerbe zu schlagen, wer hat mehr Postings und belastet eventl die Sozialkassen, bei kürzerer Mitgliedschaft hier im 3dc?

Vielleicht verbringe ich einfach weniger Zeit beim Rauchen. ;)

Aber das ist nicht der Punkt, wenn in einem neuen Grafikchip keine oder kaputte oder sonstwas Energiesparfunktionen eingebaut sind um den Takt sinnvoll zu drosseln, sollte man dazu stehen und Kritik akzeptieren und nicht mit unsachlichen Beiträgen wie Sozialkassen daherkommen oder Leute die genau diese Meinung haben ins lächerliche ziehen (siehe Razor).

Mir ist es egal, wer was kauft. Mir ist egal, ob jemand seine Umwelt pflegt oder vollmüllt.
Aber was mir nicht egal ist, wenn jemand meint, seine Meinung über ein Produkt als "alleinig richtig" darzustellen, auch wenn er dieses Produkt nichtmal getestet hat. Das wird hier gemacht.
Wenn dir der IDLE - Verbrauch zu hoch erscheint, ist das in Ordnung. Mit irgendwelchen Umweltrechtungsargumenten dann zu kommen, ist lächerlich.

dargo
2007-01-25, 17:39:10
Wenn die Funktion vorhanden wäre, hätte sie wohl auch nV im Treiber eingebaut.

Übertrage das jetzt mal auf eine X1800XL. :)


Ein ansteigender Stromverbrauch ist jedoch unabdingbar, wenn man auch in Sachen Leistungs eine Verbesserung haben will.
Nein ist er nicht, da erinnere ich gerne an den P4 und den C2D.

LovesuckZ
2007-01-25, 19:00:33
Nein ist er nicht, da erinnere ich gerne an den P4 und den C2D.

Falsches Beispiel.
Eine 7900GTX verbraucht soviel wie eine 7800GTX und ist deutlich schneller.
Aber ein Quad - Core Conroe wird in 65nm mehr verbrauchen wie ein normaler C2D.
Ein X2 verbraucht auch mehr wie ein San Diego.
Der G80 kommt in einem bekannten Fertigungsprozeß. Mit dreimal sovielen Transistoren wie der G71 lässt sich der Stromverbrauch eben nicht halten.
Das der IDLE - Verbrauch angestiegen ist, ist bedauerlich, aber löst keine Öko - Kriese aus. Auch wenn einige den Anschein machen, wenn sie davon reden.

C2D und PIV sind auch zwei unterschiedliche Architekturen.

dargo
2007-01-26, 11:28:58
Falsches Beispiel.
Eine 7900GTX verbraucht soviel wie eine 7800GTX und ist deutlich schneller.

Ach, und wieso hat man diese Taktik nicht fortgesetzt? Und jetzt komm mir bitte nicht mit dem 90nm Fertigungsprozess. NV hätte auch den Chip später rausbringen können.


Aber ein Quad - Core Conroe wird in 65nm mehr verbrauchen wie ein normaler C2D.

Was hat jetzt ein Quadcore mit dem Dualcore zu tun? :|
Das wäre ja so als ob du eine G8800GTX und eine nicht existierende G8800GX2 mit doppelter Leistung was den Stromverbrauch angeht vergleichen würdest.


Ein X2 verbraucht auch mehr wie ein San Diego.

Ebenfalls ein sinnloser Vergleich, siehe oben.


C2D und PIV sind auch zwei unterschiedliche Architekturen.
Ja, genauso wie ein G7x und der G80. :cool:

LovesuckZ
2007-01-26, 12:32:29
Ach, und wieso hat man diese Taktik nicht fortgesetzt? Und jetzt komm mir bitte nicht mit dem 90nm Fertigungsprozess. NV hätte auch den Chip später rausbringen können.

Weil der G7x einige sehr starke Leistungsbeschränkungen und ein geringes Featureset aufweist.
Schlechte Leistung bei dynamischen Verzweigungen, gekoppelte TMU mit der ersten Recheneinheit, kein FP16 HDR - Rendering mit AA, die Vertexshader können nicht filtern etc.
Nvidia hat einen Schnitt gemacht und für D3D10 einige Änderungen vorgenommen.

Was hat jetzt ein Quadcore mit dem Dualcore zu tun? :|

Weil es die selbe Problematik aufweist. Mehr Leistung durch mehr Kerne (im Gegensatz mehr Transistoren). Die Leistungaufnahme eines Quadcores ist auch höher als die eines Dual - Cores Prozessors. Genauso verhält es sich mit Dual - zu Single - Core.
SLi ist dann wiederrum ein "zwei" "Dual - Core System". AMD 4x4 kommt dem wohl am nächsten.

Ja, genauso wie ein G7x und der G80. :cool:

Ich finde dem Umstieg vom NV3x auf NV4x viel bedeutender und ist auch eher vergleichbar mit P4 und C2D.
Und wenn wir das betrachten, vollzog sich dieser Umstieg innerhalb von einem Jahr (2003 - 2004). Auch wenn CinceFX und G80 verglichen werden, liegen "nur" 3 1/2 Jahre dazwischen.
Wann kam der PiV nochmal auf dem Markt? Der Pentium IV scheint 2000 auf dem Markt gekommen zu sein. Dann sind das ganze 6 Jahre für eine neue Architektur.

dargo
2007-01-26, 12:46:19
Weil es die selbe Problematik aufweist. Mehr Leistung durch mehr Kerne (im Gegensatz mehr Transistoren). Die Leistungaufnahme eines Quadcores ist auch höher als die eines Dual - Cores Prozessors. Genauso verhält es sich mit Dual - zu Single - Core.
SLi ist dann wiederrum ein "zwei" "Dual - Core System". AMD 4x4 kommt dem wohl am nächsten.

Nö, ein Kentsfield ist nichts anderes als "C2D SLI". ;)

LovesuckZ
2007-01-26, 12:55:46
Nö, ein Kentsfield ist nichts anderes als "C2D SLI". ;)

Das ist Ansichtssache. Für den Benutzer ist er ein Prozessor, da er nur einen Sockel benötigt.
Mit diesem Argument wäre auch ein normaler Dual - Core Prozessor nichts weiter als "SLI".
Aus meiner Sicht ist es egal, ob die Leistung durch mehr Kerne oder mehr Transistoren erreicht wird. Der Stromverbrauch wird dadurch erhöht, die Leistung aber nichtmal ansatzweise gesteigert.
Der C2D ist ja nicht wegen seinen zwei Kernen so schnell, sondern durch die gute Leistung pro Mhz.

dargo
2007-01-26, 13:13:22
Mit diesem Argument wäre auch ein normaler Dual - Core Prozessor nichts weiter als "SLI".

Im Prinzip ja wenn du es so möchtest. Ein Quadcore wäre dann "Quad SLI" mit perfekter Umsetzung, nämlich doppelter (C2D) bzw. vierfacher Leistung bei entsprechender Software.


Aus meiner Sicht ist es egal, ob die Leistung durch mehr Kerne oder mehr Transistoren erreicht wird. Der Stromverbrauch wird dadurch erhöht, die Leistung aber nichtmal ansatzweise gesteigert.

Wie bitte?
Ich würde man den Horizont etwas erweitern und nicht nur Gameperformance betrachten. Ein G80 ist auch kaum schneller wie ein G71 wenn die CPU limitiert. Oder vergleichst du die Performance vom G80 auch in 1024x768 ohne AA/AF?


Der C2D ist ja nicht wegen seinen zwei Kernen so schnell, sondern durch die gute Leistung pro Mhz.
Und wo ist jetzt da der Unterschied wenn man es auf den G70 und G71 überträgt?

|MatMan|
2007-01-26, 13:19:36
ich hoffe der idle-Verbrauch wird bald vollkommen bedeutungslos (für mich), so wie auch für mich der idle-Verbrauch meiner CPU egal ist, denn sie läuft einfach nicht im idle-Modus. Wenn der Rechner an ist läuft BOINC im Hintergrund :tongue: also immer 100% CPU Last.

Dank der guten Programmierbarkeit des G80, des guten dynamic branchings und wohl auch durch DX10 werden hoffentlich bald mehr GPGPU Anwendungen wie Folding@Home herauskommen und dann ist es bei mir definitv vorbei mit dem 2D Modus der Grafikkarte :D

LovesuckZ
2007-01-26, 13:32:46
Im Prinzip ja wenn du es so möchtest. Ein Quadcore wäre dann "Quad SLI" mit perfekter Umsetzung, nämlich doppelter bzw. vierfacher Leistung bei entsprechender Software.

Wenn jedoch keine "entsprechende Software" vorliegt, liegt die Leistung brach.
Bei einer Grafikkarte, wie dem G80, wird die Leistung jedoch in jedem Fall mehr oder weniger deutlich umgesetzt.
Es ist im Grunde sinnvoller sich auf weniger Cores zu beschränken und dafür die Leistung des einzelnen zu erhöhen.
Intel tat dies beim C2D. Deswegen will ich auch endlich einen Solo Prozessor.

Wie bitte?
Ich würde man den Horizont etwas erweitern und nicht nur Gameperformance betrachten. Ein G80 ist auch kaum schneller wie ein G71 wenn die CPU limitiert. Oder vergleichst du die Performance vom G80 auch in 1024x768 ohne AA/AF?

Falscher Vergleich.
SLI erreicht in einigen Anwendungen auch fast 100% Mehrleistung. Trotzdem ist die Behauptung "SLI führt immer zu einer Verdopplung der Leistung" nicht.
So ist es mit den x- Core Prozessoren. Es ist ein einfacher Weg die Leistung zu steigern (Hersteller). Jedoch muss dafür auch die Software vorhanden sein. Und dies ist zur Zeit nur in Gebieten gegeben, welche wohl nur einen Prozentsatz des Anwenders ansprichst.
Und speziell in Sachen Spiele ist leider ein falscher Hype entstanden. Kleine Auflösungen, heruntergestellte Details, kein AA/AF sollen den Vorteil von DC zeigen. Dumm nur, dass dies beim richtigen Spielen sich in Luft auflöst.

dargo
2007-01-26, 13:59:02
Wenn jedoch keine "entsprechende Software" vorliegt, liegt die Leistung brach.

Befasse dich mal mit zb. 3D Studio Max und ähnlichem. Keine entsprechende Software, dass ich nicht lache ...


Bei einer Grafikkarte, wie dem G80, wird die Leistung jedoch in jedem Fall mehr oder weniger deutlich umgesetzt.

Nein, wird sie nicht!
Stichwort - CPU-Limitierung. Beispiele - GTR2, GT-Legends und einige Simulationen (die ich nicht spiele). Alles cpu-limitierte Games.


Es ist im Grunde sinnvoller sich auf weniger Cores zu beschränken und dafür die Leistung des einzelnen zu erhöhen.
Intel tat dies beim C2D. Deswegen will ich auch endlich einen Solo Prozessor.

Ein schneller Singlecore Prozessor macht heutzutage selbst für Games keinen Sinn mehr. Es gibt durchaus Spiele die bis zu 40% und mehr (natürlich gibt es auch Spiele die kaum vom DC profitieren) vom Dualcore profitieren. Ein Beispiel:

C2D mit 2,93Ghz erreicht bei 100%-igen CPU-Limitierung 50fps.

Ein entsprechender Singlecore Processor würde schon 4,1Ghz brauchen um mit dem C2D 2,93Ghz mitzuziehen (bei 40% DC Vorteil selbstverständlich). Und die momentane Architektur des Conroe lässt leider keine Taktfrequenzen @4Ghz oder sogar mehr zu.


Falscher Vergleich.
SLI erreicht in einigen Anwendungen auch fast 100% Mehrleistung. Trotzdem ist die Behauptung "SLI führt immer zu einer Verdopplung der Leistung" nicht.
So ist es mit den x- Core Prozessoren. Es ist ein einfacher Weg die Leistung zu steigern (Hersteller). Jedoch muss dafür auch die Software vorhanden sein. Und dies ist zur Zeit nur in Gebieten gegeben, welche wohl nur einen Prozentsatz des Anwenders ansprichst.

Was für ein Unsinn. Meinst du die Welt spielt nur? :hammer:
Was meinst du womit die Spieleentwicklungshardware läuft? Bestimmt nicht mit einem Singlecoreprozessor. ;)


Und speziell in Sachen Spiele ist leider ein falscher Hype entstanden. Kleine Auflösungen, heruntergestellte Details, kein AA/AF sollen den Vorteil von DC zeigen. Dumm nur, dass dies beim richtigen Spielen sich in Luft auflöst.
OMG. Ich würde dir erstmal empfehlen sich mit CPU- und GPU Limitierung zu befassen. Denn anscheinend hast du davon keine Ahnung.

1. Wie soll eine CPU zeigen was sie leisten kann wenn die Graka limitiert?

2. Bei 3D Shootern (anscheinend ist das dein Genre) wird die Graka in praxisrelevanten Settings immer limitieren. Ich wüsste nämlich keinen Grund warum ich mit einem G80 zb. 1024x768 max. Details ohne AA/AF fahren sollte bei zb. 150fps. Was soll ich damit? Es ist doch logisch, dass jeder User dann die Auflösung und AA/AF Stufe soweit hochschreibt, dass er noch flüssig spielen kann. Und dafür sind sicherlich keine 150fps nötig. Den meisten reichen schon 30-60fps. Und wenn bei 1024x768 ohne AA/AF ich 150fps habe und bei 1600x1200 8xMSAA/16xAF mit einem G80 nur noch 50fps habe ist es wohl logisch, dass mir eine schnellere CPU bei diesen Settings nichts oder kaum was bringt da die Graka limitiert!

LovesuckZ
2007-01-26, 14:37:04
Befasse dich mal mit zb. 3D Studio Max und ähnlichem. Keine entsprechende Software, dass ich nicht lache ...

Ich habe genug Hobbys.


Nein, wird sie nicht!
Stichwort - CPU-Limitierung. Beispiele - GTR2, GT-Legends und einige Simulationen (die ich nicht spiele). Alles cpu-limitierte Games.

Stichwort: Bildqualität (Effekte, AA/AF, SuperSampling), höhere Auflösungen.
Eine Grafikkarte kann immernoch einen Mehrwert in einer CPU - limitierten Szene bringen. Eine CPU, vorallen DC, QC etc., in einer GPU - limitieren nicht.
Und auch hier bringt ein x-Core Prozessor keine x - fache Steigerung, wenn nicht alle Kerne verwendet werden.

Ein schneller Singlecore Prozessor macht heutzutage selbst für Games keinen Sinn mehr. Es gibt durchaus Spiele die bis zu 40% und mehr (natürlich gibt es auch Spiele die kaum vom DC profitieren) vom Dualcore profitieren
Ein Beispiel:
C2D mit 2,93Ghz erreicht bei 100%-igen CPU-Limitierung 50fps.
Ein entsprechender Singlecore Processor würde schon 4,1Ghz brauchen um mit dem C2D 2,93Ghz mitzuziehen (bei 40% DC Vorteil selbstverständlich).

Es gibt solche Spiele, das ist richtig.
Aber über 90% der kaufbaren und in Zukunft erscheinenen sind eben nicht "CPU - Limitierend". Wobei der Begriff in diesem Zusammenhang falsch ist. Es muss wohl "Thread - Limitierend" heißen.

Was für ein Unsinn. Meinst du die Welt spielt nur? :hammer:
Was meinst du womit die Spieleentwicklungshardware läuft? Bestimmt nicht mit einem Singlecoreprozessor. ;)

Nur weil sie auf DC entwickeln, bedeutet es nicht, dass es dem Anwender auch etwas bringt. ;)


OMG. Ich würde dir erstmal empfehlen sich mit CPU- und GPU Limitierung zu befassen. Denn anscheinend hast du davon keine Ahnung.


Ich befasse mich nur mit dem, welches mich weiterbringt.
Ich habe gemerkt, dass ich in Spielen mit einen DC in meinen Einstellungen keinen Mehrwert habe. Für was anderes brauch ich meinen PC zur Zeit nicht.
Ich setz mich nicht vor meinen PC, stelle alles runter und ergötze mich am Mehrwert eines DC.

dargo
2007-01-26, 16:09:21
Stichwort: Bildqualität (Effekte, AA/AF, SuperSampling), höhere Auflösungen.

1. Grafische Effekte gehen nicht nur auf die Grafikkarte sondern oftmals auch auf die CPU.
2. SSAA und G80, ja ne ist klar.


Eine Grafikkarte kann immernoch einen Mehrwert in einer CPU - limitierten Szene bringen.

So etwas ist nicht möglich, zumindest nicht auf die Performance bezogen. Und wenn du das nicht begreifst kann ich dir auch nicht helfen.


Eine CPU, vorallen DC, QC etc., in einer GPU - limitieren nicht.
Und auch hier bringt ein x-Core Prozessor keine x - fache Steigerung, wenn nicht alle Kerne verwendet werden.

Wie denn auch, wenn die GPU limitiert? :|
In diesem Beispiel bringt dir auch ein Singlecore Prozessor mit 10Ghz nichts!


Es gibt solche Spiele, das ist richtig.
Aber über 90% der kaufbaren und in Zukunft erscheinenen sind eben nicht "CPU - Limitierend".

Woher willst du das wissen? Es gibt auch was anderes als 3D-Shooter!


Nur weil sie auf DC entwickeln, bedeutet es nicht, dass es dem Anwender auch etwas bringt. ;)

Das habe ich auch nicht behauptet. Der Zusammenhang war eher auf die Fertigstellung der Games bezogen. 3D Studio Max zb. profitiert bis zu 100% vom einem Quadcore.


Ich befasse mich nur mit dem, welches mich weiterbringt.
Ich habe gemerkt, dass ich in Spielen mit einen DC in meinen Einstellungen keinen Mehrwert habe. Für was anderes brauch ich meinen PC zur Zeit nicht.

Tja, dann bringst du deine Grafikkarte immer an ihre Grenzen. In diesem Fall wird dir auch kein G100 helfen. Hinzu kommt noch, dass du nur gpu-limitierte Games spielst.