PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stromverbrauch G80 2D durch Defekt?


HPVD
2006-11-09, 08:47:56
Hallo

Der Stromverbrauch des G80 ist auch im 2D Betrieb sehr hoch (vgl.: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/31/#abschnitt_stromverbrauch )
Natürlich ist dies auch die Folge der 681 Millionen Transistoren...

Aber ist es nicht auch möglich, dass ein Teil des Verbrauchs durch den beschriebenen in Testsamples fehlenden Widerstand ( http://www.vr-zone.com/index.php?i=4253 ) verursacht wird und damit nicht in den "korrekten" Stromsparmodi geschaltet wird?

Oder weisen Teile der Testsamples an denen Stromverbrauchsmessungen durchgeführt wurden diesen Defekt nicht auf?

Gruß HPVD

4711
2006-11-09, 09:05:57
wenn die nicht umschalten.........

blackbox
2006-11-09, 10:20:07
Mir ist das sowieso rätselhaft, warum der Stromverbrauch im Idle seit Jahren mit jeder neuen Grafikgeneration wächst.
Schließlich wächst die Anforderung nicht im 2D-Modus. Die ist doch seit Jahren gleich, nur die Auflösung ändert sich.

Coda
2006-11-09, 10:23:31
Weil die Chips auch im Leerlauf durch Leckströme etc. einfach immer mehr Strom ziehen.

HPVD
2006-11-09, 10:34:05
Weil die Chips auch im Leerlauf durch Leckströme etc. einfach immer mehr Strom ziehen.

Frage:
sollte doch aber möglich sein durch "abschalten" ganzer Bereiche diese Ströme zu reduzieren, so dass in 2D immer nur der benötigte Teil an ist, welcher sich ja dann auch in den letzten Jahren nicht hätte großartig zu ändern brauchen...

Probleme gibts dann aber sobald der Desktop auch 3D-Funktionen nutzt (vista!!)...

Gruß HPVD

jojo4u
2006-11-09, 10:55:05
Die Hersteller grenzen so auch ihre mobilen Lösungen ab, die ja einiges teurer sein sollten.

MikBach
2006-11-09, 10:59:34
Die Hersteller grenzen so auch ihre mobilen Lösungen ab, die ja einiges teurer sein sollten.
Nene, Nvidia hat bestimmt nicht mit Absicht so eine hohe Verlustleistung im Idle-Mode.

Gruß M_B

dargo
2006-11-09, 11:17:31
Der Stromverbrauch des G80 ist auch im 2D Betrieb sehr hoch (vgl.: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/31/#abschnitt_stromverbrauch )
Natürlich ist dies auch die Folge der 681 Millionen Transistoren...

Aber ist es nicht auch möglich, dass ein Teil des Verbrauchs durch den beschriebenen in Testsamples fehlenden Widerstand ( http://www.vr-zone.com/index.php?i=4253 ) verursacht wird und damit nicht in den "korrekten" Stromsparmodi geschaltet wird?


1. AFAIK ist der Widerstand da, nur unterdimensioniert.
2. Soll das nur auf die GTX zutreffen, der Stromverbrauch der GTS ist aber ebenfalls sehr hoch momentan in Idle.
3. Zum 10 mal (;(), wartet paar finale Treiber ab.

Frage:
sollte doch aber möglich sein durch "abschalten" ganzer Bereiche diese Ströme zu reduzieren, so dass in 2D immer nur der benötigte Teil an ist, welcher sich ja dann auch in den letzten Jahren nicht hätte großartig zu ändern brauchen...

Mal ne blöde Frage - ist es vielleicht möglich, dass designbedingt dieses Abschalten in 2D gar nicht machbar ist? (was ich mir eigendlich nicht vorstellen kann)

MikBach
2006-11-09, 11:21:09
3. Zum 10 mal (;(), wartet paar finale Treiber ab.
Welche Zeitspanne meinst du in etwa?

Also ein paar finale Treiber finde ich etwas viel.
Ein oder zwei Treiberreleases sind ok.

Gruß M_B

Ailuros
2006-11-09, 11:22:18
Den Gedanken im Threadtitel hab ich mir auch gemacht, aber NVIDIA hat genau so viel Leistungsverlust fuer 2D beim launch angegeben, ergo liegt daran nichts falsches weder irgend ein Defekt.

MikBach
2006-11-09, 11:27:32
Den Gedanken im Threadtitel hab ich mir auch gemacht, aber NVIDIA hat genau so viel Leistungsverlust fuer 2D beim launch angegeben, ergo liegt daran nichts falsches weder irgend ein Defekt.
Du meinst also die Verlustleistung im Idle-Mode wird so bleiben?

Na prost, und ich habe schon mit dem Gedanken gespielt mir eine GTS zuzulegen. Auch um das AF zu testen.

Die Verlustleistung im 3D-Modus ist ja noch vertretbar, aber unter 2D einfach nur katastrophal und nicht akzeptabel.

Gruß M_B

dargo
2006-11-09, 11:28:10
Also ein paar finale Treiber finde ich etwas viel.
Ein oder zwei Treiberreleases sind ok.

Das meine ich damit.

Den Gedanken im Threadtitel hab ich mir auch gemacht, aber NVIDIA hat genau so viel Leistungsverlust fuer 2D beim launch angegeben, ergo liegt daran nichts falsches weder irgend ein Defekt.
Wie soll ich das jetzt interpretieren?
Der momentane Idle-Verbrauch bleibt Normalität?

HPVD
2006-11-09, 11:38:13
Den Gedanken im Threadtitel hab ich mir auch gemacht, aber NVIDIA hat genau so viel Leistungsverlust fuer 2D beim launch angegeben, ergo liegt daran nichts falsches weder irgend ein Defekt.

hast Du zu fällig den genauen Wortlaut/Quelle zur Hand?

Gast
2006-11-09, 11:38:36
Das meine ich damit.


Wie soll ich das jetzt interpretieren?
Der momentane Idle-Verbrauch bleibt Normalität?


Kaufst du eine solche Karte um sie nur Idle zu betreiben?

Undertaker
2006-11-09, 11:40:18
Kaufst du eine solche Karte um sie nur Idle zu betreiben?

80% der zeit läuft sie aber nur in 2d...

dargo
2006-11-09, 11:42:41
Kaufst du eine solche Karte um sie nur Idle zu betreiben?
Wie soll man im Netz surfen mit einem Rechner? :|

80% der zeit läuft sie aber nur in 2d...
Ja, das könnte bei mir auch hinkommen.

Gast
2006-11-09, 12:07:03
NV wird in nächste Woche ein Statement dazu abgeben. So wie es scheint, ist noch mehr im Argen als der eine Widerstand (GTX UND GTS). Mehr darf ich leider nicht sagen.

dargo
2006-11-09, 12:08:59
NV wird in nächste Woche ein Statement dazu abgeben. So wie es scheint, ist noch mehr im Argen als der eine Widerstand (GTX UND GTS). Mehr darf ich leider nicht sagen.
Ach du schei.. :eek:
Gut, dass ich nie direkt neue Hardware kaufe.

Da bin ich mal gespannt.

MikBach
2006-11-09, 12:11:31
NV wird in nächste Woche ein Statement dazu abgeben. So wie es scheint, ist noch mehr im Argen als der eine Widerstand (GTX UND GTS). Mehr darf ich leider nicht sagen.
Da dürften sich diejenigen, die einen G80 gekauft haben aber ziemlich verschaukelt fühlen, sollte NV bewusst solche Infos zurückgehalten haben. :eek:

Gruß M_B

Gast
2006-11-09, 12:15:06
NV wird in nächste Woche ein Statement dazu abgeben. So wie es scheint, ist noch mehr im Argen als der eine Widerstand (GTX UND GTS). Mehr darf ich leider nicht sagen.

Wer sagt uns das du kein Trittbrett Fahrer bist und hier nur was mieß machen willst?

Man sieht ja wer auf den Zug aufspringt... sonst wird auf Gäste geschimpft in diesem Forum und kommt einer mit nem passenden Argument hält mans für Bare Münze.

dargo
2006-11-09, 12:17:19
Wer sagt uns das du kein Trittbrett Fahrer bist und hier nur was mieß machen willst?

Das ist natürlich auch möglich. Aber nach dem "falschen" Widerstand und dem hohen Idle-Verbrauch des G80 bin ich auch etwas unsicher geworden.

DrumDub
2006-11-09, 12:18:53
Das ist natürlich auch möglich. Aber nach dem "falschen" Widerstand und dem hohen Idle-Verbrauch des G80 bin ich auch etwas unsicher geworden. wobei der falsche widerstand damit ja nix zu tun hat...

MikBach
2006-11-09, 12:19:18
Wer sagt uns das du kein Trittbrett Fahrer bist und hier nur was mieß machen willst?

Man sieht ja wer auf den Zug aufspringt... sonst wird auf Gäste geschimpft in diesem Forum und kommt einer mit nem passenden Argument hält mans für Bare Münze.
Also wenn er sagt, dass er nicht mehr sagen darf, dann hört es sich schon glaubwürdig an.

Du hast aber recht, sollte man mit Vorsicht geniessen.

dargo
2006-11-09, 12:22:11
wobei der falsche widerstand damit ja nix zu tun hat...
Du meinst mit dem hohen Idle-Verbrauch?
Das ist natürlich richtig.

DrumDub
2006-11-09, 12:22:52
Du meinst mit dem hohen Idle-Verbrauch?
Das ist natürlich richtig. exakt.

4711
2006-11-09, 12:27:58
hmmm falscher Wiederstand>kein 3D nach 2D oder so war das doch?>3D=2D zu hoher Idle Verbrauch = Der Wiederstand isses Schuld oder?
Die diff.die ja trotzdem da ist>dann 3D zu 2D was eigendlich dann 3D ist>die Karte hat 3 Einstellungen 3D low3D 2D=Die Differenz idle zu last ist doch dann klar 2D=3Dlow.
Kapische?

Anarchy-HWLUXX
2006-11-09, 13:16:17
Bei B3D hab es paar Pics von einem Fehlerbericht ... hier sollte auch die Modellnummer von 4 Spannungswandlern überprüft werden ...


Ausserdem kann es herzlich egal sein, wenn es wirklich nen Defekt ist bekommt man ne fehlerfreie im Tausch - wo ist das Problem ?

PS - Der Gast soll sich mal mit Namen melden, irgendwelche gerüchte streuen kann jeder.




EDIT - Hia der Link :

http://www.techpowerup.com/?19840

blackbox
2006-11-09, 13:25:15
Weil die Chips auch im Leerlauf durch Leckströme etc. einfach immer mehr Strom ziehen.

Das könnte eine Erklärung sein, damit einverstanden (hoher Verbrauch) bin ich trotzdem nicht.

Da stimmt definitiv etwas nicht. Während die CPU-Hersteller stromsparende Modelle rausbringen, führen die GPU-Hersteller dieses Vorhaben ad absurdum. Ich hoffe, dass die kommenden Midrangekarten diesen hohen Verbrauch im Idle nicht haben werden. Aber irgendwie bin ich da skeptisch.

Gast
2006-11-09, 13:27:42
80% der zeit läuft sie aber nur in 2d...

In einem Gamer-PC? LOL.

dargo
2006-11-09, 13:33:05
In einem Gamer-PC? LOL.
Entschuldige bitte, aber wir reden hier über einen PC! Ansonsten kann ich mir gleich eine Konsole zulegen.

Gast
2006-11-09, 13:44:58
In einem Gamer-PC? LOL.Nicht jeder hat Lust und Zeit den ganzen Tag mit Spielen zu verbringen. Natürlich könnte man sich zum Surfen und Arbeiten einen zweiten Rechner hinstellen, aber das ist auch nicht optimal.

Mein Rechner jedenfalls läuft bestimmt 80-90% der Zeit im Idle, obwohl leistungsstarke Hardware verbaut ist. Der Stromverbrauch ist mir trotzdem egal, das sind nur ein paar Cent.

r@w.
2006-11-09, 14:17:22
Mir ist der Stromverbrauch nicht egal... und die Kosten interessieren mich dabei ganz und gar nicht!

Irgendwie scheinen die ganzen Leutz hier rein gar nichts mit der Umwelt am Hut zu haben, oder glaubt Ihr wirklich, dass Strom einfach nur da ist? Mann, mann, mann...

Ich habe auch leistungsfähige Hardware und erfreue mich daran, dass mein Prozzi statt der maximalen 2,8GHz normal bei 1GHz läuft... vielleicht mal auf 2GHz hoch geht (ohne viel an der Spannungsversorgung zu 'drehen' ;-), wenn er tatsächlich mal was 'tun' muss. Und ich erfreue mich daran, dass meine 7900GT mit einem langsam drehenden Lüfter nur bei 450MHz läuft... und davon auch erst ab geht, wenn sie dann mal ran muss, um dann auf 685 zu klettern.

Das übrige PowerManagement des PC's tut sein übriges und schaltet Komponenten ab, wenn sie nicht benötigt werden und geht in den Standby-Modus, wenn man gar nichts mehr von ihm will.

Löblich und auch wichtig... meine Meinung.

Aber es ist sowieso das "Leistung um jeden Preis", was ich überhaupt nicht nachvollziehen kann. Wirtschaftlichkeit und auch Umweltverträglichkeit haben bei mir oberstes Gebot und schlägt hier etwas vollkommen aus der Art (so, wie zuletzt der ATI-'Ofen' mit dem 'brüllenden' Lüfter, dann wird es vielleicht ausprobiert, fliegt dann aber recht schnell wieder aus dem Rechner.

Ich warte das Ganze erste einmal ab.

Ich will User-Berichte, denen ich 'trauen' kann... Treiber, die sich 'stabilisiert' haben... und Produkte, an denen nicht mehr "herum gelötet" werden muss, damit sie innerhalb der Spezifikationen funktionieren.

Immer mehr überkommt mich das Gefühl, dass der G80-Launch 'etwas' überhastet geschehen ist.
Vielleicht hätte man sich doch noch ein wenig Zeit lassen sollen...

...aber dann wäre u.U. das Weihnachtsgeschäft beeinträchtigt gewesen.

"Gut, dass wir in einer Marktwirtschaft leben!"
:rolleyes:

Razor

P.S.: ich nutze meinen Hauptrechner (der leistungsfähigste zuhause ;-) in 95% der Fälle nicht als "Gamer-PC" (man könnte auch sagen: teure Konsole ;-), insofern mir ein erträglicher Stromverbrauch in dieser Zeit wichtig ist... genauso wie ein möglichst unauffälliges Lautstärke-Nivaeu... und das ohne irgendwelche Strom/Wasser-Experimente... ;)

MikBach
2006-11-09, 14:27:15
Mir ist der Stromverbrauch nicht egal... und die Kosten interessieren mich dabei ganz und gar nicht!

Irgendwie scheinen die ganzen Leutz hier rein gar nichts mit der Umwelt am Hut zu haben, oder glaubt Ihr wirklich, dass Strom einfach nur da ist? Mann, mann, mann...

Razor


Full Ack, Razor! =)

Spasstiger
2006-11-09, 15:20:17
Wäre es irgendwie möglich, bei einem Mainboard mit Onboard-Grafik im laufenden Betrieb zwischen Grafikkarte und Onboardgrafik zu wechseln, evtl. mit Windows Vista? Das wäre ja eine sehr gute Lösung, um im Idle-Betrieb den Energieverbrauch weiter zu senken. Vielleicht noch mit Einstellungen, wann die Grafikkarte zugeschalten werden soll und wenn nicht (z.B. nicht beim Vista-3D-Desktop und nicht bei Videobeschleunigung).

Godmode
2006-11-09, 15:22:15
Wäre es irgendwie möglich, bei einem Mainboard mit Onboard-Grafik im laufenden Betrieb zwischen Grafikkarte und Onboardgrafik zu wechseln, evtl. mit Windows Vista? Das wäre ja eine sehr gute Lösung, um im Idle-Betrieb den Energieverbrauch weiter zu senken.

IIRC, gab es von Nvidia - laut Demirug - ein Patent dazu, weiß aber nicht mehr genau in welchem Thread das stand.

r@w.
2006-11-09, 15:28:51
Wäre es irgendwie möglich, bei einem Mainboard mit Onboard-Grafik im laufenden Betrieb zwischen Grafikkarte und Onboardgrafik zu wechseln, evtl. mit Windows Vista? Das wäre ja eine sehr gute Lösung, um im Idle-Betrieb den Energieverbrauch weiter zu senken. Vielleicht noch mit Einstellungen, wann die Grafikkarte zugeschalten werden soll und wenn nicht (z.B. nicht beim Vista-3D-Desktop und nicht bei Videobeschleunigung).IIRC, gab es von Nvidia - laut Demirug - ein Patent dazu, weiß aber nicht mehr genau in welchem Thread das stand.

Ich hatte ja gehofft, dass der G80 etwas in dieser Art mitbringen würde...
Aber offenbar hatte man bei diesem überhasteten "Quick-Launch" nur die Performance im Sinn.
(gottlob ist ja offenbar auch die Bildqualität nicht zu kurz gekommen)

Vielleicht wirds ja was im Kombo mit einem entsprechenden Mainboard und neuen Möglichkeiten unter Vista.
DAS wäre tatsächlich mal eine sinnvolle Neuerung, die ich mir SOFORT unter den Nagel reißen würde!
Im Notebook-Bereich ist so etwas eigentlich mittlerer weile unerläßlich.

So kommt bei mir (derzeit) nur ein Kopfschütteln zustande...

Razor

Spasstiger
2006-11-09, 15:39:20
DAS wäre tatsächlich mal eine sinnvolle Neuerung, die ich mir SOFORT unter den Nagel reißen würde!
Für mich ist niedriger Idle-Verbrauch auch ein Kaufargument, allerdings erst nach Geschwindigkeit, Bildqualität, Lautstärke und Features (geordnet nach Priorität).

HPVD
2006-11-09, 15:40:51
Wäre es irgendwie möglich, bei einem Mainboard mit Onboard-Grafik im laufenden Betrieb zwischen Grafikkarte und Onboardgrafik zu wechseln, evtl. mit Windows Vista? Das wäre ja eine sehr gute Lösung, um im Idle-Betrieb den Energieverbrauch weiter zu senken. Vielleicht noch mit Einstellungen, wann die Grafikkarte zugeschalten werden soll und wenn nicht (z.B. nicht beim Vista-3D-Desktop und nicht bei Videobeschleunigung).

DAS würd ich auch sofort kaufen!
Dann kann man endlich ohne schlechtes Umwelt-Gewissen und einen Grossvolumentarif mit dem Stromversorger den EINEN leistungsstarken Rechner rund um die Uhr als Server laufen lassen und hat tagsüber trotzdem eine vernünftiges Arbeits-undoder Spielgerät :D

Gast
2006-11-09, 15:43:59
Wäre es irgendwie möglich, bei einem Mainboard mit Onboard-Grafik im laufenden Betrieb zwischen Grafikkarte und Onboardgrafik zu wechseln, evtl. mit Windows Vista?Es gibt ein Notebook, dass das heute schon unter WinXP kann. War afair eine Intel-IGP und eine "mobility" Geforce 6. Das ganze wurde vor ca. einem Jahr entweder in der PCGH oder in der HWLuxx printed getestet, weiß es nicht mehr genau.

Die gelbe Eule
2006-11-09, 15:46:28
Wer mal ganz scharf beobachtet hat, die 2D Takte sind genauso hoch wie 3D. Etwas untertakten und schon ist wieder alles im Lot.

Spasstiger
2006-11-09, 15:49:01
Es gibt ein Notebook, dass das heute schon unter WinXP kann. War afair eine Intel-IGP und eine "mobility" Geforce 6. Das ganze wurde vor ca. einem Jahr entweder in der PCGH oder in der HWLuxx printed getestet, weiß es nicht mehr genau.
Afaik musste man das Gerät beim Umschalten neustarten, was nicht sehr praktikabel ist. Vor allem bei meinem Nutzungsverhalten am Rechner (surfen, zocken, surfen, neue Grafikdemo testen, surfen, Modifikation für ein Spiel testen, surfen, etc.).

MikBach
2006-11-09, 15:49:32
Wer mal ganz scharf beobachtet hat, die 2D Takte sind genauso hoch wie 3D. Etwas untertakten und schon ist wieder alles im Lot.
Untertakten allein bringt nicht soo viel.

Spannung absenken ist wichtiger.

r@w.
2006-11-09, 15:50:59
Für mich ist niedriger Idle-Verbrauch auch ein Kaufargument, allerdings erst nach Geschwindigkeit, Bildqualität, Lautstärke und Features (geordnet nach Priorität).

Für mich ist es eigentlich ein Technologie-Trend mit vorhandenen Resourcen 'behutsamer' umzugehen. Auch scheint ja alles in diese Richtung zu gehen... nur die Grafikkarten peilen offenbar das entgegen gesetzte Ziel an. Und mir geht es beileibe nicht darum, dass die Dinger wenig Strom verbrauchen, wenn sie voll unter Last stehen - nein - sollen sie schlucken, was immer sie 'brauchen', aber die Abwärme darf nicht im Gehäuse landen (was bei den G80 ja gegeben ist) und die dazu verwendete Kühlung darf mir (auch ohne Kopfhörer ;-) nicht den letzten Nerv rauben (was ebenfalls gewährleistet ist). Und - das sehe ich als emanent an - sie sollen, wenn sie nix mehr tun, auch nix mehr 'brauchen' (im Verhältnis betrachtet, selbstverständlich ;-). Ideal wäre es natürlich, wenn sich der leistungsfähige Kern ganz abschalten würde...

Und zu Deinen Prioritäten sei gesagt: erst das komplette Produkt ergibt ein Bild!
Leistung "um jeden Preis" ist auf jeden Fall nicht 'mein Ding'...

Razor

r@w.
2006-11-09, 15:56:05
Afaik musste man das Gerät beim Umschalten neustarten, was nicht sehr praktikabel ist. Vor allem bei meinem Nutzungsverhalten am Rechner (surfen, zocken, surfen, neue Grafikdemo testen, surfen, Modifikation für ein Spiel testen, surfen, etc.).

Full ACK!
:up:

Nein... es müsste schon so etwas sein, wie es im Rahmen von Vista-Diskussionen dargestellt wurde. Da ja die Hardware-Treiber nicht mehr im Ring laufen, sollte es absolut KEIN Problem sein, die Ausgabe anzuhalten, den reinen 3D-Treiber zu entladen (die Komponente gar zu deaktivieren) und den Desktop-Treiber zu laden. Prinzipiell müssen beide ja nicht unbedingt an die gleiche Einheit gebunden sein. Und wenn es wieder Leistung braucht, eben vice versa.

Wie gesagt... auf diesem Wege könnte ich Vista evtl. doch noch etwas abgewinnen!
:D

Razor

Spasstiger
2006-11-09, 15:57:11
Leistung "um jeden Preis" ist auf jeden Fall nicht 'mein Ding'...

Razor
Ja das stimmt, Leistung, Bildqualität und Lautstärke sind mir eigentlich gleichermaßen wichtig. Bei der Lautstärke wäre ich aber bereit, Kompromisse einzugehen, sprich, ich würde notfalls auch den Kühler umbauen (wodurch die Garantie flöten geht).

Gast
2006-11-09, 19:02:48
Welche Zeitspanne meinst du in etwa?

Also ein paar finale Treiber finde ich etwas viel.
Ein oder zwei Treiberreleases sind ok.

Gruß M_B
Ja, so ein gravierendes Problem sollte spätestens in einem Monat oder so behoben sein.

Sk_Antilles
2006-11-10, 14:18:19
Ja, so ein gravierendes Problem sollte spätestens in einem Monat oder so behoben sein.

Meiner bescheidenen Meinung nach, dürfte ein Produkt mit so einem gravierenden Problem garnicht auf dem Markt gebracht werden. Aber man(n) hat sich ja inzwischen daran leider schon gewöhnt.
Eigenartigerweise werden anderen Firmen solche Produkte um die Ohren gehauen, wenn man mit solch einem Mangel es auf die Leute loslassen würde.
Nichts gegen nVidia, ist nur ein allgemeiner Trend den man beobachten kann.

dargo
2006-11-10, 14:34:17
Nichts gegen nVidia, ist nur ein allgemeiner Trend den man beobachten kann.
Was für Trend? Ich gehe jetzt mal davon aus, dass du den 2D Verbrauch meinst.

http://www.xbitlabs.com/images/video/geforce7900gtx/power.gif

Schau dir mal an was die letzen Grakas so in 2D geschluckt haben. Alles zwischen 20 und 30W. Die G8800GTX liegt aber momentan angeblich bei ~70W!
Das nenne ich schon eine Katastrophe und hoffe, dass das keine Regel wird.

Sk_Antilles
2006-11-10, 14:59:15
Was für Trend? Ich gehe jetzt mal davon aus, dass du den 2D Verbrauch meinst.

http://www.xbitlabs.com/images/video/geforce7900gtx/power.gif

Schau dir mal an was die letzen Grakas so in 2D geschluckt haben. Alles zwischen 20 und 30W. Die G8800GTX liegt aber momentan angeblich bei ~70W!
Das nenne ich schon eine Katastrophe und hoffe, dass das keine Regel wird.

Ich bezog mich eigentlich eher darauf, dass ein Produkt offentsichtlich fehlerhaft/mit Mängeln auf den Markt gebracht wird. Und ich meine das das Produkt in diesem Falle die Kombination aus Hardware UND Treiber ist. Über den Verbrauch unter 2D braucht man erst garnicht anfangen zu diskutieren. Der ist absolut inakzeptabel.

dargo
2006-11-10, 15:01:54
Ich bezog mich eigentlich eher darauf, dass ein Produkt offentsichtlich fehlerhaft/mit Mängeln auf den Markt gebracht wird. Und ich meine das das Produkt in diesem Falle die Kombination aus Hardware UND Treiber ist.
Ja, das stimmt. Bei der Software (Games) ist es eigendlich schon Normalität, jetzt ist die Hardware dran. :ugly:

Gast
2006-11-10, 16:22:29
hier aus ein anderem Forum

ZITAT:
Das einzige was pervers ist ,das der 2D Verbrauch satte 50W höher liegt als bei meiner X1900XTX. Im 3D Modus zieht die Karte gerade mal so 12W mehr als meine XTX auf 700/800MHZ.

schon krass

dargo
2006-11-10, 16:27:24
hier aus ein anderem Forum

ZITAT:
Das einzige was pervers ist ,das der 2D Verbrauch satte 50W höher liegt als bei meiner X1900XTX. Im 3D Modus zieht die Karte gerade mal so 12W mehr als meine XTX auf 700/800MHZ.

schon krass
Das wäre dann 79W Idle für die G8800GTX (die X1900XTX hat ja 29W in Idle). Bitte aber immer an die Effizienz des NTs denken. In Wirklichkeit sind es ~68-70W für die GTX.

Gast
2006-11-10, 16:41:08
Ihr habt aber schon mitbekommen das die G80 Karten atm nicht runtertakten in 2D bzw. nicht die Spannung gesenkt wird?
Die Treiber beinhalten keine funktionierende Taktfunktion mehr, das kann man nur manuell per nTune oder PowerStrip momentan.
Da muss man abwarten was da noch gebacken wird im Treiber.

dargo
2006-11-10, 16:54:21
Ihr habt aber schon mitbekommen das die G80 Karten atm nicht runtertakten in 2D bzw. nicht die Spannung gesenkt wird?
Die Treiber beinhalten keine funktionierende Taktfunktion mehr, das kann man nur manuell per nTune oder PowerStrip momentan.
Da muss man abwarten was da noch gebacken wird im Treiber.
Ja, das ist bekannt. :)

MrMostar
2006-11-10, 21:12:05
Ich war auch entsetzt darüber, dass beim neuen 93.71er Treiber keine 2d Untertaktung angeboten wird, zum Glück ist sie im klassischen Control Panel noch erreichbar, aber scheint irgendwie nicht richtig zu speichern.
Takte auf akt. Karte: (7900 GT), 2D/3DTakt 225/450MHz.
delta T geht(also auch die Verlustleistung) um rund 30% runter bei automatischer Untertaktung auf 50%, leider gehts im moment nicht automatisch...

Razor
2006-11-11, 06:39:57
Ich war auch entsetzt darüber, dass beim neuen 93.71er Treiber keine 2d Untertaktung angeboten wird, zum Glück ist sie im klassischen Control Panel noch erreichbar, aber scheint irgendwie nicht richtig zu speichern.

Nimm nTune 5.05.18.
Damit geht es...

Auch wenn ich dieses Tool nicht favorisiere.
(und das eigentlich auch nicht hier hin gehört)

Zu Thema:

20-30W ist OK (letzters aber schon hart an der Grenze ;-), 70W ist inakzeptabel!
Da muss nVidia noch nachbessern... auch wenn dies evtl. erst mit dem G81 passiert...

Razor

Gast
2006-11-11, 06:55:01
das hat man davon wenn man blind kauft und das noch zu kranken preisen

Omnicron
2006-11-11, 17:08:55
Also die G80 BIOSe die ich bisher sah haben nur 1 Performance Level aktiv, d.h. die Karte bleibt immer bei vollen Taktraten und 1.3V.
Ein 2D Level mit 1.2/1.1V zu erstellen scheint möglich, wenn ich im Laufe des Monats an ein G80 komme kann ichs ja testen.
Warum NV das so eingestellt hat k.A. vielleicht wollten sie einen möglichst ungestörten Launch, denn 2D/3D Wechsel hat bei einem kleinen Teil der Nutzer früher schon Probleme verursacht.

Gast
2006-11-11, 17:41:47
Nimm nTune 5.05.18.
Damit geht es...

Auch wenn ich dieses Tool nicht favorisiere.
(und das eigentlich auch nicht hier hin gehört)

Zu Thema:

20-30W ist OK (letzters aber schon hart an der Grenze ;-), 70W ist inakzeptabel!
Da muss nVidia noch nachbessern... auch wenn dies evtl. erst mit dem G81 passiert...

Razor

meine GX² kann nTune auch nicht runterschalten!!!!!
das hab ich schon x mal geschrieben!!
geht nur mit dem AtiTool oder Powerstrip

*4711*

4711
2006-11-11, 17:48:26
Also die G80 BIOSe die ich bisher sah haben nur 1 Performance Level aktiv, d.h. die Karte bleibt immer bei vollen Taktraten und 1.3V.
Ein 2D Level mit 1.2/1.1V zu erstellen scheint möglich, wenn ich im Laufe des Monats an ein G80 komme kann ichs ja testen.
Warum NV das so eingestellt hat k.A. vielleicht wollten sie einen möglichst ungestörten Launch, denn 2D/3D Wechsel hat bei einem kleinen Teil der Nutzer früher schon Probleme verursacht.
Nibitor 3.1
unter 2D die Werte eintragen +1.2 Volt + Lüfterreglung->flashen fertig
versteh das ganze Theater nicht.

Johnny Rico
2006-11-11, 17:54:30
Also ich will mir meine einzige G80 nicht zerflashen. Vielleicht kann ja jemand, der 2 hat, da was machen^^ EIn 2D Profil fürs BIOS anlegen und flashen. Mal schauen was passiert :/

@4711

lol...

4711
2006-11-11, 18:42:17
wieso ? und hör auf mit dem "lol" sonst bekomm ich die Kriese... :D
Fakt ist doch
die Karte schaltet sowieso nicht runter (ohne einem anderen Bios)
Fakt ist
was macht der Wiederstand denn da? (25 oder 50):D
den Verbrauch regeln .... ;D ich lach mich kaputt echt.

Birdman
2006-11-11, 18:50:11
Ich untertakte meine Karten (1800XT, 900GTX) seit jeher massiv im 2D Betrieb.
natürlich bringts weniger als wenn man (noch) die Spannung senken könnte, aber wenn der Chip nur mit 100Mhz läuft und auch das Ram auf 1/2 bis 2/3 Takt gedrosselt wird, bringt man auch so den Verbrauch und die Hitze massiv runter.

Ich frage mich nur, wieso die Karten nicht von Haus aus im 2D Modus deutlich runtergetaktet werden. Die Frequenzen werden zwar gesenkt, aber imme nur sehr minim, dabei sind die Chips auch mit weniger als 100Mhz noch genauso flott in 2D unterwegs.

4711
2006-11-11, 18:52:54
eben weil da irgendwas faul (in dieser Richtung)ist,mit dem Wiederstand hat das absolut nix zutun...dann hätt ich ab morgen kaum noch einen Verbrauch im Haus....

Johnny Rico
2006-11-11, 19:08:27
Da soll auch "mehr" nicht in Ordnung sein, nicht nur der Wiederstand. Hoffentlich packt bald mal jemand aus :/

Das lol ist fürs flashen der 600€. Darauf hat bestimmt keiner Bock, sich an dem WE die G80 zu zerflashen. Ich würde ja machen, nur was wenns schief geht ;O

Ich glaube meine ist immer im 3D. Die Temps sprechen für sich. Um die 70°C. Ich werde das mal beobachten.

4711
2006-11-11, 19:33:21
eben,ich sehs doch beim Freund,die schert sich nen Dreck drumm mit dem "richtigen" Wiederstand,sie schaltet nicht runter und fertig.
Kannste schön bei nTune beobachten.
Im übrigen ist mit dem nTune auch was faul..wenn das inst.ist schaltet meine 7950 auch nicht mehr runter....
Und überreden kann ich die Pfeife :D auch nicht zum flashen..alles Weicheier ;D

Johnny Rico
2006-11-11, 19:37:31
nTune läuft bei mir nicht.

i975x aw9d-max

joe kongo
2006-11-11, 22:52:19
Das könnte eine Erklärung sein, damit einverstanden (hoher Verbrauch) bin ich trotzdem nicht.

Da stimmt definitiv etwas nicht. Während die CPU-Hersteller stromsparende Modelle rausbringen, führen die GPU-Hersteller dieses Vorhaben ad absurdum. Ich hoffe, dass die kommenden Midrangekarten diesen hohen Verbrauch im Idle nicht haben werden. Aber irgendwie bin ich da skeptisch.

Eigentlich schon die Chipsatzhersteller zB. beim C2D.

p.s. generell: es heist WIDERSTAND mit I und nicht mit IE, kommt von widerstehen und nicht von wiederholen

dargo
2006-11-11, 22:56:27
Eigentlich schon die Chipsatzhersteller zB. beim C2D.

Was meinst du jetzt damit?

Die gelbe Eule
2006-11-11, 23:01:59
Ist der Thread nicht eigentlich sinnfrei, weil kaum ein normaler Endkunde so eine Karte erwischen wird? Ist ja nicht so das tausende Besitzer Ihre Karten zurückschicken müssten ...

dargo
2006-11-11, 23:09:43
Ist der Thread nicht eigentlich sinnfrei, weil kaum ein normaler Endkunde so eine Karte erwischen wird? Ist ja nicht so das tausende Besitzer Ihre Karten zurückschicken müssten ...
Wieso denn sinnfrei :confused:
Die Karten ziehen immernoch verdammt viel Leistung beim Idlen. Hat zwar nichts mit dem Widerstand zu tun, ändert aber nichts an der Tatsache, dass der Stromverbrauch in 2D viel zu hoch ist.

Die gelbe Eule
2006-11-11, 23:32:45
Ja aber der Threadtitel ist unangebracht. Fakt ist, das keiner eine mit kaputten Widerständen hat und Fakt ist auch, das die 2D Taktraten genauso hoch sind wie die 3D Taktraten und die Spannung demnach auch nicht gesenkt wird. Genau das wird bald mit einem Treiber gefixt werden, weil dafür sind sie da.

Gast
2006-11-11, 23:33:44
vielleicht geht das beim g80 nicht

joe kongo
2006-11-12, 02:15:58
Was meinst du jetzt damit?

Ich mein das die Chipsätze das verbraten was durch den Prozzi eingespart
wird. Mag sein das der Athlon 4000+ den ich hatte mehr verbraucht als der jetzige C2D, dafür blieben die restlichen Komponenten am Mobo (Via) im Vergleich eiskalt.

Razor
2006-11-12, 10:57:27
Ich glaube meine ist immer im 3D. Die Temps sprechen für sich. Um die 70°C. Ich werde das mal beobachten.

Wus?
70° im Desktop?
:O

Und wie hoch geht die Karte unter Last?
Bei mir empfinde ich schon die 40-43° im idle als 'viel'.
(das würde mir das ganze Silent-Konzept im Gehäuse durcheinander bringen)

Und klar... 'ne niegelnagelneue 600€-Karte würde ich auch nicht "erst einmal flashen"!
Keine Frage...

...und Fakt ist auch, das die 2D Taktraten genauso hoch sind wie die 3D Taktraten und die Spannung demnach auch nicht gesenkt wird. Genau das wird bald mit einem Treiber gefixt werden, weil dafür sind sie da.

Wus?
Wie soll denn ein Treiber die Bios-Voreinstellungen 'fixen'?
:confused:

Auch sollte es ja wohl einen Grund haben, warum die Karte nicht 'umtaktet'.
Vermutlich gibt es da Schwierigkeiten mit den internen Takt-Multiplikatoren für die anderen Subsysteme...
...aber es soll ja ein nTune kommen, welches auch diese Takte direkt beeinflussen können wird.

Ob damit ein "wundersames" untertakten im 2D und eine Spannungssenkung (nur das würde wirklich etwas bringen) einher geht, wage ich doch stark zu bezweifeln. Zumal es diesem Transistoren-Monster wirklich gut stehen würde, große Teile davon abzuschalten, die für einen 'normalen' (Vista) Desktop-Betrieb nicht benütigt werden. Auch sehe ich es persönlich nicht ein, ein Mobo-Steuerungssystem (nTune) zu installieren, wenn ich so etwas nicht einmal im Rechner hab', nur, um die GraKa takten zu 'dürfen'. Nee...

Also ich hoffe inständig, dass nVidia all das mit dem nächsten "refresh" fixen wird. Dafür erwarte ich selbstredend gleiche BQ und mindestens die gleiche Leistung, aber deutlich weniger Probleme, einen 'vernünftigen' 2D-Betrieb und ein etwas angebrachteres Layout samt Kühllösung für nicht ganz so leistungsfähige Karten.

6 Monate... Leute... und dann gibts was "Gutes"!
(vielleicht auch von ATI, who knows?)
:up:

Razor

P.S.: das Schöne ist, dass bis dahin wohl auch alle Treibereien einen 'etwas' ausgereifteren Eindruck machen... und zudem Vista mit DX10 verfügbar ist, um auch diesen Mehrwert nutzen zu können.

dargo
2006-11-12, 10:58:38
Ich mein das die Chipsätze das verbraten was durch den Prozzi eingespart
wird. Mag sein das der Athlon 4000+ den ich hatte mehr verbraucht als der jetzige C2D, dafür blieben die restlichen Komponenten am Mobo (Via) im Vergleich eiskalt.
Naja, also ich finde 10W in Idle und 19W max. bei Last für einen P965 Chipsatz nicht gerade viel.

Wus?
70° im Desktop?
:O

Und wie hoch geht die Karte unter Last?
Bei mir empfinde ich schon die 40-43° im idle als 'viel'.
(das würde mir das ganze Silent-Konzept im Gehäuse durcheinander bringen)

Hast du schon vergessen, dass der G80 nicht in den 2D Modus schaltet und deswegen eine G8800GTX ca. 70W in Idle verbrät?


Wus?
Wie soll denn ein Treiber die Bios-Voreinstellungen 'fixen'?
:confused:

Nur mal zur Erinnerung - ein ähnliches Treiberproblem hatte der R520 am Anfang auch. :)

LovesuckZ
2006-11-12, 11:00:33
Wus?
Wie soll denn ein Treiber die Bios-Voreinstellungen 'fixen'?
:confused:


Bei den ATi Karten kann der User per Software die Spannung verändern.
Vielleicht funktioniert dies bei G80 auch.

Gast
2006-11-12, 13:16:56
80% der zeit läuft sie aber nur in 2d...

Vista?

4711
2006-11-12, 13:29:05
natürlich schei... Vista wenn da ne Graka runterschaltet in 2D schläft der Schrott doch ein......
Wenn meine Karte da ist werden wir das Ding gleich mal vor Ort hin und her flashen,mit weniger volt und Drehzahlen und wenn das Teil sich dann mit den AtiTools regeln läßt...sollte man in dieser Hinsicht NV mal Kräftig in den Allerwertesten treten...
Der Widerstand ist meiner Meinung nach im mom vollkommen wurst, ob 25 oder 50,nachdem ich einige Bios gesehen habe.
Der wird erst wichtig (denk ich so als Elecktrischer ;D )wenn die Karte umschalten "kann" per Bios.

Johnny Rico
2006-11-12, 14:05:10
ATi Tool hat keine Probleme. Beim Start und im IDLE Takt auf 350/350. Bei Last umschalten auf 630/1000 ist kein Problem. Temps sind um die 3°C-5°C weniger. SPannung müsste man noch senken können :p

4711
2006-11-12, 14:11:44
na sieste und was hält dich dann ab zu flashen mit den Werten und 1.2 volt in 2d? (allerdings würd ich erstmal 500/800>1.2 volt setzen).
Dein Widerstand erfüllt ja nun seinen Zweck.
Los rann jetzt :tongue:

OC_Burner
2006-11-12, 15:18:32
Allein durch das absenken der Taktraten auf 150MHz/100MHZ (GPU/MEM) via ATI-Tool verbraucht mein Rechner ca. 17W weniger.

Und die Spannungen kann man vorerst wirklich nur über das Bios ändern ja?

4711
2006-11-12, 15:21:38
wird meine erste Aktion sein mit der Karte noch bevor sie das erste mal den XP Startbildschirm gesehen hat.

Razor
2006-11-12, 15:29:56
Hast du schon vergessen, dass der G80 nicht in den 2D Modus schaltet und deswegen eine G8800GTX ca. 70W in Idle verbrät?

Es gibt keinen "2D-Modus" beim G80...

Nur mal zur Erinnerung - ein ähnliches Treiberproblem hatte der R520 am Anfang auch. :)

Nochmal: wie soll ein Treiber fixen, was offensichtlich das "Betriebssystem" der Karte nicht einmal unterstützt?
:confused:

Bei den ATi Karten kann der User per Software die Spannung verändern.
Vielleicht funktioniert dies bei G80 auch.

Ist das jetzt nicht ein bischen viel "Wunschdenken"?
Bisher gibt es ekinerlei Aussagen zu dem Thema von nVidia...
Und plötzlich einen per Software einstellbaren Spannungsmodulator zu vermuten, ist schon echt hart.

Vista?

Der "3D-Modus" unter Vista benötigt nicht mehr Resourcen bzw. Kapazität als ein "2D-Modus" unter WinXP... wenn nicht weniger.
Was also soll diese Frage... die genau genommen ja nicht einmal eine ist?
:confused:

Razor

Gast
2006-11-12, 15:31:21
kann mal jemand testen (g80) wie weit in Idle die Verlustleistung
runter geht beim Chip untertakten

4711
2006-11-12, 15:46:16
Es gibt keinen "2D-Modus" beim G80...

meine wird die erste sein :tongue:

4711
2006-11-12, 15:46:57
kann mal jemand testen (g80) wie weit in Idle die Verlustleistung
runter geht beim Chip untertakten

schau mal nach oben....

dargo
2006-11-12, 15:57:04
Es gibt keinen "2D-Modus" beim G80...

Nochmal: wie soll ein Treiber fixen, was offensichtlich das "Betriebssystem" der Karte nicht einmal unterstützt?
:confused:

Du meinst, das Bios hat keinen 2D Modus oder?
Sind nicht gerade neue Biose rausgekommen?

OC_Burner
2006-11-12, 16:50:10
Erster 2D Erfolg (zum Teil) zu vermelden!

Habe mit dem Nibitor3.1 gerade mein Bios eingelesen und die Taktraten siehe Anhang verstellt und das Bios geflasht. Nach dem Windowsstart hatte ich 2D Taktraten (ausgelesen mit ATI-Tool). Wenn ich dann den Fellwürfel öffne springen die Taktraten auf die 3D-Einstellungen. Allerdings springen sie nicht mehr in den 2D-Modus zurück wenn ich das Fenster schliesse oder 3D-Anwendungen beende.

Ich werde mich jetzt mal den Spannungen widmen.

Gast
2006-11-12, 16:54:25
mal sehen wann du nicht mehr zurück schreibst...

OC_Burner
2006-11-12, 17:12:20
Das ändern der Spannungen bewirkt leider rein garnichts, schade war wohl nichts.

Werde jetzt erstmal wieder das Original aufspielen.

chrisihamm
2006-11-12, 17:15:33
Hi,



es gab doch irgendwo einen Link zu dem neuen Bios für eine 8800GTX,aber wo?ich finde den Link nicht mehr.


mfg

AnarchX
2006-11-12, 17:19:05
es gab doch irgendwo einen Link zu dem neuen Bios für eine 8800GTX,aber wo?ich finde den Link nicht mehr.

http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f163%2f163412.shtml

Superheld
2006-11-12, 17:23:44
OC_Burner
hast du wenigstens ein Energiemessgerät zu Hause
um den Unterschied zu messen

OC_Burner
2006-11-12, 17:30:34
Ja,

der Verbrauch ändert sich kein bißchen

4711
2006-11-12, 17:30:48
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f163%2f163412.shtml

das Bios sieht genau so aus wie die mit dem sie ausgeliefert werden...

4711
2006-11-12, 17:36:06
Das ändern der Spannungen bewirkt leider rein garnichts, schade war wohl nichts.

Werde jetzt erstmal wieder das Original aufspielen.


das ist auch denke ich zu wenig..200....event.400/700 und 1.2 volt
und ich würde nur einen 2D Modus anfügen und keinen Thrtl.

des weiteren mal 2 Profile anlegen im AtiTool
2d >400>700>1.2v
3d >580>900>1.3v>oder so stehen lassen wie orig.
und die von sich aus schalten lassen.

OC_Burner
2006-11-12, 17:44:23
Was soll bei 200MHz zu wenig sein? Der Effekt sollte doch größer sein, im Vergleich zu 400MHz.

Wenn ich nur bei 2D etwas eintrage ist der 2D-Modus nach dem Windowsstart nicht aktiv. Erst durch das einbeziehen der THrtl Taktfrequenzen wurde der 2D-Modus aktiv.

sulak
2006-11-12, 17:46:55
Deutet alles darauf hin das der Treiber in der Hinsicht noch nichts macht, bzw. total verbuggt ist. Per nTune kann man auch erst die Taktfrequenzen anpassen, nachdem man z.b. mit dem Ati Tool den Takt etwas verändert hat. Vorher spinnt das nTune Panel.

4711
2006-11-12, 17:54:00
Was soll bei 200MHz zu wenig sein? Der Effekt sollte doch größer sein, im Vergleich zu 400MHz.

Wenn ich nur bei 2D etwas eintrage ist der 2D-Modus nach dem Windowsstart nicht aktiv. Erst durch das einbeziehen der THrtl Taktfrequenzen wurde der 2D-Modus aktiv.

aha >THrtl gut zu wissen.
hatten wir schonmal mit zu niedrigen Angaben da wurde gerade das Gegenteil erreicht>Temps etc.

Nilix
2006-11-12, 18:23:17
das Bios sieht genau so aus wie die mit dem sie ausgeliefert werden...

Hallo!

Das Bios ist ÄLTER!!! Meine Version (eVGA 8800 GTX) ist: 60.80.06.00.02 (vom 10.10.2006) die Version auf der Site ist allerdings 60.80.02.01.05 (vom 29.09.2006)!

Gruß
Nilix

4711
2006-11-12, 18:26:36
Das kann ich nicht beurteilen....wie alt die sind..hab selbst keine Karte..ich meinte mit "sieht genau so aus" die Innereien.

Gast
2006-11-12, 18:29:54
Nilix mach doch mal in game bilder wenn du schon ein g80 hast

Johnny Rico
2006-11-12, 19:17:56
Welches ist denn das aktuellste BIOS? Ändert sich überhaupt was?

Hab dort mein BIOS geuppt. LINK (http://www.mvktech.net/component/option,com_remository/Itemid,26/func,fileinfo/filecatid,1837/parent,category/)

Nilix
2006-11-12, 20:08:10
Nilix mach doch mal in game bilder wenn du schon ein g80 hast

Und von welchem Game?

Der 97.02 ist nicht unbedingt fehlerfrei, ich denke, dass NVIDIA noch was ordentliches nachreicht. Die ersten Treiber für die X1900XTX damals waren auch voller Fehler.

Gruß
Nilix

Gast
2006-11-12, 20:32:17
such dir eins aus
möchte nur mal das af sehen

Nilix
2006-11-13, 08:04:03
Wenn ich nur bei 2D etwas eintrage ist der 2D-Modus nach dem Windowsstart nicht aktiv. Erst durch das einbeziehen der THrtl Taktfrequenzen wurde der 2D-Modus aktiv.

Ich habe mir grade mal ein Bios der 7950GX2 angeschaut. Und siehe da, es waren auch keine Werte unter 2D und Thrtl eingetragen. Lediglich unter Timings sind Werte eingetragen, was ja beim Bios der 8800GTX nicht so ist. Dafür sind im Bios der 8800GTX bei Voltages im VID Mode 3 Werte eingetragen, wo bei der 7950GX2 nur einer steht... Ich glaube langsam, dass entweder das Programm Nibitor 3.1 mit dem Bios der 8800 GTX (noch) nicht richtig umgeht, oder die Umstellung von 2D auf 3D und zurück doch per Software erfolgt bzw. erfolgen kann.

@Gast: Die Ingame Bilder folgen später, wenn ich wieder CS:S gespielt habe oder HL2 Episode1

4711
2006-11-13, 09:32:52
Es geht ja per Software (AtiTool)einwandfrei,nur macht es keinen Sinn wenn dann immer noch 1.3 volt anliegen,dann brauch man auch nicht umschalten..die Lüfter drehen ja hoch ab einer bestimmten Temp,das geht ja einwandfrei und wenn dem so ist kann man auch nTune nutzen damit geht das ocen auch einwandfrei.

SuperSoldierX
2006-11-13, 18:01:55
Auf meiner Leadtek GTS befindet sich die Version 60.80.03.00.23 (vom 20.10.2006)

Bei Interesse lade ich es gerne hoch

Gast
2006-11-13, 18:04:43
was macht dei Bios

Nilix
2006-11-15, 08:33:52
@OC_Burner: Schon Neuigkeiten bezüglich Deiner Versuche?

Gast
2006-11-17, 08:55:09
Kann mal einer testen was die 8800 in idle verbraucht wenn man
den Chip in 2d runtertaktet