PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80 Rev. A3 - niedrigere Leistungsaufnahme?


Gast
2007-06-20, 10:48:53
Meint jedenfalls X-Bit Labs. Wenn das deutlich wäre müssten die neuen A3 GTS Karten aber auch merkbar kühler laufen, entsprechende Beobachtungen wurden hier aber meines Wissens nach noch keine gemacht, oder?



The snapshot shows that this is indeed the new A3 revision of the G80 chip. All other GeForce 8800 that we’ve ever dealt with in our labs carried revision A2 chips. Our sample of the GPU was manufactured on the seventh week of 2007, somewhere in mid-February. Besides a better frequency potential, the new revision features lowered power consumption. This is in fact the single difference in the end user’s eyes. The reduction of the power draw was not too urgent because the G80 looked modest against the ATI Radeon HD 2900 XT with the latter’s power consumption of 160W. Our measurements showed that neither of the three +12V channels of the GeForce 8800 GTX carried a load of higher than 43-45W. The reduced power draw will help the GeForce 8800 Ultra keep within the predecessor’s limits despite the increased clock rates.


http://www.xbitlabs.com/articles/video/display/xfx-gf8800ultra-extreme_3.html

Gast
2007-06-20, 10:51:37
Also so groß kann der Vorteil nicht sein, da die Ultra auch die A3 Revision hat und doch deutlich mehr Strom schluckt als die GTX.

Gast
2007-06-20, 10:52:35
LOL, die ist ja auch höher getaktet und hat eine leicht erhöhte GPU-Spannung :D

Der_Korken
2007-06-20, 11:01:48
Trotzdem ist der Mehrverbrauch nicht zu verachten. Der Takt ist 12% höher als bei der GTX, Stromverbrauch auch in etwa. Mit der Spannung kenn ich mich da allerdings nicht aus.

Arschhulio
2007-06-20, 18:16:59
Also so groß kann der Vorteil nicht sein, da die Ultra auch die A3 Revision hat und doch deutlich mehr Strom schluckt als die GTX.

Das ist genauso als würde ich nen AMD Opteron 170 @ 2x 2Ghz im Verbrauch mit meinem 170er @ 2x 2,8 Ghz und vcore Erhöhung vergleichen ^^

reunion
2007-06-20, 18:38:28
Das ist genauso als würde ich nen AMD Opteron 170 @ 2x 2Ghz im Verbrauch mit meinem 170er @ 2x 2,8 Ghz und vcore Erhöhung vergleichen ^^

Und weiter? Die paar Megaherz die die Ultra höher taktet resultieren in 20-30W mehr Verlustleistung im Vergleich zur GTX. Ich sehe hier keine Unregelmäßigkeiten, die auf einen niedrigeren Verbrauch der A3 Revision hindeuten, auch wenn NV sogar absolut von einem niedrigeren Stromverbrauch im vergleich zur GTX spricht.

Gast
2007-06-20, 21:59:44
Und weiter? Die paar Megaherz die die Ultra höher taktet resultieren in 20-30W mehr Verlustleistung im Vergleich zur GTX.

Es geht um die Corespannung. Das ist das wichtigste Detail.

Die scheint bei der Ultra generell etwas höher zu liegen. Selbst wenn es nur 0,05V mehr sind, bedeutet das bei einem Basisverbrauch von 120 W @ 1,2 V @ GTX eine Steigerung auf 147W bei 650 MHz @ 1,25V.

Gast
2007-06-20, 22:01:34
Wenn jemand die genauen Daten zur Spannung hat: Her damit!

san.salvador
2007-06-20, 22:05:34
Alle GTS haben 1.3V, wieso sollte die GTX 1.2V haben? :|

Gast
2007-06-20, 22:09:03
Weils ne theoretische Berechnung war, denn die genauen Daten kenne ich nicht.

Ihr müsstet mal herausbekommen, welche Corespannung bei der GTX und welche bei der Ultra und der XFX Ultra XXX anliegt. Dann könnten wir weiterreden.

Wenn der Artikel aussagt, das der Verbrauch trotz der erhöhten Spannung geringer liegt, bedeutet das im Umkehrschluss, das ein A3 Chip auf einer GTX mit weniger Spannung und Takt betrieben werden kann, wodurch sie wirklich sparsamer wäre.

Darauf wollte der Gast hinaus.

dargo
2007-06-20, 22:10:18
Alle GTS haben 1.3V, wieso sollte die GTX 1.2V haben? :|
Ich denke mal der Gast wollte nur ein Beispiel aufzeigen und nicht die realen Spannungswerte.

san.salvador
2007-06-20, 22:14:30
Ich denke mal der Gast wollte nur ein Beispiel aufzeigen und nicht die realen Spannungswerte.
Ach so, alles klar.
Die Spannungswerte lassen sich leicht Nibitor und beliebigem BIOS rausfinden.

Gast
2007-06-20, 22:39:43
IIRC haben die GTX/GTS eine Kernspannung von 1.30V, die Ultra hat 1.35V.

san.salvador
2007-06-20, 22:49:00
Hab mir grad das Ultra-BIOS angesehen - 1.35V stimmt.

Super Grobi
2007-06-20, 22:53:55
Im Startposting wurde angesprochen, daß der gerinere Verbrauch ja auch durch die Core-Temp messbar sein.

Das ist falsch, da der Lüfter voll Temp gesteuert ist. Die Temp würde noch nichtmal bei leicht erhöhter Vcore steigen. Einzig der Lüfter wird dann mehr arbeiten.

SG

blutrausch
2007-06-20, 22:56:14
gibts denn ein modbios für meine gts A3 um den chip mit 1.35 zu befeuern?

Gast
2007-06-20, 22:57:44
Auch nicht richtig. Dann dürfte, nach deiner Theorie, die GPU unter Last auch nicht wärmer werden sondern nur der Lüfter schneller drehen... In beidem ist Wahrheit, die GPU würde (etwas) kühler und der Lüfter drehte vermutlich auch (etwas) niedriger.

san.salvador
2007-06-20, 22:57:55
gibts denn ein modbios für meine gts A3 um den chip mit 1.35 zu befeuern?
Mussta guckta, am besten auf http://www.mvktech.net.

san.salvador
2007-06-20, 22:58:57
Im Startposting wurde angesprochen, daß der gerinere Verbrauch ja auch durch die Core-Temp messbar sein.

Das ist falsch, da der Lüfter voll Temp gesteuert ist. Die Temp würde noch nichtmal bei leicht erhöhter Vcore steigen. Einzig der Lüfter wird dann mehr arbeiten.

SG
Aber im Idle ist der Lüfter immer auf 60%, da sollte man schon einen Unterschied sehen können.

€dit: Sorry 4 Doppelpost. :redface:

Gast
2007-06-20, 22:58:59
Jetzt müsste man nur noch den realen (nur) GPU Verbrauch kennen - ein Ding der Unmöglichkeit. ;)

Ich versuch mal aus den Werten schlau zu werden.
(geschätzt) 120W @ GTX GPU, bedeutet, das bei einer Ultra @650 MHz schon 146W anliegen.

Die xbitlabs schreibt jetzt aber bei der stark übertakten XFX Karte von nur noch ~135W für die Gesamte Karte (?), also inklusive Platine+Speicher!

Rechnet man das auf eine GTX herunter, würde man auf sehr gute ~100-105W kommen.

Wird Zeit, das mal jemand ne A3 Zotac misst. ;)

Super Grobi
2007-06-20, 22:59:17
Auch nicht richtig. Dann dürfte, nach deiner Theorie, die GPU unter Last auch nicht wärmer werden sondern nur der Lüfter schneller drehen... In beidem ist Wahrheit, die GPU würde (etwas) kühler und der Lüfter drehte vermutlich auch (etwas) niedriger.

Was ist nicht richtig? Das die GPU nicht wärmer wird und dafür der Lüfter mehr dreht?

SG

Gast
2007-06-20, 23:01:25
gibts denn ein modbios für meine gts A3 um den chip mit 1.35 zu befeuern?

Laut "Mavke" von MVKTECH.net geht das über das BIOS überhaupt nicht, da kannst du flashen was du willst, die Kernspannung ist auf dem Board fest eingestellt. Es braucht einen Hardwaremod um die zu ändern.

Gast
2007-06-20, 23:06:50
Was ist nicht richtig? Das die GPU nicht wärmer wird und dafür der Lüfter mehr dreht?

SG


Im Startposting wurde angesprochen, daß der gerinere Verbrauch ja auch durch die Core-Temp messbar sein.

Das ist falsch, da der Lüfter voll Temp gesteuert ist. Die Temp würde noch nichtmal bei leicht erhöhter Vcore steigen. Einzig der Lüfter wird dann mehr arbeiten.


Deine Annahme war dass man den Verbrauch nicht über die Core-Temp "messen" kann weil der Lüfter "voll Temperaturgesteurt ist. Eine Erhöhung der Kernspannung würde also nicht die Temperatur steigen lassen sondern es würde nur der Lüfter schneller drehen. So hast du das jedenfalls geschrieben. Das ist nicht korrekt. Denn unter Last verbrät die GPU auch mehr Leistung und dürfte also nach deiner Theorie nicht wärmer werden weil der Lüfter nun aufdreht und das kompensiert. Dem ist aber natürlich nicht so sondern es ist eine Mischung aus beidem. Die GPU wird wärmer und der Lüfter dreht als Folge davon schneller. Alles chloar?

san.salvador
2007-06-20, 23:07:59
Laut "Mavke" von MVKTECH.net geht das über das BIOS überhaupt nicht, da kannst du flashen was du willst, die Kernspannung ist auf dem Board fest eingestellt. Es braucht einen Hardwaremod um die zu ändern.
Das iss aber schlecht - wie soll da NV jemals den Schaden beheben? Lug und Trug von vorn herein? :mad:

Gast
2007-06-20, 23:09:06
Gleich zurückschicken, die Karte ;D ;D ;D

san.salvador
2007-06-20, 23:14:01
Na nicht doch, aber man hofft halt doch, das zumindest eine Verbesserung technisch möglich ist, wenigstens für unsere Bastlerhelden da draußen. Aber die Spannung fix auf die HW zu nageln, was soll das bringen?

Super Grobi
2007-06-20, 23:17:18
Deine Annahme war dass man den Verbrauch nicht über die Core-Temp "messen" kann weil der Lüfter "voll Temperaturgesteurt ist. Eine Erhöhung der Kernspannung würde also nicht die Temperatur steigen lassen sondern es würde nur der Lüfter schneller drehen. So hast du das jedenfalls geschrieben. Das ist nicht korrekt. Denn unter Last verbrät die GPU auch mehr Leistung und dürfte also nach deiner Theorie nicht wärmer werden weil der Lüfter nun aufdreht und das kompensiert. Dem ist aber natürlich nicht so sondern es ist eine Mischung aus beidem. Die GPU wird wärmer und der Lüfter dreht als Folge davon schneller. Alles chloar?


Ja, du hast meine Erklärung richtig verstanden und gedeutet. Ich behaupte, das es denoch so ist. Soviel weniger wird (wenns überhaupt stimmt) eine 3er GTS nicht verbrauchen, daß man das an der Temp je sehen würde. Bei starker Vcore veränderung (egal ob nach oben oder unten) ist natürlich eine andere Sache.

SG

Gast
2007-06-20, 23:18:20
Möglicherweise einfach das Einsparen einiger Cent in Form der entsprechenden Bauteile. Oder man will verhindern dass Hinz&Kunz ihre Karten per BIOS-Mod verheizen, der G80 ist sowieso schon eine heisse Kiste, da ist der Spielraum für Experimente vermutlich gering.

Gast
2007-06-20, 23:20:47
Ja, du hast meine Erklärung richtig verstanden und gedeutet. Ich behaupte, das es denoch so ist. Soviel weniger wird (wenns überhaupt stimmt) eine 3er GTS nicht verbrauchen, daß man das an der Temp je sehen würde. Bei starker Vcore veränderung (egal ob nach oben oder unten) ist natürlich eine andere Sache.

SG

Wenn es nur um 5W hin oder hergeht können wir uns den Vergleich verschiedener Karten in verschiedenen Gehäusen sowieso sparen, da bin ich allerdings deiner Meinung.